Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Migrate не проверяет память целевого хоста.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Migrate не проверяет память целевого хоста., Proxmox Виртуальная Среда
     
    avn
    Guest
    #1
    0
    02.05.2021 12:32:00
    Когда целевой хост не имеет достаточного объема свободной памяти, процесс миграции не останавливается. Он пытается выделить память на целевом хосте, что приводит к тому, что OOM убивает самую крупную виртуальную машину, потом другую, и так далее. В более ранних версиях Proxmox VE такого не было. Миграция выдавала ошибку "не удается выделить память" или что-то в этом роде. Теперь мне приходится сидеть и следить, когда целевой хост достигнет ~90% памяти, и останавливать миграцию вручную. Не знаю, когда это изменилось, возможно, в пятой версии, не уверен. Просто интересно, почему так, потому что так точно не должно работать.
     
     
     
    ness1602
    Guest
    #2
    0
    23.12.2021 09:05:00
    Тогда не выполняйте миграции в рабочее время, Proxmox оставляет это на ваше усмотрение. Не уменьшайте количество выделенных ресурсов на своих серверах и так далее.
     
     
     
    itNGO
    Guest
    #3
    0
    22.12.2021 16:27:00
    Аналогично.... у нас кластеры из трех узлов.... Все узлы используют около 55-60% памяти. Иногда, когда мы запускаем массовую миграцию, все работает, так как другие процессы и своп компенсируют недостающую память, иногда просто убивает случайные ВМ на целевом узле. Приходя из HyperV, я ожидал бы какую-то проверку на возможность миграции, прежде чем просто заполнять ОЗУ целевых хостов.
     
     
     
    ness1602
    Guest
    #4
    0
    22.12.2021 21:54:00
    Это нормально, так как миграция может длиться несколько часов и вы можете включать-выключать машины в процессе.
     
     
     
    itNGO
    Guest
    #5
    0
    23.12.2021 08:21:00
    Это нормально, если виртуальные машины отключаются на целевом хосте, когда другие виртуальные машины мигрируют к нему? НЕТ! Это не так... Только представьте, что ваш важный сервер базы данных выключается во время рабочего дня...
     
     
     
    itNGO
    Guest
    #6
    0
    23.12.2021 09:36:00
    Извини, но в реальной жизни это не так работает... Ты когда-нибудь задумывался о сбое узла, когда 20 виртуальных машин (VM) перемещаются с высокой доступностью на другие узлы и запускаются там? Возьми трехузловой кластер, который использует около 66% памяти... потеря одного узла в "теории" означает, что все виртуальные машины могут запуститься на других узлах... но некоторые не смогут из-за нехватки памяти (OOM)... нет, поведение абсолютно не оптимальное в PVE... И когда это происходит, ты не только теряешь некоторые виртуальные машины с упавшего узла, в худшем случае виртуальные машины, работающие на других узлах, тоже могут упасть, и все может стать еще хуже... Или ты хочешь сказать, что в трехузловом кластере нужны резервные ресурсы на каждом узле в объеме "КАЖДОГО" другого узла... так в чем тогда смысл кластера с высокой доступностью? Понял?
     
     
     
    spirit
    Guest
    #7
    0
    23.12.2021 09:47:00
    Возможно, что-то изменилось на стороне qemu. Я на 100% уверен, что qemu не мог запуститься раньше, если не хватало памяти для обработки максимального размера памяти виртуальной машины ("можно не выделить памяти"), до переноса памяти с помощью задания живой миграции. Что касается HA, я сейчас работаю над добавлением менеджера HA с учетом ресурсов. (смотрю на доступные cpu/ram/нагрузку/хранение и т.д.) перед перезапуском виртуальных машин. (и идея состоит в том, чтобы добавить балансировку нагрузки, мигрируя виртуальные машины с перегруженных хостов, добавить поддержку "мигрировать все" и т.д.). Я отправил бета-патч на список рассылки pve-deve. В настоящее время HA только пытается балансировать нагрузку по количеству виртуальных машин на хост.
     
     
     
    itNGO
    Guest
    #8
    0
    23.12.2021 10:09:00
    Я прочитал сообщения в рассылке по этому поводу, и для меня это звучит как удивительный подход к описанным проблемам. Это ближе к тому, как Failover Cluster Manager в HyperV это делает. Не то чтобы у них всё идеально, но идея поддерживать стабильность кластера даже при сбое узла хороша. Именно этого мы и ожидаем… может быть, 7.2? ;-)
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры