Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Миграция с нулевым простоем.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Миграция с нулевым простоем., Proxmox Виртуальная Среда
     
    johnnyb911
    Guest
    #1
    0
    25.05.2017 08:05:00
    Привет! Хотел спросить про live migration без простоя. Возможно ли это с proxmox/kvm при использовании общего хранилища (glusterfs или ceph)? Это реально live migration с нулевым простоем? Спасибо за отзыв или опыт.
    С уважением
     
     
     
    eric_f
    Guest
    #2
    0
    25.05.2017 08:43:00
    Да. Я использую Ceph для моего общего хранилища и довольно регулярно делаю живую миграцию без простоя. Это работает только с KVM, использование контейнеров требует перезапуска во время миграции.
     
     
     
    LnxBil
    Guest
    #3
    0
    25.05.2017 10:00:00
    К слову, на данный момент живая миграция работает только "внутри" кластера, поэтому все узлы должны быть частью одного кластера.
     
     
     
    guletz
    Guest
    #4
    0
    25.05.2017 19:06:00
    Ну, полного отсутствия простоев не бывает. Простои около миллисекунд (секунд). Меньше секунды — в большинстве случаев нормально. Но всё зависит от того, сколько у тебя клиентов и какое приложение они используют. Ещё одна идея — использовать HAProxy для этой ВМ, чтобы в случае длительного простоя HAProxy мог перенаправлять клиентов на другую ВМ. Ещё могу сказать, что OSPF может помочь, если ты можешь его использовать, в сочетании с коммутаторами, поддерживающими OSPF...
     
     
     
    fireon
    Guest
    #5
    0
    26.05.2017 00:41:00
    Да, это действительно отлично работает здесь с Ceph.
     
     
     
    fortechitsolutions
    Guest
    #6
    0
    26.05.2017 06:24:00
    Заметка к обсуждению, на всякий случай. — Бесперебойная миграция в Proxmox, на самом деле, не связана с меньшим или большим временем простоя, чем в Xen, VMware и т.д. Всегда есть какой-то «разрыв» на уровне миллисекунд при переходе от состояния <старый выключен> к <новый включен>. Обычно задержка настолько незначительна, что вы можете ее заметить или не заметить, если постоянно пингуете целевой хост, который переносится с помощью live migration. Как всегда, live migration зависит от простого факта: активность внутри мигрируемой ВМ генерирует дельты оперативной памяти на исходном хосте. И, возможно, дельты на прикрепленных дисках тоже (зависит от использования дисков в стиле shared-san; или нет). Эти изменения необходимо перенести с Исходного хоста>>Целевой хост перед переходом миграции. Если скорость изменения внутри мигрируемой ВМ превышает пропускную способность между двумя физическими серверами, которые являются источником и целевым хостом, то ваша live migration растянется. Исходный сервер останется онлайн, дельты будут копироваться постепенно/итеративно, пока целевой хост не «догонит» исходный. Так что: Если ваш исходный сервер «слишком занят» по сравнению с «доступной пропускной способностью для передачи дельт», то live migration на самом деле никогда не произойдет. Время перехода просто постоянно откладывается в будущее. Я видел это в различных средах (OpenStack KVM, Proxmox и т.д.) — это вопрос не попыток сделать невозможное. Ведь это невозможно. Обратите внимание, что Proxmox, как и большинство современных реализаций KVM, имеет эту функцию — позволяет проводить «live migration» с использованием не-shared storage. Но вам нужно терпеливо ждать, пока блоки дисков не будут скопированы сначала с исходного хоста на целевой. Некоторым людям не нравится ждать, поэтому они используют shared-storage только при live migrations. Но это возможно, просто требуется терпение, в зависимости от скорости соединения между узлами Proxmox и размера образов ВМ, передаваемых по каналу. Tim
     
     
     
    TomiWebPro
    Guest
    #7
    0
    05.05.2025 03:08:00
    Привет! Интересно, для живой миграции нужно минимум три ноды или достаточно двух? Спасибо большое!
     
     
     
    SteveITS
    Guest
    #8
    0
    05.05.2025 05:33:00
    Ну, для кластера желательно иметь как минимум два узла плюс Qdevice, иначе когда один узел выключен, у кластера нет кворума, и другой узел перезагружается, чтобы это "исправить".
     
     
     
    UdoB
    Guest
    #9
    0
    05.05.2025 09:21:00
    Придираться можно только в том случае, если включена "Высокая доступность". Другой узел в кластере без HA этого делать не будет.
     
     
     
    fortechitsolutions
    Guest
    #10
    0
    05.05.2025 14:28:00
    Просто хотел добавить, я согласен, что live-migration кластера из 2 узлов возможна, но наличие 3 узлов или третьего 'witness / QDevice' было бы неплохо, если возможно. Но это не обязательно. Tim
     
     
     
    UdoB
    Guest
    #11
    0
    05.05.2025 20:27:00
    Ну... технически, вы правы. Но: 1) это ОЧЕНЬ важно для High-Availability, и 2) вы не сможете администрировать единственный уцелевший нод без дополнительных ухищрений. Без Quorum он откажет в выполнении любой команды. Да, обходной путь "pvecm expected 1" известен и официально задокументирован, но это не обычная команда и она должна использоваться, по сути, только для восстановления после катастрофы, а не для "нормальной работы". Вот так, моя 2€¢...
     
     
     
    fortechitsolutions
    Guest
    #12
    0
    05.05.2025 21:52:00
    Да, и обрати внимание, что HA — это другое — это надмножество — по сравнению с "парой узлов в кластере" или даже "тремя узлами в кластере". Изначальный вопрос был про live migration. В общем, согласен, если делаешь двухузловой кластер, действительно хочется иметь трехузловую систему или трехузловую систему плюс сервис, нарушающий кворум, на отдельной Linux-машине поблизости. Или просто очень маленький узел Proxmox — есть много способов заставить это работать. И, идеально, "лучшие практики" — это не просто то, о чем люди мечтают. Tim.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры