Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Автоматическая миграция виртуальной машины при сбое или отключении сети на узле

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Автоматическая миграция виртуальной машины при сбое или отключении сети на узле, Proxmox Виртуальная Среда
     
    megap
    Guest
    #1
    0
    07.10.2014 13:44:00
    Доброе утро всем. Я только что настроил двухузловой кластер с HA, но у меня возникла проблема. У меня есть ВМ (100), запущенная на узле 1 (gestion1). Если я вручную перезагружаю или выключаю узел 1, эта ВМ без проблем мигрируется на узел 2, и наоборот — с узла 2 на узел 1. ВМ настроена на LVM-хранилище с настроенным DRBD. RGManager запущен на обоих узлах.

    Проблема в том, что если у меня запущена ВМ на узле 1 (или на узле 2), и я отключаю сетевой кабель или питание на этом узле, ВМ не мигрируется на другой узел кластера. ВМ выключается вместе с узлом.

    Мой cluster.conf:

    <?xml version="1.0"?>
    <cluster config_version="7" name="gestioncluster">
     <cman expected_votes="1" keyfile="/var/lib/pve-cluster/corosync.authkey" two_node="1"/>
     <fencedevices>
       <fencedevice agent="fence_ilo" ipaddr="192.168.130.34" login="ADMIN" name="fenceA" passwd="ADMI$"/>
       <fencedevice agent="fence_ilo" ipaddr="192.168.130.44" login="ADMIN" name="fenceB" passwd="ADMI$"/>
     </fencedevices>
     <clusternodes>
       <clusternode name="gestion1" nodeid="1" votes="1">
         <fence>
           <method name="1">
             <device action="reboot" name="fenceA"/>
           </method>
         </fence>
       </clusternode>
       <clusternode name="gestion2" nodeid="2" votes="1">
         <fence>
           <method name="1">
             <device action="reboot" name="fenceB"/>
           </method>
         </fence>
       </clusternode>
     </clusternodes>
     <rm>
       <pvevm autostart="1" vmid="100" recovery="relocate"/>
     </rm>
    </cluster>

    Версия Proxmox на двух узлах:

    pveversion -v  
    proxmox-ve-2.6.32: 3.2-136 (ядро: 2.6.32-32-pve)  
    pve-manager: 3.3-1 (запущенная версия: 3.3-1/a06c9f73)  
    pve-kernel-2.6.32-32-pve: 2.6.32-136  
    lvm2: 2.02.98-pve4  
    clvm: 2.02.98-pve4  
    corosync-pve: 1.4.7-1  
    openais-pve: 1.1.4-3  
    libqb0: 0.11.1-2  
    redhat-cluster-pve: 3.2.0-2  
    resource-agents-pve: 3.9.2-4  
    fence-agents-pve: 4.0.10-1  
    pve-cluster: 3.0-15  
    qemu-server: 3.1-34  
    pve-firmware: 1.1-3  
    libpve-common-perl: 3.0-19  
    libpve-access-control: 3.0-15  
    libpve-storage-perl: 3.0-23  
    pve-libspice-server1: 0.12.4-3  
    vncterm: 1.1-8  
    vzctl: 4.0-1pve6  
    vzprocps: 2.0.11-2  
    vzquota: 3.1-2  
    pve-qemu-kvm: 2.1-5  
    ksm-control-daemon: 1.1-1  
    glusterfs-client: 3.5.2-1

    Надеюсь, вы сможете помочь с этой проблемой. Если нужно больше информации — могу предоставить.
     
     
     
    fsoy
    Guest
    #2
    0
    05.12.2014 17:23:00
    Привет, извиняюсь, что вспоминаю этот пост, но у меня сейчас такая проблема, и я не совсем понимаю твой ответ, Дитмар. По моему мнению, принцип HA — это предложить автоматическое переключение на резервный узел, если какая-то машина в кластере перестаёт работать. Так что отключение сети, на мой взгляд, то же самое, что и выдергивание кабеля питания, то есть это всё равно что крах машины: она больше не доступна в сети. Это касается и локальной сети, и фэнсинга, кстати. Так в чём тогда разница между выдёргиванием сетевого кабеля и крахом машины, если виртуальная машина не мигрирует автоматически?
     
     
     
    dietmar
    Guest
    #3
    0
    05.12.2014 17:31:00
    Ваш забор работает только при наличии сети.
     
     
     
    fsoy
    Guest
    #4
    0
    05.12.2014 17:55:00
    Извиняюсь. Спасибо, что быстро ответил, Дитмар, но можешь пояснить? Я не понимаю, что ты имеешь в виду под «your fence device on works»?
     
     
     
    dietmar
    Guest
    #5
    0
    05.12.2014 19:33:00
    fence_ilo использует протокол IP для изоляции другого узла. Если сеть не работает, это не сработает.
     
     
     
    fsoy
    Guest
    #6
    0
    05.12.2014 20:42:00
    Ах, я не указывал, что это был fence_ipmi, но это одно и то же. Я действительно не понимаю, что делает fence с немиграцией, когда узел падает. Конечно, fence нуждается в сети, его задача — определить, что узел недоступен через сеть, верно? Попытаться его перезагрузить или участвовать в решении о том, что он действительно окончательно вышел из строя. И позволить мигрировать ВМ на работающий хост — разве не в этом суть HA? Но когда этот узел упал, вы хотите сказать, что... fence мешает миграции??? Либо я не понимаю, что означает «HA», либо мы говорим о разном... Я запутался...
     
     
     
    dietmar
    Guest
    #7
    0
    06.12.2014 08:11:00
    Кластерный стек использует устройство ограждения (fence device), чтобы определить, действительно ли узел отключен. Если он не может подключиться к устройству ограждения, кластер не знает, что узел действительно вышел из строя. В итоге решений принято не будет, и виртуальные машины не мигрируют.
     
     
     
    fsoy
    Guest
    #8
    0
    07.12.2014 17:22:00
    Ну вот. Мне кажется абсолютно нелогичным, что система, созданная для принятия решения о «высокой доступности» при падении хоста, ничего не делает, потому что... хост упал. Ладно, возможно, у меня просто другое понимание HA, не суть, но теперь я пытаюсь представить, что можно сделать в такой ситуации: хост умер, например, сгорела материнская плата или все блоки питания, или что-то подобное — хост просто выведен из строя. Машину не починить в разумные сроки, как же тогда виртуальные машины могут мигрировать на другой хост, если мы даже вручную не можем это сделать через GUI или консоль? Есть ли где-то какой-то способ или процедура?
     
     
     
    tom
    Guest
    #9
    0
    13.12.2014 17:04:00
    Если хост умирает (скажем, сгорает материнская плата, или все блоки питания выходят из строя и так далее), оставшиеся узлы заблокируют этот узел, чтобы убедиться, что он действительно мертв. Это абсолютно необходимо, потому что иначе есть риск, что виртуальная машина или контейнер запустятся одновременно на двух узлах, и данные сразу же будут испорчены. Но если не настроить отдельное устройство для фолдовки (например, power fencing), оставшиеся узлы не смогут заблокировать проблемный узел, а значит не смогут запустить виртуальную машину или контейнер. То, что вы предлагаете — просто запускать без фолдовки — невозможно по конструкции. Надеюсь, теперь понятнее.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры