Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    OpenVZ на DRBD: как организовать переключение при сбое?

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    OpenVZ на DRBD: как организовать переключение при сбое?, Proxmox Виртуальная Среда
     
    Stephan J.
    Guest
    #1
    0
    27.04.2012 15:32:00
    Привет! Во-первых, спасибо за этот потрясающий софт. Работать с ним — одно удовольствие, хоть голова и кругом от всей этой новой информации. У нас есть ha-кластер из трёх узлов. Два из них запускают контейнеры и должны при необходимости автоматически подхватывать контейнеры друг друга при сбое. Я настроил drbd-разделы на этих двух, которые синхронизируются взаимно. Пока всё нормально.

    Но вот что меня ломает и на что не могу найти ответ: как автоматически переключать VZ-контейнер, который хранится на drbd-разделе? Это вообще возможно? Я искал часами, но ответ так и не нашёл.

    Что я пробовал/пытаюсь сделать:

    - drbd primary-primary: не работает, потому что кластерные файловые системы не совместимы с OpenVZ.
    - Пробовал gluster 3.2, но контейнер не стартует и всё очень медленно.
    - drbd primary-secondary: изменил cluster.conf — failover для drbd срабатывает, но миграция контейнера падает.

    Как добавить ресурс в cluster.conf, чтобы после успешного failover drbd автоматически мигрировалась конфигурация vz и запускался контейнер?

    Буду очень благодарен за помощь, хоть ссылку на мануал. Я с удовольствием всё прочитаю, но сейчас у меня информационная перегрузка и голова варится.

    Спасибо большое и всего доброго!  
    — Stephan
     
     
     
    Stephan J.
    Guest
    #2
    0
    17.05.2012 12:36:00
    Я не менял никаких скриптов, но вот наш cluster.conf с примером сервиса (три узла, два из которых используют совместно drbd/контейнеры и обеспечивают отказоустойчивость друг для друга). Каждый VZ-контейнер получает свою DRBD-раздел (pve-lvm -> DRBD-раздел -> ext4 -> VZ) и перезапускается на другом узле, если что-то идёт не так. Я также могу переместить сервис с помощью clusvcadm -r service:ha_host -m s02. DRBD настроен в активный-пассивный режим. Было бы, конечно, круто иметь живую миграцию, но я пока не понял, как это сделать. Буду рад любым отзывам и предложениям.

    Код:

    <?xml version="1.0"?>
    <cluster config_version="67" name="pve-cluster">
     <cman keyfile="/var/lib/pve-cluster/corosync.authkey"/>
     <fencedevices>
       <fencedevice agent="fence_ipmilan" ipaddr="xx.xx.xx.xx" lanplus="1" login="ipmi" name="ipmi1" passwd="xxx" power_wait="5"/>
       <fencedevice agent="fence_ipmilan" ipaddr="xx.xx.xx.xx" lanplus="1" login="ipmi" name="ipmi2" passwd="xxx" power_wait="5"/>
       <fencedevice agent="fence_ipmilan" ipaddr="xx.xx.xx.xx" lanplus="1" login="ipmi" name="ipmi3" passwd="xxx" power_wait="5"/>
     </fencedevices>
     <clusternodes>
       <clusternode name="s01" nodeid="1" votes="1">
         <fence>
           <method name="1">
             <device name="ipmi1"/>
           </method>
         </fence>
       </clusternode>
       <clusternode name="s02" nodeid="2" votes="1">
         <fence>
           <method name="1">
             <device name="ipmi2"/>
           </method>
         </fence>
       </clusternode>
       <clusternode name="s03" nodeid="3" votes="1">
         <fence>
           <method name="1">
             <device name="ipmi3"/>
           </method>
         </fence>
       </clusternode>
     </clusternodes>
     <rm>
       <failoverdomains>
         <failoverdomain name="fo_s01" nofailback="0" ordered="1" restricted="1">
           <failoverdomainnode name="s01" priority="1"/>
           <failoverdomainnode name="s02" priority="2"/>
         </failoverdomain>
         <failoverdomain name="fo_s02" nofailback="0" ordered="1" restricted="1">
           <failoverdomainnode name="s02" priority="1"/>
           <failoverdomainnode name="s01" priority="2"/>
         </failoverdomain>
       </failoverdomains>
       <resources/>
       <service autostart="1" domain="fo_s01" exclusive="0" name="ha_host" recovery="relocate">
         <drbd name="res_host" resource="host">
           <fs device="/dev/drbd/by-res/host" fstype="ext4" mountpoint="/mnt/vz-host" name="fs_host" options="noatime">
             <pvevm autostart="0" vmid="101"/>
           </fs>
         </drbd>
       </service>
     </rm>
    </cluster>

    С уважением,  
    Stephan
     
     
     
    dietmar
    Guest
    #3
    0
    17.05.2012 15:49:00
    rgmanager не поддерживает живую миграцию, если ВМ настроена внутри сервиса.
     
     
     
    Stephan J.
    Guest
    #4
    0
    17.05.2012 15:55:00
    Спасибо за ответ. Значит, с моей текущей настройкой это невозможно? Если я настраиваю pvevm вне сервиса, миграция не проходит (даже когда добавляю 'depend="service:ha_host"' в <pvevm..>).
     
     
     
    geejay
    Guest
    #5
    0
    12.03.2013 18:28:00
    Стефан, не мог бы ты уточнить, обязательно ли помещать каждый контейнер в отдельный раздел? Это пустая трата места на диске. Спасибо, Geejay.
     
     
     
    Stephan J.
    Guest
    #6
    0
    20.03.2013 08:51:00
    Привет, Geejay. Да, к сожалению, по моему мнению, это необходимо, потому что каждая DRBD-раздел — это свой собственный ресурс в кластере. Если контейнер нужно запустить на другом узле, то и DRBD-ресурс тоже должен быть перемещён, и при этом только раздел для конкретного контейнера, чтобы не затрагивать остальные. Я бы очень хотел иметь все контейнеры на одном большом разделе, но, насколько я знаю, это вряд ли возможно. Всегда открыт для предложений. С уважением, Stephan
     
     
     
    geejay
    Guest
    #7
    0
    20.03.2013 10:07:00
    Конечно, если у вас есть требование перемещать отдельные контейнеры, то придется это делать. Сейчас мы используем настройку с DRBD и heartbeat, без Proxmox, и все контейнеры находятся в одном разделе. Обычно перемещать контейнеры не нужно, а если это необходимо — можно просто скопировать их с помощью rsync. Geejay
     
     
     
    geejay
    Guest
    #8
    0
    27.03.2013 09:50:00
    Стефан, я не понимаю. Можешь, пожалуйста, объяснить, как твой вторичный узел становится первичным в случае сбоя? Насколько я проверял, менеджер кластера Redhat не может повысить вторичный узел до первичного. Поясни, как это технически работает в менеджере кластера Redhat. Спасибо, Geejay
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры