Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Proxmox4-HA не работает... Обратная связь

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Proxmox4-HA не работает... Обратная связь, Proxmox Виртуальная Среда
     
    badji
    Guest
    #1
    0
    05.10.2015 13:53:00
    Я пытаюсь использовать новый HA, но он так и не работает полностью. Виртуальная машина никогда не мигрирует на другой хост... Спасибо.
     
     
     
    alexskysilk
    Guest
    #2
    0
    17.12.2015 01:43:00
    У меня такая же проблема. Тестовое окружение: 4 узла, pveversion -v:  
    Код:  
    # pveversion -v  
    proxmox-ve: 4.1-26 (запущено на ядре: 4.2.6-1-pve)  
    pve-manager: 4.1-1 (текущая версия: 4.1-1/2f9650d4)  
    pve-kernel-4.2.6-1-pve: 4.2.6-26  
    pve-kernel-4.2.2-1-pve: 4.2.2-16  
    lvm2: 2.02.116-pve2  
    corosync-pve: 2.3.5-2  
    libqb0: 0.17.2-1  
    pve-cluster: 4.0-29  
    qemu-server: 4.0-41  
    pve-firmware: 1.1-7  
    libpve-common-perl: 4.0-41  
    libpve-access-control: 4.0-10  
    libpve-storage-perl: 4.0-38  
    pve-libspice-server1: 0.12.5-2  
    vncterm: 1.2-1  
    pve-qemu-kvm: 2.4-17  
    pve-container: 1.0-33  
    pve-firewall: 2.0-14  
    pve-ha-manager: 1.0-14  
    ksm-control-daemon: 1.2-1  
    glusterfs-client: 3.5.2-2+deb8u1  
    lxc-pve: 1.1.5-5  
    lxcfs: 0.13-pve1  
    cgmanager: 0.39-pve1  
    criu: 1.6.0-1  
    zfsutils: 0.6.5-pve6~jessie  

    # ha-manager status  
    кворум OK  
    мастер pve21 (активен, ср 16 дек 16:19:33 2015)  
    lrm pve20 (активен, ср 16 дек 16:19:33 2015)  
    lrm pve21 (активен, ср 16 дек 16:19:33 2015)  
    lrm pve22 (активен, ср 16 дек 16:19:28 2015)  
    lrm pve23 (активен, ср 16 дек 16:19:33 2015)  
    сервис vm:101 (pve21, запущен)  
    сервис vm:102 (pve22, запущен)  
    GUI показывает виртуалку, управляемую HA:  
     
    грязное завершение работы ноды с HA-управляемой виртуалкой (pve22). Нода становится красной, но виртуалка остаётся в статусе "заморожена".  
    Код:  
    # ha-manager status  
    кворум OK  
    мастер pve21 (активен, ср 16 дек 16:37:33 2015)  
    lrm pve20 (активен, ср 16 дек 16:37:35 2015)  
    lrm pve21 (активен, ср 16 дек 16:37:33 2015)  
    lrm pve22 (старый таймстамп — мёртва?, ср 16 дек 16:26:32 2015)  
    lrm pve23 (активен, ср 16 дек 16:37:35 2015)  
    сервис vm:101 (pve21, запущен)  
    сервис vm:102 (pve22, заморожен)  

    Так и остаётся, пока ноду не включат обратно. Думаю, проблема связана с тем, что fencing работает неправильно, но я не знаю, как тестировать fencing в версии 4.x. Есть какие-то советы?
     
     
     
    dietmar
    Guest
    #3
    0
    17.12.2015 06:50:00
    В данный момент LRM переводит виртуальные машины в замороженное состояние при корректном завершении работы. Теперь мы решили изменить такое поведение: при завершении работы сервисы сначала останавливаются, а потом происходит миграция на другие узлы. Это будет исправлено в следующем обновлении пакета.
     
     
     
    alexskysilk
    Guest
    #4
    0
    17.12.2015 08:05:00
    Это кажется разумным и, скорее всего, так и должно работать. Хочу сразу уточнить, что я не выполнил корректное выключение. Я просто отключил питание через BMC, что должно было вызвать переключение на резервный режим.
     
     
     
    t.lamprecht
    Guest
    #5
    0
    18.12.2015 12:31:00
    Разве это не отправляет действие acpi shutdown, которое приводит к корректному завершению работы? Но с pve-ha-manager 1.0-15 (пока доступным только в репозитории pvetest) должна также произойти релокация (примерно через 2 минуты).
     
     
     
    alexskysilk
    Guest
    #6
    0
    21.12.2015 18:51:00
    Привет, Томас. Нет, отключение питания через BMC — это то же самое, что выключить питание на самом сервере. Есть вариант сделать отключение по ACPI, но я его не использовал. Могу сказать, что выдергивание работающего блока из шасси действительно вызвало переключение на резервный источник (почему это так медленно?!), так что в твоем предположении что-то есть, но я не пойму как именно. Я включу тестовый репозиторий и расскажу потом.
     
     
     
    alexskysilk
    Guest
    #7
    0
    21.12.2015 19:58:00
    Это странно. Я обновил 4 узла с тестового репозитория и повторил тот же тест (выключение узла через BMC). Код: pveversion -v  
    proxmox-ve: 4.1-28 (запущенное ядро: 4.2.6-1-pve)  
    pve-manager: 4.1-2 (текущая версия: 4.1-2/78c5f4a2)  
    pve-kernel-4.2.6-1-pve: 4.2.6-28  
    pve-kernel-4.2.2-1-pve: 4.2.2-16  
    lvm2: 2.02.116-pve2  
    corosync-pve: 2.3.5-2  
    libqb0: 0.17.2-1  
    pve-cluster: 4.0-29  
    qemu-server: 4.0-42  
    pve-firmware: 1.1-7  
    libpve-common-perl: 4.0-42  
    libpve-access-control: 4.0-10  
    libpve-storage-perl: 4.0-38  
    pve-libspice-server1: 0.12.5-2  
    vncterm: 1.2-1  
    pve-qemu-kvm: 2.4-18  
    pve-container: 1.0-35  
    pve-firewall: 2.0-14  
    pve-ha-manager: 1.0-16  
    ksm-control-daemon: 1.2-1  
    glusterfs-client: 3.5.2-2+deb8u1  
    lxc-pve: 1.1.5-5  
    lxcfs: 0.13-pve2  
    cgmanager: 0.39-pve1  
    criu: 1.6.0-1  
    zfsutils: 0.6.5-pve6~jessie  

    Узел отключается, и примерно через 3 минуты ha-manager показывает:  
    Код: #ha-manager status  
    quorum OK  
    master pve20 (active, Mon Dec 21 10:51:14 2015)  
    lrm pve20 (active, Mon Dec 21 10:51:23 2015)  
    lrm pve21 (active, Mon Dec 21 10:51:20 2015)  
    lrm pve22 (старый таймстамп — мертв?, Mon Dec 21 10:45:12 2015)  
    lrm pve23 (active, Mon Dec 21 10:51:20 2015)  
    service vm:101 (pve20, started)  
    service vm:102 (pve20, started)  

    Выглядит как нормальная миграция, да? Но виртуальная машина остаётся мёртвой и не отвечает...  

    Даже после того, как узел снова подняли, ВМ остаётся выключенной, хотя и числится в списке как сервис под управлением HA. Попытки запустить её вручную и переместить на другой узел не удаются. Она исправна, но застряла в таком состоянии.
     
     
     
    t.lamprecht
    Guest
    #8
    0
    22.12.2015 09:04:00
    Попробуйте:  
    Код: ha-manager disable vm:102  
    ha-manager enable vm:102  

    Также не могли бы вы приложить логи с CRM-мастера в то время (судя по вашему сообщению, это pve20). Можно немного отфильтровать, например так:  
    Код: journalctl -u pve-ha-crm.service -u pve-ha-lrm.service -u pve-cluster.service > journal-`date +%Y-%m-%d-%H%M%S`.log  

    Я не могу воспроизвести такую проблему, поэтому важно получить эту информацию, чтобы мы могли найти и исправить возможный баг или помочь с настройкой. Спасибо!
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры