Настройка
Новости
Оплата
Доставка
Информация
Контакты
Загрузки
Форум
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Каталог
    • 1U
      1U
    • 2U
      2U
    • 3U
      3U
    • 4U
      4U
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Каталог
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, ул. Бакунинская, 84с21, Бизнес-центр ИТКОЛ
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Когда узел кластера теряется, возможно ли перезапустить его ВМ на другом узле?

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    Ответить
    RSS
    Когда узел кластера теряется, возможно ли перезапустить его ВМ на другом узле?, Proxmox Виртуальная Среда
     
    guerby
    Guest
    #1
    0
    18.02.2021 16:25:00
    Привет! Я тестирую несколько крайних случаев с Proxmox VE 6.3: у меня есть кластер p1 с тремя нодами node1, node2 и node3, все используют только общий NFS (с машины вне кластера) для хранения дисков ВМ. ВМ 100 работает на node1. На node2 и node3 ВМ не работают. Давайте предположим, что node1 вышла из строя (выключилась из-за отказа блока питания) и её не будут ремонтировать сразу (нет подменного блока под рукой), поэтому я хочу вручную запустить ВМ 100 на node2, но не хочу удалять node1 из кластера (потому что её отремонтируют в ближайшие дни). Заметил на node2 и node3 есть копия информации о ВМ 100 в /etc/pve/node1/qemu-server/100.conf, а диск находится на общем NFS, так что ничего не потеряется, даже если node1 офлайн. Не нашёл очевидного способа сделать это через Proxmox VE WebUI, я что-то упустил? Спасибо!
     
       Цитировать   Имя
     
    DC-CA1
    Guest
    #2
    0
    26.01.2023 18:37:00
    Это хорошо, что я это знаю. У нас HA включен на каждой ВМ, а Failback выключен, потому что нам нужно вручную монтировать GFS2 Shared на каждом хосте согласно нашей политике, чтобы точно определить, почему конкретный узел вышел из строя, прежде чем снова ввести его в эксплуатацию. Три года назад мы столкнулись с похожей проблемой, и я думал, что моя команда должна была вручную переносить ВМ на другой хост.
     
    Цитировать   Имя
     
    LnxBil
    Guest
    #3
    0
    26.01.2023 08:15:00
    Почему? HA уже делает всё, что от него требуется... и делает это уже ГОДЫ. Работа с CLI нужна только в том случае, если HA настроен неправильно. Если HA настроен правильно, то о ней и думать не стоит... опять же... так было всегда, уже ГОДЫ.
     
    Цитировать   Имя
     
    spirit
    Guest
    #4
    0
    03.12.2023 00:59:00
    Просто нажми на кнопку? ^_^ datacenter->ha->groups: создай или измени существующую группу, затем отредактируй сервисы. datacenter->ha, и свяжи ВМ с этой группой. Тебе действительно стоит прочитать документацию, прежде чем возиться с HA: https://pve.proxmox.com/pve-docs/chapter-ha-manager.html
     
    Цитировать   Имя
     
    DC-CA1
    Guest
    #5
    0
    26.01.2023 06:12:00
    Планируете ли вы добавить возможность управления этим через графический интерфейс? Неисправный узел может возникнуть в любой момент, и было бы эффективнее обрабатывать это автоматически / или иметь возможность переключать конфигурацию через графический интерфейс в случае сбоя узла, вместо того чтобы возиться с CLI и перемещать конфигурационный файл.
     
    Цитировать   Имя
     
    LnxBil
    Guest
    #6
    0
    27.01.2023 08:56:00
    Я пробовал GFS2 несколько лет назад, и он оказался недостаточно стабильным в наших тестах. Мы уже 8 лет используем выделяемый общий storage через LVM на 5 узлах, и у нас не было никаких (storage) проблем. У нас, конечно, случались отказы отдельных узлов, но всё отлично переносилось на другие узлы, и все сервисы снова работали уже через несколько минут.
     
    Цитировать   Имя
     
    DC-CA1
    Guest
    #7
    0
    27.01.2023 16:19:00
    Привет! Ты имеешь в виду какой-то общий доступ к хранилищу? Через сеть или это был SAS-шаринг?
     
    Цитировать   Имя
     
    LnxBil
    Guest
    #8
    0
    28.01.2023 09:21:00
    Я бы предпочёл общий сторадж со snapshot-возможностями в PVE, но это всё ещё мечта. В зависимости от имеющегося железа, я почти исключительно использовал LVM (так что блочный сторадж) в кластерной среде:
    - сначала NBD давным-давно,
    - потом пару лет DRBD,
    - также пробовал SAS shared storage, но это/было ограничено двумя машинами, так что "настоящего" кластера не получилось.
    - и наконец SAN (в основном FC, но также iSCSI) (я также немного поигрался с ZFS-over-iSCSI, но это сейчас недоступно как опция HA из-за моих собственных ограничений железа).
    К тому же, я ещё пробовал GFS и OCFS2 в качестве файловых систем, но у меня регулярно были сбои (но это было в 2015).
     
    Цитировать   Имя
     
    jensie
    Guest
    #9
    0
    01.12.2023 16:17:00
    Я настроил HA для 1 VM и 1 LXC для тестирования (а также для моих основных серверов). PVE1 — мой основной сервер, на котором работали эти VM/LXC. Я выключил PVE1, чтобы посмотреть, что произойдет. PVE2 запустил мой LXC, а PVE3 — мою VM. Все работает как ожидалось. Теперь я перезагрузил PVE1 и ожидал, что мой LXC и VM вернутся на этот сервер, но этого не произошло. Я получил следующие записи в логах:

    Code: Dec 01 17:01:53 pve1 pmxcfs[1802]: [quorum] crit: quorum_initialize failed: 2
    Dec 01 17:01:53 pve1 pmxcfs[1802]: [quorum] crit: can't initialize service
    Dec 01 17:01:53 pve1 pmxcfs[1802]: [confdb] crit: cmap_initialize failed: 2
    Dec 01 17:01:53 pve1 pmxcfs[1802]: [confdb] crit: can't initialize service
    Dec 01 17:01:53 pve1 pmxcfs[1802]: [dcdb] crit: cpg_initialize failed: 2
    Dec 01 17:01:53 pve1 pmxcfs[1802]: [dcdb] crit: can't initialize service
    Dec 01 17:01:53 pve1 pmxcfs[1802]: [status] crit: cpg_initialize failed: 2
    Dec 01 17:01:53 pve1 pmxcfs[1802]: [status] crit: can't initialize service

    Не уверен, ожидал ли я такого поведения или нет? И когда VM/LXC вернутся на мой основной сервер?
     
    Цитировать   Имя
     
    LnxBil
    Guest
    #10
    0
    02.12.2023 10:55:00
    Нет, это не предусмотрено. Придётся делать это вручную. Ни одна логика не предугадает, что вы хотите сделать. Поэтому вам нужно делать это вручную.
     
    Цитировать   Имя
     
    spirit
    Guest
    #11
    0
    02.12.2023 11:01:00
    Тебе нужно создать группы HA, с разной приоритетностью (более высокий приоритет на PVE1). Как это сделано, чтобы автоматически откатывался на исходный узел. Этот лог, возможно, появляется при запуске узла, когда еще нет кворума? (это служба pve-cluster, которая управляет директорией /etc/pve). Если этот лог не заваливает тебя сообщениями, а появляется только при старте, можешь его игнорировать.
     
    Цитировать   Имя
     
    jensie
    Guest
    #12
    0
    02.12.2023 12:12:00
    Спасибо за ваши комментарии. @spirit Как можно создать более высокий приоритет для PVE1?
     
    Цитировать   Имя
     
    spirit
    Guest
    #13
    0
    02.12.2023 18:02:00
     
    Цитировать   Имя
     
    jensie
    Guest
    #14
    0
    02.12.2023 20:18:00
    @spirit, как это можно подкорректировать после настройки кластера?
     
    Цитировать   Имя
     
    Страницы: 1
    Ответить
    Читают тему
    BBCode   Правила
    Форма ответов
    Текст сообщения*
    Перетащите файлы
    Ничего не найдено
    Файл
    Загрузить картинки
    #name# #size#
     
    #name#
    Файлы:
    Перетащите один или несколько файлов в эту область
    или выберите файл на компьютере
    Файлы:
    Загрузить файлы
     
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2025 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры