Привет, у меня кластер из всего лишь двух узлов, и я замечаю странное поведение: когда один узел выходит из строя, все виртуальные машины отключаются. Я не понимаю, почему VE ставит под угрозу работоспособность оставшегося узла. Ладно, не беда, с помощью pvecm e 1 я восстанавливаю ВМ (хотя с ошибкой), так что я начал искать способ правильно настроить кластер из двух узлов и нашел это руководство: . У меня есть SAN, подключенный через iSCSI, и это не проблема для меня. Но я думаю, что это руководство устарело, так как нет способа выполнить команду mkqdisk. Эта команда недоступна в любом репозитории (cman не существует, а альтернативные агенты fence-agents и dlm-controld тоже не имеют mkqdisk). Как мне отформатировать диск кворума? Есть ли другой способ установить команду pvecm e 1 на постоянной основе и убрать ограничение кворума? Спасибо заранее.
[РЕШЕНО] Двухузловой кластер на VE6.1, Proxmox Виртуальная Среда
|
17.12.2019 12:50:00
|
|
|
|
|
|
19.08.2021 13:24:00
Код: # vim /etc/corosync/corosync.conf
кворум { провайдер: corosync_votequorum две_узла: 1 ждать_всех: 0 } |
|
|
|
|
|
20.08.2021 07:13:00
Спасибо за ваш ответ. Тем временем я обновил свой кластер до 7.0 и настроил Qdevice. Хорошего дня.
|
|
|
|
|
|
13.09.2021 11:31:00
Привет всем, я нашел решение с помощью python-скрипта для управления кворумом: Это имеет смысл и безопасно? Спасибо!
|
|
|
|
|
|
14.09.2021 00:01:00
Вау, выглядит именно так, как нужно. Спасибо!
|
|
|
|
|
|
27.09.2021 12:29:00
Привет, @mikeinnyc, ты решил проблему с скриптом на Python?
|
|
|
|
|
|
28.09.2021 04:48:00
У меня завтра приходит узел номер 3, поэтому я точно воспользуюсь этим скриптом, так как стоимость оперативной памяти сейчас высокая. Надеюсь, что все будет готово к выходным.
|
||||
|
|
|
|||
Читают тему
