Доброе утро всем. Я только что настроил двухузловой кластер с HA, но у меня возникла проблема. У меня есть ВМ (100), запущенная на узле 1 (gestion1). Если я вручную перезагружаю или выключаю узел 1, эта ВМ без проблем мигрируется на узел 2, и наоборот — с узла 2 на узел 1. ВМ настроена на LVM-хранилище с настроенным DRBD. RGManager запущен на обоих узлах.
Проблема в том, что если у меня запущена ВМ на узле 1 (или на узле 2), и я отключаю сетевой кабель или питание на этом узле, ВМ не мигрируется на другой узел кластера. ВМ выключается вместе с узлом.
Мой cluster.conf:
<?xml version="1.0"?>
<cluster config_version="7" name="gestioncluster">
<cman expected_votes="1" keyfile="/var/lib/pve-cluster/corosync.authkey" two_node="1"/>
<fencedevices>
<fencedevice agent="fence_ilo" ipaddr="192.168.130.34" login="ADMIN" name="fenceA" passwd="ADMI$"/>
<fencedevice agent="fence_ilo" ipaddr="192.168.130.44" login="ADMIN" name="fenceB" passwd="ADMI$"/>
</fencedevices>
<clusternodes>
<clusternode name="gestion1" nodeid="1" votes="1">
<fence>
<method name="1">
<device action="reboot" name="fenceA"/>
</method>
</fence>
</clusternode>
<clusternode name="gestion2" nodeid="2" votes="1">
<fence>
<method name="1">
<device action="reboot" name="fenceB"/>
</method>
</fence>
</clusternode>
</clusternodes>
<rm>
<pvevm autostart="1" vmid="100" recovery="relocate"/>
</rm>
</cluster>
Версия Proxmox на двух узлах:
pveversion -v
proxmox-ve-2.6.32: 3.2-136 (ядро: 2.6.32-32-pve)
pve-manager: 3.3-1 (запущенная версия: 3.3-1/a06c9f73)
pve-kernel-2.6.32-32-pve: 2.6.32-136
lvm2: 2.02.98-pve4
clvm: 2.02.98-pve4
corosync-pve: 1.4.7-1
openais-pve: 1.1.4-3
libqb0: 0.11.1-2
redhat-cluster-pve: 3.2.0-2
resource-agents-pve: 3.9.2-4
fence-agents-pve: 4.0.10-1
pve-cluster: 3.0-15
qemu-server: 3.1-34
pve-firmware: 1.1-3
libpve-common-perl: 3.0-19
libpve-access-control: 3.0-15
libpve-storage-perl: 3.0-23
pve-libspice-server1: 0.12.4-3
vncterm: 1.1-8
vzctl: 4.0-1pve6
vzprocps: 2.0.11-2
vzquota: 3.1-2
pve-qemu-kvm: 2.1-5
ksm-control-daemon: 1.1-1
glusterfs-client: 3.5.2-1
Надеюсь, вы сможете помочь с этой проблемой. Если нужно больше информации — могу предоставить.
Проблема в том, что если у меня запущена ВМ на узле 1 (или на узле 2), и я отключаю сетевой кабель или питание на этом узле, ВМ не мигрируется на другой узел кластера. ВМ выключается вместе с узлом.
Мой cluster.conf:
<?xml version="1.0"?>
<cluster config_version="7" name="gestioncluster">
<cman expected_votes="1" keyfile="/var/lib/pve-cluster/corosync.authkey" two_node="1"/>
<fencedevices>
<fencedevice agent="fence_ilo" ipaddr="192.168.130.34" login="ADMIN" name="fenceA" passwd="ADMI$"/>
<fencedevice agent="fence_ilo" ipaddr="192.168.130.44" login="ADMIN" name="fenceB" passwd="ADMI$"/>
</fencedevices>
<clusternodes>
<clusternode name="gestion1" nodeid="1" votes="1">
<fence>
<method name="1">
<device action="reboot" name="fenceA"/>
</method>
</fence>
</clusternode>
<clusternode name="gestion2" nodeid="2" votes="1">
<fence>
<method name="1">
<device action="reboot" name="fenceB"/>
</method>
</fence>
</clusternode>
</clusternodes>
<rm>
<pvevm autostart="1" vmid="100" recovery="relocate"/>
</rm>
</cluster>
Версия Proxmox на двух узлах:
pveversion -v
proxmox-ve-2.6.32: 3.2-136 (ядро: 2.6.32-32-pve)
pve-manager: 3.3-1 (запущенная версия: 3.3-1/a06c9f73)
pve-kernel-2.6.32-32-pve: 2.6.32-136
lvm2: 2.02.98-pve4
clvm: 2.02.98-pve4
corosync-pve: 1.4.7-1
openais-pve: 1.1.4-3
libqb0: 0.11.1-2
redhat-cluster-pve: 3.2.0-2
resource-agents-pve: 3.9.2-4
fence-agents-pve: 4.0.10-1
pve-cluster: 3.0-15
qemu-server: 3.1-34
pve-firmware: 1.1-3
libpve-common-perl: 3.0-19
libpve-access-control: 3.0-15
libpve-storage-perl: 3.0-23
pve-libspice-server1: 0.12.4-3
vncterm: 1.1-8
vzctl: 4.0-1pve6
vzprocps: 2.0.11-2
vzquota: 3.1-2
pve-qemu-kvm: 2.1-5
ksm-control-daemon: 1.1-1
glusterfs-client: 3.5.2-1
Надеюсь, вы сможете помочь с этой проблемой. Если нужно больше информации — могу предоставить.
