Привет всем! Я новенький в DRBD, но Proxmox знаю не по наслышке
У нас настроена 3-узловая кластерная конфигурация DRBD9 с Proxmox 4.2, как описано в этой статье вики: .
Мои версии:
* proxmox-ve: 4.2-64 (используемый ядро: 4.4.16-1-pve)
* drbdmanage: 0.97-1
DRBD хранилище доступно, и у меня есть два контейнера LXC с настроенным HA. Миграция HA и переключение на резервный узел работают как и ожидалось. Но если один узел перезагружается или происходит потеря соединения, он больше не подключается к DRBD. Я также настроил "post-up drbdadm adjust all" в /etc/network/interfaces. В вики описано, что нужно выполнить "drbdadm adjust all или drbdadm adjust-with-progress all"... но это не работает для меня. Он ничего не делает, даже если я запускаю его вручную.
Также я не нашёл ничего полезного здесь: . Если пересоздать ВМ из резервной копии, всё снова работает, но это не кажется правильным решением проблемы
Есть какие-нибудь идеи?
P.S. Мой план такой: когда проблема будет решена, я буду использовать несколько небольших тестовых систем, и если всё будет работать, то внедрю это в production.
Вот некоторые данные:
```
Code:
root@vmhost2:~# drbd-overview
0:.drbdctrl/0 Connected(3*) Secondary(3*) UpTo(vmhost2)/UpTo(vmhost5,vmhost1)
1:.drbdctrl/1 Connected(3*) Secondary(3*) UpTo(vmhost2)/UpTo(vmhost5,vmhost1)
100:vm-108-disk-1/0 Conn(vmhost5,vmhost2)/C'ng(vmhost1) Prim(vmhost2)/Unkn(vmhost1)/Seco(vmhost5) UpTo(vmhost2)/Inco(vmhost1)/UpTo(vmhost5)
101:vm-132-disk-1/0 Conn(vmhost2,vmhost5)/C'ng(vmhost1) Seco(vmhost2)/Unkn(vmhost1)/Prim(vmhost5) UpTo(vmhost2)/Inco(vmhost1)/UpTo(vmhost5)
root@vmhost1:~# drbdmanage list-nodes
+---------------------------------------------------------------------------------------------------------+
| Name | Pool Size | Pool Free | | State |
|---------------------------------------------------------------------------------------------------------|
| vmhost1 | 510976 | 500756 | | ok |
| vmhost2 | 510976 | 506734 | | ok |
| vmhost5 | 510976 | 500756 | | ok |
+---------------------------------------------------------------------------------------------------------+
```
A) Отключенный узел:
```
drbdsetup status
.drbdctrl role:Secondary
volume:0 disk:UpToDate
volume:1 disk:UpToDate
vmhost2 role:Secondary
volume:0 peer-disk:UpToDate
volume:1 peer-disk:UpToDate
vmhost5 role:Secondary
volume:0 peer-disk:UpToDate
volume:1 peer-disk:UpToDate
vm-108-disk-1 role:Secondary
disk:Inconsistent
vmhost2 connection:StandAlone
vmhost5 connection:StandAlone
vm-132-disk-1 role:Secondary
disk:Outdated
vmhost2 connection:StandAlone
vmhost5 connection:StandAlone
```
B) Подключённый узел:
```
root@vmhost2:~# drbdsetup status
.drbdctrl role:Secondary
volume:0 disk:UpToDate
volume:1 disk:UpToDate
vmhost1 role:Secondary
volume:0 peer-disk:UpToDate
volume:1 peer-disk:UpToDate
vmhost5 role:Secondary
volume:0 peer-disk:UpToDate
volume:1 peer-disk:UpToDate
vm-108-disk-1 role:Primary
disk:UpToDate
vmhost1 connection:Connecting
vmhost5 role:Secondary
peer-disk:UpToDate
vm-132-disk-1 role:Secondary
disk:UpToDate
vmhost1 connection:Connecting
vmhost5 role:Primary
peer-disk:UpToDate
```
У нас настроена 3-узловая кластерная конфигурация DRBD9 с Proxmox 4.2, как описано в этой статье вики: .Мои версии:
* proxmox-ve: 4.2-64 (используемый ядро: 4.4.16-1-pve)
* drbdmanage: 0.97-1
DRBD хранилище доступно, и у меня есть два контейнера LXC с настроенным HA. Миграция HA и переключение на резервный узел работают как и ожидалось. Но если один узел перезагружается или происходит потеря соединения, он больше не подключается к DRBD. Я также настроил "post-up drbdadm adjust all" в /etc/network/interfaces. В вики описано, что нужно выполнить "drbdadm adjust all или drbdadm adjust-with-progress all"... но это не работает для меня. Он ничего не делает, даже если я запускаю его вручную.
Также я не нашёл ничего полезного здесь: . Если пересоздать ВМ из резервной копии, всё снова работает, но это не кажется правильным решением проблемы
Есть какие-нибудь идеи?P.S. Мой план такой: когда проблема будет решена, я буду использовать несколько небольших тестовых систем, и если всё будет работать, то внедрю это в production.
Вот некоторые данные:
```
Code:
root@vmhost2:~# drbd-overview
0:.drbdctrl/0 Connected(3*) Secondary(3*) UpTo(vmhost2)/UpTo(vmhost5,vmhost1)
1:.drbdctrl/1 Connected(3*) Secondary(3*) UpTo(vmhost2)/UpTo(vmhost5,vmhost1)
100:vm-108-disk-1/0 Conn(vmhost5,vmhost2)/C'ng(vmhost1) Prim(vmhost2)/Unkn(vmhost1)/Seco(vmhost5) UpTo(vmhost2)/Inco(vmhost1)/UpTo(vmhost5)
101:vm-132-disk-1/0 Conn(vmhost2,vmhost5)/C'ng(vmhost1) Seco(vmhost2)/Unkn(vmhost1)/Prim(vmhost5) UpTo(vmhost2)/Inco(vmhost1)/UpTo(vmhost5)
root@vmhost1:~# drbdmanage list-nodes
+---------------------------------------------------------------------------------------------------------+
| Name | Pool Size | Pool Free | | State |
|---------------------------------------------------------------------------------------------------------|
| vmhost1 | 510976 | 500756 | | ok |
| vmhost2 | 510976 | 506734 | | ok |
| vmhost5 | 510976 | 500756 | | ok |
+---------------------------------------------------------------------------------------------------------+
```
A) Отключенный узел:
```
drbdsetup status
.drbdctrl role:Secondary
volume:0 disk:UpToDate
volume:1 disk:UpToDate
vmhost2 role:Secondary
volume:0 peer-disk:UpToDate
volume:1 peer-disk:UpToDate
vmhost5 role:Secondary
volume:0 peer-disk:UpToDate
volume:1 peer-disk:UpToDate
vm-108-disk-1 role:Secondary
disk:Inconsistent
vmhost2 connection:StandAlone
vmhost5 connection:StandAlone
vm-132-disk-1 role:Secondary
disk:Outdated
vmhost2 connection:StandAlone
vmhost5 connection:StandAlone
```
B) Подключённый узел:
```
root@vmhost2:~# drbdsetup status
.drbdctrl role:Secondary
volume:0 disk:UpToDate
volume:1 disk:UpToDate
vmhost1 role:Secondary
volume:0 peer-disk:UpToDate
volume:1 peer-disk:UpToDate
vmhost5 role:Secondary
volume:0 peer-disk:UpToDate
volume:1 peer-disk:UpToDate
vm-108-disk-1 role:Primary
disk:UpToDate
vmhost1 connection:Connecting
vmhost5 role:Secondary
peer-disk:UpToDate
vm-132-disk-1 role:Secondary
disk:UpToDate
vmhost1 connection:Connecting
vmhost5 role:Primary
peer-disk:UpToDate
```
