Привет! У меня небольшой кластер машин Proxmox, и я в процессе обновления с версии 4.4 до 5.0. Две машины, которые я уже обновил, столкнулись с проблемой: примерно после нескольких перезагрузок сеть просто перестаёт работать. Захожу через консоль, выполняю /etc/init.d/networking restart — сеть снова запускается, но это не самое удачное решение.
У меня довольно стандартная связка с bond и VLAN:
Код:
# cat /etc/network/interfaces
auto lo
iface lo inet loopback
iface eth0 inet manual
iface eth1 inet manual
auto bond0
iface bond0 inet manual
slaves eth0 eth1
bond_miimon 100
bond_mode 4
## live
auto bond0.2
iface bond0.2 inet manual
vlan-raw-device bond0
## private
auto bond0.4
iface bond0.4 inet manual
vlan-raw-device bond0
## live
auto vmbr0
iface vmbr0 inet manual
bridge_ports bond0.2
bridge_stp off
bridge_fd 0
## private
auto vmbr1
iface vmbr1 inet static
address 10.10.10.18
netmask 255.255.255.0
gateway 10.10.10.1
bridge_ports bond0.4
bridge_stp off
bridge_fd 0
При загрузке все интерфейсы показываются как "UP", но bond0 выставлен в режим round-robin, а не 802.3ad, и я не понимаю, почему так происходит:
Код:
no-net# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)
Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
Slave Interface: eth0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:25:90:xx:xx:xx
Slave queue ID: 0
Slave Interface: eth1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:25:90:xx:xx:xy
Slave queue ID: 0
Вот пример того, как должно выглядеть при правильной настройке:
Код:
good-net# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)
Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2 (0)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
802.3ad info
LACP rate: slow
Min links: 0
Aggregator selection policy (ad_select): stable
System priority: 65535
System MAC address: 00:25:90:08:58:82
Active Aggregator Info:
Aggregator ID: 1
Number of ports: 2
Actor Key: 9
Partner Key: 19
Partner Mac Address: f8:c0:01:cb:a1:80
Slave Interface: eth0
...и т.д.
Пара коммутаторов Juniper, которые у меня есть, показывают то же самое — оба порта подняты на 1 Гбит, но 802.3ad агрегация не активна.
До обновления до 5.0 эти машины работали отлично — что могло измениться?
Заранее спасибо!
У меня довольно стандартная связка с bond и VLAN:
Код:
# cat /etc/network/interfaces
auto lo
iface lo inet loopback
iface eth0 inet manual
iface eth1 inet manual
auto bond0
iface bond0 inet manual
slaves eth0 eth1
bond_miimon 100
bond_mode 4
## live
auto bond0.2
iface bond0.2 inet manual
vlan-raw-device bond0
## private
auto bond0.4
iface bond0.4 inet manual
vlan-raw-device bond0
## live
auto vmbr0
iface vmbr0 inet manual
bridge_ports bond0.2
bridge_stp off
bridge_fd 0
## private
auto vmbr1
iface vmbr1 inet static
address 10.10.10.18
netmask 255.255.255.0
gateway 10.10.10.1
bridge_ports bond0.4
bridge_stp off
bridge_fd 0
При загрузке все интерфейсы показываются как "UP", но bond0 выставлен в режим round-robin, а не 802.3ad, и я не понимаю, почему так происходит:
Код:
no-net# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)
Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
Slave Interface: eth0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:25:90:xx:xx:xx
Slave queue ID: 0
Slave Interface: eth1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:25:90:xx:xx:xy
Slave queue ID: 0
Вот пример того, как должно выглядеть при правильной настройке:
Код:
good-net# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)
Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2 (0)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
802.3ad info
LACP rate: slow
Min links: 0
Aggregator selection policy (ad_select): stable
System priority: 65535
System MAC address: 00:25:90:08:58:82
Active Aggregator Info:
Aggregator ID: 1
Number of ports: 2
Actor Key: 9
Partner Key: 19
Partner Mac Address: f8:c0:01:cb:a1:80
Slave Interface: eth0
...и т.д.
Пара коммутаторов Juniper, которые у меня есть, показывают то же самое — оба порта подняты на 1 Гбит, но 802.3ad агрегация не активна.
До обновления до 5.0 эти машины работали отлично — что могло измениться?
Заранее спасибо!
