Привет, я полный новичок в сетевом взаимодействии. Едва справился с восстановлением сетевого соединения на Proxmox-боксе после добавления PCIe-устройства. Буду очень благодарен за небольшой совет. У меня проблемы с тем, как напрямую связать 2 узла, чтобы ZFS-репликация и миграция ВМ происходили быстрее (?) и создавали меньше трафика, проходящего через обычную сеть для других контейнеров/ВМ. Похоже, мне стоит посмотреть вот это: . Но какую конфигурацию выбрать? Сейчас у меня есть 1 машина со следующим /etc/network/interfaces:
```
auto lo
iface lo inet loopback
iface enp5s0 inet manual
auto vmbr0
iface vmbr0 inet static
address 192.168.5.2/24
gateway 192.168.5.1
bridge-ports enp4s0
bridge-stp off
bridge-fd 0
iface enp4s0 inet manual
source /etc/network/interfaces.d/*
```
Вторая машина менее производительная/медленнее, но тоже имеет 2 NIC. Хочу использовать оба NIC на обеих машинах как-то. Альтернативно, какое лучшее применение для 2 NIC на этих машинах? 5-портовый коммутатор – самый обычный дешевый TL-SG105. Какие у меня есть варианты объединения (bonding) для ускорения миграции ВМ? (Да, для высокой доступности я настроил QDevice на NAS). Большое спасибо.
```
auto lo
iface lo inet loopback
iface enp5s0 inet manual
auto vmbr0
iface vmbr0 inet static
address 192.168.5.2/24
gateway 192.168.5.1
bridge-ports enp4s0
bridge-stp off
bridge-fd 0
iface enp4s0 inet manual
source /etc/network/interfaces.d/*
```
Вторая машина менее производительная/медленнее, но тоже имеет 2 NIC. Хочу использовать оба NIC на обеих машинах как-то. Альтернативно, какое лучшее применение для 2 NIC на этих машинах? 5-портовый коммутатор – самый обычный дешевый TL-SG105. Какие у меня есть варианты объединения (bonding) для ускорения миграции ВМ? (Да, для высокой доступности я настроил QDevice на NAS). Большое спасибо.
