Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    После обновления до версии 5.0 сеть не всегда запускается корректно.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    После обновления до версии 5.0 сеть не всегда запускается корректно., Proxmox Виртуальная Среда
     
    alchemycs
    Guest
    #1
    0
    02.09.2017 02:23:00
    Привет! У меня небольшой кластер машин Proxmox, и я в процессе обновления с версии 4.4 до 5.0. Две машины, которые я уже обновил, столкнулись с проблемой: примерно после нескольких перезагрузок сеть просто перестаёт работать. Захожу через консоль, выполняю /etc/init.d/networking restart — сеть снова запускается, но это не самое удачное решение.

    У меня довольно стандартная связка с bond и VLAN:

    Код:
    # cat /etc/network/interfaces
    auto lo
    iface lo inet loopback

    iface eth0 inet manual
    iface eth1 inet manual

    auto bond0
    iface bond0 inet manual
           slaves eth0 eth1
           bond_miimon 100
           bond_mode 4

    ##  live
    auto bond0.2
    iface bond0.2 inet manual
           vlan-raw-device bond0

    ##  private
    auto bond0.4
    iface bond0.4 inet manual
           vlan-raw-device bond0

    ##  live
    auto vmbr0
    iface vmbr0 inet manual
           bridge_ports bond0.2
           bridge_stp off
           bridge_fd 0

    ##  private
    auto vmbr1
    iface vmbr1 inet static
           address 10.10.10.18
           netmask 255.255.255.0
           gateway 10.10.10.1
           bridge_ports bond0.4
           bridge_stp off
           bridge_fd 0

    При загрузке все интерфейсы показываются как "UP", но bond0 выставлен в режим round-robin, а не 802.3ad, и я не понимаю, почему так происходит:

    Код:
    no-net# cat /proc/net/bonding/bond0
    Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

    Bonding Mode: load balancing (round-robin)
    MII Status: up
    MII Polling Interval (ms): 100
    Up Delay (ms): 0
    Down Delay (ms): 0

    Slave Interface: eth0
    MII Status: up
    Speed: 1000 Mbps
    Duplex: full
    Link Failure Count: 0
    Permanent HW addr: 00:25:90:xx:xx:xx
    Slave queue ID: 0

    Slave Interface: eth1
    MII Status: up
    Speed: 1000 Mbps
    Duplex: full
    Link Failure Count: 0
    Permanent HW addr: 00:25:90:xx:xx:xy
    Slave queue ID: 0

    Вот пример того, как должно выглядеть при правильной настройке:

    Код:
    good-net# cat /proc/net/bonding/bond0
    Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

    Bonding Mode: IEEE 802.3ad Dynamic link aggregation
    Transmit Hash Policy: layer2 (0)
    MII Status: up
    MII Polling Interval (ms): 100
    Up Delay (ms): 0
    Down Delay (ms): 0

    802.3ad info
    LACP rate: slow
    Min links: 0
    Aggregator selection policy (ad_select): stable
    System priority: 65535
    System MAC address: 00:25:90:08:58:82
    Active Aggregator Info:
           Aggregator ID: 1
           Number of ports: 2
           Actor Key: 9
           Partner Key: 19
           Partner Mac Address: f8:c0:01:cb:a1:80

    Slave Interface: eth0
    ...и т.д.

    Пара коммутаторов Juniper, которые у меня есть, показывают то же самое — оба порта подняты на 1 Гбит, но 802.3ad агрегация не активна.

    До обновления до 5.0 эти машины работали отлично — что могло измениться?

    Заранее спасибо!
     
     
     
    Gerlof Fokkema
    Guest
    #2
    0
    31.01.2018 19:38:00
    Похоже, я столкнулся с точно такой же проблемой на чистой установке proxmox 5.1. Судя по всему, причина кроется в Debian Stretch, так как мне удалось её стабильно исправить с помощью прикреплённого патча (никакие решения, предложенные здесь, не сработали стабильно). Патч добавляет небольшой sleep сразу после того, как скрипт if-pre-up.d/ifenslave загружает модуль `bonding` в ядро, или после ручного создания устройства (когда загружается с max_bonds=0). Думаю, скоро попробую открыть багрепорт где-то upstream, потому что, вероятно, это затрагивает все наши Debian-серверы с LACP-бондом. Пока что я использую этот патч.

    Код:

    --- /etc/network/if-pre-up.d/ifenslave.orig    2018-01-31 00:39:53.408660244 +0100  
    +++ /etc/network/if-pre-up.d/ifenslave    2018-01-31 00:45:29.668216453 +0100  
    @@ -12,11 +12,15 @@  
        # Если модуль bonding ещё не загружен, загрузить его.  
        if [ ! -r /sys/class/net/bonding_masters ]; then
            modprobe -q bonding  
    +        # GF20180131 Дать интерфейсу время на инициализацию  
    +        sleep 2  
        fi  

        # Создать мастер-интерфейс.  
        if ! grep -sq "\\<$BOND_MASTER\\>" /sys/class/net/bonding_masters; then  
            echo "+$BOND_MASTER" > /sys/class/net/bonding_masters  
    +        # GF20180131 ... также для случая max_bonds=0  
    +        sleep 2  
        fi  
    }
     
     
     
    volker
    Guest
    #3
    0
    09.03.2018 13:46:00
    Та же проблема у меня. Режим бондинга установлен как bond_mode active-backup в /etc/network/interfaces. Proxmox всегда загружается в режиме балансировки нагрузки (round-robin), что подтверждается данными из /proc/net/bonding/.
     
     
     
    Dale Sykora
    Guest
    #4
    0
    14.07.2018 14:00:00
    Та же проблема здесь. Спасибо за патч, Gerlof! Похоже, это решает проблему.
     
     
     
    ChucksFlash
    Guest
    #5
    0
    31.07.2019 18:52:00
    Для тех, кто читает это в будущем: проблема была решена в Proxmox 6.
     
     
     
    albert_a
    Guest
    #6
    0
    13.01.2020 01:42:00
    У меня была такая же проблема. В моей настройке LAN-агрегат добавлен в мост 'vmbr0'. PVE5. Я добавил строку: Code: pre-up sleep 2 в конфигурацию моста. Пока работает. Патчи не понадобились.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры