Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Проблемы со стабильностью сети на инфраструктуре Proxmox в HA X Mikrotik.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Проблемы со стабильностью сети на инфраструктуре Proxmox в HA X Mikrotik., Proxmox Виртуальная Среда
     
    babine
    Guest
    #1
    0
    17.06.2025 11:46:00
    Привет, у меня странное поведение на моей инфраструктуре Proxmox, настроенной с 3 хостами и 4 Mikrotik-свитчами: 2 для хранения данных, 2 — для сетевого взаимодействия VM. Каждая пара свитчей связана через bonding. В обычном режиме всё работает отлично. Однако во время тестов высокой доступности (HA), включающих перезагрузку одного или нескольких хостов, сервер может потерять сетевое соединение полностью. Даже после нескольких перезагрузок связь не возвращается, если я не вручную отключу и затем снова не включу порт bonding на свитче. Эта проблема возникала уже несколько раз. Поэтому я и думаю, это ошибка в моей конфигурации или ограничение, связанное с текущей инфраструктурой, но в контексте HA это выглядит ненадежно. Буду очень признателен за ваши советы или рекомендации по стабилизации этой конфигурации.
     
     
     
    LnxBil
    Guest
    #2
    0
    17.06.2025 13:55:00
    Можешь рассказать, какой режим агрегации каналов ты использовал и как его настроил на коммутаторе?
     
     
     
    babine
    Guest
    #3
    0
    17.06.2025 14:21:00
    Пример конфигурации агрегированного канала: add comment="VM NETWORK PROX10" mlag-id=1 mode=802.3ad mtu=9000 name=mbond1 \ slaves=sfp-sfpplus1 transmit-hash-policy=layer-2-and-3. Что касается конфигурации, то это дважды два коммутатора в MLAG с peerbond.
     
     
     
    LnxBil
    Guest
    #4
    0
    17.06.2025 14:51:00
    И как насчёт Linux? Используешь медленный или быстрый?
     
     
     
    babine
    Guest
    #5
    0
    17.06.2025 15:35:00
    Конфигурация Bond для Proxmox.
     
     
     
    LnxBil
    Guest
    #6
    0
    17.06.2025 15:38:00
    Как насчет содержимого /proc/net/bonding/bond0?
     
     
     
    babine
    Guest
    #7
    0
    17.06.2025 15:40:00
    root@prox11:~# cat /proc/net/bonding/bond0
    Ethernet Channel Bonding Driver: v6.8.12-10-pve
    Bonding Mode: IEEE 802.3ad Dynamic link aggregation
    Transmit Hash Policy: layer2+3 (2)
    MII Status: up
    MII Polling Interval (ms): 100
    Up Delay (ms): 0
    Down Delay (ms): 0
    Peer Notification Delay (ms): 0
    802.3ad info
    LACP active: on
    LACP rate: slow
    Min links: 0
    Aggregator selection policy (ad_select): stable
    System priority: 65535
    System MAC address: ec:e7:a7:10:05:f0
    Active Aggregator Info:
    Aggregator ID: 1
    Number of ports: 2
    Actor Key: 15
    Partner Key: 15
    Partner Mac Address: 78:9a:18:39:52:b9
    Slave Interface: ens1f0np0
    MII Status: up
    Speed: 10000 Mbps
    Duplex: full
    Link Failure Count: 1
    Permanent HW addr: ec:e7:a7:10:05:f0
    Slave queue ID: 0
    Aggregator ID: 1
    Actor Churn State: none
    Partner Churn State: none
    Actor Churned Count: 0
    Partner Churned Count: 0
    details
    actor lacp pdu:
    system priority: 65535
    system mac address: ec:e7:a7:10:05:f0
    port key: 15
    port priority: 255
    port number: 1
    port state: 61
    details
    partner lacp pdu:
    system priority: 65535
    system mac address: 78:9a:18:39:52:b9
    oper key: 15
    port priority: 255
    port number: 1
    port state: 61
    Slave Interface: ens6f0np0
    MII Status: up
    Speed: 10000 Mbps
    Duplex: full
    Link Failure Count: 3
    Permanent HW addr: ec:e7:a7:08:37:f8
    Slave queue ID: 0
    Aggregator ID: 1
    Actor Churn State: none
    Partner Churn State: none
    Actor Churned Count: 1
    Partner Churned Count: 1
    details
    actor lacp pdu:
    system priority: 65535
    system mac address: ec:e7:a7:10:05:f0
    port key: 15
    port priority: 255
    port number: 2
    port state: 61
    details
    partner lacp pdu:
    system priority: 65535
    system mac address: 78:9a:18:39:52:b9
    oper key: 15
    port priority: 255
    port number: 1
    port state: 61
    root@prox11:~#
     
     
     
    Joris L.
    Guest
    #8
    0
    17.06.2025 21:24:00
    @babine, а эта конфигурация в какой-то момент была стабильной и работала? MTU проверяли, поддерживается ли она во всех частях и по всем путям?
     
     
     
    babine
    Guest
    #9
    0
    18.06.2025 10:45:00
    Да, конфигурация работает без проблем. Просто я заметил, что несколько раз возникали странные вещи, как я и описывал выше.
     
     
     
    Joris L.
    Guest
    #10
    0
    18.06.2025 20:05:00
    Вот почему я размышлял, что MTU может быть недостаточно хорошо поддерживаемым или настроенным. Неисправный MTU может запретить автоматическое перестроение и, следовательно, заблокировать включение интерфейса.
     
     
     
    czechsys
    Guest
    #11
    0
    18.06.2025 11:57:00
    Если тебе нужно закрывать/открывать порты на коммутаторе после перезагрузки PVE — с 99% вероятностью проблема в самом коммутаторе. Единственный 1% — это проблема с оборудованием/ПО сервера.
     
     
     
    babine
    Guest
    #12
    0
    19.06.2025 08:38:00
    Мне кажется, дело не в проблеме с MTU. Но все мои MTU установлены на 9000, и на стороне коммутатора, и на стороне Proxmox.
     
     
     
    Joris L.
    Guest
    #13
    0
    19.06.2025 09:15:00
    MTU часто является источником проблем с автоматической настройкой, проверьте, нет ли ошибок на интерфейсах или не переключается ли дуплекс. Согласен, что проблема может быть и в другом месте, обычно копание в низкоуровневых настройках и продвижение вверх по стеку — это «правильный» способ диагностики проблем с сетью/производителями оборудования. Mikrotik тоже не застрахован от уязвимостей и слабостей. Помните, это бинарные технологии. "Без проблем" несовместимо с "Да, конфигурация работает без проблем." =-)
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры