Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    IMS дергается из-за сетевого соединения с Bond

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    IMS дергается из-за сетевого соединения с Bond, Proxmox Виртуальная Среда
     
    bbaumer
    Guest
    #1
    0
    26.04.2012 15:01:00
    Мы используем Proxmox с Intel Modular Server уже некоторое время. В сервере установлены 2 вычислительных модуля MFS5000SI и 1 модуль MFS5520VI. Каждый вычислительный модуль имеет дополнительную двухпортовую сетевую карту (Mezzanine). После обновления ядра из серии 1.x я заметил "флаппинг" сетевых соединений на втором объёдинённом линке. После некоторых поисков удалось остановить этот флаппинг, сбросив второй коммутатор. Это приходится делать после каждой перезагрузки.

    Теперь с обновлением до Proxmox v2 я надеялся, что проблема исчезнет, но она всё ещё сохраняется. Мои подозрения пали на модуль ядра e1000e для сетевой карты. Я попробовал более новые стабильные драйверы с http://sourceforge.net/projects/e1000/files/e1000e_stable/ версии 1.10.6 и 1.11.3, но оба привели к Kernel Panic с ошибкой NULL Pointer Dereference. Для проверки я также попробовал версию 1.9.5 с Sourceforge, которая похожа на драйвер в ядре Proxmox, и она работает.

    Проблема проявляется только на MFS5000SI, потому что MFS5520VI использует другой драйвер (igb). Я много искал в интернете, но не нашёл никого с похожей проблемой. Есть ли у кого-нибудь опыт запуска версии 1.10.6 или 1.11.3 драйвера e1000e с pve-kernel-2.6.32-11?

    ------

    pveversion -v  
    pve-manager: 2.0-59 (pve-manager/2.0/18400f07)  
    running kernel: 2.6.32-11-pve  
    proxmox-ve-2.6.32: 2.0-66  
    pve-kernel-2.6.32-11-pve: 2.6.32-66  
    lvm2: 2.02.88-2pve2  
    clvm: 2.02.88-2pve2  
    corosync-pve: 1.4.3-1  
    openais-pve: 1.1.4-2  
    libqb: 0.10.1-2  
    redhat-cluster-pve: 3.1.8-3  
    resource-agents-pve: 3.9.2-3  
    fence-agents-pve: 3.1.7-2  
    pve-cluster: 1.0-26  
    qemu-server: 2.0-38  
    pve-firmware: 1.0-15  
    libpve-common-perl: 1.0-26  
    libpve-access-control: 1.0-18  
    libpve-storage-perl: 2.0-17  
    vncterm: 1.0-2  
    vzctl: 3.0.30-2pve2  
    vzprocps: 2.0.11-2  
    vzquota: 3.0.12-3  
    pve-qemu-kvm: 1.0-9  
    ksm-control-daemon: 1.1-1

    --  
    lspci | grep Ether  
    05:00.0 Ethernet controller: Intel Corporation 80003ES2LAN Gigabit Ethernet Controller (Serdes) (rev 01)  
    05:00.1 Ethernet controller: Intel Corporation 80003ES2LAN Gigabit Ethernet Controller (Serdes) (rev 01)  
    08:00.0 Ethernet controller: Intel Corporation 82571EB Gigabit Ethernet Controller (rev 06)  
    08:00.1 Ethernet controller: Intel Corporation 82571EB Gigabit Ethernet Controller (rev 06)

    --  
    cat /proc/net/bonding/bond2  
    Ethernet Channel Bonding Driver: v3.6.0 (26 сентября 2009)  
    Bonding Mode: fault-tolerance (active-backup)  
    Primary Slave: None  
    Currently Active Slave: eth1  
    MII Status: up  
    MII Polling Interval (ms): 100  
    Up Delay (ms): 0  
    Down Delay (ms): 0  

    Slave Interface: eth1  
    MII Status: up  
    Speed: 1000 Mbps  
    Duplex: full  
    Link Failure Count: 0  
    Permanent HW addr: 00:15:17:7e:27:7d  
    Slave queue ID: 0  

    Slave Interface: eth3  
    MII Status: up  
    Speed: 1000 Mbps  
    Duplex: full  
    Link Failure Count: 11  
    Permanent HW addr: 00:15:17:8b:ce:e1  
    Slave queue ID: 0
     
     
     
    bbaumer
    Guest
    #2
    0
    16.08.2012 12:43:00
    Дополнительная информация: bond2 имеет тегированную VLAN поверх bond1. Сбои связи происходят на обоих бондах.
     
     
     
    tom
    Guest
    #3
    0
    16.08.2012 15:31:00
    Ты уже пробовал с нашим последним стабильным ядром? Смотри http://forum.proxmox.com/threads/10629-New-Kernel-and-bug-fixes
     
     
     
    bbaumer
    Guest
    #4
    0
    16.08.2012 16:09:00
    Да, я пишу этот пост после установки всех обновлений сегодня утром, включая pve-kernel-2.6.32-14-pve. Сбой ядра исправлен после того, как в PVE Kernel включили новую версию e1000e. http://forum.proxmox.com/threads/9678-New-2-6-32-Kernel-for-Proxmox-VE-2-1-stable?p=59562#post59562 Проблема с прерывистым сетевым соединением всё ещё возникает, пока не сделаешь сброс модуля коммутатора.
     
     
     
    tom
    Guest
    #5
    0
    16.08.2012 16:24:00
    Пожалуйста, создайте заявку на баг или добавьте свою проблему в уже существующую (если такая есть) на http://sourceforge.net/projects/e1000/. Мы всегда используем последние драйверы, предоставленные Intel.
     
     
     
    e100
    Guest
    #6
    0
    18.08.2012 05:22:00
    Это уже третий человек, у которого возникают проблемы с сетью при использовании драйвера bond на последнем ядре. http://forum.proxmox.com/threads/10629-New-Kernel-and-bug-fixes?p=59649#post59649 http://forum.proxmox.com/threads/10635-2-6-32-14-causing-bonding-and-or-vlan-issues
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры