Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    KVM и сетевые карты с несколькими очередями

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    KVM и сетевые карты с несколькими очередями, Proxmox Виртуальная Среда
     
    stefws
    Guest
    #1
    0
    02.05.2016 15:16:00
    Есть виртуальная машина Check Point firewall, которая при относительно высокой нагрузке загружает vCore 0 до +95% в режиме ядра. Думаю включить многоканальные NIC. Только интересно, нужно ли что-то делать на стороне KVM, чтобы это заработало. Буду признателен за подсказки! Спасибо заранее!
     
     
     
    davlaw
    Guest
    #2
    0
    10.11.2016 14:21:00
    У меня есть домашняя лаборатория, которая уже пару лет работает очень стабильно. Там стоят Broadcom NIC с драйвером tg3. Я всегда считал себя счастливчиком — никаких проблем, в отличие от кластера на работе, где постоянно возникали какие-то заморочки, и я поставил Intel NIC. Теперь всё работает отлично и стабильно.

    Но недавно я начал использовать iSCSI-таргеты для своих виртуальных машин, и теперь моя домашняя лаборатория стала очень нестабильной (с Broadcom tg3). Обычно работает меньше 24 часов, после чего появляется какая-то ошибка.

    Так что я думаю, что драйвер tg3 не справляется с iSCSI-трафиком? Теперь я снова копаюсь в теме и, похоже, столкнулся с той же проблемой. Кажется, ESX тоже с этим мучился: https://kb.vmware.com/selfservice/m...nguage=en_US&cmd=displayKC&externalId=2035701

    Просто размышляю, решил поделиться своими мыслями и интересно, ты смог решить свою проблему?
     
     
     
    stefws
    Guest
    #3
    0
    10.11.2016 15:56:00
    Похоже, в вашем ESX-ссылке говорится об использовании драйвера tg3 на хосте гипервизора, а не внутри виртуальной машины. В любом случае, вы говорите об использовании iSCSI внутри ВМ или о совместном хранилище для ВМ, организованном на узлах гипервизора? Мы отказались от GAIA FW и ещё одного известного фаервола, потому что ни один из них не поддерживал мультиочередные сетевые карты в старых ядрах Linux внутри ВМ. Сейчас мы используем встроенный iptables в PVE — производительность стала намного лучше, так как нагрузка распределена по всем узлам гипервизора. В некоторых ВМ с балансировкой нагрузки, где требуется высокая сетевая пропускная способность через одну ВМ, мы используем мультиочередные сетевые карты с CentOS 6.8 и ядром epel kernel-ml (сейчас версия 4.8.6) и virtio vNIC, и проблем нет.
     
     
     
    davlaw
    Guest
    #4
    0
    10.11.2016 17:36:00
    Думаю, я правильно понял ваше высказывание: на узле Proxmox используются сетевые карты Broadcom с драйвером tg3. Каждая виртуальная машина работает через virtio, но сама виртуальная машина размещена на общем ресурсе Proxmox через iscsi/lvm. Извиняюсь, что влезаю в обсуждение, но я всегда знал о проблемах с драйвером tg3 и считал себя счастливчиком, что у моего домашнего сервера таких проблем нет. Но недавно начал использовать iscsi-шары, и вот почему интерес появился снова. У меня не так много вариантов, ведь это старый Dell SC1435 с одним слотам, который сейчас занят SAS-картой. Скорее всего, придётся вернуться к NFS и посмотреть, поможет ли это, а iscsi удалить.
     
     
     
    stefws
    Guest
    #5
    0
    10.11.2016 17:48:00
    Иногда оказываешься в ловушке «ловушка-22», особенно с более старым железом — я бы предпочёл стабильность производительности, если выбирать между ними.
     
     
     
    mir
    Guest
    #6
    0
    10.11.2016 19:04:00
    Есть какие-нибудь результаты тестов, которыми можно поделиться? Это полезно только для роутеров, файрволов и тому подобного или обычные серверы тоже могут получить от этого выгоду?
     
     
     
    stefws
    Guest
    #7
    0
    10.11.2016 19:12:00
    Не могу сказать про конкретные тесты, но многопоточные сетевые карты всегда будут полезны на любой Linux-системе, когда нужно обрабатывать больше пакетов в секунду с сетевой карты, чем может осилить одно ядро процессора. Чаще всего это актуально для центральных сетевых устройств, таких как роутеры, файерволы, балансировщики нагрузки и тому подобное.
     
     
     
    mir
    Guest
    #8
    0
    10.11.2016 19:32:00
    Кажется, я читал подробные тесты, в которых говорилось, что чтобы не мешать другим системным процессам ОС, важно исключить одно ядро процессора из мультиочереди. Можешь это подтвердить?
     
     
     
    stefws
    Guest
    #9
    0
    10.11.2016 19:36:00
    Предполагаю, что это верно, если только вы не хотите, чтобы все ядра вашего процессора были забиты DoS-атаками от внешних пакетов (если пропускная способность вашего канала больше, чем количество ядер может обработать). Но при этом стоит оставить хотя бы одно ядро, чтобы оно могло заниматься другими задачами, например, управлять ssh-соединением или командной строкой для вас.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры