Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Mellanox Connect-x 6 Dx VirtIO и vDPA

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Mellanox Connect-x 6 Dx VirtIO и vDPA, Proxmox Виртуальная Среда
     
    Joe Botha
    Guest
    #1
    0
    07.06.2021 10:29:00
    Привет! Интересно, поддерживает ли Proxmox VE аппаратное ускорение virtIO или планируется ли его поддержка в ближайшем будущем? Сетевая карта Mellanox Connect-x 6 Dx умеет работать с этой функцией. Есть какие-нибудь документы, где можно почитать, как это настроить?
     
     
     
    auranext
    Guest
    #2
    0
    10.06.2022 14:50:00
    Привет! Я работаю с гипервизорами Proxmox уже несколько лет: версии 5.3, 6.2 и сейчас 7.x. Поскольку мы виртуализируем роутеры, постоянно ищем способы улучшить производительность обработки пакетов. После некоторых исследований мы решили сосредоточиться на аппаратном ускорении на базе Mellanox ConnectX-5 и 6.

    Для этого мы установили карту ConnectX-6 в сервер HPE DL360Gen10 (16 ядер, 768 ГБ ОЗУ), обновили ядро до pve-kernel-5.15.x и скомпилировали MLNX-OFED 5.x. Сначала мы реализовали SR-IOV с интерфейсом-представителем (representor) на узле PVE7 (режим eswitch). Это просто развернуть и очень производительно, но не поддерживает горячее подключение и плохо масштабируется — максимум 256 виртуальных функций (Mellanox приукрашивает технические характеристики своих карт). Тем не менее, если для кого-то такие ограничения приемлемы, конфигурация вполне рабочая, и разгрузка с помощью tc отрабатывает отлично (на гипервизоре вообще нет прерываний!).

    Еще один важный момент: гостевая ОС должна поддерживать драйвер mlx5. Из-за этих ограничений сейчас мы исследуем другую конфигурацию на базе VDPA и масштабируемых функций Mellanox.

    Пока я сделал proof of concept — могу сказать, что работает, гостевая ОС использует драйвер virtio, всё полностью прозрачно. Но пока рано что-то утверждать, так как возникают проблемы со стабильностью ядра, а документация и инструкции либо очень скудны, либо просто отсутствуют. Поскольку у меня мало времени, а потребность в обработке пакетов только растёт, я ищу партнёра для продолжения этой работы.

    Тема большая и экспериментальная, как только будут более чёткие результаты — опубликую. Пишите в личку, если хотите обсудить. ++
     
     
     
    johnmarkos
    Guest
    #3
    0
    18.06.2022 18:52:00
    Я попробовал это, и моя проблема решилась.
     
     
     
    spirit
    Guest
    #4
    0
    21.06.2022 20:01:00
    У вас есть какая-нибудь документация или туториал по теме? (VDPA и mlnx scalable function) Мне любопытно, работает ли это только с OVS или также с linux bridge, virtio + vhost-net или virtio + vhost-user и так далее...
     
     
     
    auranext
    Guest
    #5
    0
    22.06.2022 10:07:00
    Привет, Spirit! Сначала рекомендую посмотреть несколько страниц из вики Mellanox. Вторая из них связана с устройством kernel vdpa:  
    https://github.com/Mellanox/scalablefunctions/wiki  
    https://github.com/Mellanox/scalablefunctions/wiki/Upstream-how-to-use-SF-kernel-vdpa-device  
    https://github.com/Mellanox/scalablefunctions/wiki/Upstream-kernel-configuration  
    https://github.com/Mellanox/scalablefunctions/wiki/Upstream-step-by-step-guide  

    Что касается установки OFED, скачай последнюю iso с сайта Nvidia и установи необходимые пакеты:  
    https://network.nvidia.com/products/infiniband-drivers/linux/mlnx_ofed/  

    Если хочешь, могу по почте прислать подробный туториал по тестированию SF на PVE7. Пока помни, что это очень экспериментально и нестабильно (работа в процессе)...
     
     
     
    spirit
    Guest
    #6
    0
    22.06.2022 13:33:00
    Вы можете написать мне на adres aderumier@odiso.com. Я спрашивал про ovs, потому что видел туториал RedHat без ovs и без моста, https://www.redhat.com/en/blog/hands-vdpa-what-do-you-do-when-you-aint-got-hardware.

    Код:  
    -netdev type=vhost-vdpa,vhostdev=/dev/vhost-vdpa-0,id=vhost-vdpa1 \  
    -device virtio-net-pci,netdev=vhost-vdpa1,mac=00:e8:ca:33:ba:05,\  

    Похоже, это режим vhost-vdpa https://patchwork.kernel.org/project/qemu-devel/patch/20200704182750.1088103-41-mst@redhat.com/, но, кажется, есть ещё два режима — vhost-kernel и vhost-user (возможно, для ovs).  

    Попытаюсь на следующей неделе почитать документацию по qemu. Кстати, есть ещё режим vhost-user с использованием ovs.
     
     
     
    hansaya
    Guest
    #7
    0
    07.10.2023 04:09:00
    Есть какие-нибудь новости по этому поводу?
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры