Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Как изменить размер tx/rx очереди virtio-pci?

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Как изменить размер tx/rx очереди virtio-pci?, Proxmox Виртуальная Среда
     
    Faisal Reza
    Guest
    #1
    0
    23.05.2019 03:32:00
    Всем привет! У меня проблема с потерей пакетов RX на гостевой VM при выполнении ifconfig. После некоторых поисков выяснил, что причиной может быть размер кольцевого буфера виртуального интерфейса, так как по умолчанию он равен 256. Хочу попробовать изменить это значение на 1024, как рекомендовано в документации Intel Networking.

    Я уже попытался вручную отредактировать файл /etc/pve/qemu-server/<vmid>.conf, добавив следующую конфигурацию, но это не помогло:

    Code:
    agent: 1  
    boot: cda  
    bootdisk: sata0  
    cores: 4  
    ide0: none,media=cdrom  
    memory: 2048  
    name: balancer  
    net0: virtio=00:16:3e:50:5c:69,bridge=vmbr0,tx_queue_size=1024,rx_queue_size=1024  
    net1: virtio=D2:26:9E:99:0D:8E,bridge=vmbr0,tx_queue_size=1024,rx_queue_size=1024,tag=2247  
    numa: 0  
    onboot: 1  
    sata0: datastore-4tb-sas:2247/vm-2247-disk-1.raw,cache=writeback,size=40G  
    smbios1: uuid=dc60b7a5-5001-4a68-9949-595346c5ea6f  
    sockets: 1

    Есть ли какой-то способ изменить параметры размера очередей tx/rx? Большое спасибо!  
    С уважением.
     
     
     
    Faisal Reza
    Guest
    #2
    0
    08.06.2019 12:28:00
    Поддерживает ли KVM, используемый в Proxmox, изменение параметров tx_queue_size и rx_queue_size?
     
     
     
    Craig St George
    Guest
    #3
    0
    03.10.2019 08:50:00
    Да, хороший вопрос, похоже, что это не определено в Proxmox, у меня та же проблема, спасибо.
     
     
     
    spirit
    Guest
    #4
    0
    04.10.2019 03:37:00
    tx_queue_size работает только с vhost-user (то есть для dpdk+ovs, и там это не реализовано). Также, мне кажется, нужно включить multiqueue, чтобы rx_queue_size заработал. @dietmar Интересно, что в RedHat RHEV уже несколько лет назад подняли значения по умолчанию до максимума (1024) https://bugzilla.redhat.com/show_bug.cgi?id=1366989 Может, стоит тоже настроить это для Proxmox? (когда включен mq)
     
     
     
    Craig St George
    Guest
    #5
    0
    04.10.2019 12:27:00
    Мне кажется, что qemu это уже поддерживает, так как я вижу сообщение Invalid tx_queue_size (= %u), must be a power of 2 between %d and %d в qemu-system-x86_64, но как передать ему эту конфигурацию :-(
     
     
     
    spirit
    Guest
    #6
    0
    04.10.2019 14:35:00
    Снова: параметр tx_queue_size работает только с vhost-user, а не с vhost-net. https://git.qemu.org/?p=qemu.git;a=commit;h=9b02e1618cf26aa52cf786f215d757506dda14f8
     
     
     
    aychprox
    Guest
    #7
    0
    31.03.2022 19:23:00
    Просто оживляю этот пост, чтобы узнать, есть ли какие-то планы по внедрению rx_queue_size и tx_queue_size для гостевой системы KVM. Значение 256 слишком маленькое для гостя с большим трафиком, что в итоге приводит к массовой потере пакетов.
     
     
     
    vesalius
    Guest
    #8
    0
    30.07.2022 22:16:00
    Что-нибудь из этого предложения когда-нибудь получилось?
     
     
     
    mm553
    Guest
    #9
    0
    28.09.2022 16:50:00
    Есть новости?
     
     
     
    rocasper
    Guest
    #10
    0
    01.10.2022 11:21:00
    Есть какие-то новости по этому поводу? У меня возникает много повторных передач tcp или потерянных udp-датаграмм при использовании iperf3 в виртуалках, особенно на 10G, но и на 1G тоже. Разные серверы, разные версии Proxmox, разные сетевые карты, разные гостевые ОС (Windows почему-то работает лучше). На хостах потерь нет вообще. Из-за этого возникают странные проблемы, особенно для приложений, чувствительных к качеству обслуживания. Это серьёзный вопрос, почему его так игнорируют?
     
     
     
    mm553
    Guest
    #11
    0
    01.10.2022 12:04:00
    Ты пробовал использовать multiqueue с сетевым адаптером virtio?
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры