Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Как подключить Virtio PCIe в Пфсенс VM?

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Как подключить Virtio PCIe в Пфсенс VM?, Proxmox Виртуальная Среда
     
    wickeren
    Guest
    #1
    0
    19.06.2025 11:22:00
    Пытаюсь заставить Pfsense распознавать сетевой адаптер Virtio как PCIe вместо просто PCI. Тогда он должен отображаться как <VirtIO PCI (modern) Network adapter> вместо <VirtIO PCI (legacy) Network adapter> в системном логе. По идее, это должно быть возможно, если тип машины установлен на Q35, поскольку эта платформа поддерживает PCIe. Но как-то не получается добиться этого, несмотря на использование разных комбинаций настроек. Видел, что у других это работает на обычном libvirt KVM, где в логах показывалось <VirtIO PCI (modern) Network adapter>, так что похоже, это не проблема Pfsense. PCIe(modern) должен давать лучшую производительность, вот что мне нужно. Passtrough не подходит, так как это кластер и нужна HA/live migration. Какие идеи?
     
     
     
    wickeren
    Guest
    #2
    0
    20.06.2025 12:09:00
    Кто-нибудь ещё видел что-то, кроме <VirtIO PCI (legacy) Network adapter> в VM PFsense под Proxmox?
     
     
     
    leesteken
    Guest
    #3
    0
    20.06.2025 12:14:00
    Proxmox, скорее всего, подключает виртуальные сетевые устройства к виртуальной шине PCI (вместо виртуальной PCIe root, которая не всегда доступна). Возможно, стоит проверить команду QEMU/KVM, которую Proxmox на самом деле запускает (через `qm showcmd`), и вручную (через настройки параметров в конфигурационном файле VM) добавить сетевое устройство VirtIO к шине PCIe? Не думаю, что это сильно повлияет на производительность, поскольку обе они — виртуальные шины, а сетевое устройство — программное.
     
     
     
    wickeren
    Guest
    #4
    0
    20.06.2025 15:41:00
    Понял так, что "современный" Virtio в Pfsense должен поддерживать мульти-киу, что дает прирост производительности по сравнению с "устаревшей" реализацией.
     
     
     
    wickeren
    Guest
    #5
    0
    20.06.2025 15:58:00
    Ты был прав, сетевые адаптеры подключены к шине PCI, похоже, только SPICE работает на шине PCIE.

    Код: /usr/bin/kvm -id 901 -name 'Pfsense-test,debug-threads=on' -no-shutdown -chardev 'socket,id=qmp,path=/var/run/qemu-server/901.qmp,server=on,wait=off' -mon 'chardev=qmp,mode=control' -chardev 'socket,id=qmp-event,path=/var/run/qmeventd.sock,reconnect-ms=5000' -mon 'chardev=qmp-event,mode=control' -pidfile /var/run/qemu-server/901.pid -daemonize -smbios 'type=1,uuid=af50c38b-eb89-41db-9238-bf46d0dd7ccd' -drive 'if=pflash,unit=0,format=raw,readonly=on,file=/usr/share/pve-edk2-firmware//OVMF_CODE_4M.secboot.fd' -drive 'if=pflash,unit=1,id=drive-efidisk0,format=raw,file=/dev/pve/vm-901-disk-1,size=540672' -smp '4,sockets=2,cores=2,maxcpus=4' -nodefaults -boot 'menu=on,strict=on,reboot-timeout=1000,splash=/usr/share/qemu-server/bootsplash.jpg' -vnc 'unix:/var/run/qemu-server/901.vnc,password=on' -cpu host,+kvm_pv_eoi,+kvm_pv_unhalt -m 8192 -object 'iothread,id=iothread-virtio0' -global 'ICH9-LPC.disable_s3=1' -global 'ICH9-LPC.disable_s4=1' -readconfig /usr/share/qemu-server/pve-q35-4.0.cfg -device 'vmgenid,guid=2f3e0aff-5445-4a14-9bda-d37324a2ac1d' -device 'qxl-vga,id=vga,max_outputs=4,bus=pcie.0,addr=0x1' -object 'rng-random,filename=/dev/urandom,id=rng0' -device 'virtio-rng-pci,rng=rng0,max-bytes=1024,period=1000,bus=pci.1,addr=0x1d' -device 'virtio-serial,id=spice,bus=pcie.0,addr=0x9' -chardev 'spicevmc,id=vdagent,name=vdagent' -device 'virtserialport,chardev=vdagent,name=com.redhat.spice.0' -spice 'tls-port=61000,addr=127.0.0.1,tls-ciphers=HIGH,seamless-migration=on' -iscsi 'initiator-name=iqn.1993-08.org.debian:01:2cd38966b82e' -drive 'file=/dev/pve/vm-901-disk-0,if=none,id=drive-virtio0,cache=writeback,format=raw,aio=io_uring,detect-zeroes=on' -device 'virtio-blk-pci,drive=drive-virtio0,id=virtio0,bus=pci.0,addr=0xa,iothread=iothread-virtio0' -netdev 'type=tap,id=net0,ifname=tap901i0,script=/usr/libexec/qemu-server/pve-bridge,downscript=/usr/libexec/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=BC:24:11:0C:F0:BB,netdev=net0,bus=pci.0,addr=0x12,id=net0,rx_queue_size=1024,tx_queue_size=256' -device virtio-iommu-pci -machine 'type=q35+pve1'

    Не уверен, как добавить правильные аргументы в файл конфигурации VM. Попробовал несколько вариантов, и либо VM вообще не запускалась, либо сетевая карта не обнаруживалась.
     
     
     
    donhwyo
    Guest
    #6
    0
    20.06.2025 19:27:00
    Ты думал о том, чтобы перекинуть ник через VM? У меня вроде лучше работает с OpenWRT. Эффект может быть разным.
     
     
     
    julian
    Guest
    #7
    0
    22.06.2025 23:23:00
    Как я уже упоминал в первом сообщении, это не вариант, потому что у нас кластер, и нужна HA/live migration. Это невозможно, если используется passthrough.
     
     
     
    wickeren
    Guest
    #8
    0
    23.06.2025 12:02:00
    Было бы удобнее, если бы это можно было настраивать в графическом интерфейсе, в разделе "Расширенные настройки". По каким-то причинам, только видеокарта (не только Spice, но и VGA по умолчанию) подключена через PCI-E, а все остальные устройства просто на шине PCI. Или даже можно было бы сделать автоопределение, если используется Q35... Не получается настроить вручную через аргументы в конфиге, но это, наверное, моя вина.
     
     
     
    jimmy1987
    Guest
    #9
    0
    23.06.2025 13:07:00
    Я тоже об этом думаю, но на OPNsense и Debian VM. -device 'virtio-net-pci,mac=,netdev=net0,bus=pci.0,addr=0x12,id=net0,rx_queue_size=1024,tx_queue_size=256,bootindex=102' -machine 'type=q35+pve1'
     
     
     
    wickeren
    Guest
    #10
    0
    23.06.2025 16:29:00
    Вот честно, вообще не понимаю, почему используют PCI устройства вместо PCIe, даже на Q35 машине. Возможно, в Proxmox это особо не скажется на производительности, но должно повлиять на производительность в Pfsense/Opnsense. "Современный" virtio драйвер вроде бы поддерживает multiqueue в BSD VM, чего не хватает устаревшей версии. Не уверен, как себя ведёт Linux, но драйвер virtio в Linux всегда был намного быстрее (и с меньшим потреблением CPU), чем в BSD.
     
     
     
    jimmy1987
    Guest
    #11
    0
    23.06.2025 16:32:00
    Я пробовал разные аргументы, но, как ты и говорил, либо не запускается VM, либо не видит сетевую карту.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры