Настройка
Новости
Оплата
Доставка
Информация
Контакты
Загрузки
Форум
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Каталог
    • 1U
      1U
    • 2U
      2U
    • 3U
      3U
    • 4U
      4U
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Каталог
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Драйвер Intel NPU / Passthrough

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    Ответить
    RSS
    Драйвер Intel NPU / Passthrough, Proxmox Виртуальная Среда
     
    gardeningevenings
    Guest
    #1
    0
    19.02.2025 12:09:00
    Привет, у меня есть приложение, которое может использовать NPU в новых процессорах Core Ultra, установленных в моем PVE-хосте. Приложение будет работать в Ubuntu, и у Intel готовы драйверы для установки в виртуальной машине. Я не уверен, как его передать виртуальной машине, оно не отображается в списке устройств на экране PCI-отображения. Думаю, мне придется сначала установить драйверы на хост? Похоже, что apt-пакеты можно получить у Intel, если подписаться на их SDK-программу: https://amrdocs.intel.com/docs/2.2/gsg_robot/install-npu-driver.html Есть ли кто-нибудь еще, кто это делал или у кого есть какие-нибудь советы, пожалуйста? Спасибо, Oli.
     
       Цитировать   Имя
     
    mr44er
    Guest
    #2
    0
    19.02.2025 12:35:00
    Я никогда не делал passthrough с Intel, но возможно, что с этими новыми поколениями GPU потребуется предоставить драйвер на хосте, который сможет разделить GPU на 2 или 4 "mediated devices". Один из этих mediated devices вы потом выберете для passthrough. Это дает вам ускорение внутри VM, но без VGA-выхода. Если вам нужен VGA-выход из VM, вам нужно будет passthrough всего устройства, и нет, с этим вам не нужен драйвер на хосте. Тогда нужно активировать IOMMU + VT-d, соответственно, AMD-Vi в BIOS. https://pve.proxmox.com/wiki/PCI(e)_Passthrough
     
    Цитировать   Имя
     
    gardeningevenings
    Guest
    #3
    0
    19.02.2025 15:33:00
    Спасибо. Хочу добавить, что хотя концепции похожи, NPU, насколько я знаю, это не совсем тип GPU (по крайней мере). Но он есть на чипе, так что, наверное, схожий подход применим. Мне не нужно, чтобы VM имели VGA-вывод и все такое, это все для обработки на бэкенде. Поэтому, когда я смотрю на сопоставление PCI-устройства, добавляя его, я вижу список пунктов в выпадающем списке (необработанное устройство) - включая контроллеры TB4 и т.д., но ничего, что относится к NPU, я не вижу. Я проверил до установки, и IOMMU и т.д. были включены в BIOS. Думаю, тот факт, что я вижу некоторые устройства для сопоставления, говорит о том, что передача работает в какой-то степени.
     
    Цитировать   Имя
     
    mr44er
    Guest
    #4
    0
    19.02.2025 16:25:00
    В общем, особой разницы нет, GPU с физическим VGA-коннектором или без внутри VM - это просто акселератор... opencl, vulkan, CUDA, tensorflow, pytorch... У меня пока нет опыта с NPU, возможно, они привязаны к GPU, даже при разделении IOMMU-групп. Вот lspci от Ryzen 8600G, там вроде должна быть NPU:

    Code: 00:00.0 Host bridge: Advanced Micro Devices, Inc. [AMD] Device 14e8
    00:00.2 IOMMU: Advanced Micro Devices, Inc. [AMD] Device 14e9
    00:01.0 Host bridge: Advanced Micro Devices, Inc. [AMD] Device 14ea
    00:01.1 PCI bridge: Advanced Micro Devices, Inc. [AMD] Device 14ed
    00:01.2 PCI bridge: Advanced Micro Devices, Inc. [AMD] Device 14ed
    00:02.0 Host bridge: Advanced Micro Devices, Inc. [AMD] Device 14ea
    00:02.1 PCI bridge: Advanced Micro Devices, Inc. [AMD] Device 14ee
    00:02.2 PCI bridge: Advanced Micro Devices, Inc. [AMD] Device 14ee
    00:03.0 Host bridge: Advanced Micro Devices, Inc. [AMD] Device 14ea
    00:04.0 Host bridge: Advanced Micro Devices, Inc. [AMD] Device 14ea
    00:08.0 Host bridge: Advanced Micro Devices, Inc. [AMD] Device 14ea
    00:08.1 PCI bridge: Advanced Micro Devices, Inc. [AMD] Device 14eb
    00:08.2 PCI bridge: Advanced Micro Devices, Inc. [AMD] Device 14eb
    00:08.3 PCI bridge: Advanced Micro Devices, Inc. [AMD] Device 14eb
    00:14.0 SMBus: Advanced Micro Devices, Inc. [AMD] FCH SMBus Controller (rev 71)
    00:14.3 ISA bridge: Advanced Micro Devices, Inc. [AMD] FCH LPC Bridge (rev 51)
    00:18.0 Host bridge: Advanced Micro Devices, Inc. [AMD] Device 14f0
    00:18.1 Host bridge: Advanced Micro Devices, Inc. [AMD] Device 14f1
    00:18.2 Host bridge: Advanced Micro Devices, Inc. [AMD] Device 14f2
    00:18.3 Host bridge: Advanced Micro Devices, Inc. [AMD] Device 14f3
    00:18.4 Host bridge: Advanced Micro Devices, Inc. [AMD] Device 14f4
    00:18.5 Host bridge: Advanced Micro Devices, Inc. [AMD] Device 14f5
    00:18.6 Host bridge: Advanced Micro Devices, Inc. [AMD] Device 14f6
    00:18.7 Host bridge: Advanced Micro Devices, Inc. [AMD] Device 14f7
    01:00.0 VGA compatible controller: NVIDIA Corporation GP107 [GeForce GTX 1050 Ti] (rev a1)
    01:00.1 Audio device: NVIDIA Corporation GP107GL High Definition Audio Controller (rev a1)
    02:00.0 Non-Volatile memory controller: Micron Technology Inc 7450 PRO NVMe SSD (rev 01)
    03:00.0 PCI bridge: Advanced Micro Devices, Inc. [AMD] 600 Series Chipset PCIe Switch Upstream Port (rev 01)
    04:00.0 PCI bridge: Advanced Micro Devices, Inc. [AMD] 600 Series Chipset PCIe Switch Downstream Port (rev 01)
    04:08.0 PCI bridge: Advanced Micro Devices, Inc. [AMD] 600 Series Chipset PCIe Switch Downstream Port (rev 01)
    04:09.0 PCI bridge: Advanced Micro Devices, Inc. [AMD] 600 Series Chipset PCIe Switch Downstream Port (rev 01)
    04:0a.0 PCI bridge: Advanced Micro Devices, Inc. [AMD] 600 Series Chipset PCIe Switch Downstream Port (rev 01)
    04:0c.0 PCI bridge: Advanced Micro Devices, Inc. [AMD] 600 Series Chipset PCIe Switch Downstream Port (rev 01)
    04:0d.0 PCI bridge: Advanced Micro Devices, Inc. [AMD] 600 Series Chipset PCIe Switch Downstream Port (rev 01)
    05:00.0 Ethernet controller: Solarflare Communications SFC9120 10G Ethernet Controller (rev 01)
    05:00.1 Ethernet controller: Solarflare Communications SFC9120 10G Ethernet Controller (rev 01)
    08:00.0 Ethernet controller: Realtek Semiconductor Co., Ltd. RTL8125 2.5GbE Controller (rev 05)
    09:00.0 USB controller: Advanced Micro Devices, Inc. [AMD] 600 Series Chipset USB 3.2 Controller (rev 01)
    0a:00.0 SATA controller: Advanced Micro Devices, Inc. [AMD] 600 Series Chipset SATA Controller (rev 01)
    0b:00.0 Non-Volatile memory controller: Seagate Technology PLC FireCuda 530 SSD (rev 01)
    0c:00.0 VGA compatible controller: Advanced Micro Devices, Inc. [AMD/ATI] Phoenix1 (rev 05)
    0c:00.1 Audio device: Advanced Micro Devices, Inc. [AMD/ATI] Rembrandt Radeon High Definition Audio Controller
    0c:00.2 Encryption controller: Advanced Micro Devices, Inc. [AMD] Family 19h (Model 74h) CCP/PSP 3.0 Device
    0c:00.3 USB controller: Advanced Micro Devices, Inc. [AMD] Device 15b9
    0c:00.4 USB controller: Advanced Micro Devices, Inc. [AMD] Device 15ba
    0c:00.6 Audio device: Advanced Micro Devices, Inc. [AMD] Family 17h/19h HD Audio Controller
    0d:00.0 Non-Essential Instrumentation [1300]: Advanced Micro Devices, Inc. [AMD] Device 14ec
    0d:00.1 Signal processing controller: Advanced Micro Devices, Inc. [AMD] AMD IPU Device
    0e:00.0 Non-Essential Instrumentation [1300]: Advanced Micro Devices, Inc. [AMD] Device 14ec
    0e:00.3 USB controller: Advanced Micro Devices, Inc. [AMD] Device 15c0
    0e:00.4 USB controller: Advanced Micro Devices, Inc. [AMD] Device 15c1
    My best guess would be 0c:00.2 Encryption controller: Advanced Micro Devices, Inc. [AMD] Family 19h (Model 74h) CCP/PSP 3.0 Device or 0d:00.1 Signal processing controller: Advanced Micro Devices, Inc. [AMD] AMD IPU Device
     
    Цитировать   Имя
     
    gardeningevenings
    Guest
    #5
    0
    19.02.2025 16:55:00
    Окей, я кое-каких успехов добился *по-моему*. Похоже, разобрался с PCI ID – он оказался 00:0b.0, и передал это значение. Теперь я вижу PCI-устройство внутри VM, но после установки драйвера внутри VM получаю вот это:

    1.  615869] intel\_vpu 0000:00:10.0: \[drm] Firmware: intel/vpu/vpu\_37xx\_v0.0.bin, version: 0726\*MTL\_CLIENT\_SILICON-release\*2101\*ci\_tag\_mtl\_pv\_vpu\_rc\_20230726\_2101\*648a666b8b9
    [ 2.670924] intel\_vpu 0000:00:10.0: \[drm] \*ERROR\* ivpu\_boot(): Не удалось загрузить прошивку: -110
    [ 2.671105] intel\_vpu 0000:00:10.0: \[drm] \*ERROR\* ivpu\_mmu\_dump\_event(): MMU EVTQ: 0x10 (Translation fault) SSID: 0 SID: 3, e\[2] 00000000, e\[3] 00000208, in addr: 0x84803000, fetch addr: 0x0
    [ 2.671382] intel\_vpu 0000:00:10.0: \[drm] \*ERROR\* ivpu\_mmu\_dump\_event(): MMU EVTQ: 0x10 (Translation fault) SSID: 0 SID: 3, e\[2] 00000000, e\[3] 00000208, in addr: 0x84803010, fetch addr: 0x0
    [ 2.675752] intel\_vpu 0000:00:10.0: \[drm] ivpu\_hw\_37xx\_power\_down(): VPU не простаивает во время выключения питания
    [ 2.676306] intel\_vpu: probe of 0000:00:10.0 failed with error -110

    [ 124.667316] intel\_vpu 0000:00:10.0: \[drm] Firmware: intel/vpu/vpu\_37xx\_v0.0.bin, version: 025\*MTL\_CLIENT\_SILICON-release\*1830\*ci\_tag\_ud202444\_vpu\_rc\_20241025\_1830\*ae072b315bc
    [ 125.670862] intel\_vpu 0000:00:10.0: \[drm] \*ERROR\* ivpu\_boot(): Не удалось загрузить прошивку: -110
    [ 125.670889] intel\_vpu 0000:00:10.0: \[drm] \*ERROR\* ivpu\_mmu\_dump\_event(): MMU EVTQ: 0x10 (Translation fault) SSID: 0 SID: 3, e\[2] 00000000, e\[3] 00000208, in addr: 0x84803000, fetch addr: 0x0
    [ 125.670902] intel\_vpu 0000:00:10.0: \[drm] \*ERROR\* ivpu\_mmu\_dump\_event(): MMU EVTQ: 0x10 (Translation fault) SSID: 0 SID: 3, e\[2] 00000000, e\[3] 00000208, in addr: 0x84803010, fetch addr: 0x0
    [ 125.681336] intel\_vpu 0000:00:10.0: \[drm] ivpu\_hw\_37xx\_power\_down(): VPU не простаивает во время выключения питания
    [ 125.683518] intel\_vpu: probe of 0000:00:10.0 failed with error -110

    (Sorry code option doesn’t work on iOS) Могу описать, что делал, чтобы дойти до этого, но хочу сначала разобраться с остальным.
     
    Цитировать   Имя
     
    mr44er
    Guest
    #6
    0
    19.02.2025 17:02:00
    Мгм, возможно, в BIOS нужно что-то включить. Существует ли этот путь, и есть ли там файл? intel/vpu/vpu_37xx_v0.0.bin где бы он ни был. Пожалуйста, покажи полный вывод lspci с хоста и VM.
     
    Цитировать   Имя
     
    mr44er
    Guest
    #7
    0
    19.02.2025 17:53:00
    Кстати, немного покопался, оказалось, это IPU-устройство на платформах AMD, так что 0d:00.1 Signal processing controller: Advanced Micro Devices, Inc. [AMD] AMD IPU Device – мой NPU. https://rog-forum.asus.com/t5/downl...xx-9xxx-cpu/m-p/1058919/highlight/true#M16985 https://ryzenai.docs.amd.com/en/latest/inst.html https://ryzenai.docs.amd.com/en/latest/llm_flow.html https://github.com/amd/RyzenAI-SW/blob/main/example/transformers/models/llm/docs/README.md https://github.com/amd/RyzenAI-SW
     
    Цитировать   Имя
     
    gardeningevenings
    Guest
    #8
    0
    19.02.2025 18:32:00
    Окей, вот перевод сообщения:

    В общем, все еще не работает, но я:
    1. Заново зашел в BIOS и проверил все настройки IOMMU и VT, все показывает, что включено и работает.
    2. Прошел по странице вики по PCI passthrough: https://pve.proxmox.com/wiki/PCI_Passthrough#Verifying_IOMMU_parameters, и вывод из Code: dmesg | grep -e DMAR -e IOMMU показывает Code: DMAR-IR: Enabled IRQ remapping in x2apic mode, что имеет смысл, потому что я также могу использовать Code: pvesh get /nodes/pve1/hardware/pci --pci-class-blacklist "" для перечисления всех устройств PCI.
    3. Вывод из lspci с хоста:
    Code: 00:00.0 Host bridge: Intel Corporation Device 7d2a (rev 01)
    00:01.0 PCI bridge: Intel Corporation Device 7ecc (rev 10)
    00:02.0 VGA compatible controller: Intel Corporation Arrow Lake-S [Intel Graphics] (rev 06)
    00:04.0 Signal processing controller: Intel Corporation Device ad03 (rev 01)
    00:07.0 PCI bridge: Intel Corporation Meteor Lake-P Thunderbolt 4 PCI Express Root Port #0 (rev 10)
    00:07.1 PCI bridge: Intel Corporation Meteor Lake-P Thunderbolt 4 PCI Express Root Port #1 (rev 10)
    00:08.0 System peripheral: Intel Corporation Device ae4c (rev 10)
    00:0a.0 Signal processing controller: Intel Corporation Device ad0d (rev 01)
    00:0b.0 Processing accelerators: Intel Corporation Arrow Lake NPU (rev 01)
    00:0d.0 USB controller: Intel Corporation Meteor Lake-P Thunderbolt 4 USB Controller (rev 10)
    00:0d.2 USB controller: Intel Corporation Meteor Lake-P Thunderbolt 4 NHI #0 (rev 10)
    00:14.0 RAM memory: Intel Corporation Device ae7f (rev 10)
    00:1f.0 ISA bridge: Intel Corporation Device ae0d (rev 10)
    00:1f.5 Serial bus controller: Intel Corporation Device ae23 (rev 10)
    01:00.0 Non-Volatile memory controller: Micron/Crucial Technology P3 Plus NVMe PCIe SSD (DRAM-less) (rev 01)
    80:14.0 USB controller: Intel Corporation Device 7f6e (rev 10)
    80:14.5 Non-VGA unclassified device: Intel Corporation Device 7f2f (rev 10)
    80:15.0 Serial bus controller: Intel Corporation Device 7f4c (rev 10)
    80:16.0 Communication controller: Intel Corporation Device 7f68 (rev 10)
    80:17.0 SATA controller: Intel Corporation Device 7f62 (rev 10)
    80:1b.0 PCI bridge: Intel Corporation Device 7f44 (rev 10)
    80:1c.0 PCI bridge: Intel Corporation Device 7f38 (rev 10)
    80:1c.1 PCI bridge: Intel Corporation Device 7f39 (rev 10)
    80:1c.2 PCI bridge: Intel Corporation Device 7f3a (rev 10)
    80:1c.4 PCI bridge: Intel Corporation Device 7f3c (rev 10)
    80:1f.0 ISA bridge: Intel Corporation Device 7f06 (rev 10)
    80:1f.3 Audio device: Intel Corporation Device 7f50 (rev 10)
    80:1f.4 SMBus: Intel Corporation Device 7f23 (rev 10)
    80:1f.5 Serial bus controller: Intel Corporation Device 7f24 (rev 10)
    81:00.0 Non-Volatile memory controller: Micron/Crucial Technology P3 Plus NVMe PCIe SSD (DRAM-less) (rev 01)
    82:00.0 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01)
    82:00.1 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01)
    83:00.0 Non-Volatile memory controller: Micron/Crucial Technology P3 Plus NVMe PCIe SSD (DRAM-less) (rev 01)
    84:00.0 Ethernet controller: Realtek Semiconductor Co., Ltd. Device 8126 (rev 01)
    85:00.0 SATA controller: ASMedia Technology Inc. ASM1166 Serial ATA Controller (rev 02)
    4. Вывод из lspci с vm:
    Code: 00:00.0 Host bridge: Intel Corporation 440FX - 82441FX PMC [Natoma] (rev 02)
    00:01.0 ISA bridge: Intel Corporation 82371SB PIIX3 ISA [Natoma/Triton II]
    00:01.1 IDE interface: Intel Corporation 82371SB PIIX3 IDE [Natoma/Triton II]
    00:01.2 USB controller: Intel Corporation 82371SB PIIX3 USB [Natoma/Triton II] (rev 01)
    00:01.3 Bridge: Intel Corporation 82371AB/EB/MB PIIX4 ACPI (rev 03)
    00:02.0 VGA compatible controller: Device 1234:1111 (rev 02)
    00:07.0 SATA controller: Intel Corporation 82801IR/IO/IH (ICH9R/DO/DH) 6 port SATA Controller [AHCI mode] (rev 02)
    00:08.0 Communication controller: Red Hat, Inc. Virtio console
    00:0a.0 SCSI storage controller: Red Hat, Inc. Virtio block device
    00:10.0 Processing accelerators: Intel Corporation Arrow Lake NPU (rev 01)
    00:12.0 Ethernet controller: Intel Corporation 82540EM Gigabit Ethernet Controller (rev 03)
    00:1e.0 PCI bridge: Red Hat, Inc. QEMU PCI-PCI bridge
    00:1f.0 PCI bridge: Red Hat, Inc. QEMU PCI-PCI bridge
    5. Еще я заметил, что версия Ubuntu, которую я запускал, не поддерживалась, поэтому я обновился до 24.04, что показывает как поддерживаемое для драйвера: https://github.com/canonical/intel-npu-driver-snap/blob/main/README.md
    6. Все еще вижу ошибку при загрузке драйвера:
    Code: [ 1.624587] intel_vpu 0000:00:10.0: [drm] *ERROR* ivpu_boot(): Failed to boot the firmware: -110
    [ 2.699943] intel_vpu 0000:00:10.0: [drm] *ERROR* ivpu_mmu_dump_event(): MMU EVTQ: 0x10 (Translation fault) SSID: 0 SID: 3, e[2] 00000000, e[3] 00000208, in addr: 0x84803000, fetch addr: 0x0
    [ 2.700106] intel_vpu 0000:00:10.0: [drm] *ERROR* ivpu_mmu_dump_event(): MMU EVTQ: 0x10 (Translation fault) SSID: 0 SID: 0, e[2] 00000000, e[3] 00000208, in addr: 0x84803010, fetch addr: 0x0
    [ 2.704282] intel_vpu 0000:00:10.0: [drm] ivpu_hw_37xx_power_down(): VPU not idle during power down
    [ 2.704768] intel_vpu: probe of 0000:00:10.0 failed with error -110
     
    Цитировать   Имя
     
    mr44er
    Guest
    #9
    0
    19.02.2025 19:36:00
    Выглядит неплохо, это должно быть правильное устройство. Что это?: Код: 00:04.0 Контроллер обработки сигналов: Intel Corporation Device ad03 (rev 01)
    00:0a.0 Контроллер обработки сигналов: Intel Corporation Device ad0d (rev 01)
    Эти ошибки похожи на те, что возникают при пробросе GPU без его аудиоустройства. Например, у моей NVIDIA нужны оба устройства для работы, даже если аудио-часть не используется: Код: 01:00.0 VGA-совместимый контроллер: NVIDIA Corporation GP107 [GeForce GTX 1050 Ti] (rev a1)
    01:00.1 Аудиоустройство: NVIDIA Corporation GP107GL High Definition Audio Controller (rev a1) = 01:00.0 + 01:00.1
    Поэтому просто предположение, но, возможно, вам нужно, чтобы эти устройства работали вместе: Код: 00:0a.0 Контроллер обработки сигналов: Intel Corporation Device ad0d (rev 01)
    00:0b.0 Ускорители обработки: Intel Corporation Arrow Lake NPU (rev 01) Или просто 00:0b.0 + "Все функции" отключены.
     
    Цитировать   Имя
     
    mr44er
    Guest
    #10
    0
    13.03.2025 00:34:00
    /dev/accel/accel0 должно стать волшебным решением: https://github.com/blakeblackshear/frigate/discussions/13248#discussioncomment-10912365 Для AMD пока "не готов", похоже: https://github.com/amd/xdna-driver/issues/168#issuecomment-2240080903
     
    Цитировать   Имя
     
    burnthebread
    Guest
    #11
    0
    18.03.2025 04:26:00
    У меня та же проблема. Единственное отличие в том, что на хосте все работает, а внутри гостевой виртуальной машины (Ubuntu 24) я получаю ошибку "Failed to boot the firmware: -110". Я перепробовал, кажется, все и надеюсь, что кто-то уже нашел решение.

    ASUS NUC 14 Pro AI (Core Ultra 7, Meteor Lake)

    Хост:

    ```bash
    uname -a
    ```

    ```
    Linux proxmox 6.8.12-8-pve #1 SMP PREEMPT_DYNAMIC PMX 6.8.12-8 (2025-01-24T12:32Z) x86_64 GNU/Linux
    ```

    Добавил опции в `vfio.conf` (8086:7d1d - идентификатор производителя и устройства, найденный в NPU).

    ```bash
    cat /etc/modprobe.d/vfio.conf
    ```

    ```
    options vfio-pci ids=8086:7d1d
    ```

    Добавил vfio в файл модулей.

    ```bash
    cat /etc/modules
    ```

    ```
    vfio
    vfio_iommu_type1
    vfio_pci
    vfio_virqfd
    ```

    Добавил `intel_iommu=on` и попробовал как с `iommu=pt`, так и без него в `/etc/default/grub`.

    ```bash
    cat /etc/default/grub
    ```

    ```
    GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on iommu=pt"
    ```

    При отсоединении PCI-устройства от ВМ и перезагрузке, `/dev/accel/accel0` видно на хосте Proxmox.

    Гость (Ubuntu 24)

    Попробовал ядра 6.11 и 6.13.

    ```bash
    dmesg | grep vpu
    ```

    ```
    [ 2.635526] intel_vpu 0000:06:10.0: [drm] Firmware: intel/vpu/vpu_37xx_v0.0.bin, version: 20250115*MTL_CLIENT_SILICON-release*1905*ci_tag_ud202504_vpu_rc_20250115_1905*ae83b65d01c
    [ 2.635528] intel_vpu 0000:06:10.0: [drm] Scheduler mode: OS
    [ 3.794539] intel_vpu 0000:06:10.0: [drm] *ERROR* ivpu_boot(): Failed to boot the firmware: -110
    [ 3.794729] intel_vpu 0000:06:10.0: [drm] *ERROR* ivpu_mmu_dump_event(): MMU EVTQ: 0x10 (Translation fault) SSID: 0 SID: 3, e[2] 00000000, e[3] 00000208, in addr: 0x84803000, fetch addr: 0x0
    [ 3.795072] intel_vpu 0000:06:10.0: [drm] *ERROR* ivpu_mmu_dump_event(): MMU EVTQ: 0x10 (Translation fault) SSID: 0 SID: 3, e[2] 00000000, e[3] 00000208, in addr: 0x84803010, fetch addr: 0x0
    [ 3.868365] intel_vpu 0000:06:10.0: [drm] ivpu_hw_power_down(): NPU not idle during power down
    [ 3.880927] intel_vpu 0000:06:10.0: probe with driver intel_vpu failed with error -110
    ```

    ```bash
    lspci -nnv | grep -i intel
    ```

    ```
    00:00.0 Host bridge [0600]: Intel Corporation 82G33/G31/P35/P31 Express DRAM Controller [8086:29c0]
    00:1a.0 USB controller [0c03]: Intel Corporation 82801I (ICH9 Family) USB UHCI Controller #4 [8086:2937] (rev 03)
    00:1a.1 USB controller [0c03]: Intel Corporation 82801I (ICH9 Family) USB UHCI Controller #5 [8086:2938] (rev 03)
    00:1a.2 USB controller [0c03]: Intel Corporation 82801I (ICH9 Family) USB UHCI Controller #6 [8086:2939] (rev 03)
    00:1a.7 USB controller [0c03]: Intel Corporation 82801I (ICH9 Family) USB2 EHCI Controller #2 [8086:293c] (rev 03)
    00:1b.0 Audio device [0403]: Intel Corporation 82801I (ICH9 Family) HD Audio Controller [8086:293e] (rev 03)
           Kernel driver in use: snd_hda_intel
           Kernel modules: snd_hda_intel
    00:1d.0 USB controller [0c03]: Intel Corporation 82801I (ICH9 Family) USB UHCI Controller #1 [8086:2934] (rev 03)
    00:1d.1 USB controller [0c03]: Intel Corporation 82801I (ICH9 Family) USB UHCI Controller #2 [8086:2935] (rev 03)
    00:1d.2 USB controller [0c03]: Intel Corporation 82801I (ICH9 Family) USB UHCI Controller #3 [8086:2936] (rev 03)
    00:1d.7 USB controller [0c03]: Intel Corporation 82801I (ICH9 Family) USB2 EHCI Controller #1 [8086:293a] (rev 03)
    00:1e.0 PCI bridge [0604]: Intel Corporation 82801 PCI Bridge [8086:244e] (rev 92)
    00:1f.0 ISA bridge [0601]: Intel Corporation 82801IB (ICH9) LPC Interface Controller [8086:2918] (rev 02)
    00:1f.2 SATA controller [0106]: Intel Corporation 82801IR/IO/IH (ICH9R/DO/DH) 6 port SATA Controller [AHCI mode] [8086:2922] (rev 02)
    00:1f.3 SMBus [0c05]: Intel Corporation 82801I (ICH9 Family) SMBus Controller [8086:2930] (rev 02)
    06:10.0 Processing accelerators [1200]: Intel Corporation Meteor Lake NPU [8086:7d1d] (rev 04)
           Kernel modules: intel_vpu
    ```

    Обратите внимание на последнюю строку; NPU передается в ВМ. Я знаю, что у меня Meteor Lake, но я также пробовал это, и безрезультатно. Мне кажется, что это ошибка драйвера, но возможно, я что-то делаю неправильно. Буду благодарен за любую помощь – спасибо заранее.
     
    Цитировать   Имя
     
    burnthebread
    Guest
    #12
    0
    18.03.2025 05:56:00
    Решил эту проблему этим.
     
    Цитировать   Имя
     
    Страницы: 1
    Ответить
    Читают тему
    BBCode   Правила
    Форма ответов
    Текст сообщения*
    Перетащите файлы
    Ничего не найдено
    Файл
    Загрузить картинки
    #name# #size#
     
    #name#
    Файлы:
    Перетащите один или несколько файлов в эту область
    или выберите файл на компьютере
    Файлы:
    Загрузить файлы
     
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2025 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры