<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
	<channel>
		<title>Аспро: ЛайтШоп [тема: Частичная передача NVMe с тем же ID поставщика.]</title>
		<link>http://proxmox.su</link>
		<description>Новое в теме Частичная передача NVMe с тем же ID поставщика. форума Proxmox Виртуальная Среда на сайте Аспро: ЛайтШоп [proxmox.su]</description>
		<language>ru</language>
		<docs>http://backend.userland.com/rss2</docs>
		<pubDate>Wed, 22 Apr 2026 17:38:09 +0300</pubDate>
		<item>
			<title>Частичная передача NVMe с тем же ID поставщика.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message307615/75333-chastichnaya-peredacha-nvme-s-tem-zhe-id-postavshchika.">Частичная передача NVMe с тем же ID поставщика.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Решал ты это как-то? Я сейчас в такой же ситуации. <br />
			<i>03.04.2025 14:25:00, Lavan.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message307615/75333-chastichnaya-peredacha-nvme-s-tem-zhe-id-postavshchika.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message307615/75333-chastichnaya-peredacha-nvme-s-tem-zhe-id-postavshchika.</guid>
			<pubDate>Thu, 03 Apr 2025 14:25:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Частичная передача NVMe с тем же ID поставщика.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message307614/75333-chastichnaya-peredacha-nvme-s-tem-zhe-id-postavshchika.">Частичная передача NVMe с тем же ID поставщика.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Привет! У меня свежеустановленная PVE 8.0 на лабораторном сервере, пытаюсь провести тесты производительности для разных бэкендов хранилища. Конфигурация сервера (если важно): Xeon W-2145 на Supermicro X11SRA-RF с парой NVMe Micron 7300 Pro 1.92tb каждая. nvme0n1 используется как LVM PV с установленной PVE + /boot. nvme1n1 — это то, что я хотел бы передать виртуальной машине и использовать потом для тестов в формате qcow2/lvm. Я внимательно изучил инструкции <noindex><a href="https://pve.proxmox.com/wiki/PCI(e)_Passthrough" target="_blank" rel="nofollow" >https://pve.proxmox.com/wiki/PCI(e)_Passthrough</a></noindex>. Пошагово все необходимые модули загружены:<br /><br />```bash<br /># lsmod | grep vfio<br />vfio_pci &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 16384 &nbsp;0<br />vfio_pci_core &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;94208 &nbsp;1 vfio_pci<br />irqbypass &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;16384 &nbsp;2 vfio_pci_core,kvm<br />vfio_iommu_type1 &nbsp; &nbsp; &nbsp; 49152 &nbsp;0<br />vfio &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 57344 &nbsp;3 vfio_pci_core,vfio_iommu_type1,vfio_pci<br />iommufd &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;73728 &nbsp;1 vfio<br />```<br /><br />Но столкнулся с проблемой, как решить, пока не знаю:<br /><br />```bash<br />05:00.0 Non-Volatile memory controller [0108]: Micron Technology Inc 7300 PRO NVMe SSD [1344:51a2] (rev 01)<br /> &nbsp; &nbsp; &nbsp; &nbsp;Subsystem: Micron Technology Inc 1920GB U.2 [1344:3000]<br /> &nbsp; &nbsp; &nbsp; &nbsp;Kernel driver in use: nvme<br /> &nbsp; &nbsp; &nbsp; &nbsp;Kernel modules: nvme<br /><br />06:00.0 Non-Volatile memory controller [0108]: Micron Technology Inc 7300 PRO NVMe SSD [1344:51a2] (rev 01)<br /> &nbsp; &nbsp; &nbsp; &nbsp;Subsystem: Micron Technology Inc 1920GB U.2 [1344:3000]<br /> &nbsp; &nbsp; &nbsp; &nbsp;Kernel driver in use: nvme<br /> &nbsp; &nbsp; &nbsp; &nbsp;Kernel modules: nvme<br />```<br /><br />Учитывая, что у обоих накопителей одинаковый vendor id и один и тот же драйвер ядра и модуль, использование в качестве драйвера vfio-pci – плохая идея.<br /><br />Я нашел способ отвязать устройство от драйвера nvme:<br /><br />```bash<br />echo 0000:06:00.0 &gt; /sys/bus/pci/drivers/nvme/unbind<br />```<br /><br />Но не представляю, как привязать к vfio-pci (и как сохранить это после перезагрузки).<br /><br />```bash<br /># echo 0000:06:00.0 &gt; /sys/bus/pci/drivers/vfio-pci/bind<br />-bash: echo: write error: No such device<br />```<br /><br />В плановом производственном кластере я хочу, чтобы некоторые из этих четырех одинаковых NVMe были выделены для виртуальных машин с высокой нагрузкой (в случае больших различий в производительности), а другие использовались как общая память. Есть ли способ выставить похожие NVMe так, чтобы один был виден базовой системе, а другой работал в режиме передачи?<br /><br />P.S. В xcp-ng (с которым я ранее работал) это было бы тривиально (просто добавить xen-pciback.hide=(0000:06:00.0) к опциям grub) и было основано на физическом pci-адресе, а не на vendor id. <br />
			<i>13.07.2023 23:14:00, nickname.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message307614/75333-chastichnaya-peredacha-nvme-s-tem-zhe-id-postavshchika.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message307614/75333-chastichnaya-peredacha-nvme-s-tem-zhe-id-postavshchika.</guid>
			<pubDate>Thu, 13 Jul 2023 23:14:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
	</channel>
</rss>
