<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
	<channel>
		<title>Аспро: ЛайтШоп [тема: Производительность NVMe IOPS в 4k - на одном и том же диске с разными хостами результаты разные.]</title>
		<link>http://proxmox.su</link>
		<description>Новое в теме Производительность NVMe IOPS в 4k - на одном и том же диске с разными хостами результаты разные. форума Proxmox Виртуальная Среда на сайте Аспро: ЛайтШоп [proxmox.su]</description>
		<language>ru</language>
		<docs>http://backend.userland.com/rss2</docs>
		<pubDate>Sat, 25 Apr 2026 20:45:01 +0300</pubDate>
		<item>
			<title>Производительность NVMe IOPS в 4k - на одном и том же диске с разными хостами результаты разные.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message321522/77288-proizvoditelnost-nvme-iops-v-4k-_-na-odnom-i-tom-zhe-diske-s-raznymi-khostami-rezultaty-raznye.">Производительность NVMe IOPS в 4k - на одном и том же диске с разными хостами результаты разные.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Насколько я знаю, vDisk в настоящее время ограничен одним qemu-потоком, который, в свою очередь, ограничен одним потоком процессора. D Thread '[Feature Request] Proxmox 9.0 - iothread-vq-mapping' 1 июня 2025 г. <noindex><a href="https://blogs.oracle.com/linux/post/virtioblk-using-iothread-vq-mapping" target="_blank" rel="nofollow" >https://blogs.oracle.com/linux/post/virtioblk-using-iothread-vq-mapping</a></noindex> @bund69 proxmox тесты: Code: args: -object iothread,id=iothread0 -object iothread,id=iothread1 -object iothread,id=iothread2 -object iothread,id=iothread3 -object iothread,id=iothread4 -object iothread,id=iothread5 -object iothread,id=iothread6 -object iothread,id=iothread7 -object iothread,id=iothread8 -object iothread,id=iothread9 -object iothread,id=iothread10 -object iothread,id=iothread11 -object iothread,id=iothread12 -object iothread,id=iothread13 -object iothread,id=iothread14 -object... dominiaz Ответов: 10 Форум: Proxmox VE: Установка и настройка <br />
			<i>02.06.2025 08:18:00, _gabriel.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message321522/77288-proizvoditelnost-nvme-iops-v-4k-_-na-odnom-i-tom-zhe-diske-s-raznymi-khostami-rezultaty-raznye.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message321522/77288-proizvoditelnost-nvme-iops-v-4k-_-na-odnom-i-tom-zhe-diske-s-raznymi-khostami-rezultaty-raznye.</guid>
			<pubDate>Mon, 02 Jun 2025 08:18:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Производительность NVMe IOPS в 4k - на одном и том же диске с разными хостами результаты разные.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message321521/77288-proizvoditelnost-nvme-iops-v-4k-_-na-odnom-i-tom-zhe-diske-s-raznymi-khostami-rezultaty-raznye.">Производительность NVMe IOPS в 4k - на одном и том же диске с разными хостами результаты разные.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Да, конечно, ты прав, однако… Ты не совсем правильно понял его сообщение. Проблема с baremetal отсутствует, IOPs на обоих CPU в порядке... проблема, которую он замечает, касается производительности IOPs внутри VM. Многие из нас тратили безумное количество времени – от часов до недель – на то, чтобы всё это настраивать в бесчисленных билдах, и в итоге это оказывалось связано с разными вещами: от огромного количества VM-exits до обеспечения активности правильной виртуализации paravirtual APIC, до задержек, возникающих из-за того, что что-то не работало на основных ядрах, до бесчисленных проблем с потоками, до глупых багов в конкретных версиях ядра с отсутствующими патчами и так далее. <br />
			<i>02.06.2025 01:06:00, Domino.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message321521/77288-proizvoditelnost-nvme-iops-v-4k-_-na-odnom-i-tom-zhe-diske-s-raznymi-khostami-rezultaty-raznye.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message321521/77288-proizvoditelnost-nvme-iops-v-4k-_-na-odnom-i-tom-zhe-diske-s-raznymi-khostami-rezultaty-raznye.</guid>
			<pubDate>Mon, 02 Jun 2025 01:06:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Производительность NVMe IOPS в 4k - на одном и том же диске с разными хостами результаты разные.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message321520/77288-proizvoditelnost-nvme-iops-v-4k-_-na-odnom-i-tom-zhe-diske-s-raznymi-khostami-rezultaty-raznye.">Производительность NVMe IOPS в 4k - на одном и том же диске с разными хостами результаты разные.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			265K – это последняя информация по поводу CPU (конец 2024 года), где вычислительная мощность одного ядра примерно в 2,5 раза выше, чем у Epyc 7702 (конец 2019 года). Epyc медленнее, если запускать только одну виртуальную машину, но попробуй провести тот же тест с 32 одновременными VM. <br />
			<i>01.06.2025 23:14:00, _gabriel.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message321520/77288-proizvoditelnost-nvme-iops-v-4k-_-na-odnom-i-tom-zhe-diske-s-raznymi-khostami-rezultaty-raznye.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message321520/77288-proizvoditelnost-nvme-iops-v-4k-_-na-odnom-i-tom-zhe-diske-s-raznymi-khostami-rezultaty-raznye.</guid>
			<pubDate>Sun, 01 Jun 2025 23:14:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Производительность NVMe IOPS в 4k - на одном и том же диске с разными хостами результаты разные.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message321519/77288-proizvoditelnost-nvme-iops-v-4k-_-na-odnom-i-tom-zhe-diske-s-raznymi-khostami-rezultaty-raznye.">Производительность NVMe IOPS в 4k - на одном и том же диске с разными хостами результаты разные.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Всё сводится к тому, как гипервизор и гостевые ОС устанавливают паравиртуальные соединения через KVM/HV enlightenments. К сожалению, Qemu/KVM и даже Proxmox как UI (хотя он и улучшается, просто слишком много настроек, чтобы успевать за всем, и это вполне понятно — дилемма) — всё это немного настоящий бардак, потому что не всё настраивается оптимально для каждой системы, то есть CPU и гостевой ОС, не говоря уже об устройствах и бесчисленных комбинациях прошивок на устройствах и материнских платах и даже до микрокода процессора. А ещё есть гостевые дистрибутивы, у них полный завал, и они требуют изменений в командной строке ядра, которые опять же варьируются от дистрибутива к дистрибутиву, от хоста к процессору, от версии Qemu к версии ядра... уххх... честно говоря, именно поэтому Microshaft's HV/Azure и бесчисленное количество других крупных облачных провайдеров так привлекательны в наши дни — почему? Потому что все оптимизации уже сделаны и настроены до совершенства в зависимости от сценариев использования нагрузки — вы просто платите взнос и расслабляетесь lol. Вы не поделились, делаете ли вы NVME passthrough или нет, или используете Virtio-fs или нет, поэтому я не буду углубляться в нерелевантный путь. Однако могу заверить вас, в 9 случаях из 10 проблема не в технологии, а в пользователе и отсутствии автоматизации, то есть вам приходится тратить часы и дни на поиски в интернете, на github и в каких-то неведомых тёмных углах мира блогов, чтобы найти какой-нибудь маленький «флаг», который делает всю разницу в вашей конкретной конфигурации. В общем, ответ на ваш вопрос "почему" — это… тестируйте и экспериментируйте, изучайте это сами. Когда вы используете Qemu/KVM/Linux в целом, вы берёте на себя ответственность за то, чтобы тратить бесчисленные часы своей жизни на что-то, что, вероятно, выбросите и никогда больше не понадобится, а затем вы поймёте, что это время уже не вернуть, как только оно ушло, оно безвозвратно. Здесь нет момента "прочти документацию", потому что нет руководства, которое подходит для всех конфигураций, это огромный хаос, это и делает Linux таким мощным, а также головной болью. Удачи. <br />
			<i>01.06.2025 21:12:00, Domino.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message321519/77288-proizvoditelnost-nvme-iops-v-4k-_-na-odnom-i-tom-zhe-diske-s-raznymi-khostami-rezultaty-raznye.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message321519/77288-proizvoditelnost-nvme-iops-v-4k-_-na-odnom-i-tom-zhe-diske-s-raznymi-khostami-rezultaty-raznye.</guid>
			<pubDate>Sun, 01 Jun 2025 21:12:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Производительность NVMe IOPS в 4k - на одном и том же диске с разными хостами результаты разные.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message321518/77288-proizvoditelnost-nvme-iops-v-4k-_-na-odnom-i-tom-zhe-diske-s-raznymi-khostami-rezultaty-raznye.">Производительность NVMe IOPS в 4k - на одном и том же диске с разными хостами результаты разные.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Хост1: Epyc 7702P с 512 ГБ ОЗУ, Micron 7400 Pro 1,92 ТБ<br />Хост2: Core Ultra 7 265k с 128 ГБ ОЗУ, Micron 7400 Pro 1,92 ТБ. Micron 7400 Pro 1,92 ТБ смонтирован как DIR с файловой системой XFS на Хосте. Я использовал fstrim -av перед проведением тестов.<br /><br />Конфигурация VM:<br />Код: virtio0: local-u2-micron-1:2105/vm-2105-disk-0.raw,aio=native,cache=directsync,discard=on,iothread=1,size=32G<br /><br />Хост1 (Epyc 7702P):<br />Код: fio --ioengine=libaio --direct=1 --rw=randread --bs=4k --numjobs=32 --iodepth=32 --runtime=60 --time_based --name=rand_read --filename=/mnt/pve/local-u2-micron-1/fio.4k --size=1G<br />735k IOPS<br /><br />VM Guest на Хосте1:<br />Код: fio --ioengine=libaio --direct=1 --rw=randread --bs=4k --numjobs=32 --iodepth=32 --runtime=60 --time_based --name=rand_read --filename=/tmp/fio.4k --size=1G<br />192k IOPS<br /><br />Хост2 (Core Ultra 7 265k):<br />Код: fio --ioengine=libaio --direct=1 --rw=randread --bs=4k --numjobs=32 --iodepth=32 --runtime=60 --time_based --name=rand_read --filename=/mnt/pve/local-u2-micron-1/fio.4k --size=1G<br />745k IOPS<br /><br />VM Guest на Хосте2:<br />Код: fio --ioengine=libaio --direct=1 --rw=randread --bs=4k --numjobs=32 --iodepth=32 --runtime=60 --time_based --name=rand_read --filename=/tmp/fio.4k --size=1G<br />495k IOPS<br /><br />VM guest на Epyc 7702P: 192k IOPS<br />VM guest на Core Ultra 7 265k: 495k IOPS<br /><br />Почему один и тот же NVME Micron 7400 Pro 1,92 на разных Хостах показывает разные результаты внутри VM? <br />
			<i>30.05.2025 13:21:00, dominiaz.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message321518/77288-proizvoditelnost-nvme-iops-v-4k-_-na-odnom-i-tom-zhe-diske-s-raznymi-khostami-rezultaty-raznye.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message321518/77288-proizvoditelnost-nvme-iops-v-4k-_-na-odnom-i-tom-zhe-diske-s-raznymi-khostami-rezultaty-raznye.</guid>
			<pubDate>Fri, 30 May 2025 13:21:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
	</channel>
</rss>
