<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
	<channel>
		<title>Аспро: ЛайтШоп [тема: Серьезная деградация производительности при миграции виртуальных дисков для qcow2 на ZFS с версией ядра 5.15.39-2-pve.]</title>
		<link>http://proxmox.su</link>
		<description>Новое в теме Серьезная деградация производительности при миграции виртуальных дисков для qcow2 на ZFS с версией ядра 5.15.39-2-pve. форума Proxmox Виртуальная Среда на сайте Аспро: ЛайтШоп [proxmox.su]</description>
		<language>ru</language>
		<docs>http://backend.userland.com/rss2</docs>
		<pubDate>Thu, 30 Apr 2026 07:52:26 +0300</pubDate>
		<item>
			<title>Серьезная деградация производительности при миграции виртуальных дисков для qcow2 на ZFS с версией ядра 5.15.39-2-pve.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message329398/78411-sereznaya-degradatsiya-proizvoditelnosti-pri-migratsii-virtualnykh-diskov-dlya-qcow2-na-zfs-s-versiey-yadra-5.15.39_2_pve.">Серьезная деградация производительности при миграции виртуальных дисков для qcow2 на ZFS с версией ядра 5.15.39-2-pve.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			ЗАКРЫТО: старый заголовок темы - "странная модель записи на диск на исходных дисках при перемещении виртуального диска". Он был изменен, чтобы соответствовать билету в Bugzilla. Речь идет о регрессии производительности, которая, похоже, влияет на виртуальные машины с qcow2, когда они хранятся на ZFS. Это было обнаружено/проверено с использованием локального ZFS. В настоящее время неизвестно, воспроизводится ли это с удаленным/подключенным по NFS хранилищем ZFS. Возможно, у кого-то есть такая настройка для тестирования. Пожалуйста, сообщите о результатах.<br /><br />Привет, я сделал какое-то действительно странное наблюдение, которое не могу объяснить самому. Я переместил несколько ВМ с кластера 6.4 на новый кластер 7.3 (копирование через scp). Виртуальные машины имеют диски qcow2 и находятся на ZFS-датасетах. После перемещения ВМ на новый кластер я переместил один из виртуальных дисков ВМ с ZFS-датасета на жестком диске на ZFS-датасет на SSD с помощью "переместить диск" через веб-интерфейс (хотя ВМ была запущена, но то же самое применимо, если ВМ выключена и вместо этого используется qemu-img). Перемещение диска выполняется очень медленно, примерно 5-20 МБ/с. Странное то, что оно медленное, потому что, по-видимому, на исходном датасете наблюдаются высокие WRITE IOPS, что приводит к достижению лимита IOPS обычного жесткого диска. На этом датасете нет ничего другого – только виртуальная машина, которая полностью простаивает внутри. Высокие WRITE IOPS на ИСХОДНОМ датасете вызывает перемещение диска, но я не могу определить, что там записывается и кто записывает – и зачем.<br /><br />По моему пониманию, на исходном датасете должны быть операции чтения, а на целевом – записи. Выдает ли qemu-img или qemu drive mirror записи на исходный файл виртуального диска при его перемещении? У кого-нибудь есть предположения о том, что происходит и почему проблема исчезает после первого перемещения? Я могу перемещать виртуальный диск туда и обратно, и это всегда происходит быстро, и я не вижу высоких WRITE IOPS больше. Только первое перемещение выполняется медленно.<br /><br />```<br />capacity &nbsp; &nbsp; operations &nbsp; &nbsp; bandwidth<br />pool &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; alloc &nbsp; free &nbsp; read &nbsp;write &nbsp; read &nbsp;write<br />----------------------------------------------------- &nbsp;----- &nbsp;----- &nbsp;----- &nbsp;----- &nbsp;----- &nbsp;-----<br />hddpool &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 444G &nbsp; 668G &nbsp; &nbsp; 30 &nbsp;1.04K &nbsp;918K &nbsp;6.56M<br /> &nbsp;mirror-0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;222G &nbsp; 334G &nbsp; &nbsp; 25 &nbsp; &nbsp;536 &nbsp; 775K &nbsp;2.85M<br /> &nbsp; &nbsp;scsi-35000cca0561119d4 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; - &nbsp; &nbsp; &nbsp;- &nbsp; &nbsp; 10 &nbsp; &nbsp;271 &nbsp; 319K &nbsp;1.43M<br /> &nbsp; &nbsp;scsi-35000cca05601fd28 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; - &nbsp; &nbsp; &nbsp;- &nbsp; &nbsp; 14 &nbsp; &nbsp;265 &nbsp; 456K &nbsp;1.42M<br /> &nbsp;mirror-1 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;222G &nbsp; 334G &nbsp; &nbsp; &nbsp;4 &nbsp; &nbsp;534 &nbsp; 143K &nbsp;3.71M<br /> &nbsp; &nbsp;scsi-35000cca05601fad8 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; - &nbsp; &nbsp; &nbsp;- &nbsp; &nbsp; &nbsp;4 &nbsp; &nbsp;263 &nbsp; 143K &nbsp;1.85M<br /> &nbsp; &nbsp;scsi-35000cca043dae6dc &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; - &nbsp; &nbsp; &nbsp;- &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp;271 &nbsp; &nbsp; &nbsp;0 &nbsp;1.86M<br />----------------------------------------------------- &nbsp;----- &nbsp;----- &nbsp;----- &nbsp;----- &nbsp;----- &nbsp;-----<br />rpool &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2.67G &nbsp; 106G &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp;0<br /> &nbsp;mirror-0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 2.67G &nbsp; 106G &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp;0<br /> &nbsp; &nbsp;ata-INTEL_SSDSC2BB120G6R_PHWA6384053K120CGN-part3 &nbsp; &nbsp; &nbsp;- &nbsp; &nbsp; &nbsp;- &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp;0<br /> &nbsp; &nbsp;ata-INTEL_SSDSC2BB120G4_PHWL442300A2120LGN-part3 &nbsp; &nbsp; &nbsp; - &nbsp; &nbsp; &nbsp;- &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp;0<br />----------------------------------------------------- &nbsp;----- &nbsp;----- &nbsp;----- &nbsp;----- &nbsp;----- &nbsp;-----<br />ssdpool &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 277G &nbsp; 611G &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp;440 &nbsp; &nbsp; &nbsp;0 &nbsp;20.2M<br /> &nbsp;mirror-0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;277G &nbsp; 611G &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp;440 &nbsp; &nbsp; &nbsp;0 &nbsp;20.2M<br /> &nbsp; &nbsp;sdd &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;- &nbsp; &nbsp; &nbsp;- &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp;216 &nbsp; &nbsp; &nbsp;0 &nbsp;10.1M<br /> &nbsp; &nbsp;sdc &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;- &nbsp; &nbsp; &nbsp;- &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp;224 &nbsp; &nbsp; &nbsp;0 &nbsp;10.1M<br />----------------------------------------------------- &nbsp;----- &nbsp;----- &nbsp;----- &nbsp;----- &nbsp;----- &nbsp;-----<br />```<br /><br />Медленно: [<noindex><a href="https://pastebin.com/VeXeJdnz%5D(&lt;#0" target="_blank" rel="nofollow" >https://pastebin.com/VeXeJdnz](&lt;#0</a></noindex>  >)<br /><br />Быстро: [<noindex><a href="https://pastebin.com/hrLhnFhQ%5D(&lt;#1" target="_blank" rel="nofollow" >https://pastebin.com/hrLhnFhQ](&lt;#1</a></noindex>  >)<br /><br />```<br /># cat /etc/pve/qemu-server/223.conf<br />agent: 1<br />boot: order=ide2;scsi0<br />cores: 4<br />cpu: host<br />ide2: none,media=cdrom<br />memory: 8192<br />name: gitlab<br />net0: virtio=72:A6:BD:68:E4:3A,bridge=vmbr1,firewall=1,tag=23<br />numa: 0<br />onboot: 1<br />ostype: l26<br />scsi0: vms-qcow2-ssdpool:223/vm-223-disk-0.qcow2,aio=threads,discard=on,iothread=1,size=40G<br />scsi1: vms-qcow2-ssdpool:223/vm-223-disk-1.qcow2,aio=threads,discard=on,iothread=1,size=50G<br />scsi2: vms-qcow2-hddpool:223/vm-223-disk-1.qcow2,aio=threads,discard=on,iothread=1,size=300G<br />scsihw: virtio-scsi-single<br />smbios1: uuid=0df9d070-b1a6-4fa5-8512-0ddf8673fe87<br />sockets: 1<br />tablet: 0<br />tags: centos7<br />vmgenid: 509ea882-dabf-4394-8477-06aaa931da1b<br />``` <br />
			<i>04.03.2023 00:03:00, RolandK.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message329398/78411-sereznaya-degradatsiya-proizvoditelnosti-pri-migratsii-virtualnykh-diskov-dlya-qcow2-na-zfs-s-versiey-yadra-5.15.39_2_pve.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message329398/78411-sereznaya-degradatsiya-proizvoditelnosti-pri-migratsii-virtualnykh-diskov-dlya-qcow2-na-zfs-s-versiey-yadra-5.15.39_2_pve.</guid>
			<pubDate>Sat, 04 Mar 2023 00:03:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
	</channel>
</rss>
