<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
	<channel>
		<title>Аспро: ЛайтШоп [тема: Потеря пакетов в сети на виртуальных машинах с высоким трафиком]</title>
		<link>http://proxmox.su</link>
		<description>Новое в теме Потеря пакетов в сети на виртуальных машинах с высоким трафиком форума Proxmox Виртуальная Среда на сайте Аспро: ЛайтШоп [proxmox.su]</description>
		<language>ru</language>
		<docs>http://backend.userland.com/rss2</docs>
		<pubDate>Thu, 07 May 2026 07:39:39 +0300</pubDate>
		<item>
			<title>Потеря пакетов в сети на виртуальных машинах с высоким трафиком</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message348122/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom">Потеря пакетов в сети на виртуальных машинах с высоким трафиком</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Привет, у меня такая же проблема. Я могу изменить размер буфера физического сетевого интерфейса, но не могу установить размер для бриджевого интерфейса. Подскажешь, как это сделать? Спасибо. <br />
			<i>17.11.2022 19:30:00, nicebug.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message348122/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom</link>
			<guid>http://proxmox.su/forum/messages/forum63/message348122/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom</guid>
			<pubDate>Thu, 17 Nov 2022 19:30:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Потеря пакетов в сети на виртуальных машинах с высоким трафиком</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message348121/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom">Потеря пакетов в сети на виртуальных машинах с высоким трафиком</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Поскольку размер кольцевого буфера нельзя изменить для virtio-интерфейсов внутри виртуальной машины, я выделил для неё интерфейс e1000, и здесь я смог изменить размер с 256 до 1024 с помощью ethtool. Поэтому затем я и попробовал использовать multiqueue. <br />
			<i>29.09.2022 15:12:00, mm553.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message348121/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom</link>
			<guid>http://proxmox.su/forum/messages/forum63/message348121/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom</guid>
			<pubDate>Thu, 29 Sep 2022 15:12:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Потеря пакетов в сети на виртуальных машинах с высоким трафиком</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message348120/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom">Потеря пакетов в сети на виртуальных машинах с высоким трафиком</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Из любопытства, где именно или как именно ты меняешь настройки в виртуальной машине? Как ты понял, Virtio почти всегда стоит использовать вместо e1000. <br />
			<i>29.09.2022 14:02:00, vesalius.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message348120/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom</link>
			<guid>http://proxmox.su/forum/messages/forum63/message348120/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom</guid>
			<pubDate>Thu, 29 Sep 2022 14:02:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Потеря пакетов в сети на виртуальных машинах с высоким трафиком</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message348119/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom">Потеря пакетов в сети на виртуальных машинах с высоким трафиком</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Хорошо, отлично! Я попробовал с адаптером e1000 и увеличил размер кольцевого буфера приема и передачи в виртуальной машине до 1024, что помогло на первом этапе. Потом я понял, что включение многоканальности (multiqueue) на интерфейсе virtio тоже решает мою проблему. Может, ты сможешь это проверить? <br />
			<i>29.09.2022 11:12:00, mm553.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message348119/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom</link>
			<guid>http://proxmox.su/forum/messages/forum63/message348119/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom</guid>
			<pubDate>Thu, 29 Sep 2022 11:12:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Потеря пакетов в сети на виртуальных машинах с высоким трафиком</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message348118/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom">Потеря пакетов в сети на виртуальных машинах с высоким трафиком</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Привет, mm553! Да, я увеличил размеры буферов. Поэкспериментировав с размером tx, остановился на 4096 и для rx, и для tx. И это определённо помогло. Когда я запускаю свои тесты, всё ещё могут быть несколько повторных передач, но в пределах 0-50 на моём стандартном iperf3-тесте. Раньше их могло быть тысячи. В итоге я изменил размеры буферов для каждой сетевой карты, участвующей в составе бонда, на котором базируются virtio-интерфейсы. Надеюсь, у тебя тоже всё решится, и буду рад помочь, если смогу. <br />
			<i>29.09.2022 08:39:00, Hans Otto Lunde.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message348118/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom</link>
			<guid>http://proxmox.su/forum/messages/forum63/message348118/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom</guid>
			<pubDate>Thu, 29 Sep 2022 08:39:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Потеря пакетов в сети на виртуальных машинах с высоким трафиком</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message348117/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom">Потеря пакетов в сети на виртуальных машинах с высоким трафиком</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Итак, вы, наконец, увеличили размер кольцевого буфера физического сетевого интерфейса и интерфейса моста до tx 4096 rx 4096, и проблема исчезла? У меня тоже возникли проблемы с потерей UDP/RTP пакетов после обновления до версии 7. Заранее спасибо! <br />
			<i>27.09.2022 16:54:00, mm553.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message348117/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom</link>
			<guid>http://proxmox.su/forum/messages/forum63/message348117/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom</guid>
			<pubDate>Tue, 27 Sep 2022 16:54:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Потеря пакетов в сети на виртуальных машинах с высоким трафиком</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message348116/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom">Потеря пакетов в сети на виртуальных машинах с высоким трафиком</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Ситуация: у нас работают KVM-виртуалки на Debian/bullseye в Proxmox/PVE с 10Gb-сетевыми интерфейсами, но при высокой сетевой нагрузке (RTP/UDP) через virtio-net наблюдаются потери пакетов. Такая же проблема есть и на кластерах VMware. Там предлагают решение: увеличить размеры ring-буферов (см. <noindex><a href="https://kb.vmware.com/s/article/50121760)" target="_blank" rel="nofollow" >https://kb.vmware.com/s/article/50121760)</a></noindex>, и проблема с потерями пакетов пропадает (мы сами проверяли). <br /><br />Теперь хотелось бы сделать то же самое для virtio-net в PVE KVM, но, к сожалению, пока это не поддерживается: &nbsp;<br /># ethtool -G neth1 rx 4048 tx 4048 &nbsp;<br />netlink error: Operation not supported<br /><br />Чтобы избежать побочных эффектов, в тестовой среде мы запускаем по одной выделенной гостевой ВМ на каждый гипервизор. Для гостя используем отдельный бридж, подключённый ко второму порту Intel X722 10G NIC. Пример конфигурации такой ВМ: &nbsp;<br /><br />root@pve-test-00:~# qm config 100 &nbsp;<br />boot: order=scsi0;ide2;net0 &nbsp;<br />cores: 16 &nbsp;<br />cpu: host &nbsp;<br />ide2: none,media=cdrom &nbsp;<br />machine: q35 &nbsp;<br />memory: 52048 &nbsp;<br />meta: creation-qemu=6.2.0,ctime=1661099025 &nbsp;<br />name: Sp1 &nbsp;<br />net0: virtio=C2:50:0E:F5:6E:BC,bridge=vmbr1,queues=4,tag=3762 &nbsp;<br />net1: virtio=56:4C:C5:75:7D:79,bridge=vmbr1,firewall=1,tag=901 &nbsp;<br />numa: 0 &nbsp;<br />ostype: l26 &nbsp;<br />scsi0: local-btrfs:100/vm-100-disk-0.raw,size=320G &nbsp;<br />scsihw: virtio-scsi-pci &nbsp;<br />smbios1: uuid=3a55db64-5fea-4165-bcf1-a640b0caf909 &nbsp;<br />sockets: 1 &nbsp;<br />vmgenid: f280627f-b65d-4b7d-b841-1966d64f7ff9 &nbsp;<br /><br />NIC на хосте поддерживает мультиочереди (пробовали разные значения, но ситуация не меняется): &nbsp;<br /><br />root@pve-test-00:~# ethtool -l eno2 &nbsp;<br />Channel parameters for eno2: &nbsp;<br />Pre-set maximums: &nbsp;<br />RX: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; n/a &nbsp;<br />TX: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; n/a &nbsp;<br />Other: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1 &nbsp;<br />Combined: &nbsp; &nbsp; &nbsp; 32 &nbsp;<br />Current hardware settings: &nbsp;<br />RX: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; n/a &nbsp;<br />TX: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; n/a &nbsp;<br />Other: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1 &nbsp;<br />Combined: &nbsp; &nbsp; &nbsp; 20 &nbsp;<br /><br />Размер RX буфера на NIC гипервизора можно менять (хотя это особо не влияет на потерю пакетов): &nbsp;<br /><br />root@pve-test-00:~# ethtool -g eno2 &nbsp;<br />Ring parameters for eno2: &nbsp;<br />Pre-set maximums: &nbsp;<br />RX: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 4096 &nbsp;<br />RX Mini: &nbsp; &nbsp; &nbsp; &nbsp;n/a &nbsp;<br />RX Jumbo: &nbsp; &nbsp; &nbsp; n/a &nbsp;<br />TX: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 4096 &nbsp;<br />Current hardware settings: &nbsp;<br />RX: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 2048 &nbsp;<br />RX Mini: &nbsp; &nbsp; &nbsp; &nbsp;n/a &nbsp;<br />RX Jumbo: &nbsp; &nbsp; &nbsp; n/a &nbsp;<br />TX: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 2048 &nbsp;<br /><br />Используем свежий PVE: &nbsp;<br /><br />root@pve-test-00:~# pveversion &nbsp;<br />pve-manager/7.2-7/d0dd0e85 (running kernel: 5.15.39-3-pve) &nbsp;<br /><br />root@pve-test-00:~# uname -a &nbsp;<br />Linux pve-test-00 5.15.39-3-pve #2 SMP PVE 5.15.39-3 (Wed, 27 Jul 2022 13:45:39 +0200) x86_64 GNU/Linux &nbsp;<br /><br />Характеристики хоста: Lenovo SN550, процессор Intel&#174; Xeon&#174; Silver 4210R @ 2.40GHz с поддержкой HT, 64 Гб ОЗУ, SSD 480 Гб Micron SATA, сетевой контроллер Ethernet Connection X722 10GbE (i40e). &nbsp;<br /><br />Мы знаем, что подобные проблемы были у некоторых и в 2014 году (см. <noindex><a href="https://groups.google.com/g/snabb-devel/c/ng78LbcaFgI?pli=1)" target="_blank" rel="nofollow" >https://groups.google.com/g/snabb-devel/c/ng78LbcaFgI?pli=1)</a></noindex>. Интересно, не одни ли мы в 2022 замечаем такие проблемы с производительностью и потерями пакетов? &nbsp;<br /><br />Также известно, что при использовании SR-IOV проблема с потерями уходит, но мы хотим избежать минусов SR-IOV и ищем способ получить высокую сетевую нагрузку с virtio-net, чтобы понять, в чем ограничение. &nbsp;<br /><br />Рассматривали вариант увеличить жёстко заданные в qemu значения VIRTIO_NET_RX_QUEUE_DEFAULT_SIZE/VIRTIO_NET_TX_QUEUE_DEFAULT<WBR/>&shy;_SIZE в hw/net/virtio-net.c с 256 до большего числа. Кто-то уже пытался это сделать (<noindex><a href="https://github.com/qemu/qemu/pull/115" target="_blank" rel="nofollow" >https://github.com/qemu/qemu/pull/115</a></noindex>), но патч так и не вышел в основную ветку, а прежде чем тратить силы дальше, хотелось бы понять, правильно ли мы на это смотрим или что-то упускаем? &nbsp;<br /><br />Есть ли у кого-то похожие проблемы или советы, как с этим бороться? Может, проблема в Linux бридже, и использование OpenVSwitch могло бы помочь? Что еще можно попробовать? <br />
			<i>12.09.2022 09:52:00, mika.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message348116/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom</link>
			<guid>http://proxmox.su/forum/messages/forum63/message348116/80476-poterya-paketov-v-seti-na-virtualnykh-mashinakh-s-vysokim-trafikom</guid>
			<pubDate>Mon, 12 Sep 2022 09:52:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
	</channel>
</rss>
