<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
	<channel>
		<title>Аспро: ЛайтШоп [тема: Настройка FibreChannel в PVE. Странные потери пакетов на VM, работающих на 2-м ноде, добавленном после 1-го.]</title>
		<link>http://proxmox.su</link>
		<description>Новое в теме Настройка FibreChannel в PVE. Странные потери пакетов на VM, работающих на 2-м ноде, добавленном после 1-го. форума Proxmox Виртуальная Среда на сайте Аспро: ЛайтШоп [proxmox.su]</description>
		<language>ru</language>
		<docs>http://backend.userland.com/rss2</docs>
		<pubDate>Fri, 17 Apr 2026 08:43:50 +0300</pubDate>
		<item>
			<title>Настройка FibreChannel в PVE. Странные потери пакетов на VM, работающих на 2-м ноде, добавленном после 1-го.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message318786/76924-nastroyka-fibrechannel-v-pve.-strannye-poteri-paketov-na-vm_-rabotayushchikh-na-2_m-node_-dobavlennom-posle-1_go.">Настройка FibreChannel в PVE. Странные потери пакетов на VM, работающих на 2-м ноде, добавленном после 1-го.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Эти порты многофункциональные и могут менять свои настройки в зависимости от выбора пользователя. В таком случае, ваша проблема никак не связана с Multipath или LVM, скорее всего, ваши порты/свитчи/карты как-то неправильно настроены. Я бы посоветовал обратиться за поддержкой к производителю вашего оборудования. Всего доброго, Blockbridge: ультра-низкая задержка общего хранилища на NVMe для Proxmox - <noindex><a href="https://www.blockbridge.com/proxmox" target="_blank" rel="nofollow" >https://www.blockbridge.com/proxmox</a></noindex> <br />
			<i>08.04.2025 14:52:00, bbgeek17.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message318786/76924-nastroyka-fibrechannel-v-pve.-strannye-poteri-paketov-na-vm_-rabotayushchikh-na-2_m-node_-dobavlennom-posle-1_go.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message318786/76924-nastroyka-fibrechannel-v-pve.-strannye-poteri-paketov-na-vm_-rabotayushchikh-na-2_m-node_-dobavlennom-posle-1_go.</guid>
			<pubDate>Tue, 08 Apr 2025 14:52:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Настройка FibreChannel в PVE. Странные потери пакетов на VM, работающих на 2-м ноде, добавленном после 1-го.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message318785/76924-nastroyka-fibrechannel-v-pve.-strannye-poteri-paketov-na-vm_-rabotayushchikh-na-2_m-node_-dobavlennom-posle-1_go.">Настройка FibreChannel в PVE. Странные потери пакетов на VM, работающих на 2-м ноде, добавленном после 1-го.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Спасибо за ответ. Узлы находятся на шасси Huawei E900. То есть это не физическая сетевая карта на сервере. Блейды "вставляются" в шасси, и вы настраиваете шасси, чтобы предоставить каждому блейду подключение к сети, позволяя подключить до 8 сетевых карт. Или можно подключить 6 сетевых карт и 2 подключения для Fibre Channel. Ну, или как объяснил мне техник Huawei. Это, в свою очередь, подключено по оптоволокну к Ocean Store 2600. Я сейчас изучаю и пересматриваю все сетевые настройки, жду, когда снова придет техник Huawei, чтобы проверить его настройки. Опубликую еще сегодня вечером или завтра, если найду что-то еще или смогу разобраться. <br />
			<i>08.04.2025 09:21:00, Cobus.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message318785/76924-nastroyka-fibrechannel-v-pve.-strannye-poteri-paketov-na-vm_-rabotayushchikh-na-2_m-node_-dobavlennom-posle-1_go.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message318785/76924-nastroyka-fibrechannel-v-pve.-strannye-poteri-paketov-na-vm_-rabotayushchikh-na-2_m-node_-dobavlennom-posle-1_go.</guid>
			<pubDate>Tue, 08 Apr 2025 09:21:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Настройка FibreChannel в PVE. Странные потери пакетов на VM, работающих на 2-м ноде, добавленном после 1-го.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message318784/76924-nastroyka-fibrechannel-v-pve.-strannye-poteri-paketov-na-vm_-rabotayushchikh-na-2_m-node_-dobavlennom-posle-1_go.">Настройка FibreChannel в PVE. Странные потери пакетов на VM, работающих на 2-м ноде, добавленном после 1-го.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Ты не прав. Скорее всего, это не получится, потому что на диске уже есть сигнатура LVM, но пробовать нет причин. Ты смотрел логи задач, journalctl исходного и целевого узлов? Это не имеет никакого отношения к FC, SAN, Multipath или LVM. Твоя история довольно объёмная и немного не ясна, что ты тут делаешь. Было бы полезнее, если бы ты предоставил файл "storage.cfg" твоего кластера. Впрочем, нет – ты не "добавляешь" хранилище на каждом узле. Нужно позаботиться о подключении к бэкенду, то есть: FC, Multipath. LVM уже будет присутствовать, как и конфигурация Storage Cluster. Разумеется, предварительным условием является то, чтобы кластер PVE был здоров. Нет, эта теория неверна. Нет, не делай этого. Это хороший признак того, что всё подключено правильно. Это не хранилище. Ты в начале своей истории сказал, что используешь FC – почему на фото Huawei отображается виртуальный (сетевой?) интерфейс? Ты, возможно, говоришь FC и на самом деле имеешь в виду оптический СЕТЕВОЙ интерфейс, а не RJ45? Blockbridge : Ultra low latency all-NVME shared storage for Proxmox - <noindex><a href="https://www.blockbridge.com/proxmox" target="_blank" rel="nofollow" >https://www.blockbridge.com/proxmox</a></noindex> <br />
			<i>08.04.2025 01:46:00, bbgeek17.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message318784/76924-nastroyka-fibrechannel-v-pve.-strannye-poteri-paketov-na-vm_-rabotayushchikh-na-2_m-node_-dobavlennom-posle-1_go.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message318784/76924-nastroyka-fibrechannel-v-pve.-strannye-poteri-paketov-na-vm_-rabotayushchikh-na-2_m-node_-dobavlennom-posle-1_go.</guid>
			<pubDate>Tue, 08 Apr 2025 01:46:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Настройка FibreChannel в PVE. Странные потери пакетов на VM, работающих на 2-м ноде, добавленном после 1-го.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message318783/76924-nastroyka-fibrechannel-v-pve.-strannye-poteri-paketov-na-vm_-rabotayushchikh-na-2_m-node_-dobavlennom-posle-1_go.">Настройка FibreChannel в PVE. Странные потери пакетов на VM, работающих на 2-м ноде, добавленном после 1-го.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Привет! Я недавно начал использовать Proxmox и у меня работает кластер. У меня есть сервер Huawei с 6 корпусами (blades) и большая SAN, подключенная к ним. Я установил Proxmox на SAN. Настроил SAN на FibreChannel вместо iSCSI, так как у нас проблемы со скоростью при использовании текущего iSCSI.<br /><br />Удалось настроить FibreChannel на первом узле, следуя двум руководствам: [<noindex><a href="https://pve.proxmox.com/wiki/Multipath%5D(&lt;#0" target="_blank" rel="nofollow" >https://pve.proxmox.com/wiki/Multipath](&lt;#0</a></noindex>  >) и [<noindex><a href="https://www.youtube.com/watch?v=aF2QUbmxvcw%5D(&lt;#1" target="_blank" rel="nofollow" >https://www.youtube.com/watch?v=aF2QUbmxvcw](&lt;#1</a></noindex>  >).<br /><br />Мои шаги на первом узле:<br /><br />1. &nbsp;Установил Proxmox, затем запустил удобный скрипт, который включает не-основные репозитории и обновляет Proxmox, затем перезагрузил узел.<br />2. &nbsp;`apt update`, затем `apt install multipath-tools`, также установил `apt install grub-efi-amd64`, перезагрузил.<br />3. &nbsp;Запустил `fdisk -l` и обнаружил 2 устройства (на самом деле 4, так как каждое повторяется дважды).<br /><br />```<br />Disk /dev/sdb: 17.28 TiB, 19002344603648 bytes, 37113954304 sectors<br />Disk model: XSG1<br />Units: sectors of 1 * 512 = 512 bytes<br />Sector size (logical/physical): 512 bytes / 512 bytes<br />I/O size (minimum/optimal): 512 bytes / 512 bytes<br /><br />Disk /dev/sdc: 139.93 TiB, 153854788239360 bytes, 300497633280 sectors<br />Disk model: XSG1<br />Units: sectors of 1 * 512 = 512 bytes<br />Sector size (logical/physical): 512 bytes / 512 bytes<br />I/O size (minimum/optimal): 512 bytes / 512 bytes<br />```<br /><br />Чтобы получить WWID для устройства: `lib/udev/scsi_id -g -u -d /dev/sdc` (и sdb).<br /><br />Теперь добавляем WWID в систему:<br /><br />```<br />multipath -a 36785860100b13fad1aa17fca00000001<br />multipath -a 36785860100b13fad1aa1950100000002<br />```<br /><br />Обновляем систему с помощью `multipath -r`.<br /><br />Создаем файл `/etc/multipath.conf`:<br /><br />```<br />defaults {<br /> &nbsp; &nbsp;find_multipaths yes<br /> &nbsp; &nbsp;user_friendly_names yes<br />}<br />blacklist {<br /> &nbsp; &nbsp;devnode "^hd[a-z][[0-9]*"<br /> &nbsp; &nbsp;devnode "^sda$"<br />}<br />multipaths {<br /> &nbsp; &nbsp;multipath {<br /> &nbsp; &nbsp; &nbsp; &nbsp;wwid "36785860100b13fad1aa17fca00000001"<br /> &nbsp; &nbsp; &nbsp; &nbsp;alias "fcpath1"<br /> &nbsp; &nbsp;}<br /> &nbsp; &nbsp;multipath {<br /> &nbsp; &nbsp; &nbsp; &nbsp;wwid "36785860100b13fad1aa1950100000002"<br /> &nbsp; &nbsp; &nbsp; &nbsp;alias "fcpath2"<br /> &nbsp; &nbsp;}<br />}<br />```<br /><br />Чтобы проверить, работает ли система, запускаю `multipath -ll`:<br /><br />```<br />fcpath1 (36785860100b13fad1aa17fca00000001) dm-5 HUAWEI,XSG1 size=17T features='1 queue_if_no_path' hwhandler='0' wp=rw<br /> &nbsp; &nbsp;+- policy='service-time 0' prio=1 status=active<br /> &nbsp; &nbsp;|- 11:0:0:1 sdb 8:16 active ghost running<br /> &nbsp; &nbsp;`- 12:0:0:1 sdd 8:48 active ready running<br /><br />fcpath2 (36785860100b13fad1aa1950100000002) dm-6 HUAWEI,XSG1 size=140T features='1 queue_if_no_path' hwhandler='0' wp=rw<br /> &nbsp; &nbsp;+- policy='service-time 0' prio=1 status=active<br /> &nbsp; &nbsp;|- 11:0:0:2 sdc 8:32 active ready running<br /> &nbsp; &nbsp;`- 12:0:0:2 sde 8:64 active ghost running<br />```<br /><br />Теперь запускаю `pvcreate /dev/mapper/fcpath1` и `pvcreate /dev/mapper/fcpath2`, затем `vgcreate fastsas /dev/mapper/fcpath1` и `vgcreate slowsas /dev/mapper/fcpath2`.<br /><br />Затем я вошел в WebGui и добавил узел в свой кластер. Затем я перешел в "Центр обработки данных", "Хранилище" и нажал "Добавить", выбрав "LVM". Я создал "FCfast" и выбрал том "fastsas" и выбрал узел и выбрал "Общий". Сделал то же самое с другим, но назвал его "FCslow".<br /><br />Все работает отлично, я могу переносить работающие виртуальные машины, они работают отлично, могут пинговать и видеть интернет, все хорошо. Пингование с компьютеров извне происходит без потерь.<br /><br />Теперь у меня есть 4 других узла, также подключенных к той же SAN. Я установил Proxmox на 3 из них. Следуя тем же шагам, что и на первом узле, остановился непосредственно перед запуском `pvcreate` и `vgcreate`, потому что, как я понимаю, это разрушит данные на устройствах? Я ошибаюсь?<br /><br />Затем я добавил их к узлу, перешел в "Центр обработки данных" и просто добавил имя узла к FCfast LVM и FCslow LVM. LVM появляется под "хранилищами", я могу мигрировать нерабочие виртуальные машины на них без проблем, но при живой миграции виртуальная машина успешно мигрирует и не восстанавливается, она остается неактивной. Мне приходится вручную запускать ее, ничего страшного.<br /><br />Но у меня появилась странная проблема. Виртуальные машины, работающие на 2-м, 3-м и 4-м узлах, могут пинговать наружу без потерь пакетов. НО, когда я пытаюсь пинговать их с компьютеров извне, я получаю либо отсутствие ответа, либо большие потери пакетов (15-25%).<br /><br />Как указано в этом посте [<noindex><a href="https://forum.proxmox.com/threads/fiber-channel-setup.35225/%5D(&lt;#2" target="_blank" rel="nofollow" >https://forum.proxmox.com/threads/fiber-channel-setup.35225/](&lt;#2</a></noindex>  >), "- вам необходимо вручную настроить хранилище SAN, подключенное к LVM, с каждого узла Proxmox. Нет автоматической передачи общих хранилищ (например, iSCSI и т. д.) между узлами Proxmox, насколько я знаю (т.е. вы по сути - настраиваете на первом узле Proxmox - затем переходите ко второму узлу, - вам не нужно повторять только шаг по созданию LVM на SAN-диске. Но вам нужно 'добавить' хранилище в узел Proxmox. Отметьте флажком 'Общий'.".<br /><br />С другой стороны, есть предложение, что нужно запускать `multipath -r` на всех узлах после изменений.<br /><br />Любые идеи будут приветствоваться.<br /><br />---<br /><br />Я предлагаю следующее:<br /><br />1. &nbsp;**Повторное создание multipath:** Попробуйте запустить `multipath -r` на всех узлах после внесения изменений. Это может помочь системе пересчитать пути и выбрать оптимальные.<br />2. &nbsp;**Проверка конфигурации multipath:** Убедитесь, что конфигурация multipath (/etc/multipath.conf) одинакова на всех узлах. &nbsp;Особенно проверьте, что WWID и псевдонимы (alias) правильно настроены.<br />3. &nbsp;**Проверка подключения:** Убедитесь, что все узлы имеют стабильное подключение к SAN и что нет проблем с физическим уровнем SAN.<br />4. &nbsp;**Изоляция проблем:** &nbsp;Попробуйте переместить виртуальную машину с проблемного узла (3 или 4) на узел 1 (который работает нормально). Если виртуальная машина работает нормально на узле 1, то проблема может быть связана с конфигурацией или подключением на проблемном узле.<br />5. &nbsp;**Проверка файервола:** &nbsp;Хотя вы упомянули, что файервол разрешает трафик, проверьте правила файервола на каждом узле, чтобы убедиться, что нет никаких случайных блокировок.<br />6. &nbsp;**Обновление прошивки:** Убедитесь, что прошивка SAN и узлов совместима и что используются последние версии.<br />7. **Оцените сетевую конфигурацию:** Хотя вы упомянули, что все узлы используют одну и ту же сетевую конфигурацию, еще раз убедитесь, что они идентичны. Проверьте маршруты, шлюзы по умолчанию и DNS-серверы.<br />8. &nbsp;**Мониторинг SAN:** &nbsp;Используйте инструменты мониторинга SAN для проверки состояния дисков, соединений и других важных показателей.<br /><br />Помните, что часто проблема кроется в мелочах. Методично проверяйте все возможные сценарии и будьте внимательны к деталям. <br />
			<i>07.04.2025 23:14:00, Cobus.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message318783/76924-nastroyka-fibrechannel-v-pve.-strannye-poteri-paketov-na-vm_-rabotayushchikh-na-2_m-node_-dobavlennom-posle-1_go.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message318783/76924-nastroyka-fibrechannel-v-pve.-strannye-poteri-paketov-na-vm_-rabotayushchikh-na-2_m-node_-dobavlennom-posle-1_go.</guid>
			<pubDate>Mon, 07 Apr 2025 23:14:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
	</channel>
</rss>
