<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
	<channel>
		<title>Аспро: ЛайтШоп [тема: Проблемы с ограждением.]</title>
		<link>http://proxmox.su</link>
		<description>Новое в теме Проблемы с ограждением. форума Proxmox Виртуальная Среда на сайте Аспро: ЛайтШоп [proxmox.su]</description>
		<language>ru</language>
		<docs>http://backend.userland.com/rss2</docs>
		<pubDate>Fri, 17 Apr 2026 16:17:24 +0300</pubDate>
		<item>
			<title>Проблемы с ограждением.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message328786/78332-problemy-s-ograzhdeniem.">Проблемы с ограждением.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Как только я выключаю vhost1, он меняется на NR в pvecm status. После выключения vhost1 он исчезает из списка участников, а vhost2 переходит в состояние NV для qdevice.<br /><br />Код: Каждые 1.0с: pvecm status<br />VHOST2: Wed Jun 5 19:44:38 2024<br /><br />Информация о кластере<br />-------------------<br />Имя: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; homelab<br />Версия конфигурации: &nbsp; 5<br />Транспорт: &nbsp; &nbsp; &nbsp; &nbsp;knet<br />Безопасная аутентификация: &nbsp; &nbsp; &nbsp;on<br /><br />Информация о кворуме<br />------------------<br />Дата: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Wed Jun 5 19:44:39 2024<br />Поставщик кворума: &nbsp;corosync_votequorum<br />Узлы: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1<br />Идентификатор узла: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;0x00000002<br />Идентификатор кольца: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2.1627<br />Кворум: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Нет<br /><br />Информация о голосовании<br />----------------------<br />Ожидаемые голоса: &nbsp; 3<br />Наибольшее ожидаемое: 3<br />Всего голосов: &nbsp; &nbsp; &nbsp;1<br />Кворум: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 2 Деятельность заблокирована<br />Флаги: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Qdevice<br /><br />Информация об участниках<br />----------------------<br /> &nbsp; &nbsp;Nodeid &nbsp; &nbsp;Голоса &nbsp; &nbsp;Qdevice Имя<br />0x00000002 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1 &nbsp; A,NV,NMW 192.168.1.20 (local)<br />0x00000000 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Qdevice (голоса 1) В это время я в другом терминале пингую qdevice, и он продолжает отвечать на пинг до тех пор, пока vhost2 не вынесет себя и не перезагрузится. <br />
			<i>06.06.2024 02:09:00, mike15301.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message328786/78332-problemy-s-ograzhdeniem.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message328786/78332-problemy-s-ograzhdeniem.</guid>
			<pubDate>Thu, 06 Jun 2024 02:09:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Проблемы с ограждением.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message328785/78332-problemy-s-ograzhdeniem.">Проблемы с ограждением.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Не должно быть никакой причины, чтобы связь между qdevice и vhost2 перестала работать, когда node 1 недоступен, ведь каждая машина подключена к коммутатору через свой собственный канал связи. Видимо, проблема в V to NV, но почему он переключается? Вывод статуса показывает число узлов как "2", поэтому я подозреваю, что резервный узел без голоса не считается узлом. Но, если читать мануал, который ты прислал, там сказано: "Для использования этого алгоритма необходимо установить количество голосов на узел равным 1 (по умолчанию), и количество голосов у qdevice также должно быть 1. Это достигается установкой ключа quorum.device.votes в файле corosync.conf равным 1." – так что я не уверен, означает ли это, что узел с 0 голосов вызовет сбой ffsplit. Я ничего не делал, чтобы vhost1 отображался как NR, поэтому не знаю, почему так происходит. Сейчас проверяю, всё выглядит нормально:<br /><br />Код: Информация о членстве<br />----------------------<br /> &nbsp; &nbsp;Nodeid &nbsp; &nbsp; &nbsp;Votes &nbsp; &nbsp;Qdevice Name<br />0x00000001 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1 &nbsp; &nbsp;A,V,NMW 192.168.1.10<br />0x00000002 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1 &nbsp; &nbsp;A,V,NMW 192.168.1.20 (local)<br />0x00000000 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Qdevice<br /><br />Я ничего не трогал в конфигурациях или сервисах с прошлой недели, когда проводил тестирование. Сейчас перенесу всё на vhost2 и выключу vhost1 и посмотрю, что произойдет... <br />
			<i>06.06.2024 01:44:00, mike15301.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message328785/78332-problemy-s-ograzhdeniem.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message328785/78332-problemy-s-ograzhdeniem.</guid>
			<pubDate>Thu, 06 Jun 2024 01:44:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Проблемы с ограждением.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message328784/78332-problemy-s-ograzhdeniem.">Проблемы с ограждением.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			QDevice не зарегистрирован (NR) для первого узла. После этого QDevice переходит из состояния V = vote в NV = not vote. Работает ли связь с QDevice в момент, когда узел1 недоступен? Что говорят логи? Не уверен, что неактивный третий узел не портит ситуацию. Как минимум, документация говорит о количестве (активных) узлов, а не узлов с голосами: <noindex><a href="https://manpages.debian.org/testing/corosync-qdevice/corosync-qdevice.8.en.html#ffsplit" target="_blank" rel="nofollow" >https://manpages.debian.org/testing/corosync-qdevice/corosync-qdevice.8.en.html#ffsplit</a></noindex> <br />
			<i>03.06.2024 10:51:00, fiona.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message328784/78332-problemy-s-ograzhdeniem.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message328784/78332-problemy-s-ograzhdeniem.</guid>
			<pubDate>Mon, 03 Jun 2024 10:51:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Проблемы с ограждением.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message328783/78332-problemy-s-ograzhdeniem.">Проблемы с ограждением.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			И раз уж, скорее всего, спросят, причина, по которой есть резервный хост, чтобы некоторые вещи продолжали работать, если вдруг я выключу весь шкаф, — это практически только пара небольших ВМ с внешними сервисами и, самое главное, мой роутер. Не хотелось бы возвращаться к временам, когда роутер работал на отдельном устройстве, когда он так счастлив быть виртуализированным, бедняга... <br />
			<i>01.06.2024 04:05:00, mike15301.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message328783/78332-problemy-s-ograzhdeniem.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message328783/78332-problemy-s-ograzhdeniem.</guid>
			<pubDate>Sat, 01 Jun 2024 04:05:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Проблемы с ограждением.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message328782/78332-problemy-s-ograzhdeniem.">Проблемы с ограждением.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Маршрутизатор может быть на любом из хостов. Я использую физический корпоративный управляемый коммутатор - порты 1-16 находятся в vlan1 (uplink от кабельного модема), порты 17-32 - в vlan2 (uplink от 5G модема), 33-48 - в vlan10 (локальная 10G lan), а 49-52 - в vlan40 (40g кластерная сеть). У обоих хост-серверов есть два встроенных 1G ethernet, подключенных к vlan1 и vlan2 на коммутаторе, а маршрутизатор получает 3 виртуальные сетевые карты: одну на vlan1, одну на vlan2 и третью на vlan10. Поэтому маршрутизатор может свободно переключаться между хостами, а также между резервным хостом, и маршрутизатор всегда будет иметь 2 WAN и 1 LAN. Разумеется, корпоративный коммутатор – это единственная точка отказа во всем этом, и в идеале мне бы нужна вторая с LCAP и резервными ссылками, но это проблема на будущее, mike. В общем, маршрутизатор нужен только для WAN-доступа. Если маршрутизатор или хосты не работают, корпоративный коммутатор остается в рабочем состоянии, и как локальная сеть, так и кластерная сеть остаются активными. Имена хостов отображаются в /etc/hosts на физических хостах в соответствии с инструкциями pve, поэтому DNS от маршрутизатора не имеет значения. <br />
			<i>07.06.2024 22:28:00, mike15301.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message328782/78332-problemy-s-ograzhdeniem.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message328782/78332-problemy-s-ograzhdeniem.</guid>
			<pubDate>Fri, 07 Jun 2024 22:28:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Проблемы с ограждением.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message328781/78332-problemy-s-ograzhdeniem.">Проблемы с ограждением.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Заметил такую штуку, может и не в тему, а может и ерунда! Ты спрашиваешь: На каком хосте находится этот виртуальный роутер? Как это влияет на сеть, когда выключается его хост? <br />
			<i>06.06.2024 06:35:00, gfngfn256.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message328781/78332-problemy-s-ograzhdeniem.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message328781/78332-problemy-s-ograzhdeniem.</guid>
			<pubDate>Thu, 06 Jun 2024 06:35:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Проблемы с ограждением.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message328780/78332-problemy-s-ograzhdeniem.">Проблемы с ограждением.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Вот логи системы с vhost2, когда я выключил vhost1:<br /><br />Jun 05 19:43:56 VHOST2 pve-ha-crm[2535]: node 'VHOST1': состояние изменилось с 'online' на 'maintenance'<br />Jun 05 19:44:01 VHOST2 corosync[2278]: [CFG ] Узел 1 был выключен администратором<br />Jun 05 19:44:01 VHOST2 pmxcfs[2133]: [dcdb] notice: участники: 2/2133<br />Jun 05 19:44:01 VHOST2 pmxcfs[2133]: [status] notice: участники: 2/2133<br />Jun 05 19:44:02 VHOST2 corosync[2278]: [QUORUM] Синхронизировано участников[1]: 2<br />Jun 05 19:44:02 VHOST2 corosync[2278]: [QUORUM] Ушло участников[1]: 1<br />Jun 05 19:44:02 VHOST2 corosync[2278]: [VOTEQ ] жду опроса устройства кворума Qdevice (но максимум 30000 мс)<br />Jun 05 19:44:02 VHOST2 corosync[2278]: [TOTEM ] Сформировано новое членство (2.1627). Ушли участники: 1<br />Jun 05 19:44:02 VHOST2 corosync[2278]: [QUORUM] Этот узел находится в не-главной компоненте и НЕ будет предоставлять какие-либо сервисы.<br />Jun 05 19:44:02 VHOST2 corosync[2278]: [QUORUM] Участники[1]: 2<br />Jun 05 19:44:02 VHOST2 corosync[2278]: [MAIN ] Завершена синхронизация сервисов, готов предоставлять сервис.<br />Jun 05 19:44:02 VHOST2 pmxcfs[2133]: [status] notice: узел потерял кворум<br />Jun 05 19:44:02 VHOST2 corosync[2278]: [KNET ] link: host: 1 link: 0 down<br />Jun 05 19:44:02 VHOST2 corosync[2278]: [KNET ] host: host: 1 (passive) best link: 0 (pri: 1)<br />Jun 05 19:44:02 VHOST2 corosync[2278]: [KNET ] host: host: 1 не имеет активных линков<br />Jun 05 19:44:06 VHOST2 pvestatd[2427]: время обновления статуса (5.831 секунды)<br />Jun 05 19:44:06 VHOST2 pve-ha-crm[2535]: потерян лок 'ha_manager_lock - cfs lock update failed - Permission denied<br />Jun 05 19:44:09 VHOST2 pve-ha-lrm[2817]: потерян лок 'ha_agent_VHOST2_lock - cfs lock update failed - Permission denied<br />Jun 05 19:44:11 VHOST2 pve-ha-crm[2535]: изменение статуса master =&gt; lost_manager_lock<br />Jun 05 19:44:11 VHOST2 pve-ha-crm[2535]: сторожевой гость закрыт (отключено)<br />Jun 05 19:44:11 VHOST2 pve-ha-crm[2535]: изменение статуса lost_manager_lock =&gt; wait_for_quorum<br />Jun 05 19:44:14 VHOST2 pve-ha-lrm[2817]: изменение статуса active =&gt; lost_agent_lock<br />Jun 05 19:44:14 VHOST2 pvescheduler[3799257]: задачи: cfs-lock 'file-jobs_cfg' ошибка: нет кворума!<br />Jun 05 19:44:14 VHOST2 pvescheduler[3799256]: репликация: cfs-lock 'file-replication_cfg' ошибка: нет кворума!<br />Jun 05 19:44:18 VHOST2 pvestatd[2427]: время обновления статуса (8.599 секунды)<br />Jun 05 19:44:28 VHOST2 pvestatd[2427]: время обновления статуса (7.841 секунды)<br />-- Загрузка a2330e858355432ca2ade3cc47de8b76 -- <br />
			<i>06.06.2024 06:11:00, mike15301.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message328780/78332-problemy-s-ograzhdeniem.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message328780/78332-problemy-s-ograzhdeniem.</guid>
			<pubDate>Thu, 06 Jun 2024 06:11:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Проблемы с ограждением.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message328779/78332-problemy-s-ograzhdeniem.">Проблемы с ограждением.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Пересматриваю это, так как проблемы все еще возникают. К положительным новостям: похоже, обновление прошивки Mellanox card могло решить эту проблему, и с тех пор она больше не давала сбои. Я также внес некоторые изменения: corosync теперь работает в 10G сети, общей с VM, так как там, как мне кажется, меньше трафика. Также установил PVE на свою машину для работы, в качестве dual boot ubuntu/PVE... эта машина обычно выключена или загружена в Ubuntu. Я хотел иметь эту машину как резервный PVE сервер на случай, если мне придется отключать всю стойку. Поэтому она присоединена к кластеру, но я настроил ее так, чтобы она не участвовала в голосовании. Думаю, я все настроил правильно, но по какой-то причине у меня очень повторяющиеся проблемы. Если я перенесу все VM на vhost2 и выключу vhost1, vhost2 теряет кворум, затем сам себя отключает и перезагружается. Это произошло 3 раза подряд в тестах, каждый раз с одними и теми же симптомами: перед выключением vhost1, ожидаемое и максимальное количество голосов показывают 3, как и положено, общее количество голосов 3, кворум 2. После выключения vhost1, ожидаемое, максимальное и кворум остаются прежними, но общее количество падает до 1 – как будто qnet устройство не предоставляет голос.<br /><br />Код:<br />root@VHOST2:~# pvecm status<br />Cluster information<br />-------------------<br />Name: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; homelab<br />Config Version: &nbsp; 5<br />Transport: &nbsp; &nbsp; &nbsp; &nbsp;knet<br />Secure auth: &nbsp; &nbsp; &nbsp;on<br /><br />Quorum information<br />------------------<br />Date: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Fri May 31 13:11:30 2024<br />Quorum provider: &nbsp;corosync_votequorum<br />Nodes: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2<br />Node ID: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;0x00000002<br />Ring ID: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1.1616<br />Quorate: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Yes<br /><br />Votequorum information<br />----------------------<br />Expected votes: &nbsp; 3<br />Highest expected: 3<br />Total votes: &nbsp; &nbsp; &nbsp;3<br />Quorum: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 2<br />Flags: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Quorate Qdevice<br /><br />Membership information<br />----------------------<br /> &nbsp; &nbsp;Nodeid &nbsp; &nbsp; &nbsp;Votes &nbsp; &nbsp;Qdevice Name<br />0x00000001 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1 &nbsp; &nbsp; &nbsp; &nbsp; NR 192.168.1.10<br />0x00000002 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1 &nbsp; &nbsp;A,V,NMW 192.168.1.20 (local)<br />0x00000000 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Qdevice<br /><br />root@VHOST2:~# pvecm status<br />Cluster information<br />-------------------<br />Name: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; homelab<br />Config Version: &nbsp; 5<br />Transport: &nbsp; &nbsp; &nbsp; &nbsp;knet<br />Secure auth: &nbsp; &nbsp; &nbsp;on<br /><br />Quorum information<br />------------------<br />Date: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Fri May 31 13:11:32 2024<br />Quorum provider: &nbsp;corosync_votequorum<br />Nodes: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1<br />Node ID: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;0x00000002<br />Ring ID: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2.161a<br />Quorate: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;No<br /><br />Votequorum information<br />----------------------<br />Expected votes: &nbsp; 3<br />Highest expected: 3<br />Total votes: &nbsp; &nbsp; &nbsp;1<br />Quorum: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 2 Activity blocked<br />Flags: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Qdevice<br /><br />Membership information<br />----------------------<br /> &nbsp; &nbsp;Nodeid &nbsp; &nbsp; &nbsp;Votes &nbsp; &nbsp;Qdevice Name<br />0x00000002 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1 &nbsp; A,NV,NMW 192.168.1.20 (local)<br />0x00000000 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Qdevice (votes 1)<br /><br />Заметил вот эту последнюю строку, где qdevice показывает 0 голосов, но указывает голоса 1 в скобках.<br /><br />Вот новая конфигурация corosync с резервной машиной, которая не участвует в голосовании – я сделал это так, потому что эта машина предназначена только для резерва, а не для кластера как такового, но похоже, нет другого способа live migrate, если она не включена в кластер:<br /><br />Код:<br />root@VHOST2:~# cat /etc/pve/corosync.conf<br />logging {<br /> &nbsp;debug: off<br /> &nbsp;to_syslog: yes<br />}<br /><br />nodelist {<br /> &nbsp;node {<br /> &nbsp; &nbsp;name: VHOST1<br /> &nbsp; &nbsp;nodeid: 1<br /> &nbsp; &nbsp;quorum_votes: 1<br /> &nbsp; &nbsp;ring0_addr: 192.168.1.10<br /> &nbsp;}<br /> &nbsp;node {<br /> &nbsp; &nbsp;name: VHOST2<br /> &nbsp; &nbsp;nodeid: 2<br /> &nbsp; &nbsp;quorum_votes: 1<br /> &nbsp; &nbsp;ring0_addr: 192.168.1.20<br /> &nbsp;}<br /> &nbsp;node {<br /> &nbsp; &nbsp;name: VHOST-backup<br /> &nbsp; &nbsp;nodeid: 3<br /> &nbsp; &nbsp;quorum_votes: 0<br /> &nbsp; &nbsp;ring0_addr: 192.168.1.40<br /> &nbsp;}<br />}<br /><br />quorum {<br /> &nbsp;device {<br /> &nbsp; &nbsp;model: net<br /> &nbsp; &nbsp;net {<br /> &nbsp; &nbsp; &nbsp;algorithm: ffsplit<br /> &nbsp; &nbsp; &nbsp;host: 192.168.1.30<br /> &nbsp; &nbsp; &nbsp;tls: on<br /> &nbsp; &nbsp;}<br /> &nbsp; &nbsp;votes: 1<br /> &nbsp;}<br /> &nbsp;provider: corosync_votequorum<br /> &nbsp;expected_votes: 3<br />}<br /><br />totem {<br /> &nbsp;cluster_name: homelab<br /> &nbsp;config_version: 5<br /> &nbsp;interface {<br /> &nbsp; &nbsp;linknumber: 0<br /> &nbsp;}<br /> &nbsp;ip_version: ipv4-6<br /> &nbsp;link_mode: passive<br /> &nbsp;secauth: on<br /> &nbsp;version: 2<br />}<br /><br />Если это неправильный способ сделать это, пожалуйста, дайте знать, как я должен был настроить это вместо этого. Я исхожу из долгой истории RHEL/CentOS и RHev/oVirt и OpenStack, поэтому внутренности PVE немного отличаются, хотя corosync нет. Но переход на PVE дома был из-за заманчивой перспективы live migration с поддержкой vgpu (неофициально поддерживается, но подтверждено работающим с некоторыми оговорками), и хотя у нас много RHEL лицензий на работе, они не применимы к моим игрушкам дома. <br />
			<i>01.06.2024 03:59:00, mike15301.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message328779/78332-problemy-s-ograzhdeniem.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message328779/78332-problemy-s-ograzhdeniem.</guid>
			<pubDate>Sat, 01 Jun 2024 03:59:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Проблемы с ограждением.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message328778/78332-problemy-s-ograzhdeniem.">Проблемы с ограждением.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			У меня возникли проблемы с Proxmox: кажется, он "фенсит" и перезагружает один из моих нодов, когда не должен.<br /><br />Вот моя конфигурация: 2 виртуальных хоста Proxmox (8.1.10) с HA/corosync, 1 Ubuntu (22.04 LTS) в качестве сервер хранения данных (qdevice). Все платы - Supermicro, а сетевой кластер (и Ceph, но он работает нормально) находится на отдельной линии 40GbE.<br /><br />Когда я мигрирую все ВМ на vhost1 и выключаю vhost2 для обслуживания, vhost1 перезагружается через некоторое время (возможно, меньше чем через 30 секунд после отключения vhost2). Я думаю, что это Proxmox теряет кворум и "фенсит" vhost1. В каком журнале я должен искать, чтобы убедиться в этом?<br /><br />Пока vhost2 выключен и после перезапуска vhost1, я не могу запускать какие-либо ВМ на vhost1 из-за отсутствия кворума. Кажется, что qdevice не предоставляет третьего голоса для кворума, но, насколько я могу судить, все настроено правильно.<br /><br />```<br />root@VHOST1:~# pvecm s<br />Cluster information<br />-------------------<br />Name: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; homelab<br />Config Version: &nbsp; 4<br />Transport: &nbsp; &nbsp; &nbsp; &nbsp;knet<br />Secure auth: &nbsp; &nbsp; &nbsp;on<br /><br />Quorum information<br />------------------<br />Date: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Mon May 13 16:57:21 2024<br />Quorum provider: &nbsp;corosync_votequorum<br />Nodes: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2<br />Node ID: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;0x00000001<br />Ring ID: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1.10e9<br />Quorate: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Yes<br /><br />Votequorum information<br />----------------------<br />Expected votes: &nbsp; 3<br />Highest expected: 3<br />Total votes: &nbsp; &nbsp; &nbsp;3<br />Quorum: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 2<br />Flags: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Quorate Qdevice<br /><br />Membership information<br />----------------------<br /> &nbsp; &nbsp;Nodeid &nbsp; &nbsp; &nbsp;Votes &nbsp; &nbsp;Qdevice Name<br />0x00000001 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1 &nbsp; &nbsp;A,V,NMW 172.16.0.1 (local)<br />0x00000002 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1 &nbsp; &nbsp;A,V,NMW 172.16.0.2<br />0x00000000 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Qdevice<br />```<br /><br />```<br />root@VHOST1:~# cat /etc/pve/corosync.conf<br />logging {<br /> &nbsp;debug: off<br /> &nbsp;to_syslog: yes<br />}<br /><br />nodelist {<br /> &nbsp;node {<br /> &nbsp; &nbsp;name: VHOST1<br /> &nbsp; &nbsp;nodeid: 1<br /> &nbsp; &nbsp;quorum_votes: 1<br /> &nbsp; &nbsp;ring0_addr: 172.16.0.1<br /> &nbsp;}<br /> &nbsp;node {<br /> &nbsp; &nbsp;name: VHOST2<br /> &nbsp; &nbsp;nodeid: 2<br /> &nbsp; &nbsp;quorum_votes: 1<br /> &nbsp; &nbsp;ring0_addr: 172.16.0.2<br /> &nbsp;}<br />}<br /><br />quorum {<br /> &nbsp;device {<br /> &nbsp; &nbsp;model: net<br /> &nbsp; &nbsp;net {<br /> &nbsp; &nbsp; &nbsp;algorithm: ffsplit<br /> &nbsp; &nbsp; &nbsp;host: 172.16.0.3<br /> &nbsp; &nbsp; &nbsp;tls: on<br /> &nbsp; &nbsp;}<br /> &nbsp; &nbsp;votes: 1<br /> &nbsp;}<br /> &nbsp;provider: corosync_votequorum<br />}<br /><br />totem {<br /> &nbsp;cluster_name: homelab<br /> &nbsp;config_version: 4<br /> &nbsp;interface {<br /> &nbsp; &nbsp;linknumber: 0<br /> &nbsp;}<br /> &nbsp;ip_version: ipv4-6<br /> &nbsp;link_mode: passive<br /> &nbsp;secauth: on<br /> &nbsp;version: 2<br />}<br />```<br /><br />Не знаю, указывают ли эти сообщения из сервиса qnetd на проблему:<br /><br />```<br />root@storage1:/mnt/raid/storage# service corosync-qnetd status<br />● corosync-qnetd.service - Corosync Qdevice Network daemon<br /> &nbsp; &nbsp; Loaded: loaded (/lib/systemd/system/corosync-qnetd.service; enabled; vendor preset: enabled)<br /> &nbsp; &nbsp; Active: active (running) since Wed 2024-04-24 03:44:42 EDT; 2 weeks 5 days ago<br /> &nbsp; &nbsp; &nbsp; Docs: man:corosync-qnetd<br /> &nbsp; Main PID: 3636 (corosync-qnetd)<br /> &nbsp; &nbsp; &nbsp;Tasks: 1 (limit: 154400)<br /> &nbsp; &nbsp; Memory: 8.9M<br /> &nbsp; &nbsp; &nbsp; &nbsp;CPU: 1min 15.283s<br /> &nbsp; &nbsp; CGroup: /system.slice/corosync-qnetd.service<br /> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; └─3636 /usr/bin/corosync-qnetd -f<br /><br />May 12 10:05:30 storage1 corosync-qnetd[3636]: Client ::ffff:172.16.0.2:41242 doesn't sent any message during 12000ms. Disconnecting<br />May 12 14:05:24 storage1 corosync-qnetd[3636]: Client ::ffff:172.16.0.2:34990 doesn't sent any message during 12000ms. Disconnecting<br />May 12 18:05:23 storage1 corosync-qnetd[3636]: Client ::ffff:172.16.0.2:34028 doesn't sent any message during 12000ms. Disconnecting<br />May 12 19:57:21 storage1 corosync-qnetd[3636]: Client ::ffff:172.16.0.1:57120 doesn't sent any message during 12000ms. Disconnecting<br />May 12 19:57:22 storage1 corosync-qnetd[3636]: Client ::ffff:172.16.0.2:40022 doesn't sent any message during 12000ms. Disconnecting<br />May 13 00:01:13 storage1 corosync-qnetd[3636]: Client ::ffff:172.16.0.2:40406 doesn't sent any message during 12000ms. Disconnecting<br />May 13 00:55:12 storage1 corosync-qnetd[3636]: Client ::ffff:172.16.0.1:46806 doesn't sent any message during 12000ms. Disconnecting<br />May 13 02:27:59 storage1 corosync-qnetd[3636]: Client ::ffff:172.16.0.1:53194 doesn't sent any message during 12000ms. Disconnecting<br />May 13 02:35:44 storage1 corosync-qnetd[3636]: Client ::ffff:172.16.0.2:55096 doesn't sent any message during 12000ms. Disconnecting<br />May 13 02:39:34 storage1 corosync-qnetd[3636]: Client ::ffff:172.16.0.2:44588 doesn't sent any message during 12000ms. Disconnecting <br />
			<i>13.05.2024 23:06:00, mike15301.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message328778/78332-problemy-s-ograzhdeniem.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message328778/78332-problemy-s-ograzhdeniem.</guid>
			<pubDate>Mon, 13 May 2024 23:06:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
	</channel>
</rss>
