<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
	<channel>
		<title>Аспро: ЛайтШоп [тема: [РЕШЕНО] Проблемы с подключением новых нод - кластер падает - полностью обновлено до 8.4.1 - без подписок]</title>
		<link>http://proxmox.su</link>
		<description>Новое в теме [РЕШЕНО] Проблемы с подключением новых нод - кластер падает - полностью обновлено до 8.4.1 - без подписок форума Proxmox Виртуальная Среда на сайте Аспро: ЛайтШоп [proxmox.su]</description>
		<language>ru</language>
		<docs>http://backend.userland.com/rss2</docs>
		<pubDate>Wed, 29 Apr 2026 04:04:23 +0300</pubDate>
		<item>
			<title>[РЕШЕНО] Проблемы с подключением новых нод - кластер падает - полностью обновлено до 8.4.1 - без подписок</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message305585/75083-resheno_-problemy-s-podklyucheniem-novykh-nod-_-klaster-padaet-_-polnostyu-obnovleno-do-8.4.1-_-bez-podpisok">[РЕШЕНО] Проблемы с подключением новых нод - кластер падает - полностью обновлено до 8.4.1 - без подписок</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Похоже, проблема была в том, что к каждому хосту применялся один и тот же cloudflare cert... в общем, выдавалась какая-то странная ssl-ошибка при подключении. Помогло использование pvecm add и удалось это решить. Пришлось использовать pve.domain.lan, чтобы подключение сработало корректно. Раньше была ситуация с настроенным HA до подключения к одному узлу, ох уж эти оплошности... Странно, что при подключении настройки HA не сбрасываются на узле. Почему-то вылетало из Ceph без какой-либо конфигурации Ceph, но, возможно, проблема была в том, что HA пытался "узнать" о хранилище. В любом случае, теперь все работает, как надо, и на следующей неделе должна появиться пятая нода. Сейчас переношу виртуальный fortigate, который использует trunks в VMware, на Prox bridge, это немного сложно, и приходится настраивать выделенный trunk-порт на хостах, чтобы можно было просто перенести его без всех новых настроек. <br />
			<i>19.06.2025 22:37:00, B-C.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message305585/75083-resheno_-problemy-s-podklyucheniem-novykh-nod-_-klaster-padaet-_-polnostyu-obnovleno-do-8.4.1-_-bez-podpisok</link>
			<guid>http://proxmox.su/forum/messages/forum63/message305585/75083-resheno_-problemy-s-podklyucheniem-novykh-nod-_-klaster-padaet-_-polnostyu-obnovleno-do-8.4.1-_-bez-podpisok</guid>
			<pubDate>Thu, 19 Jun 2025 22:37:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>[РЕШЕНО] Проблемы с подключением новых нод - кластер падает - полностью обновлено до 8.4.1 - без подписок</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message305584/75083-resheno_-problemy-s-podklyucheniem-novykh-nod-_-klaster-padaet-_-polnostyu-obnovleno-do-8.4.1-_-bez-podpisok">[РЕШЕНО] Проблемы с подключением новых нод - кластер падает - полностью обновлено до 8.4.1 - без подписок</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Кластер развернут и работает. В течение последнего года перешли с VMware, как и многие другие. Убрали несколько временных хостов, которые были в кластере с Ceph, всё работает нормально. Кластер работает по IP, а не по именам хостов, поэтому всё отлично. Сейчас Ceph работает на том же интерфейсе, пока не освобожу дополнительные порты, но всё на 10G и работает хорошо. Проблема в том, что при добавлении нового узла в кластер он сходит с ума и теряет кворум, пока новый узел не отключить или удалить из сети.<br /><br />— Первая попытка: новый узел установил Ceph, но OSD не настроены – ох, кажется, разозлило. Все хранилища падают, когда кластер вылетает. Как только новый узел отключают из сети (выдергивают кабель), он стабилизируется, и можно удалить проблемный узел, и всё снова хорошо. &nbsp;Файл /etc/pve/nodes/PVE0&lt;номер узла&gt;/pve-ssl.pem не существует! (500), но узел временно появляется, просто закатывает истерику из-за разрешения DNS.<br /><br />— Вторая попытка: перезагрузил узел с тем же IP, но предыдущим названием узла (перезацикленный). Ceph не установлен, пытается подключиться к кластеру – та же проблема (смерть кворума кластера). &nbsp;Та же ошибка: Файл /etc/pve/nodes/PVE0&lt;номер узла&gt;/pve-ssl.pem не существует! (500), но узел временно появляется, просто закатывает истерику из-за разрешения DNS. (не удалось выполнить поиск DNS или что-то подобное).<br /><br />— Третья попытка: перезагрузил узел с новым IP и названием узла. Ceph не установлен, пытается подключиться к кластеру – та же проблема (смерть кворума кластера). Та же ошибка: Файл /etc/pve/nodes/PVE0&lt;номер узла&gt;/pve-ssl.pem не существует! (500), те же DNS-странности, поэтому четвертую попытку пока не предпринимал. Проверил множество сообщений в журнале кластера: journalctl -u pve-cluster -u corosync -b, но не уверен, что конкретно смотреть, чтобы понять причину отказа подключения. &nbsp;Добавил имена каждого узла в /etc/hosts и дополнительно добавил их в DNS. В данном случае имена узлов написаны с заглавной буквы, чтобы соответствовать /etc/pve/nodes и hostnamectl.<br /><br />/etc/hosts<br />127.0.0.1 localhost.localdomain localhost<br />192.168.99.32 Node02.tld.local Node02 # Новый узел<br />192.168.99.33 Node03.tld.local Node03 # Существующий<br />192.168.99.34 Node04.tld.local Node04 # Существующий<br />192.168.99.35 Node05.tld.local Node05 # Существующий<br /><br />Проверил с каждого хоста, что можно подключиться по ssh root@Node0x к каждому, и отпечатки пальцев совпадают, за исключением Node02, конечно. &nbsp;Но с Node5 можно подключиться и проверить, что в /etc/hosts всё настроено правильно, даже несмотря на хорошее разрешение DNS. &nbsp;Поддерживаю резервный файл hosts для случаев, когда DNS не работает – пока не настрою DNS вне кластера. Есть какие-нибудь другие идеи, как упростить процесс подключения? &nbsp;Существующие подключения выполнялись через графический интерфейс... или просто подключиться через CLI? Сейчас не уверен, что кластер в порядке, даже несмотря на то, что на 3-узловом существующем кластере всё зелено.<br /><br />Заметили, что при подключении через графический интерфейс новый узел постоянно пытается использовать Node05, например, вместо текущего мастера кворума, указанного в HA. Не знаю, имеет ли это значение. &nbsp;Все узлы имеют правильное время NTP и синхронизированы.<br /><br />По Ceph есть несколько настроек: два разных crush rules – один для SSD, а другой для HDD, чтобы разделять хранилище. &nbsp;Изначально пулы были смешанными, но раздельные crush rules, похоже, это исправили… Надеюсь, что проблема не в этом.<br /><br />Изначально новый узел должен просто подключиться к кластеру и позже начать добавлять OSD в свои соответствующие пулы... Изначально "должен" участвовать и просто использовать существующее хранилище. &nbsp;Есть другие тестовые кластеры, настроенные таким образом в лабораторной среде, и всё работает отлично. Четвёртый узел не имеет хранилища, использует NFS / Ceph от других 3 узлов. <br />
			<i>26.05.2025 18:25:00, B-C.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message305584/75083-resheno_-problemy-s-podklyucheniem-novykh-nod-_-klaster-padaet-_-polnostyu-obnovleno-do-8.4.1-_-bez-podpisok</link>
			<guid>http://proxmox.su/forum/messages/forum63/message305584/75083-resheno_-problemy-s-podklyucheniem-novykh-nod-_-klaster-padaet-_-polnostyu-obnovleno-do-8.4.1-_-bez-podpisok</guid>
			<pubDate>Mon, 26 May 2025 18:25:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
	</channel>
</rss>
