<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
	<channel>
		<title>Аспро: ЛайтШоп [тема: Вопросы по публичной сети Ceph и кластеру.]</title>
		<link>http://proxmox.su</link>
		<description>Новое в теме Вопросы по публичной сети Ceph и кластеру. форума Proxmox Виртуальная Среда на сайте Аспро: ЛайтШоп [proxmox.su]</description>
		<language>ru</language>
		<docs>http://backend.userland.com/rss2</docs>
		<pubDate>Wed, 15 Apr 2026 00:50:52 +0300</pubDate>
		<item>
			<title>Вопросы по публичной сети Ceph и кластеру.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message308335/75434-voprosy-po-publichnoy-seti-ceph-i-klasteru.">Вопросы по публичной сети Ceph и кластеру.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Не против поделиться информацией, может, скриншоты конфига? Я новичок в Proxmox и никак не могу разобраться. У меня похожая конфигурация, как у тебя: 3 ноды, с несколькими 1B NICs для Proxmox, и 25GB Dual NICs для CEPH на каждом сервере. Но, никак не получается. Смотрел это, но так и не понял, и устал переустанавливать Proxmox. <br />
			<i>19.02.2025 02:18:00, DaSilva.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message308335/75434-voprosy-po-publichnoy-seti-ceph-i-klasteru.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message308335/75434-voprosy-po-publichnoy-seti-ceph-i-klasteru.</guid>
			<pubDate>Wed, 19 Feb 2025 02:18:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Вопросы по публичной сети Ceph и кластеру.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message308334/75434-voprosy-po-publichnoy-seti-ceph-i-klasteru.">Вопросы по публичной сети Ceph и кластеру.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Ceph — это и надежно, и масштабируемо. Можно настроить количество реплик для каждого объекта (по умолчанию 3), а также минимальное количество реплик для каждого объекта (по умолчанию 2). Если два узла выходят из строя, количество реплик для всех объектов окажется ниже минимального, и пул заблокирует все операции записи до тех пор, пока ситуация не разрешится. Это очень отличается от полного уничтожения данных, ведь у вас все еще есть экземпляр вашей информации. Ceph может восстановиться после потери произвольного числа OSD и/или узлов, если предоставить ему достаточно ресурсов. Чтобы поддерживать нормальную работу при выходе из строя двух узлов, вам потребуется 4 узла в кластере, в этом случае Ceph сможет работать в деградированном состоянии (имея только 2 реплики для каждого объекта) до тех пор, пока узлы не вернутся в кластер. <br />
			<i>22.08.2023 08:50:00, Maximiliano.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message308334/75434-voprosy-po-publichnoy-seti-ceph-i-klasteru.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message308334/75434-voprosy-po-publichnoy-seti-ceph-i-klasteru.</guid>
			<pubDate>Tue, 22 Aug 2023 08:50:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Вопросы по публичной сети Ceph и кластеру.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message308333/75434-voprosy-po-publichnoy-seti-ceph-i-klasteru.">Вопросы по публичной сети Ceph и кластеру.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Спасибо большое за ответ, Аарон. Ты имеешь в виду добавить ещё сетевых интерфейсных контроллеров? Ещё один вопрос: достаточно ли Ceph для продакшена по сравнению с LINSTOR (или, может быть, NFS - NAS)? У Ceph минимум 3 ноды (как у меня), но он может выдержать только отказ одной ноды, а при отказе двух нод будет полное уничтожение (???) <br />
			<i>22.08.2023 08:09:00, karadimi.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message308333/75434-voprosy-po-publichnoy-seti-ceph-i-klasteru.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message308333/75434-voprosy-po-publichnoy-seti-ceph-i-klasteru.</guid>
			<pubDate>Tue, 22 Aug 2023 08:09:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Вопросы по публичной сети Ceph и кластеру.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message308332/75434-voprosy-po-publichnoy-seti-ceph-i-klasteru.">Вопросы по публичной сети Ceph и кластеру.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			В целом выглядит неплохо. Но избыточности в сети для NAS и Ceph не наблюдается. И еще, учтите, что Corosync может поддерживать до 8 каналов связи. Поэтому неплохая идея — настроить дополнительные каналы связи в других сетях, чтобы у него был выбор, если выделенный канал Corosync выйдет из строя. На той сети, где доступен шлюз и через которую вы хотите, чтобы Proxmox VE выходил в интернет, и на всех остальных сетях, к которым у него может не быть прямого соединения. <br />
			<i>14.07.2023 14:53:00, aaron.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message308332/75434-voprosy-po-publichnoy-seti-ceph-i-klasteru.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message308332/75434-voprosy-po-publichnoy-seti-ceph-i-klasteru.</guid>
			<pubDate>Fri, 14 Jul 2023 14:53:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Вопросы по публичной сети Ceph и кластеру.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message308331/75434-voprosy-po-publichnoy-seti-ceph-i-klasteru.">Вопросы по публичной сети Ceph и кластеру.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Приветствую! У меня NAS с двумя 10-гигабитными сетевыми картами. Есть 3 сервера со следующей сетевой пропускной способностью: 1 x 2 10GB, 1 x 4 1GB.<br /><br />Исходя из того, что я прочитал здесь, сценарий сетевого разделения может быть таким:<br /><br />1 x 10GB - соединение с NAS<br />1 x 10GB - соединение Ceph (кластер и публичное)<br />1 x 1GB - соединение управления PVE<br />1 x 1GB - кластер PVE (corosync)<br />2 x 1GB (LACP bond) - сеть для VM PVE<br /><br />И еще вопрос: где лучше добавить настройку шлюза? В сети VM или в сети управления? <br />
			<i>14.07.2023 08:56:00, karadimi.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message308331/75434-voprosy-po-publichnoy-seti-ceph-i-klasteru.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message308331/75434-voprosy-po-publichnoy-seti-ceph-i-klasteru.</guid>
			<pubDate>Fri, 14 Jul 2023 08:56:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Вопросы по публичной сети Ceph и кластеру.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message308330/75434-voprosy-po-publichnoy-seti-ceph-i-klasteru.">Вопросы по публичной сети Ceph и кластеру.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Привет! Хочу настроить Ceph с полной mesh-сетью через два сетевых адаптера на 100GbE. В документации "Deploy Hyper-Converged Ceph Cluster" рекомендуется разделять публичную и кластерную сети Ceph. Если я правильно понял, там сказано, что для Ceph нужна избыточность в сети. В связи с этим у меня вопрос: если и то, и другое рекомендуется, и я разделяю "сеть" и "кластерную" сеть и при этом хочу добавить дополнительную избыточность для сети Ceph, мне хватит одного дуального адаптера (1x2) или нужны два дуальных адаптера (2x2)? Если нужны 2x2: Требуется ли 100GbE для публичной и кластерной сети каждая? Или для одной из них хватит 10GbE? Хочу сделать полностью NVMe-систему с Mellanox 9300 MAX на 3 узлах. Планирую начать с 4 NVMe на узел, максимум — 8 NVMe на узел. Большое спасибо за помощь. <br />
			<i>13.03.2021 15:06:00, Sycoriorz.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message308330/75434-voprosy-po-publichnoy-seti-ceph-i-klasteru.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message308330/75434-voprosy-po-publichnoy-seti-ceph-i-klasteru.</guid>
			<pubDate>Sat, 13 Mar 2021 15:06:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
	</channel>
</rss>
