<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
	<channel>
		<title>Аспро: ЛайтШоп [тема: [РЕШЕНО] Нужна помощь с настройкой избыточной сети для Proxmox Ceph]</title>
		<link>http://proxmox.su</link>
		<description>Новое в теме [РЕШЕНО] Нужна помощь с настройкой избыточной сети для Proxmox Ceph форума Proxmox Виртуальная Среда на сайте Аспро: ЛайтШоп [proxmox.su]</description>
		<language>ru</language>
		<docs>http://backend.userland.com/rss2</docs>
		<pubDate>Mon, 20 Apr 2026 19:47:14 +0300</pubDate>
		<item>
			<title>[РЕШЕНО] Нужна помощь с настройкой избыточной сети для Proxmox Ceph</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message336948/79314-resheno_-nuzhna-pomoshch-s-nastroykoy-izbytochnoy-seti-dlya-proxmox-ceph">[РЕШЕНО] Нужна помощь с настройкой избыточной сети для Proxmox Ceph</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Привет, Алвин! Транковый кабель между двумя коммутаторами был той самой недостающей деталью. После подключения коммутаторов резервирование заработало отлично. Большое спасибо за твою помощь! С наилучшими пожеланиями, Марио Минати <br />
			<i>24.07.2018 18:00:00, Mario Minati.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message336948/79314-resheno_-nuzhna-pomoshch-s-nastroykoy-izbytochnoy-seti-dlya-proxmox-ceph</link>
			<guid>http://proxmox.su/forum/messages/forum63/message336948/79314-resheno_-nuzhna-pomoshch-s-nastroykoy-izbytochnoy-seti-dlya-proxmox-ceph</guid>
			<pubDate>Tue, 24 Jul 2018 18:00:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>[РЕШЕНО] Нужна помощь с настройкой избыточной сети для Proxmox Ceph</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message336947/79314-resheno_-nuzhna-pomoshch-s-nastroykoy-izbytochnoy-seti-dlya-proxmox-ceph">[РЕШЕНО] Нужна помощь с настройкой избыточной сети для Proxmox Ceph</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Не через GUI. В active-backup, если один из линков выходит из строя, он заменяется одним из других слейвов в бонде. Но это происходит только в том бонде, где случился сбой. Весь остальной сетевой трафик остается нетронутым. Это значит, что ваша сеть должна уметь маршрутизировать трафик к каждому интерфейсу на других узлах. Если у вас два коммутатора, их нужно соединить через транк.<br /><br /><noindex><a href="https://www.kernel.org/doc/Documentation/networking/bonding.txt" target="_blank" rel="nofollow" >https://www.kernel.org/doc/Documentation/networking/bonding.txt</a></noindex><br /><br />Вы же не хотите засорять сеть лишним трафиком.<br /><br />Сценарии с active-backup бондом:<br /><br />- Один коммутатор падает — все подключённые бонды переключаются на оставшийся подключённый слейв (весь трафик идет через другой коммутатор).<br />- Линк одного порта NIC в бонде выходит из строя — бонд переключается на оставшийся подключённый слейв (трафик идёт через оба коммутатора).<br />- NIC выходит из строя — если в бонде есть два разных NIC, он переключится, иначе узел теряет связь. <br />
			<i>23.07.2018 16:58:00, Alwin.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message336947/79314-resheno_-nuzhna-pomoshch-s-nastroykoy-izbytochnoy-seti-dlya-proxmox-ceph</link>
			<guid>http://proxmox.su/forum/messages/forum63/message336947/79314-resheno_-nuzhna-pomoshch-s-nastroykoy-izbytochnoy-seti-dlya-proxmox-ceph</guid>
			<pubDate>Mon, 23 Jul 2018 16:58:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>[РЕШЕНО] Нужна помощь с настройкой избыточной сети для Proxmox Ceph</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message336946/79314-resheno_-nuzhna-pomoshch-s-nastroykoy-izbytochnoy-seti-dlya-proxmox-ceph">[РЕШЕНО] Нужна помощь с настройкой избыточной сети для Proxmox Ceph</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Привет, Альвин, спасибо за быстрый ответ. Я в курсе, можно вручную задать основной интерфейс в /etc/network/interfaces, его не настроить через GUI, верно? Но у меня всё ещё возникают проблемы с пониманием active-backup bonding, несмотря на то что я несколько раз перечитал документацию по bonding: если, например, отключить на переключателе node01 ceph cluster или ceph public network, пинг прекращается и не восстанавливается даже спустя какое-то время. Я считал, что в режиме active-backup соединение должно восстанавливаться автоматически, так? Поскольку мы используем раздельные коммутаторы для обеих сетей (физическое разделение), нужно ли, чтобы все узлы сети переключались на другую сеть? Иначе отключённый (на одном из двух bonding-портов) узел не будет получать пакеты из той сети, от которой он отсоединён, правильно? Может, конфигурация с active-backup bonding у нас в случае не совсем корректна? Нужно ли переключиться на broadcast? Извиняюсь за кучу вопросов, просто глубоко в bonding-сетях я пока не разбираюсь… Надеюсь, сможешь просветить и помочь нам сделать по-настоящему отказоустойчивую настройку. С наилучшими пожеланиями, Марио Минати. <br />
			<i>23.07.2018 14:55:00, Mario Minati.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message336946/79314-resheno_-nuzhna-pomoshch-s-nastroykoy-izbytochnoy-seti-dlya-proxmox-ceph</link>
			<guid>http://proxmox.su/forum/messages/forum63/message336946/79314-resheno_-nuzhna-pomoshch-s-nastroykoy-izbytochnoy-seti-dlya-proxmox-ceph</guid>
			<pubDate>Mon, 23 Jul 2018 14:55:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>[РЕШЕНО] Нужна помощь с настройкой избыточной сети для Proxmox Ceph</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message336945/79314-resheno_-nuzhna-pomoshch-s-nastroykoy-izbytochnoy-seti-dlya-proxmox-ceph">[РЕШЕНО] Нужна помощь с настройкой избыточной сети для Proxmox Ceph</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Состояние бонда можно посмотреть в '/proc/net/bonding/bondX'. Во-вторых, возможно, стоит задать основной подчинённый интерфейс, чтобы бонд переключался обратно, когда этот интерфейс снова становится активным. <noindex><a href="https://wiki.linuxfoundation.org/networking/bonding" target="_blank" rel="nofollow" >https://wiki.linuxfoundation.org/networking/bonding</a></noindex> И, наконец, проверьте сетевые настройки для каждого интерфейса, чтобы учесть все возможные сценарии. Проблемы с маршрутизацией? <br />
			<i>23.07.2018 09:52:00, Alwin.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message336945/79314-resheno_-nuzhna-pomoshch-s-nastroykoy-izbytochnoy-seti-dlya-proxmox-ceph</link>
			<guid>http://proxmox.su/forum/messages/forum63/message336945/79314-resheno_-nuzhna-pomoshch-s-nastroykoy-izbytochnoy-seti-dlya-proxmox-ceph</guid>
			<pubDate>Mon, 23 Jul 2018 09:52:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>[РЕШЕНО] Нужна помощь с настройкой избыточной сети для Proxmox Ceph</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message336944/79314-resheno_-nuzhna-pomoshch-s-nastroykoy-izbytochnoy-seti-dlya-proxmox-ceph">[РЕШЕНО] Нужна помощь с настройкой избыточной сети для Proxmox Ceph</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Привет, @Alwin, привет всем! Мы настроили оборудование согласно нашим планам (схема сети во вложении) и столкнулись с проблемой при тестировании bonded-интерфейсов. Когда запускаем ping с одного узла Proxmox на другой по bonded-интерфейсу и выдергиваем кабель из одного из двух NIC, ping не восстанавливается. Даже если снова подключить кабель, ping не возобновляется. После повторного подключения кабеля к NIC1 нам приходится отключать NIC2, чтобы команда ping начала получать ответы. Мы заметили такое же поведение, если смотрим состояние кворума Ceph сети через веб-интерфейс Proxmox и отключаем один из двух bonded NIC внутренней Ceph сети. Что может быть не так с нашей конфигурацией? Ниже конфигурация сети трёх узлов.<br /><br />#<br /># pub-ceph-node-01<br />#<br />auto lo<br />iface lo inet loopback<br /><br />auto enp66s0f1<br />iface enp66s0f1 inet static<br />address 10.247.11.11<br />netmask 255.255.0.0<br />gateway 10.247.1.1 #man.pub.intranet<br /><br />auto eno1<br />iface eno1 inet static<br />address 10.246.11.11<br />netmask 255.255.255.0 #sync1.pub.intranet<br /><br />auto eno2<br />iface eno2 inet static<br />address 10.246.12.11<br />netmask 255.255.255.0 #sync2.pub.intranet<br /><br />iface enp8s0f0 inet manual #san1.pub.intranet<br />iface enp8s0f1 inet manual #ceph1.pub.intranet<br />iface enp65s0f0 inet manual #san2.pub.intranet<br />iface enp65s0f1 inet manual #ceph2.pub.intranet<br />iface enp66s0f0 inet manual<br /><br />auto bond0<br />iface bond0 inet static<br />address 10.246.21.11<br />netmask 255.255.255.0<br />slaves enp65s0f0 enp8s0f0<br />bond_miimon 100<br />bond_mode active-backup #san.pub.intranet<br /><br />auto bond1<br />iface bond1 inet static<br />address 10.246.31.11<br />netmask 255.255.255.0<br />slaves enp65s0f1 enp8s0f1<br />bond_miimon 100<br />bond_mode active-backup #ceph.pub.intranet<br /><br />#<br /># pub-ceph-node-02<br />#<br />auto lo<br />iface lo inet loopback<br /><br />auto enp66s0f1<br />iface enp66s0f1 inet static<br />address 10.247.11.12<br />netmask 255.255.0.0<br />gateway 10.247.1.1 #man.pub.intranet<br /><br />auto eno1<br />iface eno1 inet static<br />address 10.246.11.12<br />netmask 255.255.255.0 #sync1.pub.intranet<br /><br />auto eno2<br />iface eno2 inet static<br />address 10.246.12.12<br />netmask 255.255.255.0 #sync2.pub.intranet<br /><br />iface enp65s0f0 inet manual #san2.pub.intranet<br />iface enp65s0f1 inet manual #ceph2.pub.intranet<br />iface enp66s0f0 inet manual<br />iface enp8s0f0 inet manual #san1.pub.intranet<br />iface enp8s0f1 inet manual #ceph1.pub.intranet<br /><br />auto bond0<br />iface bond0 inet static<br />address 10.246.21.12<br />netmask 255.255.255.0<br />slaves enp65s0f0 enp8s0f0<br />bond_miimon 100<br />bond_mode active-backup #san.pub.intranet<br /><br />auto bond1<br />iface bond1 inet static<br />address 10.246.31.12<br />netmask 255.255.255.0<br />slaves enp65s0f1 enp8s0f1<br />bond_miimon 100<br />bond_mode active-backup #ceph.pub.intranet<br /><br />#<br /># pub-ceph-node-03<br />#<br />auto lo<br />iface lo inet loopback<br /><br />auto enp66s0f1<br />iface enp66s0f1 inet static<br />address 10.247.11.13<br />netmask 255.255.0.0<br />gateway 10.247.1.1 #man.pub.intranet<br /><br />auto eno1<br />iface eno1 inet static<br />address 10.246.11.13<br />netmask 255.255.255.0 #sync1.pub.intranet<br /><br />auto eno2<br />iface eno2 inet static<br />address 10.246.12.13<br />netmask 255.255.255.0 #sync2.pub.intranet<br /><br />iface enp8s0f0 inet manual #san1.pub.intranet<br />iface enp8s0f1 inet manual #ceph1.pub.intranet<br />iface enp65s0f0 inet manual #san2.pub.intranet<br />iface enp65s0f1 inet manual #ceph2.pub.intranet<br />iface enp66s0f0 inet manual<br /><br />auto bond0<br />iface bond0 inet static<br />address 10.246.21.13<br />netmask 255.255.255.0<br />slaves enp65s0f0 enp8s0f0<br />bond_miimon 100<br />bond_mode active-backup #san.pub.intranet<br /><br />auto bond1<br />iface bond1 inet static<br />address 10.246.31.13<br />netmask 255.255.255.0<br />slaves enp65s0f1 enp8s0f1<br />bond_miimon 100<br />bond_mode active-backup #ceph.pub.intranet<br /><br />Буду очень признателен за любые советы, куда копать. Всего доброго, Марио. <br />
			<i>20.07.2018 19:21:00, Mario Minati.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message336944/79314-resheno_-nuzhna-pomoshch-s-nastroykoy-izbytochnoy-seti-dlya-proxmox-ceph</link>
			<guid>http://proxmox.su/forum/messages/forum63/message336944/79314-resheno_-nuzhna-pomoshch-s-nastroykoy-izbytochnoy-seti-dlya-proxmox-ceph</guid>
			<pubDate>Fri, 20 Jul 2018 19:21:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>[РЕШЕНО] Нужна помощь с настройкой избыточной сети для Proxmox Ceph</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message336943/79314-resheno_-nuzhna-pomoshch-s-nastroykoy-izbytochnoy-seti-dlya-proxmox-ceph">[РЕШЕНО] Нужна помощь с настройкой избыточной сети для Proxmox Ceph</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Всем привет! Мы новички в Proxmox. Сейчас используем Univention Corporate Server, чтобы виртуализировать 15 машин на 3 физических серверах. У нас нет общего хранилища и высокой доступности. Поэтому мы хотим сделать кластер Proxmox из 5 физических машин: 3 идентично настроенные для Ceph и 2 для виртуализации. Мы много читали на форуме, в вики и документации и думаем, что набрались достаточно знаний, чтобы начать настройку.<br /><br />Хотим спросить, подходит ли наша сетевая конфигурация для целей высокой доступности и отказоустойчивости. В приложении диаграмма нашей сети:<br /><br />- 2 отдельные сети 1 GBE для Corosync ring 0 и ring 1 с разными коммутаторами, одну из этих сетей используем для управления (внешний доступ к веб-интерфейсам Proxmox и Lights Out Management)<br />- 2 отдельные сети 10 GBE как публичные сети Ceph с разными коммутаторами и использованием агрегации каналов (bonding)<br />- 2 отдельные сети 10 GBE как кластерные сети Ceph с разными коммутаторами и использованием агрегации каналов (bonding)<br />- 1 отдельная сеть 1 GBE для доступа к виртуальным машинам из внешней сети (DMZ / Intranet)<br /><br />Вопросы:<br /><br />- Подходит ли это для отказоустойчивости?<br />- Обеспечит ли такая схема хорошую производительность?<br />- Хорош ли выбранный режим bond_mode (balance_rr) для использования с разными коммутаторами, чтобы добиться хорошей производительности?<br /><br />Спасибо за советы! &nbsp;<br />С уважением, Марио Минати <br />
			<i>12.06.2018 00:45:00, Mario Minati.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message336943/79314-resheno_-nuzhna-pomoshch-s-nastroykoy-izbytochnoy-seti-dlya-proxmox-ceph</link>
			<guid>http://proxmox.su/forum/messages/forum63/message336943/79314-resheno_-nuzhna-pomoshch-s-nastroykoy-izbytochnoy-seti-dlya-proxmox-ceph</guid>
			<pubDate>Tue, 12 Jun 2018 00:45:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
	</channel>
</rss>
