<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
	<channel>
		<title>Аспро: ЛайтШоп [тема: Ceph на HPE DL380 Gen10+ не работает.]</title>
		<link>http://proxmox.su</link>
		<description>Новое в теме Ceph на HPE DL380 Gen10+ не работает. форума Proxmox Виртуальная Среда на сайте Аспро: ЛайтШоп [proxmox.su]</description>
		<language>ru</language>
		<docs>http://backend.userland.com/rss2</docs>
		<pubDate>Sat, 09 May 2026 23:47:23 +0300</pubDate>
		<item>
			<title>Ceph на HPE DL380 Gen10+ не работает.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message305025/74986-ceph-na-hpe-dl380-gen10_-ne-rabotaet.">Ceph на HPE DL380 Gen10+ не работает.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Привет, проблема решена настройкой Ceph с использованием кластерной сети на той же публичной сети. Это не самый лучший вариант, но так всё работает корректно, и кластер в статусе HEALTH_OK. Публичная сеть подключена к 10Гб, а в кластере всего три виртуальные машины. Буду отслеживать производительность по той же публичной сети для коммуникации OSD. Спасибо всем. <br />
			<i>09.07.2025 13:00:00, fjmo2008.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message305025/74986-ceph-na-hpe-dl380-gen10_-ne-rabotaet.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message305025/74986-ceph-na-hpe-dl380-gen10_-ne-rabotaet.</guid>
			<pubDate>Wed, 09 Jul 2025 13:00:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Ceph на HPE DL380 Gen10+ не работает.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message305024/74986-ceph-na-hpe-dl380-gen10_-ne-rabotaet.">Ceph на HPE DL380 Gen10+ не работает.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Как второй узел должен убедиться, что первый действительно упал, имея только две реплики данных? Эта схема никогда не сработает. <br />
			<i>04.07.2025 17:03:00, gurubert.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message305024/74986-ceph-na-hpe-dl380-gen10_-ne-rabotaet.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message305024/74986-ceph-na-hpe-dl380-gen10_-ne-rabotaet.</guid>
			<pubDate>Fri, 04 Jul 2025 17:03:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Ceph на HPE DL380 Gen10+ не работает.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message305023/74986-ceph-na-hpe-dl380-gen10_-ne-rabotaet.">Ceph на HPE DL380 Gen10+ не работает.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Да, MON на PVE1, согласно информации в твоем первом посте. Должно быть еще 2 рабочих, так что поволноваться особо не стоит. Что интересно, у тебя присутствуют 33 PG, но ни один из них не активен. Какой размер/минимальный размер пула? (можно пока игнорировать .mgr пул). И если ты не планируешь добавить третий нод в ближайшее время, не заморачивайся с Ceph! Лучше используй локальный ZFS + репликация гостей, если не хочешь внешнее хранилище. <br />
			<i>04.07.2025 14:14:00, aaron.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message305023/74986-ceph-na-hpe-dl380-gen10_-ne-rabotaet.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message305023/74986-ceph-na-hpe-dl380-gen10_-ne-rabotaet.</guid>
			<pubDate>Fri, 04 Jul 2025 14:14:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Ceph на HPE DL380 Gen10+ не работает.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message305022/74986-ceph-na-hpe-dl380-gen10_-ne-rabotaet.">Ceph на HPE DL380 Gen10+ не работает.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Привет, Аарон, спасибо за ответ.<br /><br />Код: root@pve1:~# ceph osd df tree<br />ID &nbsp;CLASS &nbsp;WEIGHT &nbsp; REWEIGHT &nbsp;SIZE &nbsp; &nbsp; RAW USE &nbsp;DATA &nbsp; &nbsp; OMAP &nbsp; &nbsp;META &nbsp; &nbsp;AVAIL &nbsp; &nbsp;%USE &nbsp;VAR &nbsp; PGS &nbsp;STATUS &nbsp;TYPE NAME<br />-1 &nbsp; &nbsp; &nbsp; &nbsp; 0.43658 &nbsp; &nbsp; &nbsp; &nbsp; - &nbsp;447 GiB &nbsp; 69 MiB &nbsp; 12 MiB &nbsp;31 KiB &nbsp;56 MiB &nbsp;447 GiB &nbsp;0.01 &nbsp;1.00 &nbsp; &nbsp;- &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;root default<br />-3 &nbsp; &nbsp; &nbsp; &nbsp; 0.21829 &nbsp; &nbsp; &nbsp; &nbsp; - &nbsp;224 GiB &nbsp; 34 MiB &nbsp;6.0 MiB &nbsp;18 KiB &nbsp;28 MiB &nbsp;224 GiB &nbsp;0.01 &nbsp;1.00 &nbsp; &nbsp;- &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;host pve1<br />18 &nbsp; &nbsp;ssd &nbsp;0.21829 &nbsp; 1.00000 &nbsp;224 GiB &nbsp; 34 MiB &nbsp;6.0 MiB &nbsp;18 KiB &nbsp;28 MiB &nbsp;224 GiB &nbsp;0.01 &nbsp;1.00 &nbsp; 33 &nbsp; &nbsp; &nbsp;up &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;osd.18<br />-5 &nbsp; &nbsp; &nbsp; &nbsp; 0.21829 &nbsp; &nbsp; &nbsp; &nbsp; - &nbsp;224 GiB &nbsp; 34 MiB &nbsp;6.0 MiB &nbsp;13 KiB &nbsp;28 MiB &nbsp;224 GiB &nbsp;0.01 &nbsp;1.00 &nbsp; &nbsp;- &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;host pve2<br />19 &nbsp; &nbsp;ssd &nbsp;0.21829 &nbsp; 1.00000 &nbsp;224 GiB &nbsp; 34 MiB &nbsp;6.0 MiB &nbsp;13 KiB &nbsp;28 MiB &nbsp;224 GiB &nbsp;0.01 &nbsp;1.00 &nbsp; 33 &nbsp; &nbsp; &nbsp;up &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;osd.19<br /> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; TOTAL &nbsp;447 GiB &nbsp; 69 MiB &nbsp; 12 MiB &nbsp;33 KiB &nbsp;56 MiB &nbsp;447 GiB &nbsp;0.01<br />MIN/MAX VAR: 1.00/1.00 &nbsp;STDDEV: 0 Код: root@pve1:~# pveceph status<br /> &nbsp;cluster:<br /> &nbsp; &nbsp;id: &nbsp; &nbsp; eb409a91-affd-487a-a02c-4df2e46e0a2e<br /> &nbsp; &nbsp;health: HEALTH_WARN<br /> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Reduced data availability: 33 pgs inactive, 33 pgs peering<br /> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2 daemons have recently crashed<br /> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;10 slow ops, oldest one blocked for 3988 sec, daemons [osd.18,osd.19,mon.pve1] have slow ops.<br /><br /> &nbsp;services:<br /> &nbsp; &nbsp;mon: 3 daemons, quorum pve1,pve2,ceph-mon3 (age 33m)<br /> &nbsp; &nbsp;mgr: pve1(active, since 66m), standbys: pve2<br /> &nbsp; &nbsp;osd: 2 osds: 2 up (since 33m), 2 in (since 33m)<br /><br /> &nbsp;data:<br /> &nbsp; &nbsp;pools: &nbsp; 2 pools, 33 pgs<br /> &nbsp; &nbsp;objects: 0 objects, 0 B<br /> &nbsp; &nbsp;usage: &nbsp; 69 MiB used, 447 GiB / 447 GiB avail<br /> &nbsp; &nbsp;pgs: &nbsp; &nbsp; 100.000% pgs not active<br /> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 19 peering<br /> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 14 creating+peering Как видишь, есть предупреждение о том, что недавно упали 2 демона. Спасибо. <br />
			<i>04.07.2025 12:51:00, fjmo2008.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message305022/74986-ceph-na-hpe-dl380-gen10_-ne-rabotaet.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message305022/74986-ceph-na-hpe-dl380-gen10_-ne-rabotaet.</guid>
			<pubDate>Fri, 04 Jul 2025 12:51:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Ceph на HPE DL380 Gen10+ не работает.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message305021/74986-ceph-na-hpe-dl380-gen10_-ne-rabotaet.">Ceph на HPE DL380 Gen10+ не работает.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Минимальное количество узлов, необходимое для стабильной Ceph-кластерной структуры, — 3! Как вы настроили свои пулы с точки зрения размера/min-size? Какой вывод у следующих команд?<br /><br />Код: ceph osd df tree<br />pveceph status<br /><br />Пожалуйста, используйте блоки кода, чтобы вывод был легко читаемым. Либо используя кнопку &lt;/&gt; редактора, либо заключая его в теги [code][/code]. <br />
			<i>04.07.2025 11:48:00, aaron.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message305021/74986-ceph-na-hpe-dl380-gen10_-ne-rabotaet.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message305021/74986-ceph-na-hpe-dl380-gen10_-ne-rabotaet.</guid>
			<pubDate>Fri, 04 Jul 2025 11:48:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Ceph на HPE DL380 Gen10+ не работает.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message305020/74986-ceph-na-hpe-dl380-gen10_-ne-rabotaet.">Ceph на HPE DL380 Gen10+ не работает.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			У меня кластер Proxmox 8.4 с двумя узлами и одним qdevice, Ceph Squid 19.2.1 установлен недавно, а также есть дополнительное устройство для поддержания кворума Ceph. У каждого узла есть один SATA SSD, так что у меня создано два OSD (osd.18 и osd.19), и у меня есть пул под названием poolssd, в котором находятся оба они. С момента установки и настройки Ceph я получаю это сообщение, и он не позволяет мне создавать какие-либо виртуальные машины в этом пуле:<br /><br />HEALTH_WARN: Уменьшена доступность данных: 33 группы данных неактивны, 33 группы данных устанавливают связь pg 1.0 застряла в процессе установления связи с самого начала, текущее состояние - установление связи, последнее действие [19,18] pg 4.0 застряла в процессе установления связи уже 26 часов, текущее состояние - установление связи, последнее действие [18,19] pg 4.1 застряла в процессе установления связи уже 26 часов, текущее состояние - создание+установление связи, последнее действие [19,18] pg 4.2 застряла в процессе установления связи уже 26 часов, текущее состояние - установление связи, последнее действие [18,19] pg 4.3 застряла в процессе установления связи уже 26 часов, текущее состояние - установление связи, последнее действие [18,19] pg 4.4 застряла в процессе установления связи уже 26 часов, текущее состояние - установление связи, последнее действие [18,19] pg 4.5 застряла в процессе установления связи уже 26 часов, текущее состояние - создание+установление связи, последнее действие [19,18] pg 4.6 застряла в процессе установления связи уже 26 часов, текущее состояние - установление связи, последнее действие [18,19] pg 4.7 застряла в процессе установления связи уже 26 часов, текущее состояние - установление связи, последнее действие [18,19] pg 4.8 застряла в процессе установления связи уже 26 часов, текущее состояние - создание+установление связи, последнее действие [19,18] pg 4.9 застряла в процессе установления связи уже 26 часов, текущее состояние - создание+установление связи, последнее действие [19,18] pg 4.a застряла в процессе установления связи уже 26 часов, текущее состояние - создание+установление связи, последнее действие [19,18] pg 4.b застряла в процессе установления связи уже 26 часов, текущее состояние - установление связи, последнее действие [18,19] pg 4.c застряла в процессе установления связи уже 26 часов, текущее состояние - создание+установление связи, последнее действие [19,18] pg 4.d застряла в процессе установления связи уже 26 часов, текущее состояние - создание+установление связи, последнее действие [19,18] pg 4.e застряла в процессе установления связи уже 26 часов, текущее состояние - создание+установление связи, последнее действие [19,18] pg 4.f застряла в процессе установления связи уже 26 часов, текущее состояние - установление связи, последнее действие [18,19] pg 4.10 застряла в процессе установления связи уже 26 часов, текущее состояние - установление связи, последнее действие [18,19] pg 4.11 застряла в процессе установления связи уже 26 часов, текущее состояние - установление связи, последнее действие [18,19] pg 4.12 застряла в процессе установления связи уже 26 часов, текущее состояние - установление связи, последнее действие [18,19] pg 4.13 застряла в процессе установления связи уже 26 часов, текущее состояние - создание+установление связи, последнее действие [19,18] pg 4.14 застряла в процессе установления связи уже 26 часов, текущее состояние - установление связи, последнее действие [18,19] pg 4.15 застряла в процессе установления связи уже 26 часов, текущее состояние - создание+установление связи, последнее действие [19,18] pg 4.16 застряла в процессе установления связи уже 26 часов, текущее состояние - установление связи, последнее действие [18,19] pg 4.17 застряла в процессе установления связи уже 26 часов, текущее состояние - установление связи, последнее действие [18,19] pg 4.18 застряла в процессе установления связи уже 26 часов, текущее состояние - создание+установление связи, последнее действие [19,18] pg 4.19 застряла в процессе установления связи уже 26 часов, текущее состояние - установление связи, последнее действие [18,19] pg 4.1a застряла в процессе установления связи уже 26 часов, текущее состояние - создание+установление связи, последнее действие [19,18] pg 4.1b застряла в процессе установления связи уже 26 часов, текущее состояние - создание+установление связи, последнее действие [19,18] pg 4.1c застряла в процессе установления связи уже 26 часов, текущее состояние - установление связи, последнее действие [18,19] pg 4.1d застряла в процессе установления связи уже 26 часов, текущее состояние - установление связи, последнее действие [18,19] pg 4.1e застряла в процессе установления связи уже 26 часов, текущее состояние - установление связи, последнее действие [18,19] pg 4.1f застряла в процессе установления связи уже 26 часов, текущее состояние - создание+установление связи, последнее действие [19,18]<br /><br />У меня настроено 3 монитора: 2, соответствующие 2 узлам Proxmox (mon.pve1 и mon.pve2), и монитор кворума. И я также получаю следующие сообщения:<br /><br />HEALTH_WARN: 2 демона недавно аварийно завершили работу: mon.pve1 аварийно завершил работу на хосте pve1 в 2025-07-03T05:24:48.235164Z mon.pve1 аварийно завершил работу на хосте pve1 в 2025-07-03T05:45:50.830345Z<br /><br />HEALTH_WARN: 14 медленных операций, самая старая заблокирована на 8610 секунд, демоны [osd.18,osd.19,mon.pve1] имеют медленные операции.<br /><br />У меня есть выделенная сеть для частной сети Ceph и еще одна для публичной сети, как видно в файле конфигурации Ceph.conf, который выглядит следующим образом:<br /><br />```<br />[global]<br />auth_client_required = cephx<br />auth_cluster_required = cephx<br />auth_service_required = cephx<br />cluster_network = 192.168.70.0/24<br />fsid = eb409a91-affd-487a-a02c-4df2e46e0a2e<br />mon_allow_pool_delete = true<br />mon_initial_members = pve1-pub pve2-pub ceph-mon3-pub<br />mon_host = 192.168.60.11 192.168.60.12 192.168.60.130<br />ms_bind_ipv4 = true<br />ms_bind_ipv6 = false<br />osd_pool_default_min_size = 1<br />osd_pool_default_size = 2<br />public_network = 192.168.60.0/24<br /><br />[client]<br />keyring = /etc/pve/priv/$cluster.$name.keyring<br /><br />[client.crash]<br />keyring = /etc/pve/ceph/$cluster.$name.keyring<br /><br />[mon.pve1]<br />host = 192.168.60.11<br />ip = 192.168.60.11<br />public_ip = 192.168.60.11<br />public_port = 6789<br />root = true<br /><br />[mon.pve2]<br />host = 192.168.60.12<br />ip = 192.168.60.12<br />public_ip = 192.168.60.12<br />public_port = 6789<br />root = false<br /><br />[mon.ceph-mon3]<br />host = 192.168.60.130<br />ip = 192.168.60.130<br />public_ip = 192.168.60.130<br />public_port = 6789<br />root = false<br /><br />[osd.osd.18]<br />crush-device-class = disk<br />crush-disk-id = osd.18<br />crush-root-id = osd.18<br /><br />[osd.osd.19]<br />crush-device-class = disk<br />crush-disk-id = osd.19<br />crush-root-id = osd.19<br />```<br /><br />Оба узла Proxmox имеют подписки на стабильный репозиторий, поэтому они актуальны. Я ранее выполнял эту же конфигурацию в тестовой среде с использованием виртуальных машин для узлов, и все работало правильно в этой среде. Я повторил тестовую среду на физических серверах HPE, чтобы настроить производственную среду, но я не могу заставить ее работать. Не может кто-нибудь дать подсказку? Спасибо большое. <br />
			<i>04.07.2025 11:43:00, fjmo2008.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message305020/74986-ceph-na-hpe-dl380-gen10_-ne-rabotaet.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message305020/74986-ceph-na-hpe-dl380-gen10_-ne-rabotaet.</guid>
			<pubDate>Fri, 04 Jul 2025 11:43:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
	</channel>
</rss>
