<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
	<channel>
		<title>Аспро: ЛайтШоп [тема: Критический баг в CEPH Squid: затронуты все кластеры с EC pools.]</title>
		<link>http://proxmox.su</link>
		<description>Новое в теме Критический баг в CEPH Squid: затронуты все кластеры с EC pools. форума Proxmox Виртуальная Среда на сайте Аспро: ЛайтШоп [proxmox.su]</description>
		<language>ru</language>
		<docs>http://backend.userland.com/rss2</docs>
		<pubDate>Fri, 17 Apr 2026 13:46:40 +0300</pubDate>
		<item>
			<title>Критический баг в CEPH Squid: затронуты все кластеры с EC pools.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message318782/76923-kriticheskiy-bag-v-ceph-squid_-zatronuty-vse-klastery-s-ec-pools.">Критический баг в CEPH Squid: затронуты все кластеры с EC pools.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Мы загрузили новый билд Ceph с версией 19.2.1-pve3, в котором опция bluestore_elastic_shared_blobs по умолчанию отключена, как и то, что upstream сейчас готовит для нового релиза. <br />
			<i>08.04.2025 15:25:00, t.lamprecht.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message318782/76923-kriticheskiy-bag-v-ceph-squid_-zatronuty-vse-klastery-s-ec-pools.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message318782/76923-kriticheskiy-bag-v-ceph-squid_-zatronuty-vse-klastery-s-ec-pools.</guid>
			<pubDate>Tue, 08 Apr 2025 15:25:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Критический баг в CEPH Squid: затронуты все кластеры с EC pools.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message318781/76923-kriticheskiy-bag-v-ceph-squid_-zatronuty-vse-klastery-s-ec-pools.">Критический баг в CEPH Squid: затронуты все кластеры с EC pools.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Точно, достаточно один раз установить настройку конфигурации заранее и затем убедиться, что все уже созданные в Squid OSDs пересозданы. Сбой чаще всего возникает, когда достаточно много данных из EC Pool было записано на OSDs. <br />
			<i>08.04.2025 13:36:00, qXt69WEV2a7fgbET.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message318781/76923-kriticheskiy-bag-v-ceph-squid_-zatronuty-vse-klastery-s-ec-pools.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message318781/76923-kriticheskiy-bag-v-ceph-squid_-zatronuty-vse-klastery-s-ec-pools.</guid>
			<pubDate>Tue, 08 Apr 2025 13:36:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Критический баг в CEPH Squid: затронуты все кластеры с EC pools.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message318780/76923-kriticheskiy-bag-v-ceph-squid_-zatronuty-vse-klastery-s-ec-pools.">Критический баг в CEPH Squid: затронуты все кластеры с EC pools.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Ох, ёлки! Я только что на выходных добавил два OSD. Только в домашней лаборатории, не на работе – но все равно неприятно. Я не совсем понимаю из бага, достаточно ли будет "out --&gt; Stop --&gt; Destroy" + пересоздание. Так что без твоей подсказки "приостановить кластер, вручную скачать неактивные PGs из OSD". Сейчас просто попробую сделать так… В любом случае: спасибо за совет! P.S. раньше такого краша еще не было. <br />
			<i>08.04.2025 10:04:00, UdoB.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message318780/76923-kriticheskiy-bag-v-ceph-squid_-zatronuty-vse-klastery-s-ec-pools.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message318780/76923-kriticheskiy-bag-v-ceph-squid_-zatronuty-vse-klastery-s-ec-pools.</guid>
			<pubDate>Tue, 08 Apr 2025 10:04:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Критический баг в CEPH Squid: затронуты все кластеры с EC pools.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message318779/76923-kriticheskiy-bag-v-ceph-squid_-zatronuty-vse-klastery-s-ec-pools.">Критический баг в CEPH Squid: затронуты все кластеры с EC pools.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Привет, хотел вас предупредить, что в CEPH Release Squid есть очень серьезный баг. <noindex><a href="https://tracker.ceph.com/issues/70390" target="_blank" rel="nofollow" >https://tracker.ceph.com/issues/70390</a></noindex> Как только к CEPH кластеру версии Squid с Erasure Coded Pools добавляется новый OSD, он вскоре вылетает. Если добавить несколько OSD на разных хостах, то вылетающие OSD приводят к inactive PGs и, как следствие, к высокому воздействию на систему.<br /><br />Проблема решается настройкой:<br /><br />```<br />ceph config set osd bluestore_elastic_shared_blobs 0<br />```<br /><br />Проблема затрагивает только OSD, созданные в Squid Release. (Можно выяснить с помощью: ```ceph osd metadata | grep -e "when_created" -e "osd"```)<br /><br />К сожалению, эта настройка не поможет, если косяк уже случился. В худшем случае единственным способом восстановления останется остановка OSD, пауза кластера, ручная загрузка inactive PGs с проблемных OSD и импорт их в функционирующие, но остановленные OSD, а затем установка настройки и пересоздание багованных OSD.<br /><br />С уважением. <br />
			<i>08.04.2025 00:32:00, qXt69WEV2a7fgbET.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message318779/76923-kriticheskiy-bag-v-ceph-squid_-zatronuty-vse-klastery-s-ec-pools.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message318779/76923-kriticheskiy-bag-v-ceph-squid_-zatronuty-vse-klastery-s-ec-pools.</guid>
			<pubDate>Tue, 08 Apr 2025 00:32:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
	</channel>
</rss>
