<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
	<channel>
		<title>Аспро: ЛайтШоп [тема: Proxmox Hyperconverged Infrastructure — оборудование для хранения данных]</title>
		<link>http://proxmox.su</link>
		<description>Новое в теме Proxmox Hyperconverged Infrastructure — оборудование для хранения данных форума Proxmox Виртуальная Среда на сайте Аспро: ЛайтШоп [proxmox.su]</description>
		<language>ru</language>
		<docs>http://backend.userland.com/rss2</docs>
		<pubDate>Sat, 09 May 2026 17:48:24 +0300</pubDate>
		<item>
			<title>Proxmox Hyperconverged Infrastructure — оборудование для хранения данных</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message331477/78685-proxmox-hyperconverged-infrastructure-_-oborudovanie-dlya-khraneniya-dannykh">Proxmox Hyperconverged Infrastructure — оборудование для хранения данных</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Ceph – предпочтительное программно-определяемое хранилище для гиперконвергентных кластеров Proxmox. Если правильно подобрать оборудование и конфигурации, можно добиться лучшей производительности и надежности, чем на традиционном SAN. Типичная конфигурация для продакшна: 3+ узла (нечетное число для кворума). Каждый узел: Enterprise SSD с PLP (Power Loss Protection), 25 Гбит/с или 100 Гбит/с NIC, JBOD (IT mode), HBA вместо RAID-контроллеров (НЕ ИСПОЛЬЗУЙТЕ RAID-КОНТРОЛЛЕРЫ). Рекомендации по коммутаторам: используйте коммутаторы L2/L3 с низкой задержкой и неблокирующие, с достаточной полосой пропускания бэкплейна для ваших NIC. Ceph любит Jumbo Frames. Включите Jumbo Frames (MTU 9000) в сетях Ceph. Для получения более подробной информации стоит проверить официальные рекомендации Ceph по оборудованию. Я также настоятельно рекомендую прочитать Proxmox VE Ceph Benchmark 2023/12. В нем описаны тесты из реального мира и показано следующее: 10 Гбит/с сетевое подключение быстро становится узким местом, даже при использовании одного быстрого SSD на узел. 25 Гбит/с обеспечивает запас прочности, но топология сети и тонкая настройка (например, маршрутизация или RSTP) имеют значение. 100 Гбит/с сети достаточно быстры, чтобы узким местом стал Ceph-клиент. Один клиент: ~6000 MiB/с на запись, ~7000 MiB/с на чтение. Три клиента: ~9800 MiB/с на запись, 19 500 MiB/с на чтение. <br />
			<i>11.07.2025 10:43:00, groque.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message331477/78685-proxmox-hyperconverged-infrastructure-_-oborudovanie-dlya-khraneniya-dannykh</link>
			<guid>http://proxmox.su/forum/messages/forum63/message331477/78685-proxmox-hyperconverged-infrastructure-_-oborudovanie-dlya-khraneniya-dannykh</guid>
			<pubDate>Fri, 11 Jul 2025 10:43:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Proxmox Hyperconverged Infrastructure — оборудование для хранения данных</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message331476/78685-proxmox-hyperconverged-infrastructure-_-oborudovanie-dlya-khraneniya-dannykh">Proxmox Hyperconverged Infrastructure — оборудование для хранения данных</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			SATA, SAS и NVMe – это транспортные протоколы, а SSD – это общий тип накопителя (разные технологии также подразделяются дальше, например, SLC, MLC, QLC и т.д. ... а также такие функции, как PLC), так что технически это не на 100% верно. NVMe тоже SSD, и SSD работает со всеми упомянутыми транспортными протоколами: SATA, SAS и NVMe (в порядке возрастания пропускной способности). Но это не для CEPH / гиперконвергентного хранения! Ах… это снова спам-пост… понял и сообщу! <br />
			<i>11.07.2025 10:14:00, LnxBil.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message331476/78685-proxmox-hyperconverged-infrastructure-_-oborudovanie-dlya-khraneniya-dannykh</link>
			<guid>http://proxmox.su/forum/messages/forum63/message331476/78685-proxmox-hyperconverged-infrastructure-_-oborudovanie-dlya-khraneniya-dannykh</guid>
			<pubDate>Fri, 11 Jul 2025 10:14:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Proxmox Hyperconverged Infrastructure — оборудование для хранения данных</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message331475/78685-proxmox-hyperconverged-infrastructure-_-oborudovanie-dlya-khraneniya-dannykh">Proxmox Hyperconverged Infrastructure — оборудование для хранения данных</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Сейчас, пожалуй, золотым стандартом я бы назвал Ceph с NVMe SSD в дата-центре (Kioxia и т.д.) и резервированным бэкэндом на 100G. Ceph можно настроить как 3-way mirror, что лучше всего подходит для большинства потребностей в производительности. Если у вас большие диски подключены к ВМ, можно использовать 3n+2k (или больше n), чтобы сэкономить деньги, но хранилище сейчас относительно недорогое. Не так уж и дорого, достаточно места для большинства кластеров. Я бы сказал, что минимум 5 нод — только для резервирования, чтобы можно было потерять 2 без проблем. А во втором дата-центре стоит использовать Proxmox Backup Server. <br />
			<i>06.02.2025 01:17:00, guruevi.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message331475/78685-proxmox-hyperconverged-infrastructure-_-oborudovanie-dlya-khraneniya-dannykh</link>
			<guid>http://proxmox.su/forum/messages/forum63/message331475/78685-proxmox-hyperconverged-infrastructure-_-oborudovanie-dlya-khraneniya-dannykh</guid>
			<pubDate>Thu, 06 Feb 2025 01:17:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Proxmox Hyperconverged Infrastructure — оборудование для хранения данных</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message331474/78685-proxmox-hyperconverged-infrastructure-_-oborudovanie-dlya-khraneniya-dannykh">Proxmox Hyperconverged Infrastructure — оборудование для хранения данных</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Привет! Мы планируем миграцию с vSphere на Proxmox, но при этом хотим сохранить гиперконвергентную инфраструктуру. Прочитав документацию Proxmox VE и сообщения на форуме, я вижу, что Ceph – это «золотой стандарт» для гиперконвергенции, но нам хотелось бы узнать, какое оборудование люди используют для хранения данных? Сейчас у нас есть SAN, интегрированный с vSphere по FC SCSI, и он уже не за горами своего срока годности. И, что бы мы ни выбрали, мы хотим как можно меньше отличаться от текущей конфигурации. Какое оборудование/решение люди используют для хранения данных в своих гиперконвергентных системах с Proxmox? Что, по вашему мнению, является "золотым стандартом"? Спасибо! <br />
			<i>05.02.2025 23:56:00, KyleS.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message331474/78685-proxmox-hyperconverged-infrastructure-_-oborudovanie-dlya-khraneniya-dannykh</link>
			<guid>http://proxmox.su/forum/messages/forum63/message331474/78685-proxmox-hyperconverged-infrastructure-_-oborudovanie-dlya-khraneniya-dannykh</guid>
			<pubDate>Wed, 05 Feb 2025 23:56:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
	</channel>
</rss>
