<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
	<channel>
		<title>Аспро: ЛайтШоп [тема: [Реальный случай] Риск потери данных после повторного подключения ноды с включенным ZFS Replication (кластер Proxmox)]</title>
		<link>http://proxmox.su</link>
		<description>Новое в теме [Реальный случай] Риск потери данных после повторного подключения ноды с включенным ZFS Replication (кластер Proxmox) форума Proxmox Виртуальная Среда на сайте Аспро: ЛайтШоп [proxmox.su]</description>
		<language>ru</language>
		<docs>http://backend.userland.com/rss2</docs>
		<pubDate>Fri, 01 May 2026 17:41:34 +0300</pubDate>
		<item>
			<title>[Реальный случай] Риск потери данных после повторного подключения ноды с включенным ZFS Replication (кластер Proxmox)</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message305203/75013-realnyy-sluchay_-risk-poteri-dannykh-posle-povtornogo-podklyucheniya-nody-s-vklyuchennym-zfs-replication-_klaster-proxmox">[Реальный случай] Риск потери данных после повторного подключения ноды с включенным ZFS Replication (кластер Proxmox)</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Я знаю только про такой вид разделения мозга. Что будет без данных? Это не переключение на резервный сервер, это скорее переключение. Обычно переключение на резервный сервер подразумевает активацию реплицированных ВМ на pve02, не предпринимая никаких действий на pve01, а затем попытку исправить pve02. <br />
			<i>25.06.2025 15:38:00, LnxBil.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message305203/75013-realnyy-sluchay_-risk-poteri-dannykh-posle-povtornogo-podklyucheniya-nody-s-vklyuchennym-zfs-replication-_klaster-proxmox</link>
			<guid>http://proxmox.su/forum/messages/forum63/message305203/75013-realnyy-sluchay_-risk-poteri-dannykh-posle-povtornogo-podklyucheniya-nody-s-vklyuchennym-zfs-replication-_klaster-proxmox</guid>
			<pubDate>Wed, 25 Jun 2025 15:38:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>[Реальный случай] Риск потери данных после повторного подключения ноды с включенным ZFS Replication (кластер Proxmox)</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message305202/75013-realnyy-sluchay_-risk-poteri-dannykh-posle-povtornogo-podklyucheniya-nody-s-vklyuchennym-zfs-replication-_klaster-proxmox">[Реальный случай] Риск потери данных после повторного подключения ноды с включенным ZFS Replication (кластер Proxmox)</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Насколько я знаю, ZFS не умеет реплицировать снапшоты, если исходные и целевые снапшоты не находятся в одной эпохе, и он не поддерживает активный-активный режим. Допустим, вы сделали снапшот и передали снапшот 1-12, обе стороны разсоединились, вы сделали обе стороны "живыми" и сделали "другой" снапшот 13, вы не сможете "слить" их с обеих сторон и не сможете отправить последующие снапшоты на другую сторону – снапшот просто теряет смысл. Если вы насильно заставите репликацию с одной стороны на другую, то любые новые снапшоты/различия в данных будут откачены на целевом хранилище до "общего состояния". Во всех этих сценариях принимающее хранилище/том всегда будет доступно только для чтения до тех пор, пока что-то не вмешается и не сделает снапшот читаемым/записываемым, после чего у вас появятся 2 отдельных хранилища/тома, которые больше не могут быть реплицированы; одно из них нужно выбрать для уничтожения и выполнить полную синхронизацию или откатить до последнего общего момента. Вы по сути описываете сценарий разделения мозга, но с данными. Именно поэтому любой тип HA требует как минимум три узла, чтобы как минимум 2 могли согласовать состояние системы. Никогда не стоит "автоматически" делать что-либо в сценарии разделения мозга. <br />
			<i>24.06.2025 22:54:00, guruevi.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message305202/75013-realnyy-sluchay_-risk-poteri-dannykh-posle-povtornogo-podklyucheniya-nody-s-vklyuchennym-zfs-replication-_klaster-proxmox</link>
			<guid>http://proxmox.su/forum/messages/forum63/message305202/75013-realnyy-sluchay_-risk-poteri-dannykh-posle-povtornogo-podklyucheniya-nody-s-vklyuchennym-zfs-replication-_klaster-proxmox</guid>
			<pubDate>Tue, 24 Jun 2025 22:54:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>[Реальный случай] Риск потери данных после повторного подключения ноды с включенным ZFS Replication (кластер Proxmox)</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message305201/75013-realnyy-sluchay_-risk-poteri-dannykh-posle-povtornogo-podklyucheniya-nody-s-vklyuchennym-zfs-replication-_klaster-proxmox">[Реальный случай] Риск потери данных после повторного подключения ноды с включенным ZFS Replication (кластер Proxmox)</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Привет всем! Хочу поделиться реальной ситуацией, с которой я столкнулся в своем Proxmox кластере, и получить ваши советы или отзывы, чтобы улучшить мою стратегию аварийного восстановления. ️ Техническая настройка: Proxmox VE кластер (последняя стабильная версия) 2 ноды: pve01 и pve02. Каждая нода использует локальное ZFS хранилище для дисков ВМ/КТ. ZFS репликация включена каждые 10 минут, используя встроенный инструмент Proxmox репликации — в обе стороны (pve01 → pve02 и pve02 → pve01). Живая миграция между нодами работает отлично. Нет общего хранилища, и ручное HA/failover. Текущая процедура: Когда pve01 выходит из строя, вот как я сейчас обрабатываю failover: Я загружаю pve01 с помощью rescue системы (например, SystemRescue), без немедленного присоединения к кластеру. Я вручную реплицирую с pve01 на pve02, чтобы перенести любые оставшиеся ZFS снапшоты, которые не были реплицированы до сбоя. Я копирую файлы конфигурации ВМ/КТ с pve01 на pve02 (/etc/pve/qemu-server/ или lxc/). Я запускаю ВМ/КТ на pve02, используя ZFS датасеты, которые были реплицированы. ВМ теперь работают на pve02, и самые свежие данные находятся на этой ноде. Моя обеспокоенность: Прежде чем вернуть pve01 обратно в кластер, я хочу избежать следующего критического риска: Итак, мои вопросы: Какой лучший способ избежать этого риска и гарантировать сохранение правильного направления данных? Как можно безопасно изменить направление репликации, как это делает Proxmox автоматически во время живой миграции ВМ? Есть ли рекомендованная процедура или автоматизация для обработки такого failover чисто и защиты данных? Заранее благодарю за вашу помощь и советы. Я думаю, что такая проблема может затронуть многих пользователей Proxmox, работающих с локальным ZFS и нативной репликацией без общего хранилища. С уважением, <br />
			<i>24.06.2025 20:16:00, PHPMaroc.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message305201/75013-realnyy-sluchay_-risk-poteri-dannykh-posle-povtornogo-podklyucheniya-nody-s-vklyuchennym-zfs-replication-_klaster-proxmox</link>
			<guid>http://proxmox.su/forum/messages/forum63/message305201/75013-realnyy-sluchay_-risk-poteri-dannykh-posle-povtornogo-podklyucheniya-nody-s-vklyuchennym-zfs-replication-_klaster-proxmox</guid>
			<pubDate>Tue, 24 Jun 2025 20:16:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
	</channel>
</rss>
