<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
	<channel>
		<title>Аспро: ЛайтШоп [тема: Репликация вне кластера pve-zsync]</title>
		<link>http://proxmox.su</link>
		<description>Новое в теме Репликация вне кластера pve-zsync форума Proxmox Виртуальная Среда на сайте Аспро: ЛайтШоп [proxmox.su]</description>
		<language>ru</language>
		<docs>http://backend.userland.com/rss2</docs>
		<pubDate>Wed, 06 May 2026 07:21:15 +0300</pubDate>
		<item>
			<title>Репликация вне кластера pve-zsync</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message319615/77057-replikatsiya-vne-klastera-pve_zsync">Репликация вне кластера pve-zsync</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Всю сегодня ковырялся с pve-zsync и все равно не уверен, как он должен работать. Копирование основного диска вроде бы работает нормально, но вот снапшоты не копируются, может они исключены, но не нашел никакой документации, чтобы это подтвердить.<br /><br />Вот информация по одному узлу:<br />root@dpcpver330:~# zfs list<br />NAME &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; USED &nbsp;AVAIL &nbsp;REFER &nbsp;MOUNTPOINT<br />rpool &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 2.23G &nbsp; 226G &nbsp; &nbsp;96K &nbsp;/rpool<br />rpool/ROOT &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2.20G &nbsp; 226G &nbsp; &nbsp;96K &nbsp;/rpool/ROOT<br />rpool/ROOT/pve-1 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2.20G &nbsp; 226G &nbsp;2.20G &nbsp;/<br />rpool/data &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;96K &nbsp; 226G &nbsp; &nbsp;96K &nbsp;/rpool/data<br />rpool/var-lib-vz &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;96K &nbsp; 226G &nbsp; &nbsp;96K &nbsp;/var/lib/vz<br />vmstorage-zfs &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 22.1G &nbsp;3.49T &nbsp; 112K &nbsp;/vmstorage-zfs<br />vmstorage-zfs/vm-100-disk-0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 13.5G &nbsp;3.49T &nbsp;13.0G &nbsp;-<br />vmstorage-zfs/vm-100-state-Wireshark-removal &nbsp;8.62G &nbsp;3.50T &nbsp;1.16G &nbsp;-<br /><br />И вот информация по другому узлу:<br />root@pve1:~# zfs list<br />NAME &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;USED &nbsp;AVAIL &nbsp;REFER &nbsp;MOUNTPOINT<br />rpool &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2.30G &nbsp;69.4G &nbsp; 104K &nbsp;/rpool<br />rpool/ROOT &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 2.22G &nbsp;69.4G &nbsp; &nbsp;96K &nbsp;/rpool/ROOT<br />rpool/ROOT/pve-1 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 2.22G &nbsp;69.4G &nbsp;2.22G &nbsp;/<br />rpool/data &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 96K &nbsp;69.4G &nbsp; &nbsp;96K &nbsp;/rpool/data<br />rpool/var-lib-vz &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;112K &nbsp;69.4G &nbsp; 112K &nbsp;/var/lib/vz<br />vmstorage-zfs &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;16.5G &nbsp;3.50T &nbsp;3.46G &nbsp;/vmstorage-zfs<br />vmstorage-zfs/vm-100-disk-0 &nbsp;13.0G &nbsp;3.50T &nbsp;13.0G &nbsp;-<br /><br />У меня есть основной диск, vm-100-disk-0, но нет снапшота, как на другом узле, который был источником. Вот команда, которую я использовал:<br />pve-zsync sync --source 100 --dest x.x.x.x:vmstorage-zfs --name restoretest --verbose --maxsnap 5<br /><br />Может кто-нибудь проверить, как pve-zsync должен работать со снапшотами?<br />Спасибо. <br />
			<i>07.07.2025 06:35:00, bishoptf.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message319615/77057-replikatsiya-vne-klastera-pve_zsync</link>
			<guid>http://proxmox.su/forum/messages/forum63/message319615/77057-replikatsiya-vne-klastera-pve_zsync</guid>
			<pubDate>Mon, 07 Jul 2025 06:35:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Репликация вне кластера pve-zsync</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message319614/77057-replikatsiya-vne-klastera-pve_zsync">Репликация вне кластера pve-zsync</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Похоже, нужно создавать задание, а не делать однократную синхронизацию. Я думал, можно просто сделать однократную синхронизацию, а не создавать повторяющееся задание, но так не вышло. Используя опцию создания, задание удалось завершить... <br />
			<i>06.07.2025 21:19:00, bishoptf.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message319614/77057-replikatsiya-vne-klastera-pve_zsync</link>
			<guid>http://proxmox.su/forum/messages/forum63/message319614/77057-replikatsiya-vne-klastera-pve_zsync</guid>
			<pubDate>Sun, 06 Jul 2025 21:19:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Репликация вне кластера pve-zsync</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message319613/77057-replikatsiya-vne-klastera-pve_zsync">Репликация вне кластера pve-zsync</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Похоже, когда я пытаюсь запустить pve-zsync с реплицируемого нода обратно на исходный, получаю ошибку "permission denied". Я проверил, что могу войти как root, так что не уверен, в чем дело: pve-zsync sync --source 100 --dest x.x.x.x:100 --verbose --maxsnap 2 --name restorezsync root@x.x.x.x 's password: full send of vmstorage-zfs/vm-100-disk-0@rep_restorezsync_2025-07-06_11:36:18 estimated size is 17.4G total estimated size is 17.4G TIME SENT SNAPSHOT vmstorage-zfs/vm-100-disk-0@rep_restorezsync_2025-07-06_11:36:18 Job --source 100 --name restorezsync got an ERROR!!! ERROR Message: COMMAND: zfs send -v -- vmstorage-zfs/vm-100-disk-0@rep_restorezsync_2025-07-06_11:36:18 | ssh -o 'BatchMode=yes' root@x.x.x.x.x -- zfs recv -F -- 100/vm-100-disk-0 GET ERROR: root@x.x.x.x : Permission denied (publickey,password). Это значит, что мне нужно удалить диск на исходном ноде, и тогда он должен пересинхронизировать весь образ? Похоже, именно это он и говорит, так что я не могу просто синхронизировать дельту... <br />
			<i>06.07.2025 18:41:00, bishoptf.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message319613/77057-replikatsiya-vne-klastera-pve_zsync</link>
			<guid>http://proxmox.su/forum/messages/forum63/message319613/77057-replikatsiya-vne-klastera-pve_zsync</guid>
			<pubDate>Sun, 06 Jul 2025 18:41:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Репликация вне кластера pve-zsync</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message319612/77057-replikatsiya-vne-klastera-pve_zsync">Репликация вне кластера pve-zsync</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Прочитал документацию по репликации между двумя узлами, не входящими в кластер, с использованием pve-zsync. Это работает у меня в лабораторной среде, но я хочу убедиться, что я все делаю правильно и что это лучший способ добиться необходимого. У меня есть двухузловая среда ESXi, которую я планирую перевести на что-то другое, рассматриваю xcp-ng и Proxmox. Это поддерживает малый бизнес и не находится в каком-либо дата-центре, но есть 2 сервера, расположенных в разных серверных шкафах на месте. Для малого бизнеса с архитектурной точки зрения не всегда возможно запустить кластер. Я думаю, многие упрощают это и запускают кластеры с q устройствами, но реальность такова, что для малого бизнеса с узлами, разделенными из соображений избыточности, так много единичных точек отказа, что практически невозможно всегда иметь 2 узла, доступные. В настоящее время у меня есть 2 узла ESXi и я использую Veeam для репликации с одного узла на другой и резервного копирования всех ВМ. Это хорошо служит и работает для нужд этого малого бизнеса. Если бы я потерял шкаф, серьезные проблемы с электропитанием, сетевой коммутатор и т.д., большинство служб дублируются на узлах, за исключением одной файловой шары, которую можно запустить через реплицированную ВМ Veeam. Именно это я пытаюсь реализовать с альтернативными решениями, которые я рассматриваю и работаю с Proxmox. Сейчас я запускаю pve-zsync на одном узле и реплицирую на другой, и кажется, что это работает хорошо.<br /><br />```<br />pve-zsync list SOURCE &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; NAME &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; STATE &nbsp; &nbsp; LAST SYNC &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; TYPE &nbsp;CON 100 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;testzsync1 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; ok &nbsp; &nbsp; &nbsp; &nbsp;2025-07-06_09:15:01 qemu &nbsp;ssh<br />```<br /><br />Данные копируются, а затем каждые 15 минут синхронизируется с другим узлом, но копируется только часть диска. Судя по документации, вам также необходимо скопировать конфигурацию ВМ на другой узел, что я сделал с помощью scp:<br /><br />```<br />scp /etc/pve/qemu-server/100.conf root@x.x.x.x :/etc/pve/qemu-server/100.conf<br />```<br /><br />Одна из проблем, которую я вижу с командой SCP, заключается в том, что, если я не добавлю ее в ночной cron job, это будет однократное действие. Если я внесу какие-либо изменения в параметры конфигурации ВМ, хотя это и редко, эти изменения не будут скопированы, если я каким-то образом не добавлю их в ночной/ежедневный cron job. Другая вещь, которую я прочитал, заключается в том, что если мне нужно запустить ВМ на другом хосте, мне нужно убедиться, что задание репликации остановлено. В зависимости от типа сбоя, вызвавшего отказ, это может быть простой задачей или чем-то, в чем мне нужно убедиться, прежде чем я перезапущу другой узел. Я просто хотел убедиться, что вышеперечисленное звучит правильно, и у меня есть дополнительные вопросы. Как только я смогу перезагрузить исходный узел, я предполагаю, что смогу выполнить однократную синхронизацию НАЗАД на исходный узел. Я еще не пробовал этого, но предполагаю, что это возможно, поскольку я хотел бы вернуть приложение на исходный узел.<br /><br />Некоторые комментарии, которые, как я знаю, поднимались ранее, но хочу повторить заявления, касающиеся VMID. Я частично понимаю, почему они приняли такой подход, но было бы неплохо, если бы хранилище имело vmid+имя и т.д. При репликации на другой узел без конфигурационной части у вас есть только хранилище с меткой vmid, и, если я что-то упускаю, нет способа узнать на этом узле, с чем связано имя. Я знаю, что это, вероятно, не проблема с кластерами и т.д., но для некластерных сред (меньшие бизнесы) это просто усложняет отслеживание того, что к чему, при репликации. Просто мой комментарий, это то, что есть, но это действительно облегчило бы нам малым предприятиям управление. Все еще нужно получить UPS и работоспособное выключение, но поскольку Proxmox теперь официально поддерживает Veeam, это удовлетворяет требование резервного копирования. Любые мысли о том, что я делаю с репликацией, были бы отличными, спасибо! <br />
			<i>06.07.2025 17:46:00, bishoptf.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message319612/77057-replikatsiya-vne-klastera-pve_zsync</link>
			<guid>http://proxmox.su/forum/messages/forum63/message319612/77057-replikatsiya-vne-klastera-pve_zsync</guid>
			<pubDate>Sun, 06 Jul 2025 17:46:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
	</channel>
</rss>
