Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Репликация вне кластера pve-zsync

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Репликация вне кластера pve-zsync, Proxmox Виртуальная Среда
     
    bishoptf
    Guest
    #1
    0
    06.07.2025 17:46:00
    Прочитал документацию по репликации между двумя узлами, не входящими в кластер, с использованием pve-zsync. Это работает у меня в лабораторной среде, но я хочу убедиться, что я все делаю правильно и что это лучший способ добиться необходимого. У меня есть двухузловая среда ESXi, которую я планирую перевести на что-то другое, рассматриваю xcp-ng и Proxmox. Это поддерживает малый бизнес и не находится в каком-либо дата-центре, но есть 2 сервера, расположенных в разных серверных шкафах на месте. Для малого бизнеса с архитектурной точки зрения не всегда возможно запустить кластер. Я думаю, многие упрощают это и запускают кластеры с q устройствами, но реальность такова, что для малого бизнеса с узлами, разделенными из соображений избыточности, так много единичных точек отказа, что практически невозможно всегда иметь 2 узла, доступные. В настоящее время у меня есть 2 узла ESXi и я использую Veeam для репликации с одного узла на другой и резервного копирования всех ВМ. Это хорошо служит и работает для нужд этого малого бизнеса. Если бы я потерял шкаф, серьезные проблемы с электропитанием, сетевой коммутатор и т.д., большинство служб дублируются на узлах, за исключением одной файловой шары, которую можно запустить через реплицированную ВМ Veeam. Именно это я пытаюсь реализовать с альтернативными решениями, которые я рассматриваю и работаю с Proxmox. Сейчас я запускаю pve-zsync на одном узле и реплицирую на другой, и кажется, что это работает хорошо.

    ```
    pve-zsync list SOURCE                   NAME                     STATE     LAST SYNC           TYPE  CON 100                      testzsync1               ok        2025-07-06_09:15:01 qemu  ssh
    ```

    Данные копируются, а затем каждые 15 минут синхронизируется с другим узлом, но копируется только часть диска. Судя по документации, вам также необходимо скопировать конфигурацию ВМ на другой узел, что я сделал с помощью scp:

    ```
    scp /etc/pve/qemu-server/100.conf root@x.x.x.x :/etc/pve/qemu-server/100.conf
    ```

    Одна из проблем, которую я вижу с командой SCP, заключается в том, что, если я не добавлю ее в ночной cron job, это будет однократное действие. Если я внесу какие-либо изменения в параметры конфигурации ВМ, хотя это и редко, эти изменения не будут скопированы, если я каким-то образом не добавлю их в ночной/ежедневный cron job. Другая вещь, которую я прочитал, заключается в том, что если мне нужно запустить ВМ на другом хосте, мне нужно убедиться, что задание репликации остановлено. В зависимости от типа сбоя, вызвавшего отказ, это может быть простой задачей или чем-то, в чем мне нужно убедиться, прежде чем я перезапущу другой узел. Я просто хотел убедиться, что вышеперечисленное звучит правильно, и у меня есть дополнительные вопросы. Как только я смогу перезагрузить исходный узел, я предполагаю, что смогу выполнить однократную синхронизацию НАЗАД на исходный узел. Я еще не пробовал этого, но предполагаю, что это возможно, поскольку я хотел бы вернуть приложение на исходный узел.

    Некоторые комментарии, которые, как я знаю, поднимались ранее, но хочу повторить заявления, касающиеся VMID. Я частично понимаю, почему они приняли такой подход, но было бы неплохо, если бы хранилище имело vmid+имя и т.д. При репликации на другой узел без конфигурационной части у вас есть только хранилище с меткой vmid, и, если я что-то упускаю, нет способа узнать на этом узле, с чем связано имя. Я знаю, что это, вероятно, не проблема с кластерами и т.д., но для некластерных сред (меньшие бизнесы) это просто усложняет отслеживание того, что к чему, при репликации. Просто мой комментарий, это то, что есть, но это действительно облегчило бы нам малым предприятиям управление. Все еще нужно получить UPS и работоспособное выключение, но поскольку Proxmox теперь официально поддерживает Veeam, это удовлетворяет требование резервного копирования. Любые мысли о том, что я делаю с репликацией, были бы отличными, спасибо!
     
     
     
    bishoptf
    Guest
    #2
    0
    06.07.2025 18:41:00
    Похоже, когда я пытаюсь запустить pve-zsync с реплицируемого нода обратно на исходный, получаю ошибку "permission denied". Я проверил, что могу войти как root, так что не уверен, в чем дело: pve-zsync sync --source 100 --dest x.x.x.x:100 --verbose --maxsnap 2 --name restorezsync root@x.x.x.x 's password: full send of vmstorage-zfs/vm-100-disk-0@rep_restorezsync_2025-07-06_11:36:18 estimated size is 17.4G total estimated size is 17.4G TIME SENT SNAPSHOT vmstorage-zfs/vm-100-disk-0@rep_restorezsync_2025-07-06_11:36:18 Job --source 100 --name restorezsync got an ERROR!!! ERROR Message: COMMAND: zfs send -v -- vmstorage-zfs/vm-100-disk-0@rep_restorezsync_2025-07-06_11:36:18 | ssh -o 'BatchMode=yes' root@x.x.x.x.x -- zfs recv -F -- 100/vm-100-disk-0 GET ERROR: root@x.x.x.x : Permission denied (publickey,password). Это значит, что мне нужно удалить диск на исходном ноде, и тогда он должен пересинхронизировать весь образ? Похоже, именно это он и говорит, так что я не могу просто синхронизировать дельту...
     
     
     
    bishoptf
    Guest
    #3
    0
    06.07.2025 21:19:00
    Похоже, нужно создавать задание, а не делать однократную синхронизацию. Я думал, можно просто сделать однократную синхронизацию, а не создавать повторяющееся задание, но так не вышло. Используя опцию создания, задание удалось завершить...
     
     
     
    bishoptf
    Guest
    #4
    0
    07.07.2025 06:35:00
    Всю сегодня ковырялся с pve-zsync и все равно не уверен, как он должен работать. Копирование основного диска вроде бы работает нормально, но вот снапшоты не копируются, может они исключены, но не нашел никакой документации, чтобы это подтвердить.

    Вот информация по одному узлу:
    root@dpcpver330:~# zfs list
    NAME                                           USED  AVAIL  REFER  MOUNTPOINT
    rpool                                         2.23G   226G    96K  /rpool
    rpool/ROOT                                    2.20G   226G    96K  /rpool/ROOT
    rpool/ROOT/pve-1                              2.20G   226G  2.20G  /
    rpool/data                                      96K   226G    96K  /rpool/data
    rpool/var-lib-vz                                96K   226G    96K  /var/lib/vz
    vmstorage-zfs                                 22.1G  3.49T   112K  /vmstorage-zfs
    vmstorage-zfs/vm-100-disk-0                   13.5G  3.49T  13.0G  -
    vmstorage-zfs/vm-100-state-Wireshark-removal  8.62G  3.50T  1.16G  -

    И вот информация по другому узлу:
    root@pve1:~# zfs list
    NAME                          USED  AVAIL  REFER  MOUNTPOINT
    rpool                        2.30G  69.4G   104K  /rpool
    rpool/ROOT                   2.22G  69.4G    96K  /rpool/ROOT
    rpool/ROOT/pve-1             2.22G  69.4G  2.22G  /
    rpool/data                     96K  69.4G    96K  /rpool/data
    rpool/var-lib-vz              112K  69.4G   112K  /var/lib/vz
    vmstorage-zfs                16.5G  3.50T  3.46G  /vmstorage-zfs
    vmstorage-zfs/vm-100-disk-0  13.0G  3.50T  13.0G  -

    У меня есть основной диск, vm-100-disk-0, но нет снапшота, как на другом узле, который был источником. Вот команда, которую я использовал:
    pve-zsync sync --source 100 --dest x.x.x.x:vmstorage-zfs --name restoretest --verbose --maxsnap 5

    Может кто-нибудь проверить, как pve-zsync должен работать со снапшотами?
    Спасибо.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры