Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Последовательное резервное копирование для ВМ/КТ

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Последовательное резервное копирование для ВМ/КТ, Proxmox Виртуальная Среда
     
    Matthieu Le Corre
    Guest
    #1
    0
    02.03.2021 21:02:00
    Пытаемся сделать резервное копирование всего кластера на PBS сервер. Раньше всё работало отлично, но за последние два месяца некоторые резервные копии начали проваливаться (qemu guest agent timeout, qmp command timeout...). Похоже, что по какой-то причине хранилище под PBS datastore недостаточно быстрое (делится с другой системой резервного копирования). Но настоящая проблема в том, что Proxmox VE начал резервировать все ноды (24 ноды) одновременно! Это слишком для нашей системы, и некоторые резервные копии терпят неудачу. Есть ли способ ограничить количество запущенных резервных копий одновременно? Может быть, опция, как для массовой миграции? Мы, конечно, можем разделить резервные копии на 24 части, но это далеко не оптимально. Может, скрипт Vzdump hook может играть роль "комнаты ожидания", но это опять же не очень удобно...
     
     
     
    eXtremeSHOk
    Guest
    #2
    0
    25.07.2022 19:22:00
    Есть ли какие-то продвижения по этому вопросу? Мы перегружаем 20-гигабитный канал резервными копиями с кластера и нужно ограничить количество одновременно работающих узлов.
     
     
     
    liberodark
    Guest
    #3
    0
    02.11.2022 14:57:00
    Привет! Какие-нибудь новости по этому вопросу? Потому что если у вас кластер, то сделать бэкап непросто — все бэкапы запускаются на всех узлах одновременно, создать глобальную политику бэкапа нелегко... На самом деле, нашёл только обходной путь — создавать задания по узлу и затем по узлу. Надеюсь, вы сможете добавить возможность ограничивать бэкап всех узлов одним заданием, не перегружая сеть.

    P.S. Извините, что беспокою, @fabian, думаешь, мне стоит открыть тикет по подписке pbs, чтобы сдвинуть этот вопрос с мёртвой точки, или это не стоит делать?

    С наилучшими пожеланиями
     
     
     
    fabian
    Guest
    #4
    0
    07.11.2022 09:09:00
    Мы знаем, что эта фича важна для довольно большого количества пользователей, и у нас есть некоторые идеи, как это решить, но мы еще не выбрали одну конкретную. Подпишитесь на https://bugzilla.proxmox.com/show_bug.cgi?id=3086, чтобы получать обновления!
     
     
     
    liberodark
    Guest
    #5
    0
    06.12.2022 17:22:00
    Привет, я не заметил никаких подобных изменений с PBS 2.3, и, судя по моим тестам, поведение остаётся прежним. Это вызывает серьёзные проблемы с резервным копированием, как только у нас появляется кластер или несколько кластеров. Вопрос становится всё более чувствительным на моей стороне. Если у вас есть какая-нибудь информация о прогрессе по этому вопросу?

    PS: Я уже консультировался по тикету 3086 (новости нет).

    С уважением,
     
     
     
    fabian
    Guest
    #6
    0
    07.12.2022 08:16:00
    Прогресса нет, а то бы трекер багов обновили.
     
     
     
    thiagotgc
    Guest
    #7
    0
    05.05.2024 06:27:00
    Новости по теме? Мы вечно в эту ситуацию попадаем. Долго ждали возможности обрабатывать один бэкап за раз на всех узлах кластера...
     
     
     
    iverlaek
    Guest
    #8
    0
    20.01.2025 19:20:00
    У меня та же проблема. Похоже, мой PBS-сервер не справляется с таким количеством входящих потоков от разных серверов. Как-то нужно организовать схему резервного копирования по серверам, чтобы следующий сервер брал на себя задачу, когда предыдущий закончил. Я пытался вручную назначать метки каждому узлу и помещать их в его pool=имя узла, но это не сработало, так как ВМ перемещаются. Это также делает механизм пулов бесполезным. Например, "максимальное количество параллельных узлов" на экране определения резервного копирования помогло бы. Или, возможно, кто-то мог бы создать скрипт, который выводит список ВМ и CTs на каждом узле, а затем создает скрипт резервного копирования для резервного копирования тех, что находятся на узле 1, затем узле 2, затем узле 3 и так далее. Я думаю, это возможно, так как есть скрипты. У меня также есть несколько мест хранения резервных копий (2 Synology NFS NAS, 1 PBS), поэтому схема round robin, чтобы использовать каждое место хранения по очереди, помогла бы мне сократить количество определений резервного копирования до минимума.
     
     
     
    spirit
    Guest
    #9
    0
    21.01.2025 16:13:00
    Можно написать какой-нибудь глупый bash-скрипт, делающий следующее: ssh root@server1 'vzdump --all ...' ssh root@server2 'vzdump --all ...' ssh root@server3 'vzdump --all ...'
     
     
     
    iverlaek
    Guest
    #10
    0
    21.01.2025 16:39:00
    Конечно, я, как всегда, дурак. Сейчас намучу пару cron jobs. Спасибо. Тем не менее, более удобная поддержка нормальной стратегии резервного копирования в интерфейсе Proxmox и/или PBS была бы полезна для многих пользователей. Например, возможность создавать резервные копии типа 3-2-1.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры