Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Proxmox с Ceph - Репликация?

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Proxmox с Ceph - Репликация?, Proxmox Виртуальная Среда
     
    fxandrei
    Guest
    #1
    0
    05.09.2019 15:35:00
    Итак, кто-нибудь использовал репликацию Ceph вместе с Proxmox? Или кто-то смог настроить Proxmox и Ceph так, чтобы он реплицировался на другой кластер?
     
     
     
    abzsol
    Guest
    #2
    0
    14.11.2019 18:09:00
    Привет, мы собираемся реализовать решения по резервному копированию через rbd mirror. Можешь поделиться этим скриптом с нами? Большое спасибо!
     
     
     
    fxandrei
    Guest
    #3
    0
    17.04.2020 14:13:00
    Я следовал статье, упомянутой Альвином, и тестирую это решение. У меня есть одно изображение, которое синхронизируется с главного кластера на резервный кластер. Если я запущу это на резервном кластере: rbd mirror pool status mirror1 --verbose, я получаю: vm-101-disk-0: global_id: 5d5f468d-da19-4534-a8e7-7b072cb06b3e state: up+replaying. Так что здесь все, похоже, в порядке. Но если я выполню ту же команду на главном кластере, я получаю: vm-101-disk-0: global_id: 5d5f468d-da19-4534-a8e7-7b072cb06b3e state: down+unknown description: статус не найден. Что может быть не так на стороне главного кластера? Я пытался загрузить диск на резервном кластере, и, похоже, он не читается (это тестовая виртуальная машина Windows). Думаю, мне нужно как-то изменить его состояние (ПРОДВИЖЕНИЕ И ОТКАТ ИЗОБРАЖЕНИЯ)? Есть ли способ протестировать, в порядке ли изображение (напротив, запустив Windows на резервном кластере), без воздействия на изображение на главном кластере?
     
     
     
    fxandrei
    Guest
    #4
    0
    17.04.2020 14:41:00
    Что касается теста изображения. Я понизил приоритет изображения на основном кластере и повысил его на резервном кластере. На основном кластере rbd mirror image demote mirror1/vm-101-disk-0 На резервном кластере rbd mirror image promote mirror1/vm-101-disk-0 Затем я смог загрузить виртуальную машину на резервном кластере. Проблема в том, что я внес изменения, когда виртуальная машина работала на резервном кластере. Для этого мне нужно принудительно синхронизировать. Сначала я снова повысил приоритет изображения на основном кластере и принудительно синхронизировал, выполнив следующую команду на резервном кластере: rbd mirror image resync mirror1/vm-101-disk-0 Так что, думаю, единственное, что я не знаю, что делать, это неизвестный статус на основном кластере.
     
     
     
    Alwin
    Guest
    #5
    0
    20.04.2020 09:11:00
    Настройка — это односторонняя репликация. На неосновной стороне есть только демон. Таким образом, вы получаете состояние для синхронизации только на резервном кластере.
     
     
     
    fxandrei
    Guest
    #6
    0
    20.04.2020 12:35:00
    Так я мог бы настроить демон на основном кластере? И он будет синхронизировать изображение в зависимости от статуса изображения? (первичное или нет)?
     
     
     
    Alwin
    Guest
    #7
    0
    20.04.2020 14:09:00
    Да. Посмотрите документацию Ceph для получения дополнительной информации. https://docs.ceph.com/docs/nautilus/rbd/rbd-mirroring/
     
     
     
    fxandrei
    Guest
    #8
    0
    25.04.2020 22:53:00
    У меня есть пул, в котором несколько образов зеркалятся на другой кластер с тем же именем пула. Я следовал инструкции: https://pve.proxmox.com/wiki/Ceph_RBD_Mirroring. Но я замечаю что-то странное и не могу найти информацию о том, что происходит. Пул на целевом кластере (тот, который имеет службу зеркалирования rbd, получающую данные из исходного кластера/пула) показывает размер, занимаемый образами, значительно больше, чем у источника. Если я смотрю на размер образов (по отдельности), они одинаковы в источнике и на цели. Но если я смотрю на пул, они сильно различаются. Исходный пул показывает 2.81TB используемого места, а целевой — 5.31TB. Что происходит?!
     
     
     
    Alwin
    Guest
    #9
    0
    27.04.2020 12:08:00
    Это зависит от настройки пула и конфигурации crush. Проверьте оба пула с помощью ceph df detail.
     
     
     
    fxandrei
    Guest
    #10
    0
    27.04.2020 12:27:00
    Это то, что я получил:
     
     
     
    Alwin
    Guest
    #11
    0
    27.04.2020 16:09:00
    Что показывает дамп OSD в Ceph?
     
     
     
    fxandrei
    Guest
    #12
    0
    27.04.2020 17:07:00
    Итак, я предполагаю, что вы хотите увидеть детали, связанные с mirror1, правильно? Итак, на резервном кластере: На основном кластере:
     
     
     
    Alwin
    Guest
    #13
    0
    28.04.2020 10:54:00
    Правило сцепления не является стандартным, как распределяются PG (как выглядит это правило)? На данный момент я думаю, что количество объектов может различаться из-за журнала, связанного с зеркалированием.
     
     
     
    fxandrei
    Guest
    #14
    0
    28.04.2020 13:58:00
    Это правило сжатия на обоих кластерах:
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры