Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Гиперконвергентный PVE и CEPH, один кластер PVE с несколькими кластерами CEPH?

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Гиперконвергентный PVE и CEPH, один кластер PVE с несколькими кластерами CEPH?, Proxmox Виртуальная Среда
     
    dmulk
    Guest
    #1
    0
    16.12.2019 19:39:00
    Привет всем, JOOC, можно ли настроить PVE так, чтобы был один кластер PVE с несколькими кластерами CEPH. Другими словами, я хочу, чтобы все мои узлы PVE находились в одном кластере, но половина обслуживала один кластер CEPH, а другая половина — другой, отдельный кластер CEPH. (Я понимаю, что могу определить разные пулы в одном кластере... я говорю о разных кластерах...). Спасибо, <D>
     
     
     
    Alwin
    Guest
    #2
    0
    17.01.2020 11:39:00
    То, что вы описываете, это управление многими кластерами. Это в списке вещей для реализации, но, как вы можете представить, это не простая задача.
     
     
     
    dmulk
    Guest
    #3
    0
    17.01.2020 15:24:00
    Я только могу представить. Сказав это, можно уверенно сказать, что это функция, которая выведет Proxmox на новый уровень.
     
     
     
    Volker Lieder
    Guest
    #4
    0
    16.07.2021 13:46:00
    Привет, у нас работает один кластер Proxmox с двумя кластерами Ceph. Но поддерживать Ceph через GUI невозможно, поэтому мы установили кластеры CEPH через CLI на соответствующих узлах. Все работает хорошо, но это требует больше усилий через CLI.
     
     
     
    Robert.H
    Guest
    #5
    0
    03.11.2022 19:06:00
    Я бы также хотел подключить Proxmox к 2 внешним кластерам Ceph, чтобы, например, иметь возможность выполнять живую миграцию хранилища между ними. Спасибо.
     
     
     
    Volker Lieder
    Guest
    #6
    0
    03.11.2022 22:44:00
    Привет, Роберт, это возможно, даже если у тебя уже настроены остальные два кластера Ceph. Если нужна помощь, не стесняйся обращаться ко мне с подробностями. С наилучшими пожеланиями, Волькер
     
     
     
    dmulk
    Guest
    #7
    0
    14.01.2020 16:55:00
    @aaron Извини за задержку с ответом. Почему-то две недели отдыха во время праздников = два месяца задолженности на работе... В общем, я хочу немного избыточности на уровне кластера CEPH и в то же время, чтобы у меня была возможность свободно перемещать вычислительные ресурсы (ВМ/Контейнеры) между всеми узлами по мере необходимости. Проще говоря, по мере масштабирования кластеров CEPH было бы неплохо обновлять один, одновременно используя другой, чтобы минимизировать риски. Другой способ достичь этого — иметь два отдельных гиперконвергентных кластера PVE/CEPH, если бы была возможность перемещать ВМ/Контейнеры между отдельными кластерами PVE. (хотя один PVE/несколько кластеров CEPH было бы предпочтительнее). Что скажешь?
     
     
     
    Alwin
    Guest
    #8
    0
    15.01.2020 11:05:00
    С кластером PVE+Ceph у вас есть резервирование при обновлении. Вы перемещаете ВМ/КТ на другие узлы и обновляете по одному узлу за раз. На данный момент нет встроенного способа репликации ВМ/КТ на разные кластеры. Вы можете использовать rbd-mirror для репликации rbd-образов между кластерами, но вам нужно самостоятельно заботиться о конфигурациях. https://pve.proxmox.com/wiki/Ceph_RBD_Mirroring
     
     
     
    dmulk
    Guest
    #9
    0
    15.01.2020 22:56:00
    Спасибо за совет по CEPH, Mirroring RBD, Альвин, я это прочитаю. Что касается «избыточности кластера», извини, если я не была ясна. Да, внутри кластера Ceph есть «некоторая» избыточность, но я ищу большего уровня избыточности. То есть два кластера Ceph. Да, я могу уже запускать несколько кластеров CEPH, но это означает, что мне придется запускать и несколько PVE кластеров (если я гиперконвергентный). Я ищу способ запустить несколько кластеров CEPH в одной (гиперконвергентной) среде PVE. Думаю, ты подтвердил, что сейчас сделать это нельзя. Спасибо, ребята, за уделенное время! <D>
     
     
     
    Alwin
    Guest
    #10
    0
    16.01.2020 14:07:00
    Нет, их нет. Я не вижу смысла в нескольких кластерах Ceph на одном оборудовании. Пожалуйста, объясните. Спасибо.
     
     
     
    dmulk
    Guest
    #11
    0
    16.01.2020 18:43:00
    Я хочу избежать простоев в своей работе. Думаю, есть определенная польза в том, чтобы иметь возможность балансировать вычисления в целом, независимо от происходящего в средах CEPH. Всегда существует риск, когда в кластер CEPH вносятся изменения (например, во время обновления). Если у бизнеса минимальные возможности для обслуживания и принятия рисков обновления, то было бы крайне полезно сохранить "стабильную" среду хранения, в которой можно в реальном времени переместить все вычисления (виртуальные машины/контейнеры) на "стабильные" узлы CEPH, пройти обновление узлов, работающих в "другом" кластере CEPH, а затем, как только будет подтверждено, что все "в порядке", перераспределить нагрузку, чтобы воспользоваться обновленными вычислениями. Часть из этого можно сделать внутри одного PVE/одного кластера CEPH (используя пуулы CEPH и т.д.) или в нескольких одиночных кластерах, но это трудоемко на определенном уровне. Если бы был поддерживаемый способ живой миграции вычислений между отдельными PVE, это, вероятно, тоже решило бы ту же задачу (так как мы уже можем это делать со.storage, очевидно). Не уверен, какую нагрузку это создаст для разработчиков в PVE, но, размышляя об этом, это может быть "лучший" способ сделать это.
     
     
     
    Robert.H
    Guest
    #12
    0
    04.11.2022 04:16:00
    Да, у меня все заработало, просто используя графический интерфейс. Но есть один нюанс: в поле "key" нужно вставлять не просто ключ, а целый блок, например: [client.admin] key = ..... И не забудьте правильно указать все значения ceph mon, разделенные пробелами. Спасибо!
     
     
     
    Lephisto
    Guest
    #13
    0
    04.11.2022 23:12:00
    Вам стоит обратить внимание на: https://github.com/lephisto/crossover Я использую это для создания инкрементных холодных резервных копий в отдельных кластерах, чтобы осуществлять (почти) живую миграцию с минимальным временем простоя между различными кластерами и так далее.
     
     
     
    dmulk
    Guest
    #14
    0
    16.01.2020 20:25:00
    Что-то вроде этого, вероятно, поможет достичь того, что я ищу: https://forum.proxmox.com/threads/multi-datacenter.35043/ (Если предусмотреть функцию живой миграции для вычислительных ресурсов) <D>
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры