Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Proxmox Ceph конвергентный (HCI) или внешний Ceph

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Proxmox Ceph конвергентный (HCI) или внешний Ceph, Proxmox Виртуальная Среда
     
    sander93
    Guest
    #1
    0
    28.04.2020 16:27:00
    Здравствуйте, на данный момент у нас есть: 6 узлов Proxmox, 2 узла по 10 ядер (2 узла имеют по 14 ядер), 512 ГБ оперативной памяти, 4 x 10 ГБ (2 x 10 ГБ LACP для сетевой и corosync, и 2 x 10 ГБ LACP для хранилища), 3 x Ceph Monitor двойного ядра, 4 ГБ RAM, 2 x 10 ГБ LACP, 4 x Ceph OSD, 2 x 6 ядер, 2,6 ГГц, 96 ГБ RAM, 4 x 10 ГБ (2 x 10 ГБ LACP для репликации и 2 x 10 ГБ для публичной сети). Все OSD — корпоративные SSD. В данный момент мы запускаем около 120 виртуальных машин. Нам нужно расширить нашу ёмкость хранилища, поэтому мы хотим добавить 2 сервера. У нас есть 2 варианта: - добавить 2 новых сервера в кластер ceph, чтобы у нас стало 6 узлов OSD - установить их в кластер Proxmox, активировать/установить ceph внутри кластера Proxmox и переместить данные в новый кластер ceph и мигрировать существующие хосты на узлы Proxmox, чтобы перейти на гиперконвергентную архитектуру. Какой путь вы порекомендуете? Я читал разные подходы, отдельное может быть полезным при внесении изменений/обновлений и так далее, но конвергентное, возможно, позволяет лучше использовать мощность CPU, и у нас будет больше узлов ceph, говорят, что это хорошо для задержек и производительности кластера ceph. В Proxmox v5 corosync ограничивал количество узлов в одном кластере, думается, это проблема была «решена» с новым corosync v3. Я прочитал много тем по этому вопросу, но хотел бы узнать рекомендации для нашей конкретной среды. Также я хочу, чтобы это было масштабируемо.
     
     
     
    jsimbr
    Guest
    #2
    0
    31.01.2022 20:29:00
    Понял, это имеет смысл. Так, у вас сейчас в кластере 6 OSD узлов или он стал еще больше? Я пытаюсь выяснить, какой разумный (безопасный) размер для создания нашего собственного продукционного Ceph кластера.
     
     
     
    jsimbr
    Guest
    #3
    0
    28.01.2022 15:27:00
    Привет, извини, что поднимаю довольно старую тему, но мне было интересно узнать, какой путь ты выбрал. Ты остановился на настройке HCI или решил остаться с внешним кластером Ceph?
     
     
     
    sander93
    Guest
    #4
    0
    31.01.2022 09:57:00
    Привет, мы придерживаемся внешнего кластера Ceph, чтобы не усложнять ситуацию. В данный момент мы рассматриваем возможность настройки второго кластера в качестве HCI, где сможем настроить RBD-Mirror для мониторинга катастроф. В худшем случае мы сможем загружать виртуальные машины на этом DR HCI кластере.
     
     
     
    sander93
    Guest
    #5
    0
    01.02.2022 15:55:00
    Наш кластер Ceph на данный момент состоит из: 3 узлов Mon/MGR 6 узлов SSD OSD 3 узлов HDD OSD В настоящее время у нас работает 9 узлов Proxmox в кластере, которые подключены/используют этот кластер Ceph. Если у вас есть вопросы, дайте знать, всегда приятно поделиться опытом.
     
     
     
    jsimbr
    Guest
    #6
    0
    02.02.2022 02:03:00
    Спасибо за то, что поделились своим ценным опытом. Мне интересно, как вы соединяете свой кластер Proxmox с хранилищем Ceph. Вы используете Ceph RBD напрямую или другой протокол (например, iSCSI или NFS)?
     
     
     
    sander93
    Guest
    #7
    0
    02.02.2022 08:58:00
    Мы используем RBD напрямую, и я думаю, что это лучший вариант в большинстве случаев.
     
     
     
    jsimbr
    Guest
    #8
    0
    02.02.2022 15:53:00
    Отлично. Спасибо еще раз за предоставленную информацию. Мы скоро создадим наш 4-узловой кластер, и я выложу результаты на форум.
     
     
     
    oendaps
    Guest
    #9
    0
    01.03.2023 04:52:00
    Привет, @sander93, не мог бы ты подсказать, как лучше организовать 4 узла: 2 узла для вычислений и 2 узла для хранилища CEPH? Думаю, я неправильно смешал все узлы в одном кластере. Планирую добавить 1 узел для CEPH, чтобы получить кворум и избыточность. Вот текущая топология.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры