Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Кластер 3 размещает хранилище данных CEPH с высокой доступностью (HA) в облаке OVH.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Кластер 3 размещает хранилище данных CEPH с высокой доступностью (HA) в облаке OVH., Proxmox Виртуальная Среда
     
    François093
    Guest
    #1
    0
    19.04.2024 14:53:00
    Здравствуйте, я хотел бы настроить кластер Proxmox на OVH. 3 хоста с CEPH для высокой доступности (HA). Я думал использовать предложение Advance 3 от OVH. В своей лаборатории я развёрнул решение на 3 машинах, каждая с SSD на 1 ТБ. После настройки CEPH-диска на 1 ТБ с использованием SSD на каждом хосте, горячая миграция ВМ и HA работают отлично. Теперь хочу повторить такую же инфраструктуру у OVH. Я узнал, что для HA придётся добавить опцию CDA от OVH. Я рассчитывал воспроизвести свой CEPH-диск с помощью дисков с каждого хоста (2× 960GB SSD NVMe Soft RAID). Какая будет лучшая схема? С уважением.
     
     
     
    Robin.V.
    Guest
    #2
    0
    19.07.2024 14:29:00
    Привет, у меня похожая ситуация, только я делал лабу на OVH. Что я сделал: создал VRACK с серверами, один с публичным сетевым портом, другой с VRACK Ceph, настроенный на VRACK. HA работает (серверы RISE-1 с двумя дисками по 500 ГБ). Я сомневаюсь делать так же, как ты (брать ADVANCE-3), просто переживаю, что у нас пропускной способности в 5 Гбит/с может не хватить... https://www.proxmox.com/en/download...cumentation/proxmox-ve-ceph-benchmark-2023-12 Рекомендации говорят, что нужно минимум 10 Гбит/с. Если есть рабочие альтернативы, готов выслушать предложения.
     
     
     
    pacopad
    Guest
    #3
    0
    19.07.2024 15:04:00
    Привет, ребята! У нас есть кластер из трёх серверов scale-i1: два в GRA и один в RBX. Все сетевые интерфейсы подключены к vrack, поэтому в GRA у нас скорость 100 ГБ/с, а между GRA и RBX — около 70 ГБ/с. Задержка примерно 1,2 мс, и Ceph работает отлично. Возможно, стоит посмотреть предложение с тремя ЦОД в Париже, чтобы снизить задержку. С наилучшими пожеланиями, Паскаль.
     
     
     
    Robin.V.
    Guest
    #4
    0
    19.07.2024 15:15:00
    Привет, Pascal! Как ты рассчитываешь 100 ГБ/с? Частная сеть на scale-i1 обеспечивает 25 ГБ/с, что достаточно для Ceph (а вот 5 Гб/с — явно недостаточно, судя по Proxmox). Сколько у тебя дисков в Ceph? Три или больше? С наилучшими пожеланиями!
     
     
     
    pacopad
    Guest
    #5
    0
    19.07.2024 15:23:00
    С помощью iperf и мультипотоков. Пропускная способность на одну сетевую карту — 25 Гб/с. Мы настроили агрегацию из 4 сетевых карт. На сервере у нас 6 NVMe по 4 ТБ.
     
     
     
    pacopad
    Guest
    #6
    0
    05.12.2025 11:38:00
    Всем привет! Для сведения: мы перенесли наш кластер на предложение 3AZ от OVH, 3 ЦОД в Париже. Задержки между центрами обработки данных сократились в 4 раза... С наилучшими пожеланиями, Паскаль
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры