Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Советы для первой попытки создания гибридного кластера Proxmox & Ceph Так, вы решили попробовать свои силы в создании кластера Proxmox с Ceph? Замечательно! Это непростая задача, но если подойти к ней с умом, всё получится. Вот несколько советов, основан

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Советы для первой попытки создания гибридного кластера Proxmox & Ceph Так, вы решили попробовать свои силы в создании кластера Proxmox с Ceph? Замечательно! Это непростая задача, но если подойти к ней с умом, всё получится. Вот несколько советов, основан, Proxmox Виртуальная Среда
     
    premmy
    Guest
    #1
    0
    18.04.2025 19:35:00
    Всем привет!

    Я тут недавно решил попробовать Proxmox. Честно говоря, Ceph integration изначально меня зацепил. Знаете, у нас на продакшене используем/платим лицензии для Hitachi VSP, и знаете, в последние 2-3 года он работает очень стабильно. Но наши требования к обработке данных меняются со дня на день, и я подумал, что Proxmox может быть хорошим вариантом. Пока что на этапе планирования инфраструктуры, все только начинается. Хочу протестировать несколько идей и посмотреть, насколько это жизнеспособно. Изначально рассматривал VMware/vSAN для похожего подхода, но в итоге склонился к Proxmox/Ceph.

    Кстати, если тестирование покажет хорошие результаты, мы планируем приобрести Proxmox enterprise subscriptions, но пока что слишком рано для этого, и это не оправдывает сразу покупку подписки.

    Продакшн: (Разница между тестовой средой и продакшном будет в основном в более новом оборудовании, более быстрой сети и удвоенном количестве узлов, но концепция останется прежней.)

    Тестовая среда:

    *   Подключение: 2 x 10g независимых каналов
    *   Сеть: 2 x Cisco Nexus N9k Switches (32 x 40 Gbps ports)
    *   Серверы: 3 x Dell R730XD's (Все три имеют одинаковую конфигурацию)
       *   RAM: 128 GB DDR4 2133 MHz
       *   CPU: 2 x Xeon E5-2690 v4 @ 2.60 GHz (56 Cores)
       *   Диски: 20 x Seagate Exos 12 Gbps 1.8 TB SAS HDD (ST1800MM0129)
       *   SSD: 4 x 1TB PCI NVMe

    Сеть 40GbE через QSFP+ и волокно от Mellanox ConnectX-Pro к N9K switches. Все диски подключены к Proxmox без RAID-конфигурации; сейчас они все еще имеют встроенные H730P Mini's, но в режиме HBA их можно заменить на HBA, если потребуется. Таким образом, каждый сервер имеет примерно 80 ТБ сырого дискового пространства.

    Мои мысли/цель:

    В большинстве онлайн-постов говорят о высокой доступности/репликации; однако, я бы хотел как можно больше отклониться от репликации, главным образом потому, что наш сценарий использования таков: кластер будет просто служить "свалкой данных"; в течение дня будет несколько небольших контейнеров, которые будут загружать данные в Ceph cluster, и эти данные будут передаваться через определенные интервалы времени в более стабильное долгосрочное хранилище (пока что, Hitachi VSP). Таким образом, основная цель кластера Proxmox/Ceph будет заключаться в приеме данных, выполнении некоторых основных вычислительных задач, а затем их резервном копировании на долгосрочное хранилище. Таким образом, я хочу сказать, что репликация не имеет значения, но на самом деле становится препятствием, тратя значительные ресурсы на данные, которые будут жить недолго. В худшем случае мы потеряем пару часов данных, которые можно будет восстановить за пару часов ручной работы. Поэтому риск потратить несколько часов на ручное извлечение данных при потенциальном простое намного перевешивает необходимость тратить X ресурсов на надежную "высокодоступную" настройку. Мы получим гораздо больше пользы от ресурсов и прироста производительности, если не использовать никакой RAID или репликацию.

    Итак, мой вопрос к опытным профессионалам здесь... Что бы вы рекомендовали для такого случая использования? Можно ли просто создать правило crush, требующее 0 реплик? Какие есть варианты максимизации производительности в обмен на репликацию? Или есть минималистичный подход, который может дать лучшее из обоих миров (например, одна ошибка диска на пул) без необходимости выделять слишком много ресурсов на стороне репликации?
     
     
     
    UdoB
    Guest
    #2
    0
    18.04.2025 21:16:00
    Да, три ноды — это минимум для Ceph, и ваше оборудование отличное. Но я бы никогда не начинал серьезный бизнес, используя только абсолютный минимум чего-либо. Ceph требует немного больше ресурсов, чтобы быть надежным; я записал несколько вещей, которые заметил: https://forum.proxmox.com/threads/fabu-can-i-use-ceph-in-a-_very_-small-cluster.159671/ Дисклеймер: Я отказался от своей Ceph-кластера из шести нод с 12 ODS и вернулся к ZFS — после 15 месяцев продуктивного использования в домашней лаборатории со слабой (2.5 GBit/s) сетью.
     
     
     
    scyto
    Guest
    #3
    0
    18.04.2025 22:32:00
    Тебе нужно 3 ноды. Мой кластер из трех нод состоит из Intel NUC, с одним NVMe для Ceph в каждом. Сеть – около 26 Гбит/с (Thunderbolt mesh) и она использует лишь малую часть этой пропускной способности… Я знаю людей, у которых небольшие среды работали на 2.5 Гбит/с. Главное – это реальная нагрузка, нагрузки при загрузке системы и объем данных, которые будут читаться и записываться. Я использую Ceph replication pool как для RBD, так и для CephsFS.

    Если тебе не нужны 3 копии всего, ты можешь использовать erasure encoded pool. Всё это к тому, что нужно протестировать свою рабочую нагрузку и удовлетворить свои потребности. В конце концов, Ceph прекрасно работает даже на минимальных системах.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры