Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Ceph вложенные домены отказоустойчивости?

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Ceph вложенные домены отказоустойчивости?, Proxmox Виртуальная Среда
     
    TSAN
    Guest
    #1
    0
    01.02.2024 00:22:00
    Broadcom здесь. Вчера начал изучать Proxmox + Ceph. Развернул вложенный кластер из 3 узлов и теперь погружаюсь в Ceph. Предлагает ли Ceph схему защиты, аналогичную VMware VSAN с зеркалированием 2 хостов (вложенные домены отказоустойчивости)? Если не знакомы – в VSAN 2/3-узловом кластере, с 3 группами дисков в политике хранения, можно зеркалировать данные между 2 отдельными дисками/группами + 2 хостами. Используемое пространство увеличивается в 3 раза (100 ГБ = 400 ГБ), но данные становятся очень доступными. Это обеспечивает устойчивость при отказе одного хоста или группы дисков на оставшемся хосте. Это в основном для VSAN 2 узлов, но известно, что Ceph требует минимум 3 хоста. Пока что смотрю несколько видео, и похоже, что модель/правила CRUSH в Ceph – это стратегия защиты на уровне OSD или хоста, но не одновременно. Я пока мало что изучил Ceph, но решил спросить, возможно ли это. Спасибо.
     
     
     
    LnxBil
    Guest
    #2
    0
    28.11.2024 16:58:00
    Какие новости на этот счет? Я только что наткнулся на это и вот думаю, как это настроить на PVE.
     
     
     
    Azunai333
    Guest
    #3
    0
    28.11.2024 17:02:00
    Есть ли запись об этом в трекере ошибок? Если нет, я могу открыть заявку.
     
     
     
    LnxBil
    Guest
    #4
    0
    28.11.2024 17:47:00
    Чтобы ответить на свой вопрос...
    Код: root@proxmox ~ > rbd config image list ceph/vm-100-disk-0 | grep rbd_read_from_replica_policy
    rbd_read_from_replica_policy                 default      config

    root@proxmox ~ > rbd config image set ceph/vm-100-disk-0 rbd_read_from_replica_policy localize

    root@proxmox ~ > rbd config image list ceph/vm-100-disk-0 | grep rbd_read_from_replica_policy
    rbd_read_from_replica_policy                 localize     image И вот, как оказалось, разницы не так уж и много.
     
     
     
    aaron
    Guest
    #5
    0
    29.11.2024 10:26:00
    Спасибо, что снова подняли этот вопрос. Нет, я пока не успел покопаться в этой настройке. У вас есть какие-нибудь примерные цифры? И для контекста было бы неплохо знать информацию о дисках и скорости сети.
     
     
     
    LnxBil
    Guest
    #6
    0
    29.11.2024 11:59:00
    Мы всё ещё на этапе оценки, система не в финальной конфигурации, и у меня пока нет хорошего, систематизированного подхода к тестированию, просто "хаотичное" тестирование и изменение одного параметра за раз. Это минимальный (в плане стоимости) риф-кластер CEPH на PVE 8.3 с 3 Dell R6615 с 2x Dell-branded 960 GB NVMe PCIe 4.0, 10 GBE mesh-сеть FRR для CEPH, и мы работаем на пределе сети, но ещё не на дисках. "Сырая" пропускная способность диска — 7,9 ГБ/с, как и следовало бы ожидать от PCIe 4.0 NVMe. Мы тестировали всё с помощью CrystalDisk на Windows в качестве VM (по желанию клиентов, важна последовательная пропускная способность, поэтому любые цифры именно такие) и с одним диском ZFS (primarycache=metadata) и также LVM в качестве эталона. Обе дают хорошие значения, как и следовало бы подозревать. ZFS без ARC-кэширования — около 3,5 ГБ/с, с ARC почти наравне с LVM — 7,6 ГБ/с. С опцией default можно увидеть, что сеть CEPH используется примерно 1,6 ГБ/с (оба канала mesh-сети), а с опцией localize — всего 200 МБ/с. Опция balance показывает более высокую пропускную способность сети — около 1,8 ГБ/с, а пропускная способность диска увеличивается с 2,3 (default) до 2,6 (balance) до 3,1 ГБ/с (localize). Кажется, опция меняется онлайн, и вы видите немедленное изменение сетевого трафика и увеличение пропускной способности диска. Мы всё ещё пытаемся оптимизировать OSD и количество PGs, но пока не видим чёткой картины, что лучше всего. Лучший 4K-запись с произвольным доступом имеет худшую последовательную пропускную способность и наоборот. В другом производственном кластере с 3 узлами с локальными SATA SSD, прирост более заметен, но цифры нужно воспринимать с осторожностью из-за помех от нормальной нагрузки на тесты, но можно увидеть, что числа последовательного чтения на 20% лучше (default сверху, localized снизу, balance был таким же, как default). Так что это может быть значительное улучшение скорости для 3-узловых кластеров.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры