Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Нужен совет. Заменяю потребительский NVMe, который использовался для Ceph DB/WAL в 3-узловом кластере.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Нужен совет. Заменяю потребительский NVMe, который использовался для Ceph DB/WAL в 3-узловом кластере., Proxmox Виртуальная Среда
     
    royalj7
    Guest
    #1
    0
    23.05.2025 23:48:00
    Привет всем! У меня дома работает кластер Proxmox из 3 узлов с Ceph для хранения виртуальных машин. На каждом узле по два Intel enterprise SSD объёмом 800 ГБ для OSD данных, и один потребительский NVMe на 512 ГБ, который используется для DB/WAL для обоих OSD на этом узле. Я тестирую кластер и вижу низкие IOPS и высокую задержку, особенно при 4K случайных нагрузках. Я подозреваю, что потребительский NVMe — узкое место, и хотел бы заменить его на enterprise NVMe (вероятно, что-то с более высокой устойчивой скоростью записи и DWPD). Прежде чем я приступлю, хочу:

    Получить обратную связь от сообщества о том, улучшит ли это значительно производительность.
    Удостовериться в лучшем способе замены DB/WAL NVMe, не сломав кластер.

    Мой план:

    По одному узлу: останавливаю OSD, использующие DB/WAL устройство, затираю их, выключаю узел, заменяю NVMe, пересоздаю OSD с новым целевым устройством DB/WAL.
    Отслеживаю перебалансировку между каждым шагом.

    У кого-нибудь здесь был подобный опыт или есть лучшие предложения, как избежать простоя или проблем с данными? Какие подводные камни стоит учитывать?

    Заранее спасибо!
     
     
     
    wbedard
    Guest
    #2
    0
    24.05.2025 13:47:00
    У меня тоже похожая конфигурация, как ты описал, и хотя я ещё (не) проводил эту процедуру, я уже запланировал точно так же действовать, когда придётся заменить мои WAL-устройства. Просто интересно, у тебя кластер новый или его производительность со временем просто ухудшилась? Если интересно, можешь рассказать, какие у тебя сейчас WAL-устройства и какие показатели производительности ты видишь, и мы можем сравнить результаты.
     
     
     
    SteveITS
    Guest
    #3
    0
    24.05.2025 15:08:00
    Мне было бы интересно узнать бенчмарки для SSD без дополнительного диска, ведь они уже SSD, а значит исключается единая точка отказа для OSD. (И NVMe для DB сильно помогает, да?). А потом можно добавить третий диск или использовать NVMe как OSD. В целом, да, ваши шаги выглядят нормально. На кластере побольше я бы посоветовал ждать, пока все будет в порядке на каждом шаге, но с двумя узлами это нереально (используя 3/2).
     
     
     
    wbedard
    Guest
    #4
    0
    24.05.2025 15:51:00
    @SteveITS Не все SSD одинаковы! Во многих случаях, когда кто-то использует отдельное NVMe устройство для Ceph WAL, это потому, что их основной блочный диск использует более медленный интерфейс (например, SATA). В таких случаях NVMe устройство улучшает общую производительность ввода-вывода OSD выше, чем мог бы обеспечить основной блочный диск сам по себе.
     
     
     
    spirit
    Guest
    #5
    0
    24.05.2025 16:24:00
    Не используйте диск WAL/DB на отдельном диске, просто используйте ваш корпоративный SSD как OSD с диском WAL/DB внутри.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры