Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Правила PVE Ceph для пулов HDD разного размера. Учитывайте, что эти правила – мой личный опыт, а не официальные рекомендации. Я пытался оптимизировать производительность и надёжность своей Ceph-кластерной конфигурации с несколькими пулами HDD. Результаты

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Правила PVE Ceph для пулов HDD разного размера. Учитывайте, что эти правила – мой личный опыт, а не официальные рекомендации. Я пытался оптимизировать производительность и надёжность своей Ceph-кластерной конфигурации с несколькими пулами HDD. Результаты, Proxmox Виртуальная Среда
     
    Illydth
    Guest
    #1
    0
    20.09.2022 07:11:00
    Прошу прощения, вероятно, этот вопрос уже тысячу раз задавали, но я не могу найти подходящую документацию, и я, кажется, ещё недостаточно опытен в Proxmox/Ceph, чтобы правильно сформулировать поисковый запрос. У меня есть кластер Proxmox из 3 узлов с жёсткими дисками и уже настроенным OSD/Pool. Ceph-кластер имеет стандартное правило репликации: 9 дисков HDD по 1ТБ в одном кластере, используя 3 реплики... что составляет примерно 3ТБ для первого пула. Теперь я добавляю 3 диска на 360ГБ (снова HDD). Хочу, чтобы эти 3 диска HDD были в отдельном Ceph Pool. А ещё я бы хотел убрать CephFS из первого OSD пула (который предназначен только для образов VM) и настроить его на втором OSD пуле (меньшем, предназначенном для небольших Docker/K8s томов, использующих CephFS). Я нашёл тонну информации и постов о том, как создавать CRUSH-правила для разных типов дисков (SSD против HDD), но вся эта информация предполагает использование класса устройства для автоматического разделения OSD в отдельные правила. Даже в одном посте, где у человека все устройства были указаны как SSD, он в итоге переключил некоторые устройства на NVME, чтобы использовать стандартные методы разделения его наборов дисков на два разных правила. Я не нашёл никакой информации о том, как создать CRUSH-правило и назначить конкретные OSD этому правилу для дисков одного типа без использования разных классов дисков. Помогите? Я готов читать документацию. Я просматривал https://pve.proxmox.com/pve-docs/chapter-pveceph.html#pve_ceph_device_classes, на который постоянно дают ссылки, но там всё говорится о создании CRUSH-правил на основе РАЗНЫХ классов устройств. На самом деле, я просто хочу разделить OSD одного класса в отдельные пулы для разных задач. Я не уверен, с чего начать создание второго CRUSHmap-правила и как затем сказать Ceph назначить его OSD 9, 10 и 11. Опять же, извините, мой Google-дзен явно меня подводит.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры