Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Как создать несколько пулов хранения Ceph в Proxmox?

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Как создать несколько пулов хранения Ceph в Proxmox?, Proxmox Виртуальная Среда
     
    victorhooi
    Guest
    #1
    0
    08.07.2019 09:53:00
    У нас три сервера с настройкой Proxmox/Ceph на трех узлах. У каждого есть один 2.5" SATA для Proxmox, а также один M.2 NVMe диск и один Intel Optane PCIe NVMe диск. Я хотел бы использовать оба NVMe диска для *двух* отдельных пулов хранения Ceph в Proxmox. (То есть один из трех M.2 дисков, а второй из трех Optane дисков.) Это возможно сделать через графический интерфейс Proxmox Ceph или с помощью команд/скриптов Proxmox Ceph? Спасибо, Виктор.
     
     
     
    n0bie
    Guest
    #2
    0
    31.12.2021 18:04:00
    Тип OSD показывает только SSD, HDD и NVMe. А как быть, если мы хотим объединить HDD и SSD в один пул? Разные типы OSD, но создать один пул. Как это сделать?
     
     
     
    lbergman
    Guest
    #3
    0
    02.04.2022 23:11:00
    Пожалуйста, не делай этого. Разная задержка OSD приведет к значительному увеличению нагрузки на ЦП и память, и нагрузка на сеть также значительно возрастет.
     
     
     
    victorhooi
    Guest
    #4
    0
    10.09.2019 07:36:00
    Я просто хочу сообщить, что мне удалось это успешно сделать! Два типа дисков, которые я использую для своих двух Ceph-пулов: Intel Optane 900P (480GB) и Samsung 960 EVO (1TB). Если честно, оба диска на самом деле NVMe. Однако я немного хитрю — я использовал Ceph, чтобы изменить класс устройства для дисков Optane на "nvme", а оставил Samsung 960 как "ssd". Команды такие: Код: # ceph osd crush rm-device-class osd.11 osd.11 osd.9 osd.8 osd.7 osd.6 osd.5 osd.4 osd.3 osd.2 osd.1 osd.0
    osd.11 не принадлежит ни к какому классу, удаление класса для osd(ов): 0,1,2,3,4,5,6,7,8,9,11 завершено
    # ceph osd crush rm-device-class osd.10
    удаление класса для osd(ов): 10 завершено
    # ceph osd crush set-device-class nvme osd.0 osd.1 osd.2 osd.3 osd.4 osd.5 osd.6 osd.7 osd.8 osd.9 osd.10 osd.11
    установить osd(ы) 0,1,2,3,4,5,6,7,8,9,10,11 в класс 'nvme' Затем мы создаем правила: Код: # ceph osd crush rule create-replicated optane-only default host nvme
    # ceph osd lspools
    1 vm_storage
    # ceph osd pool set vm_storage crush_rule optane-only
    Ceph начнет перемещать данные. Я также создал правило только для SSD: Код: # ceph osd crush rule create-replicated ssd-only default host ssd Я затем использовал графический интерфейс Proxmox, чтобы создать новый Ceph пул, и для правила Crush выбрал "ssd-only", вместо стандартного "replicated_rule". Мой первый вопрос: я немного хитрю, используя классы устройств для разделения дисков Intel Optane и Samsung. Есть ли другой правильный способ, который позволит мне написать правило Crush для настройки конкретных Ceph пулов на использование только определенных моделей или брендов дисков? Во-вторых, безопасно ли переименовывать Ceph пул в Proxmox, используя: Код: ceph osd pool rename {текущее-имя-пула} {новое-имя-пула}
     
     
     
    Alwin
    Guest
    #5
    0
    30.09.2019 12:49:00
    Да, но классы устройств предназначены именно для этого случая. Вам также не обязательно придерживаться наименования устройств и можно создать пользовательский класс.
     
     
     
    zeuxprox
    Guest
    #6
    0
    22.07.2021 08:03:00
    Привет, в моем кластере PVE 7 у меня 5 узлов, и каждый узел имеет 4 NVMe диска и 2 SSD диска. Теперь я бы хотел создать 2 разные пулы: один для NVMe и один для SSD. Я внимательно прочитал документ "Ceph CRUSH & device classes", но некоторые шаги не совсем ясны. Какие шаги нужно предпринять для достижения моей цели? Правильны ли следующие шаги? Установить Ceph 16.2, создать 2 правила для CRUSH: одно для OSD NVMe и одно для OSD SSD. Как мне это сделать? Создать первый пул, скажем, nmve, а затем связать его с правилом CRUSH nvme? Связать OSD NVMe с пулом nvme, как я могу это сделать? Повторить пункты 2 и 3 для пула SSD... Они верны? Какие шаги можно выполнить через GUI, а какие через CLI? Спасибо.
     
     
     
    zeuxprox
    Guest
    #7
    0
    22.07.2021 16:16:00
    Привет, я провел несколько тестов в PVE7 и Ceph 16.2 и добился своей цели — создать два пула: один для NVMe-дисков и один для SSD-дисков. Вот шаги: установить Ceph 16.2 на всех узлах; создать две правила — одно для NVMe и одно для SSD (название правила для NVMe: nvme_replicated; название правила для SSD: ssd_replicated): ceph osd crush rule create-replicated nvme_replicated default host nvme, ceph osd crush rule create-replicated ssd_replicated default host ssd. Создать два пула через GUI и привязать один пул к правилу nvme_replicated, а другой — к ssd_replicated; создать через GUI на каждом узле OSD и привязать их к классу nmve для дисков nmve и к ssd для дисков ssd. Пока!
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры