Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Рекомендуемый метод для вторичного Ceph Pool

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Рекомендуемый метод для вторичного Ceph Pool, Proxmox Виртуальная Среда
     
    gdi2k
    Guest
    #1
    0
    20.07.2017 13:43:00
    У нас есть PVE кластер с 3 серверами, работающий на Ceph на SSD. Теперь мы хотели бы добавить второй, отдельный пул Ceph в тот же кластер, используя медленные HDD (только для задач DVR CCTV). Какова рекомендуемая процедура настройки в наши дни? Я видел такие подходы: https://www.sebastien-han.fr/blog/2014/08/25/ceph-mix-sata-and-ssd-within-the-same-box/ https://elkano.org/blog/ceph-sata-ssd-pools-server-editing-crushmap/ https://forum.proxmox.com/threads/creating-using-multiple-ceph-pools.30181/ (не уверен, удался ли последний из них или нет). Версия Ceph - Jewel на PVE 4.4-15. Спасибо!
     
     
     
    gdi2k
    Guest
    #2
    0
    07.07.2018 14:03:00
    Изменилось ли что-то в этом отношении? Можно ли это сделать через графический интерфейс в последних версиях PVE, или мне всё ещё нужно вручную редактировать crushmap и создавать второй набор правил?
     
     
     
    gdi2k
    Guest
    #3
    0
    08.07.2018 05:08:00
    Обновление: Я смог это сделать, используя новую функцию классов устройств Ceph: https://ceph.com/community/new-luminous-crush-device-classes/ Сначала я добавил HDD в качестве OSD через GUI. Затем я создал одно быстрое правило crush (с использованием NVMEs) и одно медленное правило crush (с использованием HDD) через CLI; ceph osd crush rule create-replicated ceph-fast default host nvme ceph osd crush rule create-replicated ceph-slow default host hdd После этого я создал два пула, один для быстрых, один для медленных. После миграции всех дисков в новые пулы я удалил старый пул с набором правил по умолчанию Proxmox (replicated_rule). Все пока работает отлично, хотя на странице обзора Ceph показывается общее использование для всех OSD / пулов в сумме, а не по пулу, что было бы полезнее.
     
     
     
    Pradeep Gowtham
    Guest
    #4
    0
    21.08.2018 13:19:00
    Привет, gdi2k! В данный момент я создаю два разных пула: один с SSD, другой с SATA. В командной строке отображаются разные веса, но в консоли Proxmox вес показывает как общее число. Например, размер пула SSD составляет около 2.7 ТБ, а размера пула SATA — около 5.4 ТБ. В консоли Proxmox отображается размер как 8.1 ТБ. Это по умолчанию? Можно ли настроить отображение размера пула в зависимости от фактического размера? Заранее спасибо!
     
     
     
    Alwin
    Guest
    #5
    0
    21.08.2018 13:30:00
    Пожалуйста, ознакомьтесь с документацией. На обзорной странице показаны общие данные кластера, а в каждом хранилище отображаются значения использования пула. https://pve.proxmox.com/pve-docs/chapter-pveceph.html
     
     
     
    Pradeep Gowtham
    Guest
    #6
    0
    21.08.2018 13:48:00
    Привет, Алвин, спасибо за быстрый ответ. Обратите внимание, что я использую старую версию Proxmox v3.4 и GIANT CEPH. Итак, по вашему ответу, вы подтверждаете, что если мы создадим два разных пула с SSD и SATA, редактируя карту CRUSH, она все равно будет показывать все пространство хранения в кластере. Таким образом, мы не можем настроить консоль Proxmox, чтобы отображать SSD пул с его размером и SATA пул с его размером. С уважением, ПRADEEP. S
     
     
     
    Alwin
    Guest
    #7
    0
    21.08.2018 14:05:00
    PVE 3 и Ceph Giant находятся на этапе завершения жизненного цикла и не поддерживают много функций. Настоятельно рекомендую обновиться! Кроме того, необходимо отредактировать crush и создать два корня. Для Giant не предусмотрена функция классов устройств. http://cephnotes.ksperis.com/blog/2015/02/02/crushmap-example-of-a-hierarchical-cluster-map
     
     
     
    Alwin
    Guest
    #8
    0
    21.08.2018 14:44:00
    В старых версиях PVE 3/4 нет различия между размером пула и кластера, показывается только размер кластера. Примечание: в Ceph вес определяет предпочтение к тому, как вероятно, что crush разместит PG на OSD. Размер OSD определяется возможным дисковым пространством базового носителя. Вес соответствует его настройке по умолчанию с размером OSD, но может быть свободно настроен. Таким образом, термин 'вес 2.7TB' не существует в Ceph.
     
     
     
    Pradeep Gowtham
    Guest
    #9
    0
    21.08.2018 14:49:00
    Спасибо за обновление. Вы были очень полезны.
     
     
     
    Pradeep Gowtham
    Guest
    #10
    0
    22.08.2018 08:11:00
    Привет, Альвин. Какую версию ты бы рекомендовал для Proxmox и Ceph, чтобы в интерфейсе Proxmox я мог увидеть размер пула отдельно, а не общий размер кластера? В моей текущей ситуации с использованием Proxmox 3.4 и Ceph GIANT я вижу только размер кластера в интерфейсе, а размер пула, как SSD отдельно и SATA отдельно, не отображается. Поэтому прошу тебя порекомендовать надежную версию Ceph и Proxmox, чтобы решить мой вопрос. Заранее спасибо. С уважением, ПRADEEP.
     
     
     
    Alwin
    Guest
    #11
    0
    22.08.2018 08:42:00
    Последние новости! Даже Meltdown и Spectre, а также множество других исправлений и улучшений теперь включены. ИСПРАВЛЕНИЕ: Ceph теперь является интегрированной частью PVE. https://pve.proxmox.com/pve-docs/chapter-pveceph.html
     
     
     
    Pradeep Gowtham
    Guest
    #12
    0
    21.08.2018 14:26:00
    Извините, я не могу помочь с этой просьбой, так как вы не предоставили текст для перевода. Пожалуйста, предоставьте текст, и я с радостью помогу!
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры