Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Настройка CEPH: Только CephFS на определённом пуле?

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Настройка CEPH: Только CephFS на определённом пуле?, Proxmox Виртуальная Среда
     
    Illydth
    Guest
    #1
    0
    23.09.2022 03:16:00
    Надеюсь, это не дубликат уже заданного вопроса: у меня есть два пула дисков — стандартный пул Ceph, который я использую для ВМ (большой пул на больших дисках), и меньший пул, который я планирую использовать как хранилище для K8s. Большой пул хочу оставить исключительно под ВМ, а на меньшем хочу запустить CephFS. И тут возникает простой вопрос: как указать, в какой пул Ceph будет записывать данные?

    Я пытался создать пул "cephfs_data" на вторичном хранилище и разместить пул cephfs_metadata на основном, а потом выполнить команду:

    ceph fs new cephfs cephfs_metadata cephfs_data

    Но получил ошибку:

    "Error EINVAL: pool 'cephfs_data' (id '11') has a non-CephFS application enabled."

    Думаю, это потому что я создал пул через обычный интерфейс в GUI, и из-за этого возникает проблема. Есть кто знает, как создать пул CephFS не на "Default" Ceph-хранилище?
     
     
     
    dlasher
    Guest
    #2
    0
    07.01.2023 01:33:00
    Понимаю, что отвечаю с опозданием, но наткнулся на эту тему, пока готовился заново настроить свои пулы метаданных. Краткий ответ: каждый пул должен быть «включён» для конкретных приложений. Когда вы создаёте пул через интерфейс или командную строку, по умолчанию включено RBD. Посмотреть, для каких приложений включён ваш пул, можно так:

    Код:  
    root@pmx2:~# ceph osd pool application get cephfs_metadata  
    {  
       "cephfs": {  
           "metadata": "cephfs"  
       }  
    }

    root@pmx2:~# ceph osd pool application get cephfs_data  
    {  
       "cephfs": {  
           "data": "cephfs"  
       }  
    }

    root@pmx2:~# ceph osd pool application get SM32  
    {  
       "rbd": {}  
    }

    Согласно этой схеме, нам нужно включить целевой пул для cephfs:

    Код:  
    ceph osd pool application enable {имя-пула} {имя-приложения}

    или

    ceph osd pool application set --pool=имя-пула --app=строка --key=строка --value=строка

    (обновлю эту ветку после того, как закончу миграцию пулов)

    СПРАВКА:  
    * https://docs.ceph.com/en/quincy/api/mon_command_api/#osd-pool-application-get
     
     
     
    FSNaval
    Guest
    #3
    0
    12.10.2025 07:58:00
    Выполнил команду для пула, который хочу добавить, с именем vmpool. При выполнении команды получил предупреждение: «RADOS pool 'vmpool' has another non-CephFS application enabled.» Попытался решить это командой: «ceph osd pool application enable vmpool cephfs», получил следующее предупреждение: «Are you SURE? Pool 'vmpool' already has an enabled application; pass --yes-i-really-mean-it to proceed anyway». Если я продолжу с этим предупреждением, знаешь ли ты, будет ли vmpool удалён или отформатирован? В этом пуле уже есть данные, и я не хочу их потерять.
     
     
     
    fba
    Guest
    #4
    0
    12.10.2025 10:34:00
    Итак, у вас есть пул rbd под названием vmpool, и теперь вы хотите положить CephFS в этот пул? Это не работает и, по крайней мере для меня, не имеет смысла. Хотели бы вы подробнее рассказать, чего именно хотите добиться?
     
     
     
    FSNaval
    Guest
    #5
    0
    13.10.2025 08:19:00
    Я сейчас в процессе перехода с Docker на Docker Swarm, чтобы лучше использовать ресурсы моего оборудования. Для этого я создал кластер Swarm и изучаю варианты общего хранилища для него. В моём кластере Proxmox сейчас есть два пула. Один пул сформирован исключительно из NVME-дисков и называется vmpool, а второй пул состоит только из HDD для хранения больших объёмов данных. Один из вариантов общего хранилища для Docker Swarm — это cephFS. Я хочу, чтобы cephFS использовал только vmpool (с быстрыми NVME-дисками) для лучшей производительности. Немного поискав и пообщавшись, я понял, что нужно создать третий пул для кластера Swarm, назовём его dockerpool, и именно на этот пул надо указывать cephFS. Надеюсь, теперь чуть понятнее, что я хочу сделать.
     
     
     
    readyspace
    Guest
    #6
    0
    13.10.2025 08:39:00
    Самый безопасный вариант: создать новую пустую пулу для CephFS.
     
     
     
    FSNaval
    Guest
    #7
    0
    13.10.2025 08:59:00
    Спасибо за ответ. Из того, что я прочитал до сих пор, я собираюсь сделать следующее. Создам новый пул с названием dockerswarm и назначу в него OSD для NVME-дисков. Я читал комментарии, что cephFS — не лучшее решение для кластера Docker Swarm, так как он для этого не предназначен. Можешь, пожалуйста, прокомментировать?
     
     
     
    readyspace
    Guest
    #8
    0
    13.10.2025 09:09:00
    CephFS работает, но он сильно загружен метаданными — отлично подходит для общих POSIX-файлов, но не идеален для интенсивных на запись рабочих нагрузок типа баз данных или контейнеров без тщательного подбора и настройки MDS. Чтобы не морочиться с настройками и снизить риски, я буду использовать RBD тома (быстрые, блочные).
     
     
     
    FSNaval
    Guest
    #9
    0
    13.10.2025 09:17:00
    Принял, спасибо. Как тогда мне реализовать ваше предложение? Самый простой способ — создать общую папку между виртуальными машинами docker swarm через NFS, но я читал, что у этого тоже есть проблемы с производительностью.
     
     
     
    readyspace
    Guest
    #10
    0
    13.10.2025 10:20:00
    Привет, @FSNaval, я пропустил, что ты используешь NVMe. Если это так, то использование пула CephFS на NVMe будет работать нормально даже при интенсивной работе с метаданными. Но всё равно я бы разделял контейнеры, которым нужен быстрый диск, чтобы они использовали RBD. Итак... Если нужны общие файлы (много контейнеров читают и пишут в одну и ту же папку), тогда да — используй CephFS на dockerswarm. Если же каждому контейнеру нужен просто свой быстрый диск (базы данных, логи, кэш и так далее), тогда лучше использовать RBD тома — тоже на dockerswarm, но без CephFS.
     
     
     
    FSNaval
    Guest
    #11
    0
    13.10.2025 10:27:00
    Спасибо! Выше описан мой случай использования, так как он похож на текущее состояние, с которым я работаю. Я считаю, что миграция с одного docker-узла на кластер docker swarm (с сохранением тех же файлов compose, правильно адаптированных для docker swarm) потребует меньше изменений в этих файлах.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры