Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Ceph OSD на LVM логическом томе.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Ceph OSD на LVM логическом томе., Proxmox Виртуальная Среда
     
    kwinz
    Guest
    #1
    0
    18.04.2020 13:33:00
    Привет! Я знаю, что это не рекомендуется с точки зрения производительности. Но я хочу создать Ceph OSD на узле только с одним NVMe SSD. Поэтому я оставил немного свободного места на SSD во время установки. И затем создал новый логический том с помощью `lvcreate -n vz -V 10G pve`. Однако этот том не отображается при попытке создать новый OSD через GUI: [edit] pveceph osd create /dev/mapper/pve-vz выдаёт: unable to get device info for ' /dev/dm-2 ' [edit2]: Я попробую ceph-disk согласно https://forum.proxmox.com/threads/pveceph-unable-to-get-device-info.44927/#post-238545 Как добавить новый OSD без выделенного диска для него?
     
     
     
    Alwin
    Guest
    #2
    0
    20.04.2020 10:40:00
    Посмотрите документацию Ceph. https://docs.ceph.com/docs/nautilus/rados/operations/add-or-rm-osds/
     
     
     
    kwinz
    Guest
    #3
    0
    22.04.2020 11:44:00
    Итак, вот моя небольшая инструкция для всех, кто хочет это сделать:

    1. Во время установки установите maxvz в 0, чтобы не создавать локальное хранилище и оставить свободное место для Ceph на диске ОС. [GUIDE, 2.3.1 Дополнительные параметры конфигурации LVM]
    2. Настройте Proxmox как обычно и создайте кластер.
    3. Установите Ceph-пакеты и выполните первоначальную настройку (интерфейсы сети и т.д.) через GUI, а также создайте Managers и Monitors.
    4. Чтобы создать OSD, откройте оболочку на каждом узле и:
      4.a. Запустите bootstrap auth: `ceph auth get client.bootstrap-osd > /var/lib/ceph/bootstrap-osd/ceph.keyring`
      4.b. Создайте новый логический том с оставшимся свободным местом: `lvcreate -l 100%FREE -n pve/vz`
      4.c. Создайте (= подготовьте и активируйте) логический том для OSD [2] [3] `ceph-volume lvm create --data pve/vz`
    5. Всё. Теперь вы можете продолжать использовать GUI для: создания Metadata servers, нажимая на узел в кластере в "Ceph", создания CephFS. А затем добавьте в "Datacenter-Storage" для CD-образов и резервных копий. Это будет смонтировано в /mnt/pve/cephfs/ и в "Datacenter-Storage" добавьте блочное устройство "RDS" для виртуальных HDD виртуальных машин. [GUIDE] https://pve.proxmox.com/pve-docs/pve-admin-guide.pdf [2] https://docs.ceph.com/docs/master/ceph-volume/lvm/create/#ceph-volume-lvm-create [3] https://docs.ceph.com/docs/master/ceph-volume/ [4] https://forum.proxmox.com/threads/p...ble-to-create-a-new-osd-id.55730/#post-257533
     
     
     
    Jacco
    Guest
    #4
    0
    22.09.2024 19:51:00
    Пытался выполнить эти шаги с Proxmox VE 8.2.5 и Ceph 18.2.2. Моя кластерная конфигурация: 6 x proxmox-node, узлы 1+2+3 — ceph-monitor и ceph-manager. При попытке добавить OSD на узлах 4+5+6 возникает ошибка. Эти узлы будут предоставлять OSD, но не являются мониторами и/или менеджерами.

    Bash: root@proxmox05:# ceph-volume lvm create --data pve/vz
    Выполняется команда: /usr/bin/ceph-authtool --gen-print-key
    --> RuntimeError: Не удалось загрузить действительный файл конфигурации ceph. Причина проблемы в том, что отсутствует символическая ссылка в /etc/ceph/ceph.conf. Это можно исправить, добавив её вручную (между шагами 3 и 4 в процедуре).

    Bash: ln -s /etc/pve/ceph.conf /etc/ceph/ceph.conf
     
     
     
    maxermaxer
    Guest
    #5
    0
    19.03.2025 22:43:00
    Спасибо! Я последовал этому руководству, и оно хорошее. Я использую Proxmox 8.3.5. Хочу добавить, что в последнем пункте: в разделе "Datacenter-Storage" нужно добавить блочное устройство "RDS" для виртуальных дисков ВМ. Хочу добавить, что в последнем пункте: в Proxmox 8.3.5, похоже, нет "RDS" в меню "Add". Я на самом деле сделал следующее:
    1.  Нажал на один из узлов.
    2.  Ceph - Pools.
    3.  Создал: Cephpool.

    И тогда у меня есть пул хранения для сохранения ВМ. Надеюсь, это поможет тем, кто хочет реализовать это в 2025 году.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры