Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Настройка 4TB Erasure Coded CephFS для нескольких приложений.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Настройка 4TB Erasure Coded CephFS для нескольких приложений., Proxmox Виртуальная Среда
     
    luckyMoon
    Guest
    #1
    0
    29.04.2025 23:51:00
    Привет, сообщество Proxmox! Ищу советы по оптимальному способу настройки Ceph File System (CephFS) в моем 3-узловом кластере Proxmox для хранения данных нескольких приложений: FileCloud, Paperless-ngx и Jellyfin. FileCloud в особенности нуждается в файловой системе с монтируемым путем, как локальный физический диск, поэтому я хочу использовать cephFS. Моя цель – добиться полезной емкости хранения около 4 ТБ, обеспечив при этом определенный уровень избыточности, используя имеющееся оборудование. У меня 3 узла в кластере, и на каждом узле есть отдельный 2 ТБ SATA SSD, выделенный для Ceph, что дает общий объем 6 ТБ. Насколько я понимаю, простое создание CephFS пула с репликацией в такой конфигурации, вероятно, даст только около 2 ТБ полезного пространства (при коэффициенте репликации 3 для хорошей избыточности). Поэтому я рассматриваю возможность использования Erasure Coded (EC) пула в качестве базового хранилища для моего CephFS. С 3-OSD конфигурацией (по одному SSD на узел) я думаю, что конфигурация k=2, m=1 может быть подходящей. Это, теоретически, должно дать мне примерно 4 ТБ полезного пространства, позволяя при этом не потерять данные при выходе из строя одного SSD. Мои вопросы: Возможно ли и рекомендуется ли использовать CephFS поверх Erasure Coded пула с 3 OSD (по одному на узел) в среде Proxmox? Есть ли какие-либо значительные последствия для производительности или стабильности, о которых мне следует знать? Какова правильная процедура в Proxmox (используя команды оболочки, такие как pveceph, или Web GUI) для создания CephFS, который использует существующий Erasure Coded пул? Я уже создал пул с профилем кодирования стирания k=2, m=1 и метаданными. Как я могу убедиться, что создаваемый мной CephFS использует объем и избыточность, предоставляемые Erasure Coded пулом, для достижения желаемых 4 ТБ полезного пространства? Буду очень благодарен за любые советы, лучшие практики или пошаговые инструкции о том, как добиться этой настройки. Я хочу убедиться, что я правильно настраиваю это для объема и безопасности данных. Заранее спасибо за помощь!
     
     
     
    alexskysilk
    Guest
    #2
    0
    30.04.2025 06:03:00
    Нет, на самом деле, позвольте мне перефразировать. Да чтоб его! И если тебе нужно понять, почему, поищи пост @UdoB о Ceph. Если бы я был тобой, я бы поставил эти три диска в один из своих нодов, добавил ещё один и сделал striped mirror zpool.
     
     
     
    luckyMoon
    Guest
    #3
    0
    30.04.2025 18:33:00
    Привет, alexskysilk! Спасибо за первоначальный ответ. Я понимаю твою точку зрения на распределение SSD. К сожалению, из-за аппаратных ограничений моего оборудования я использую три отдельных мини-ПК, каждый из которых имеет только одно доступное SATA-соединение для SSD. Я не могу распределить SSD иначе между узлами. Каждый 2ТБ SSD физически установлен в одном из трех отдельных узлов. Учитывая это аппаратное ограничение, я все еще ищу способ создать общий пул хранения из этих трех SSD, который мог бы предоставить точку монтирования (вроде локального диска) для приложений, таких как FileCloud, и при этом обеспечивать определенный уровень избыточности. Итак, мой последующий вопрос: учитывая мое аппаратное ограничение – один SSD на узел – есть ли альтернативный подход к CephFS, который позволил бы объединить эти три SSD в один том хранения, доступный по пути, желательно с некоторой степенью отказоустойчивости, сопоставимой с настройкой стирального кодирования? Может быть, существует другая распределенная файловая система или решение для хранения, которое лучше подойдет для этой конкретной конфигурации оборудования? Буду очень признателен за любые другие предложения или инсайты. Еще раз спасибо!
     
     
     
    alexskysilk
    Guest
    #4
    0
    30.04.2025 20:37:00
    Это как сказать: "Я хочу перенести тонну песка, но на велосипеде." Ваши рациональные варианты, учитывая наложенные ограничения, - это либо создать репликационную группу (несмотря на все предупреждения о плохой производительности, потенциальных проблемах и т. д.), ИЛИ использовать пару репликации ZFS (см. https://pve.proxmox.com/wiki/Storage_Replication). Это обеспечит почти отказоустойчивость для ваших ВМ. Для полезной нагрузки можно настроить их в активной/пассивной NFS - самый простой способ - это иметь оба сервера с отдельными общими папками, смонтированными через pvesm и вручную переключать использование по мере необходимости, хотя можно развернуть более автоматизированные методы (с помощью pacemaker и т. д.).

    Я уже слышу, как вы говорите, что это ужасное использование ваших ресурсов. На что я отвечаю: что заставило вас думать, что отказоустойчивость - это бесплатно? Она стоит только в 3 раза больше места для Ceph или в 2 раза больше для репликации ZFS. Отличная сделка, на мой взгляд.
     
     
     
    esrz
    Guest
    #5
    0
    12.05.2025 20:48:00
    Я совсем новенький в Proxmox, но можно создать пул EC и использовать его с cephfs (для данных, а не для метаданных). Создайте пул EC и убедитесь, что включены EC overwrites. Тогда можно создать файловую систему поверх этого. ИМХО, это можно использовать и в GUI Proxmox. Смотрите также документацию ceph: https://docs.ceph.com/en/latest/cephfs/createfs/
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры