Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Используемое пространство на Ceph Storage

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Используемое пространство на Ceph Storage, Proxmox Виртуальная Среда
     
    aychprox
    Guest
    #1
    0
    18.12.2015 09:41:00
    Привет, я пытаюсь понять, как считается доступное пространство в Proxmox под Ceph-хранилищем. Я гуглил, но не нашел прямого ответа. Буду благодарен, если кто-то опытный подскажет, как рассчитать это доступное место. Я ссылался на https://forum.proxmox.com/threads/newbie-need-your-input.24176/page-2, но кажется, это отличается от примера, предоставленного Q-wulf. Текущая конфигурация: 4 узла, по 4 x 1TB OSD на каждом узле, 1 x 120GB SSD для журнала и 1 x 500GB HDD для ОС. Пул: Размер: 3 Минимум: 1 Pg_number: 1024 В сводке Ceph Storage: Тип: RBD Размер: 14.55TB Конфигурация Ceph: [global] auth client required = cephx auth cluster required = cephx auth service required = cephx cluster network = 10.50.51.0/24 filestore xattr use omap = true fsid = bf5d56ae-xxx-4db1-xxx-b11ddxxxcbd6a keyring = /etc/pve/priv/$cluster.$name.keyring osd journal size = 5120 osd pool default min size = 1 public network = 10.50.51.0/24 [osd] keyring = /var/lib/ceph/osd/ceph-$id/keyring osd max backfills = 1 osd recovery max active = 1 filestore flusher = false [mon.1] host = node2 mon addr = 10.50.51.16:6789 [mon.0] host = node1 mon addr = 10.50.51.15:6789 [mon.2] host = node3 mon addr = 10.50.51.17:6789 Правила карты Crush: # rules rule replicated_ruleset { ruleset 0 type replicated min_size 1 max_size 10 step take default step chooseleaf firstn 0 type host step emit }
     
     
     
    Q-wulf
    Guest
    #2
    0
    07.08.2017 19:47:00
    Прошло меньше 20 месяцев, всё нормально. Вопрос 1: Реплицированный пул? Вопрос 2: 8 OSD на узел? Вопрос 3: Один и тот же домен отказа? (Как в случае с хостом/узлом, а не OSD) Вопрос 4 (если Да на вопросы 1, 2 и 3): Установили ли вы size == 3 и min_size == 1 для указанного реплицированного пула? Это ваш единственный пул? Какие настройки у других пулов? Вопрос 5: Можете предоставить вывод команды "ceph -w" из одного из интерфейсов mon?
     
     
     
    fips
    Guest
    #3
    0
    10.08.2017 19:39:00
    Ну, я задал size = 3 и min = 2, у меня есть 2 пула под названием ceph-lxc и ceph-vm, они настроены точно так же, как показано в видео Proxmox. Вывод: Код: кластер c4d0e591-a919-4df0-8627-d2fda956f7ff
       здоровье HEALTH_OK
       monmap e3: 3 монитора на {0=172.30.3.21:6789/0,1=172.30.3.22:6789/0,2=172.30.3.23:6789/0}
              эпоха выборов 58, кворум 0,1,2 0,1,2
       osdmap e1964: 24 osd: 24 работают, 24 включены
              флаги sortbitwise, require_jewel_osds
        pgmap v679695: 1024 pg, 2 пула, 666 ГБ данных, 167 объектов
              1991 ГБ использовано, 1287 ГБ / 3279 ГБ доступно
                  1024 активно+чисто
    клиентский ввод-вывод 41109 B/s чтение, 430 kB/s запись, 5 операций/с чтение, 63 операций/с запись
     
     
     
    fabian
    Guest
    #4
    0
    11.08.2017 13:16:00
    У вас примерно 666 ГБ фактических (логических) данных, которые реплицируются 3 раза, что приводит к общему объему 1991 ГБ физически используемого пространства на ваших дисках OSD. 666 — это округленное значение, поэтому вы видите немного меньше ожидаемых 1998 ГБ. Логическое использование, как показывает Ceph, иногда выше, чем то, что видно с клиентской стороны, потому что Ceph разбивает ваши данные на объекты и считает их. Также восстановление через trim не всегда возвращает полное пространство, как это было бы на физическом устройстве.
     
     
     
    fips
    Guest
    #5
    0
    11.08.2017 16:36:00
    Спасибо, Фабиан, за отличное объяснение.
     
     
     
    fips
    Guest
    #6
    0
    05.08.2017 10:55:00
    Я поднимаю эту тему, но все равно не понимаю, как это считается: мой пул из 3 узлов имеет 24 диска по 136 ГБ, итого 3,2 ТБ пространства. Образы в пуле lxc занимают 178 ГБ, образы в пуле vm - 784 ГБ. Так почему говорится, что использование: 1,43 ТБ?? Даже если это считается дважды из-за репликации, то тогда должно быть 1,9 ТБ. Как-то это меня сбивает с толку...
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры