Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Ceph 19.2.0 не распределяет группы размещения (PG) равномерно между OSD.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Ceph 19.2.0 не распределяет группы размещения (PG) равномерно между OSD., Proxmox Виртуальная Среда
     
    michel.seicon
    Guest
    #1
    0
    31.03.2025 23:00:00
    Всем привет. Новая установка, все узлы с одинаковой аппаратной конфигурацией. Простая VM с Debian, и всё равно распространение происходит неравномерно. Это нормально?
     
     
     
    michel.seicon
    Guest
    #2
    0
    01.04.2025 01:13:00
    Я решил проблему с балансировкой, выполнив следующие команды. Просто не понял, почему Ceph напутал PGs прямо при установке.
    ```
    ceph osd getmap -o om
    osdmaptool om --upmap out.txt --upmap-pool ceph --upmap-max 4 --upmap-deviation 1 --upmap-active source out.txt
    ```
    Просто будь осторожен и запускай команды с выключенными ВМ.
     
     
     
    gurubert
    Guest
    #3
    0
    01.04.2025 08:44:00
    В таких маленьких кластерах с небольшим количеством PGs это не редкость. Алгоритм CRUSH просто не имеет достаточно данных для равномерного распределения. Вам следует увеличить количество PGs, чтобы их было хотя бы 100 на OSD.
     
     
     
    spirit
    Guest
    #4
    0
    01.04.2025 08:48:00
    Тебе нужно больше PG. Используй целевое соотношение = 1 в определении пула. Если у тебя нет данных, это заставит autoscaler увеличить количество PG. (Кажется, в ceph19 версии это 200 PG на OSD).
     
     
     
    Maximiliano
    Guest
    #5
    0
    01.04.2025 09:27:00
    Привет! Для кластера Ceph с одним пулом и 12 OSD, калькулятор групп размещения (PG) Ceph порекомендует 512 PG на этом пуле. Как сказал spirit, лучше всего установить целевое соотношение так, чтобы автоскейлер мог автоматически настроить оптимальное количество PG. [1] https://docs.ceph.com/en/latest/rados/operations/pgcalc/
     
     
     
    michel.seicon
    Guest
    #6
    0
    01.04.2025 16:57:00
    После того как я изменил целевое соотношение на 1, я установил target_max_misplaced_ratio в 0.01. PG перешел к 512, но не балансировщик.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры