Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Проблема восстановления ceph active+remapped+backfill_toofull.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Проблема восстановления ceph active+remapped+backfill_toofull., Proxmox Виртуальная Среда
     
    hbustos
    Guest
    #1
    0
    13.09.2024 05:23:00
    Привет, ребята! У меня недавно развернул кластер Proxmox с тремя серверами, 10G NIC-сеть через Aruba Switch, 11 OSD SSD (8 x 1.7T, 3 x 3.4T). Общий RAW-объем 24T, 12T используется в 6 VM. Один пул. Проблема в следующем: 9 pg в статусе active+remapped+backfill_toofull. Недостаточно места, препятствующее backfill (добавить хранилище, если это не решится само собой): 9 pg backfill_toofull pg 2.12 is active+remapped+backfill_toofull, acting [9,1,6] pg 2.2c is active+remapped+backfill_toofull, acting [9,7,2] pg 2.36 is active+remapped+backfill_toofull, acting [10,1,8] pg 2.39 is active+remapped+backfill_toofull, acting [9,6,2] pg 2.3f is active+remapped+backfill_toofull, acting [11,1,6] pg 2.5a is active+remapped+backfill_toofull, acting [11,6,2] pg 2.6e is active+remapped+backfill_toofull, acting [11,1,8] pg 2.71 is active+remapped+backfill_toofull, acting [11,8,2] pg 2.74 is active+remapped+backfill_toofull, acting [9,2,7] Вот вывод для, ceph df root@PVE12:~# ceph df --- RAW STORAGE --- CLASS    SIZE   AVAIL    USED  RAW USED  %RAW USED ssd    24 TiB  12 TiB  12 TiB    12 TiB      50.03 TOTAL  24 TiB  12 TiB  12 TiB    12 TiB      50.03 --- POOLS --- POOL                 ID  PGS   STORED  OBJECTS     USED  %USED  MAX AVAIL .mgr                  1    1  177 MiB       28  532 MiB   0.03    516 GiB SSD1                  2  128  4.3 TiB    1.19M   12 TiB  88.95    516 GiB .rgw.root             3   32  1.3 KiB        4   48 KiB      0    516 GiB default.rgw.log       4   32    242 B        2   32 KiB      0    516 GiB default.rgw.control   5   32      0 B        8      0 B      0    516 GiB default.rgw.meta      6   32      0 B        0      0 B      0    516 GiB root@PVE12:~# ceph osd df tree Процесс восстановления остановился, не доходит до очистки pg, проблема началась с неожиданными перезагрузками физических серверов из-за неисправного ИБП. Буду очень благодарен за любую помощь. : Спасибо, Heiber.
     
     
     
    gurubert
    Guest
    #2
    0
    27.09.2024 12:53:00
    Верни значение перевешивания для OSD обратно к 1.0.
     
     
     
    hbustos
    Guest
    #3
    0
    27.09.2024 17:33:00
    Спасибо за совет, я изменил вес только для одного OSD, OSD.0, установил в 1, и pg busy увеличилось, а % rebuild уменьшился до 84%. Это представляет проблему?
     
     
     
    gurubert
    Guest
    #4
    0
    27.09.2024 17:39:00
    Это потому, что данные будут перенесены с других OSD. Дайте Ceph время это сделать.
     
     
     
    hbustos
    Guest
    #5
    0
    27.09.2024 23:27:00
    Окей, спасибо. Процесс Recovery/Rebalance остановился, у нас 313003/2575892 объекта перемещены (12.151%). Это значение растет, когда я меняю вес crush для OSD на 1. Это нормально?
     
     
     
    guruevi
    Guest
    #6
    0
    28.09.2024 04:00:00
    Итак, исходя из результатов, у вас 14 ТБ на одном сервере и по 5 ТБ на каждом из остальных. С копиями 3 и доменом отказа, настроенным на хостинг, у вас всего 5 ТБ полезной емкости, а для копий 2 – всего около 7,5 ТБ, а не 12. Ceph просто размещает данные не сбалансированно на ваш “большой” сервер. Проблема в том, что вы потеряли способность к ребалансировке без добавления нового оборудования. Установка весов просто говорит Ceph, на каком узле разместить больше данных по сравнению с другими, обычно Ceph сам это определяет. Да, объекты перемещены, потому что они находятся в локациях, где при потере узла вы потеряете данные, но разместить их больше некуда. Установка весов «правильно» на 1 для каждого узла увеличит это число, это говорит вам, что делать: добавить больше дисков или узлов. Можно потенциально по одному удалять диски и перемещать их на другой хост, позволив Ceph перестроить, пока диски не станут сбалансированными, но если это профессиональная работа, то проще и безопаснее купить набор SSD и подключить их.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры