Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Критический баг в CEPH Squid: затронуты все кластеры с EC pools.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Критический баг в CEPH Squid: затронуты все кластеры с EC pools., Proxmox Виртуальная Среда
     
    qXt69WEV2a7fgbET
    Guest
    #1
    0
    08.04.2025 00:32:00
    Привет, хотел вас предупредить, что в CEPH Release Squid есть очень серьезный баг. https://tracker.ceph.com/issues/70390 Как только к CEPH кластеру версии Squid с Erasure Coded Pools добавляется новый OSD, он вскоре вылетает. Если добавить несколько OSD на разных хостах, то вылетающие OSD приводят к inactive PGs и, как следствие, к высокому воздействию на систему.

    Проблема решается настройкой:

    ```
    ceph config set osd bluestore_elastic_shared_blobs 0
    ```

    Проблема затрагивает только OSD, созданные в Squid Release. (Можно выяснить с помощью: ```ceph osd metadata | grep -e "when_created" -e "osd"```)

    К сожалению, эта настройка не поможет, если косяк уже случился. В худшем случае единственным способом восстановления останется остановка OSD, пауза кластера, ручная загрузка inactive PGs с проблемных OSD и импорт их в функционирующие, но остановленные OSD, а затем установка настройки и пересоздание багованных OSD.

    С уважением.
     
     
     
    UdoB
    Guest
    #2
    0
    08.04.2025 10:04:00
    Ох, ёлки! Я только что на выходных добавил два OSD. Только в домашней лаборатории, не на работе – но все равно неприятно. Я не совсем понимаю из бага, достаточно ли будет "out --> Stop --> Destroy" + пересоздание. Так что без твоей подсказки "приостановить кластер, вручную скачать неактивные PGs из OSD". Сейчас просто попробую сделать так… В любом случае: спасибо за совет! P.S. раньше такого краша еще не было.
     
     
     
    qXt69WEV2a7fgbET
    Guest
    #3
    0
    08.04.2025 13:36:00
    Точно, достаточно один раз установить настройку конфигурации заранее и затем убедиться, что все уже созданные в Squid OSDs пересозданы. Сбой чаще всего возникает, когда достаточно много данных из EC Pool было записано на OSDs.
     
     
     
    t.lamprecht
    Guest
    #4
    0
    08.04.2025 15:25:00
    Мы загрузили новый билд Ceph с версией 19.2.1-pve3, в котором опция bluestore_elastic_shared_blobs по умолчанию отключена, как и то, что upstream сейчас готовит для нового релиза.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры