Привет, хотел вас предупредить, что в CEPH Release Squid есть очень серьезный баг. Как только к CEPH кластеру версии Squid с Erasure Coded Pools добавляется новый OSD, он вскоре вылетает. Если добавить несколько OSD на разных хостах, то вылетающие OSD приводят к inactive PGs и, как следствие, к высокому воздействию на систему.
Проблема решается настройкой:
```
ceph config set osd bluestore_elastic_shared_blobs 0
```
Проблема затрагивает только OSD, созданные в Squid Release. (Можно выяснить с помощью: ```ceph osd metadata | grep -e "when_created" -e "osd"```)
К сожалению, эта настройка не поможет, если косяк уже случился. В худшем случае единственным способом восстановления останется остановка OSD, пауза кластера, ручная загрузка inactive PGs с проблемных OSD и импорт их в функционирующие, но остановленные OSD, а затем установка настройки и пересоздание багованных OSD.
С уважением.
Проблема решается настройкой:
```
ceph config set osd bluestore_elastic_shared_blobs 0
```
Проблема затрагивает только OSD, созданные в Squid Release. (Можно выяснить с помощью: ```ceph osd metadata | grep -e "when_created" -e "osd"```)
К сожалению, эта настройка не поможет, если косяк уже случился. В худшем случае единственным способом восстановления останется остановка OSD, пауза кластера, ручная загрузка inactive PGs с проблемных OSD и импорт их в функционирующие, но остановленные OSD, а затем установка настройки и пересоздание багованных OSD.
С уважением.
