У меня немного необычная конфигурация, но, думаю, ничего критичного. У меня по 2 OSD (HDD) на каждый DB/WAL устройство. DB — это SSD, а WAL — крошечный Optane. Это на трехузловом кластере с erasure encoding и пользовательским алгоритмом балансировки (который я сам придумал). Ну, с "необычностью" разобрались. После обновления до Ceph Reef (не сразу, примерно через два дня) я стал получать это предупреждение: Код: 4 OSD переживают BlueFS spillover. Детали состояния Ceph показывают: Код: [WRN] BLUEFS_SPILLOVER: 4 OSD переживают BlueFS spillover.
osd.3 пролило 3.2 GiB метаданных с устройства 'db' (используется 19 GiB из 45 GiB) на медленное устройство.
osd.4 пролило 4.3 GiB метаданных с устройства 'db' (используется 19 GiB из 45 GiB) на медленное устройство.
osd.5 пролило 3.1 GiB метаданных с устройства 'db' (используется 20 GiB из 45 GiB) на медленное устройство.
osd.6 пролило 4.5 GiB метаданных с устройства 'db' (используется 18 GiB из 45 GiB) на медленное устройство. Отмечу, что объем пролитых данных очень мал по сравнению с размером DB и их свободным пространством (у каждого более 50% свободно). Я проверил bluestore_max_alloc_size, он установлен в 0 на всех OSD.... Какие идеи? Что стоит проверить?
osd.3 пролило 3.2 GiB метаданных с устройства 'db' (используется 19 GiB из 45 GiB) на медленное устройство.
osd.4 пролило 4.3 GiB метаданных с устройства 'db' (используется 19 GiB из 45 GiB) на медленное устройство.
osd.5 пролило 3.1 GiB метаданных с устройства 'db' (используется 20 GiB из 45 GiB) на медленное устройство.
osd.6 пролило 4.5 GiB метаданных с устройства 'db' (используется 18 GiB из 45 GiB) на медленное устройство. Отмечу, что объем пролитых данных очень мал по сравнению с размером DB и их свободным пространством (у каждого более 50% свободно). Я проверил bluestore_max_alloc_size, он установлен в 0 на всех OSD.... Какие идеи? Что стоит проверить?
