У меня настроен кластер Ceph из 3 узлов, пока в нем нет данных. Есть два RBD пула: один – реплицированный пул, предназначенный только для SSD, а другой – пул с кодированием стиранием, использующий только вращающиеся диски. Пул с кодированием стиранием настроен на использование реплицированного пула для метаданных. Общий статус Ceph – Healthy-OK с 62 PG, которые указывают на Active+Clean (я понимаю это как здоровый статус для PG), однако 3 PG сообщают о статусе Active+Clean+Remapped. Все 13 OSD включены и работают. Из того, что я читал, ремаппинг может происходить время от времени, но ожидалось, что он разрешится до Active+Clean. Я оставил это на несколько дней, и для кластера без данных я ожидал, что статус remapped изменится к этому времени. Ищу рекомендации по устранению неполадок и исправлению того, что может вызывать статус +remapped, который не разрешается.
Переназначение групп размещения Ceph, Proxmox Виртуальная Среда
|
22.03.2025 19:50:00
|
|
|
|
|
|
23.03.2025 07:14:00
Извини, понятия не имею. Но вот тебе общая ссылка с некоторыми подсказками:
|
|
|
|
|
|
26.03.2025 22:31:00
Окей, прежде чем двигаться дальше: какие результаты вывода команд `ceph osd tree`, `ceph osd pool ls`, `ceph osd crush rule ls`?
|
|
|
|
|
|
26.03.2025 23:59:00
![]() |
|
|
|
|
|
27.03.2025 00:17:00
Скриншот из ceph osd pool ls, (не получается запустить ceph osd pool ls dump без ошибок, дайте знать, если нужно что-то подправить?).
![]() |
|
|
|
|
|
27.03.2025 18:24:00
Скорее всего, потому что условию правила, которое его определяет, невозможно удовлетворить.
|
|
|
|
|
|
28.03.2025 07:45:00
Кодирование стирания не применимо в таких маленьких кластерах. Чтобы это имело какой-то смысл, тебе нужно минимум 10 нод с достаточным количеством OSD.
|
|
|
|
|
|
28.03.2025 13:11:00
Спасибо, что уделили время, чтобы рассмотреть мои вопросы и предоставили дополнительное разъяснение. Я вернусь к началу, изучу ещё немного и пересмотрю подход.
|
||||
|
|
|
|||
Читают тему


