У меня есть кластер из 3 узлов, использующий Ceph, с следующей конфигурацией OSD: узел1: 3x 400GB SSD (465GB usable) 2x 4TB HDD (3.64TB usable) узел2: 3x 500GB SSD (465GB usable) 2x 4TB HDD (3.64TB usable) узел3: 3x 500GB SSD (465GB usable) 2x 3TB HDD (2.73TB usable) Я создал 2 пула на основе классов SSD и HDD с размером 3/2. ceph -df показывает следующее: Сырой ХРАНЕНИЕ: КЛАСС РАЗМЕР ДОСТУПНО ИСПОЛЬЗОВАНО СЫРОЕ ИСПОЛЬЗОВАНО % СЫРОГО ИСПОЛЬЗОВАНИЯ hdd 20 TiB 14 TiB 5.8 TiB 5.8 TiB 28.83 ssd 4.1 TiB 2.3 TiB 1.8 TiB 1.8 TiB 43.94 ВСЕГО 24 TiB 17 TiB 7.5 TiB 7.6 TiB 31.40 ПУЛЫ: ПУЛ ID ХРАНИТСЯ ОБЪЕКТЫ ИСПОЛЬЗОВАНО % ИСПОЛЬЗОВАНО МАКС ДОСТУПНО ceph-hdd 3 1.9 TiB 566.34k 5.8 TiB 32.89 3.9 TiB ceph-ssd 4 624 GiB 236.34k 1.8 TiB 50.86 589 GiB Глядя только на SSD-диски, 465GB x 9 дает 4185GB, что объясняет общий размер SSD 4.1TB, а % использования составляет 43.94%. Однако в пуле ceph-ssd % использования составляет 50.86%, и в GUI Proxmox он показывает, что использовано 75.61% для хранилища (1.79 TiB из 2.36 TiB). Почему есть разница в % использования? Также откуда взялась 2.36TB в GUI?
Понимание свободного места в Ceph, Proxmox Виртуальная Среда
|
02.09.2019 18:12:00
|
|
|
|
|
|
10.02.2020 11:41:00
Распределение PG кажется неравномерным. Лучше проверь еще раз количество своих PG.
|
|
|
|
|
|
10.02.2020 14:37:00
Целевая норма PG для OSD составляет 100. Для OSD будет выбрана следующая степень двойки. Да, теперь это выглядит гораздо лучше.
|
|
|
|
|
|
10.02.2020 17:03:00
Понимаю, ты прав. После добавления дополнительных 4 OSD мне нужно увеличить количество PG с 256 до 512.
|
||||
|
|
|
|||
Читают тему
