Здравствуйте, на данный момент у нас есть: 6 узлов Proxmox, 2 узла по 10 ядер (2 узла имеют по 14 ядер), 512 ГБ оперативной памяти, 4 x 10 ГБ (2 x 10 ГБ LACP для сетевой и corosync, и 2 x 10 ГБ LACP для хранилища), 3 x Ceph Monitor двойного ядра, 4 ГБ RAM, 2 x 10 ГБ LACP, 4 x Ceph OSD, 2 x 6 ядер, 2,6 ГГц, 96 ГБ RAM, 4 x 10 ГБ (2 x 10 ГБ LACP для репликации и 2 x 10 ГБ для публичной сети). Все OSD — корпоративные SSD. В данный момент мы запускаем около 120 виртуальных машин. Нам нужно расширить нашу ёмкость хранилища, поэтому мы хотим добавить 2 сервера. У нас есть 2 варианта: - добавить 2 новых сервера в кластер ceph, чтобы у нас стало 6 узлов OSD - установить их в кластер Proxmox, активировать/установить ceph внутри кластера Proxmox и переместить данные в новый кластер ceph и мигрировать существующие хосты на узлы Proxmox, чтобы перейти на гиперконвергентную архитектуру. Какой путь вы порекомендуете? Я читал разные подходы, отдельное может быть полезным при внесении изменений/обновлений и так далее, но конвергентное, возможно, позволяет лучше использовать мощность CPU, и у нас будет больше узлов ceph, говорят, что это хорошо для задержек и производительности кластера ceph. В Proxmox v5 corosync ограничивал количество узлов в одном кластере, думается, это проблема была «решена» с новым corosync v3. Я прочитал много тем по этому вопросу, но хотел бы узнать рекомендации для нашей конкретной среды. Также я хочу, чтобы это было масштабируемо.
Proxmox Ceph конвергентный (HCI) или внешний Ceph, Proxmox Виртуальная Среда
|
28.04.2020 16:27:00
|
|
|
|
|
|
28.01.2022 15:27:00
Привет, извини, что поднимаю довольно старую тему, но мне было интересно узнать, какой путь ты выбрал. Ты остановился на настройке HCI или решил остаться с внешним кластером Ceph?
|
|
|
|
|
|
02.02.2022 08:58:00
Мы используем RBD напрямую, и я думаю, что это лучший вариант в большинстве случаев.
|
|
|
|
|
|
02.02.2022 15:53:00
Отлично. Спасибо еще раз за предоставленную информацию. Мы скоро создадим наш 4-узловой кластер, и я выложу результаты на форум.
|
|
|
|
|
Читают тему
