Возможно ли следующее оборудование с Ceph Jewel? 4 узла в кластере Proxmox/Ceph: 2 узла для хранения, на которых также работают тестовые ВМ: --> 2 узла (128 ГБ ОЗУ, 8-ядерный процессор) с 13 OSD, каждый по 6 ТБ, MON на тех же дисках 2 узла, выделенные под ВМ --> 2 узла (265 ГБ ОЗУ, 8-ядерный процессор) без OSD, но с MON, работающим на локальном SSD (GPT) хранилище Это оставляет нам 4 MON, 2 из которых на SSD и 26 OSD, распределённых по 2 узлам для хранения. - Все узлы имеют дополнительные сетевые карты на 10 Гбит, выделенные для ceph и коммуникации в кластере (через VLAN). - Публичная коммуникация происходит через сетевые карты на 1 Гбит. Если я правильно понимаю избыточность данных в Ceph (реплику), она может быть установлена на 2 вместо стандартных 3, и если один из узлов для хранения выйдет из строя, Ceph всё ещё должен работать, даже если нагрузка будет выше, верно? Сколько OSD может быть отсутствующим/повреждённым на каждом узле перед падением кластера, если реплика установлена на 2? Сколько OSD может быть отсутствующим/повреждённым на каждом узле перед падением кластера, если реплика установлена на 3? Спасибо за помощь!
Proxmox Ceph 10G настройка, Proxmox Виртуальная Среда
|
22.01.2017 14:52:00
|
|
|
|
|
|
08.02.2017 05:34:00
При условии, что вы не используете krbd, а просто используете встроенный драйвер KVM RBD. Также будьте внимательны к недостатку оперативной памяти во время восстановления OSD.
|
|
|
|
|
|
10.02.2017 17:50:00
Привет, очень интересно! У тебя есть какие-нибудь документы об этом? KRBD требует гораздо меньше мощности ЦП - разве это не имеет значения? Привет, Маркус
|
|
|
|
|
Читают тему
