Я в процессе развёртывания кластера, чтобы доказать программе офиса, что переход с почти голого железа к почти виртуальной среде – это верный путь. Внутри компании наш руководитель проекта согласен, но мне нужно это доказать, чтобы получить полное финансирование. Сейчас у меня 3 узла, собранные практически из мусорки: два имеют одинаковую конфигурацию процессора/памяти/SSD/GPU, а третий – очень отличается, но более мощный. Я буду использовать nvidia vgpu, так как многие физические системы требуют CUDA. Каждый узел имеет 6x 10gb nics, но работает на скорости 1gb по отдельности, некоторые находятся в конфигурации lacp для подключения к коммутатору. Мое понимание такова: если я хочу использовать ceph, чтобы доказать возможность переключения при отказе, узлы должны быть, по сути, одинаковыми – одинаковые процессоры, раскладка памяти, GPU, хранилище, верно? Есть ли способ обойтись без идентичных систем с ceph, установленным, просто чтобы продемонстрировать возможность переключения при отказе? Действительно ли ceph необходим, если есть интерес к использованию избыточных NAS для хранения VM? Мы переходим на оптоволокно, и руководитель проекта согласен с рекомендацией использовать двухпортовые оптоволоконные карты 100g для каждой системы, и я рекомендую, чтобы каждый NAS был основан на флэш-памяти. Не является ли ceph бесполезным при использовании конфигурации оптоволокно/флэш-NAS; будет ли переключение VM при отказе по-прежнему возможно? Или метод NAS — плохая идея? Если метод NAS приемлем, я предполагаю, что мне понадобятся только зеркалируемые загрузочные диски на каждом узле? Что касается кластеризации, есть ли какие-то подводные камни при использовании узлов с разным оборудованием? И для сетевого взаимодействия кластера; в данный момент, поскольку магистральная сеть в моей лаборатории всего 1gbe, на каждом узле я использую два из 10gb nics, напрямую соединяя узлы друг с другом: n1eth0 -> n2eth1, n2eth0 -> n3eth1, n3eth0 -> n1eth1. Ничего еще не настроено, просто PVE установлен на каждом узле. Это нормально? В идеале, у меня был бы коммутатор между ними, но поскольку мы переходим на оптоволокно, покупка кучи 10gb медных sfp-коннекторов — это пустая трата денег, поэтому прямое соединение — это единственный вариант на данный момент. Извините, если это всё хаотично; я вывалил это в том порядке, в каком мой мозг меня отпустил.
Размышления о кластере с точки зрения развития: Ceph, кластеризация, возможно, NAS-хранилище для ВМ., Proxmox Виртуальная Среда
|
13.06.2025 15:42:00
|
|
|
|
|
Читают тему
