Я поигрался с кластером из четырех нод, используя серверы, которые раньше были в гиперконвергентной настройке. У меня всё работало в основной сети, и производительность была довольно низкой. Потом я добавил 1G-коммутатор для ceph_cluster, и производительность улучшилась примерно в два раза. Затем я добавил 4-портовые sfp+ сетевые карты в каждый из четырех нод, подключив по одному кабелю от каждой ноды к 10G-коммутатору. Это улучшило производительность более чем в десять раз. После этого я решил попробовать перенести ceph_public на тот же 10G-порт с ceph_cluster, и производительность вернулась к тому, что было при подключении ко всему через 1G. С тех пор я отделил ceph_public и ceph_cluster в разные подсети, подключив их к двум разным 10G-коммутаторам, но производительность так и не вернулась к прежнему уровню, а скорее даже упала. Все OSD были перезапущены, потом я перезапустил ceph.target на каждой ноде, потом перезапустил все ноды целиком. Улучшений после разделения на два разных 10G-коммутатора не последовало. Не знаю, чего я не хватает. Мы также довольно регулярно используем хранилище на серверах, поэтому не хочу выбрасывать всё и начинать заново, если это не обязательно. На форумах видел, что некоторые предлагают переключить MTU со стандартного 1500 до 9000, но странно, что у меня была конфигурация, где всё работало нормально, а теперь, когда всё на сети с большей пропускной способностью, производительность резко упала. Текущая конфигурация: Основная сеть передается через 1G-коммутатор к каждой ноде. - 192.168.30.0/24 10G-коммутатор к одному порту на каждой из нод для ceph_public - 10.0.1.0/24 отдельный 10G-коммутатор к каждой из нод для ceph_cluster - 10.0.0.0/24
Настройка сети Proxmox с Ceph, Proxmox Виртуальная Среда
|
12.03.2025 20:55:00
|
|
|
|
|
Читают тему

Я судил о производительности в целом по Ceph Reads/Writes. Сейчас они примерно 1-3 MiBs на чтение и 0.5-2 MiBs на запись, что самое медленное, что было. Когда я перенёс кластер на отдельный "тупой" 1g-коммутатор, он работал примерно на 8-10 в обе стороны, а когда переключил на 10g — примерно на 40-50. Хотелось бы, чтобы всё работало плавно, прежде чем пытаться объединять коммутаторы. Сейчас они работают с настройками по умолчанию. Когда я делаю тест на чтение/запись 4 ГБ на одной из виртуальных машин, получаю 1.52 ГБ/с на запись и 2.87 ГБ/с на чтение, но навигация по папкам или перемещение файлов соответствует скоростям чтения/записи Ceph.