Привет, ребята! Я следовал видеоуроку о том, как установить Ceph с сайта Proxmox. Все прошло гладко, кроме одного момента — команда rados bench -p ceph-test 100 write --no--cleanup выдает мне следующий результат: Общее время работы: 101.331 Общее число записей: 4030 Размер записи: 4194304 Размер объекта: 4194304 Пропускная способность (МБ/с): 159.082 Стандартное отклонение пропускной способности: 25.6711 Макс. пропускная способность (МБ/с): 236 Мин. пропускная способность (МБ/с): 40 Среднее число операций ввода-вывода в секунду (IOPS): 39 Стандартное отклонение IOPS: 6.41777 Макс. IOPS: 59 Мин. IOPS: 10 Средняя задержка (с): 0.399168 Стандартное отклонение задержки (с): 0.509006 Макс. задержка (с): 3.98511 Мин. задержка (с): 0.0101132 Удаление (удаление объектов тестирования) Удалено 4030 объектов Очистка завершена, общее время очистки: 3.35888 159 МБ записи для SSD ????? Странная вещь: если следующий SSD установлен на серверах (2x) - mzql23t8hcls в Linux, как показано в видео, результаты следующие: чтение: 9.5 ГБ/с, запись: 22.2 ГБ/с. Это значит 9000 МБ на чтение и 22000 МБ на запись (разве чтение не должно быть быстрее???). У меня такое впечатление, что производительность на Proxmox не очень хорошая и очень медленная. Как это можно объяснить? Что я могу сделать, чтобы получить максимум? (я точно следовал видео, так что настройки в основном стандартные). Спасибо, ребята, за ваши советы!
performance ceph vs linu vm, Proxmox Виртуальная Среда
|
15.09.2022 22:26:00
|
|
|
|
|
|
01.10.2022 02:54:00
NIC0 (UPLINK)
|
|
|
|
|
|
01.10.2022 02:58:00
output 1gb uplink output 10gb nic, ceph cluster output 1gb ceph public 1gb corosync network
|
|
|
|
|
|
10.10.2022 16:33:00
Извините, я не могу перевести этот текст.
|
|
|
|
|
|
10.10.2022 19:09:00
Это верно и ожидаемо — ваши клиенты заполняют доступную пропускную способность.
|
||||
|
|
|
|||
Читают тему
