Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Ceph действительно (!) медленный.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Ceph действительно (!) медленный., Proxmox Виртуальная Среда
     
    richinbg
    Guest
    #1
    0
    12.04.2018 14:39:00
    Привет, у нас здесь работают Proxmox 5.1 с Ceph, и у нас серьезные проблемы с производительностью. Вот результаты теста rados на нашем кластере: Код: 1 root@XXXX~ # rados bench -p ceph-vm 10 write подсказки = 1 Поддерживаем 16 параллельных записей по 4194304 байта в объекты размером 4194304 на протяжении до 10 секунд или 0 объектов Префикс объектов: benchmark_data_XXXX_1506844 сек Текущие операции начато завершено средняя пропускная способность (МБ/с) текущая (МБ/с) последняя задержка (с) средняя задержка (с) 0 0 0 0 0 0 - 0 1 16 44 28 111.991 112 0.214861 0.252659 2 16 59 43 85.9884 60 0.193858 0.23163 3 16 81 65 86.6555 88 0.34684 0.510268 4 16 94 78 77.99 52 0.147488 0.515977 5 16 105 89 71.191 44 0.146993 0.533072 6 16 138 122 81.3236 132 0.590707 0.704277 7 16 174 158 90.2751 144 0.300035 0.664261 8 16 191 175 87.4896 68 0.211359 0.620998 9 16 196 180 79.9903 20 0.145171 0.631462 10 16 233 217 86.7891 148 0.312222 0.683847 11 15 233 218 79.2631 4 0.14334 0.681367 Общее время работы: 11.421283 Всего записей: 233 Размер записи: 4194304 Размер объекта: 4194304 Пропускная способность (МБ/с): 81.602 Стандартное отклонение пропускной способности: 49.5037 Максимальная пропускная способность (МБ/с): 148 Минимальная пропускная способность (МБ/с): 4 Средние IOPS: 20 Стандартное отклонение IOPS: 12 Максимальные IOPS: 37 Минимальные IOPS: 1 Средняя задержка (с): 0.770668 Стандартное отклонение задержки (с): 0.988464 Максимальная задержка (с): 5.16979 Минимальная задержка (с): 0.0893201 Удаление объектов для теста Удалено 233 объекта Очистка завершена, общее время очистки: 3.920963

    Мы используем диски 3.5'' HDD на 8TB: WDC WD80EFZX-68UW8N0

    Сетевая связь между серверами работает на 10G:

    ------------------------------------------------------------
    Клиент подключается к 172.16.0.1, TCP порт 5001
    Размер окна TCP: 85.0 КБ (по умолчанию)
    ------------------------------------------------------------
    [ 3] локальный 172.16.0.2 порт 43056 подключен к 172.16.0.1 порт 5001
    [ ID] Интервал Передача Пропускная способность
    [ 3] 0.0-10.0 сек 10.9 ГБ 9.37 Гбит/сек (это сеть ceph) Есть ли советы по проверке/изменению? Мы используем ceph таким образом: размер 3/2, pg_num 256 Код: [global] auth client required = cephx auth cluster required = cephx auth service required = cephx cluster network = 172.16.0.0/24 filestore xattr use omap = true fsid = 217d7725-6ad8-4958-9ed6-94a39cd62482 keyring = /etc/pve/priv/$cluster.$name.keyring osd journal size = 5120 osd pool default min size = 1 public network = 172.16.0.0/24 osd_max_object_name_len = 256 osd_max_object_namespace_len = 64 mon allow pool delete = true

    [osd] keyring = /var/lib/ceph/osd/ceph-$id/keyring

    [mon.0] host = XXXX mon addr = 172.16.0.1:6789

    [mon.1] host = XXXXX mon addr = 172.16.0.2:6789

    [mon.2] host = XXXXX mon addr = 172.16.0.3:6789

    #

    [mds] mds data = /var/lib/ceph/mds/mds.$id keyring = /var/lib/ceph/mds/mds.$id/mds.$id.keyring

    [mds.0] host = 172.16.0.1 Код: # начало карты crush tunable choose_local_tries 0 tunable choose_local_fallback_tries 0 tunable choose_total_tries 50 tunable chooseleaf_descend_once 1 tunable chooseleaf_vary_r 1 tunable chooseleaf_stable 1 tunable straw_calc_version 1 tunable allowed_bucket_algs 54

    # устройства device 1 osd.1 class hdd device 2 osd.2 class hdd device 3 osd.3 class hdd device 4 osd.4 class hdd device 5 osd.5 class hdd device 6 osd.6 class hdd device 7 osd.7 class hdd device 8 osd.8 class hdd device 9 osd.9 class hdd device 10 osd.10 class hdd device 11 osd.11 class hdd device 12 osd.12 class hdd device 13 osd.13 class hdd device 14 osd.14 class hdd device 15 osd.15 class hdd

    # типы type 0 osd type 1 host type 2 chassis type 3 rack type 4 row type 5 pdu type 6 pod type 7 room type 8 datacenter type 9 region type 10 root

    # корзины host XXXXXX{ id -2 # не меняйте без необходимости id -5 class hdd # не меняйте без необходимости # weight 36.361 alg straw hash 0 # rjenkins1 item osd.2 weight 7.271 item osd.3 weight 7.271 item osd.4 weight 7.271 item osd.5 weight 7.271 item osd.1 weight 7.277 } host XXXXXX{ id -3 # не меняйте без необходимости id -6 class hdd # не меняйте без необходимости # weight 36.355 alg straw hash 0 # rjenkins1 item osd.6 weight 7.271 item osd.7 weight 7.271 item osd.8 weight 7.271 item osd.9 weight 7.271 item osd.10 weight 7.271 } host XXXXXXXXXXXXXX{ id -4 # не меняйте без необходимости id -7 class hdd # не меняйте без необходимости # weight 36.355 alg straw hash 0 # rjenkins1 item osd.11 weight 7.271 item osd.12 weight 7.271 item osd.13 weight 7.271 item osd.14 weight 7.271 item osd.15 weight 7.271 } root default { id -1 # не меняйте без необходимости id -8 class hdd # не меняйте без необходимости # weight 109.067 alg straw hash 0 # rjenkins1 item XXXX weight 36.361 item XXXX weight 36.353 item XXXX weight 36.353 }

    # правила rule replicated_ruleset { id 0 type replicated min_size 1 max_size 10 step take default step chooseleaf firstn 0 type host step emit }

    # конец карты crush Спасибо за любые мысли и помощь!
     
     
     
    richinbg
    Guest
    #2
    0
    16.02.2019 15:52:00
    Привет, я хотел бы поднять эту тему снова. Мне все еще тяжело, так как я новичок в proxmox/ceph и пока что у меня нет тестовой среды, чтобы просто попробовать что-то. Я также унаследовал систему, что не упрощает事情, но это не должно меня останавливать. Я заметил, что даже балансировка ceph не была активирована и настроена. Я обнаружил это недавно и исправил. Proxmox/Ceph был установлен путем добавления пакетов из установки Debian, так что, возможно, есть еще причины, по которым это не работает как ожидалось :-/ Было бы прекрасно, если бы кто-то мог подсказать мне или указать на советы и области, которые мне следует проверить. В "худшем" случае, поскольку мне просто не верится, что скорости дисков сейчас нормальные, я пройдусь по каждой конфигурации сам, но, возможно, у кого-то есть время, чтобы подсказать мне и сэкономить время. Спасибо!
     
     
     
    sb-jw
    Guest
    #3
    0
    16.02.2019 19:41:00
    Пожалуйста, сначала разместите свою детальную конфигурацию оборудования.
     
     
     
    richinbg
    Guest
    #4
    0
    18.02.2019 09:33:00
    Здравствуйте, это три сервера Dell PowerEdge R530, каждый из которых оснащен: 2x Intel® Xeon® CPU E5-2630 v4 @ 2.20GHz, 8x DUAL IN-LINE MEMORY MODULE, 16GB, 2400, 2RX8, 8G, DDR4, R, две сетевые порты 10G, RAID1 SSD на 700GB для хост-системы (Proxmox) и 5x 8TB wd80efzx (Western Digital RED) для Ceph. Все подключения идут через 10G коммутатор, а затем одно соединение осуществляется с помощью 1G коммутатора к нашим другим 1G коммутаторам, которые соединяют клиентов с серверами. Вам нужны дополнительные детали? Спасибо.
     
     
     
    alexskysilk
    Guest
    #5
    0
    18.02.2019 20:22:00
    Помещение вашего blocks.db на более быстрый носитель поможет, но, честно говоря, вам нужны более быстрые (и более) OSD. Также три узла считаются приемлемыми для лаборатории, но не для производства.
     
     
     
    richinbg
    Guest
    #6
    0
    19.02.2019 14:30:00
    Хорошо, это не тот ответ, который я искал, но все же ответ.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры