Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Proxmox GlusterFS тесты производительности

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Proxmox GlusterFS тесты производительности, Proxmox Виртуальная Среда
     
    ricardoj
    Guest
    #1
    0
    05.07.2019 17:07:00
    Привет, это сообщение, чтобы узнать, может кто-то поделиться опытом работы с Gluster в качестве общих хранилищ Proxmox. Я решил попробовать GlusterFS, и производительность была очень плохой в начале. У меня есть только одна среда для тестирования, поэтому все испытания проходят на одних и тех же машинах, я просто меняю конфигурации. Есть 4 физических машины: 2 узла Proxmox и 2 NAS PVE-01 PVE-02 NAS-01 NAS-02. Обычно я запускаю ВМ на NAS-02, который новее и быстрее, а NAS-01, который старый и медленный, используется как сервер резервного копирования. Оба NAS работают на OMV (Open Media Vault 4.X), настроенном для предоставления NFS и CIFS. PVE-01 и PVE-02 подключены к NAS-02 по NFS, и производительность ВМ хорошая. Я установил GlusterFS на оба NAS и настроил его как реплицированный (это было очень легко). Существует отдельная сеть с включенными jumbo frames для связи между NAS-01 и NAS-02 для трафика "brick" Gluster. Я знаю, что нет третьего узла (арбитра), но это тестовая среда в локальной сети. На следующем этапе я настраиваю хранилище Gluster с PVE-01 Datacenter и восстанавливаю резервную копию ВМ в это хранилище Gluster. ВМ работает, но очень медленно. После дополнительных тестов я решил изменить конфигурацию NAS и создал NFS OMV на "локальном" GlusterFS на NAS-01. Я удалил конфигурацию Gluster из PVE-01 Datacenter и создал хранилище NFS, указывающее на NAS-02. Снова восстановил запасную копию ВМ, и она работает так же быстро, как и предыдущее расшаривание NFS, получая доступ к локальным дискам. Затем я снова решил протестировать хранилище Gluster из PVE-01 Datacenter, и производительность была действительно плохой. Я вернулся к GlusterFS через NFS (не NFS Ganesha), так как я запускаю OMV NFS, и производительность вернулась в норму. Может кто-то прокомментировать или помочь понять, что еще можно сделать для диагностики причин медленного соединения клиента GlusterFS? Прямое соединение с использованием gluster-client должно быть быстрее или на уровне NFS соединения. Очень важный момент: я использую GlusterFS версии 6.3.1 и обновил gluster-client и gluster-common на обоих узлах PVE. Так что, когда я создал хранилище Gluster из PVE-01 Datacenter, оно работало на новой версии gluster-client. По умолчанию PVE использует версию 3.8.8 для gluster-client, которая несовместима с версией gluster-server 6.3.1. Также важно отметить, что я всегда проверял, что файлы были созданы в glusterfs. Это верно как для прямого соединения PVE, так и для соединения PVE NFS. =============================== GlusterFS использует шарды root@nas-02:~# gluster volume info Volume Name: gluster01 Type: Replicate Volume ID: c82432fc-41ec-422f-8898-9b9fa3ce3b3f Status: Started Snapshot Count: 0 Number of Bricks: 1 x 2 = 2 Transport-type: tcp Bricks: Brick1: gpeer-01.XYZ Brick2: gpeer-02.XYZ Options Reconfigured: features.shard-block-size: 32MB features.shard: enable client.event-threads: 2 transport.address-family: inet nfs.disable: on performance.client-io-threads: on =============================== =============================== Это команда монтирования, используемая OMV (пакет удаленного монтирования) для доступа к Gluster на локальном узле gpeer-02:/gluster01 на /srv/9733531f-71aa-42d1-b456-0d00e9942a89 type fuse.glusterfs (rw,relatime,user_id=0,group_id=0,allow_other,max_read=131072,_netdev) =============================== Спасибо за ваше время и внимание к этому. Ссылки: https://access.redhat.com/documenta...ration_guide/sect-creating_replicated_volumes https://www.linux-kvm.org/images/5/51/03x04-Martin_Sivak-oVirt_and_gluster_hyperconverged.pdf https://lenovopress.com/lp1148.pdf С уважением, Рикардо Хорхе Я никоим образом не связан с какими-либо компаниями и/или проектами, упомянутыми в этом сообщении.
     
     
     
    DANILO MONTAGNA
    Guest
    #2
    0
    03.12.2019 02:39:00
    Я использовал GlusterFS в прошлом году в одном из наших кластеров OpenStack, производительность неплохая, пока нет проблем с любым из узлов. Мой опыт подсказывает, что если вы собираетесь использовать GlusterFS с большими RAW файлами, будьте готовы, что у вас закипит мозг, когда на одном из ваших узлов GlusterFS произойдет восстановление файла. Это может занять ДНИ в зависимости от количества виртуальных машин и размера образов дисков гостей, которые нужно восстановить после разногласия или сбоя узла. Также не используйте никакие сетевые файловые хранилища, если у вас нет надежной сети (10 Гбит или быстрее). Если бы я мог дать вам совет... я бы сказал, переходите на файловую систему БЛОКового хранилища, например, CEPH RDB.
     
     
     
    Dominic
    Guest
    #3
    0
    29.11.2019 09:23:00
    Есть обсуждения производительности Gluster в списке рассылки gluster-users, которые могут быть интересными: Насчет версии 3.8 по сравнению с новыми версиями Насчет NFS-Ganesha
     
     
     
    ricardoj
    Guest
    #4
    0
    29.11.2019 13:15:00
    Привет, спасибо @Dominic за обновление. По крайней мере для меня способ, которым GlusterFS "балансирует" узлы, слишком медленный, чтобы использовать его как онлайн-накопитель. Для резервного копирования виртуальных машин и других нужд это хорошая цена / уровень безопасности, особенно если учитывать удаленные узлы (географически распределенные узлы). Также его легко настраивать, обслуживать и обновлять. С уважением, Рикардо Хорхе
     
     
     
    Dominic
    Guest
    #5
    0
    02.12.2019 09:57:00
    Вы уже пробовали Ceph? Мы проводили с ним бенчмарк недавно.
     
     
     
    ricardoj
    Guest
    #6
    0
    02.12.2019 12:04:00
    Привет, думаю, Ceph может быть вариантом, но требования к оборудованию в данный момент мне не по карману. С уважением, Рикардо Хорге.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры