Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    ZFS плохая производительность

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    ZFS плохая производительность, Proxmox Виртуальная Среда
     
    PretoX
    Guest
    #1
    0
    06.09.2017 07:38:00
    Всем привет, вот несколько тестов, может кто-то сможет объяснить, как сделать ZFS быстрее: конфигурация тестового сервера: CPU: 32 x Intel® Xeon® CPU E5-2665 0 @ 2.40GHz (2 сокета) RAM: 128 Гб 2x1Tb корпоративных SSD: разделы rootfs + кэш + zil (sda3 и sdb2) для ZFS 2x2Tb гибридных SHDD P710H мини встраиваемых (2 Гб кэш) Конфигурация: была установлена Netinstall Debian 9 и сверху PM5 - это позволяет разделять диски так, как я хочу. Гибридные диски собраны в аппаратном RAID 1, так как встроенный контроллер не имеет режима jbod, а 2 RAID 0, объединенные в md или z-mirror, работали намного медленнее, как не показано в результатах. Тестировались конфигурации HDD: 1. ZFS создан прямо на /dev/sdc (Solaris /usr & Apple ZFS) 2. ZFS создан на /dev/sdc1 (gparted создал основной раздел) 3. ext4 4. xfs Обе ZFS имели кэш и логовые разделы на отдельных SSD. sync = отключен, сжатие оставлено по умолчанию, так как это не влияет на ввод-вывод, только на загрузку ЦП, dedup=off. Инструмент fio используется для тестирования. Конфигурационный файл: Скрытый текст: конфигурационный файл fio # cat vm-data.rand-read-write.ini [readtest] blocksize=4k rw=randread ioengine=libaio iodepth=32 [writetest] blocksize=4k rw=randwrite ioengine=libaio iodepth=32 Это запускалось как: fio vm-data.rand-read-write.ini --size=3G --filename /<точка монтирования>/test Размер файла 3 Гб был выбран после экспериментального тестирования, когда ZFS испытывал серьезное ухудшение производительности, если тест имел файл больше 2 Гб. Чтобы быть полностью уверенным, что ничего не повлияет на результаты, после каждого запуска производился перезагруз. Каждый тест имел 3 итерации. Итак, результаты: Скрытый текст: Результаты HW + ZFS(sdc) + C + L + sync (без directio) Чтение Запись Запуск: 1 331164 11433 Запуск: 2 447599 8350 Запуск: 3 316630 10258 HW + ZFS(sdc1) + C + L + sync (без directio) Чтение Запись Запуск: 1 273232 13052 Запуск: 2 356658 14071 Запуск: 3 596572 14037 mkfs.ext4 -E lazy_itable_init=0,lazy_journal_init=0 /dev/sdc1 EXT4 Чтение Запись Запуск: 1 438245 720835 Запуск: 2 458293 640547 Запуск: 3 397840 554997 XFS Чтение Запись Запуск: 1 348 349 Запуск: 2 - - Запуск: 3 - - Выводы из результатов: 1. ZFS из стандартной установки proxmox примерно на 30% медленнее, когда ZFS создается вручную на родном linux-разделе. 2. XFS такой медленный, что его можно использовать в продакшене - это результат, который я не могу объяснить. 3 Гб файл выполнялся несколько часов, я не показывал это на графике. 3. ext4 работает намного быстрее при записи, что позволяет серверам с высокой нагрузкой работать намного плавнее, чем на ZFS, особенно во время резервных копий. 4. Если вы все же хотите ZFS - собирайте его вручную, а не через установщик PM. Итак, я хочу обратиться за помощью ко всем, кто использует ZFS в качестве хранилища - какую конфигурацию дисков/RAID вы используете, чтобы ZFS работал без проблем? Особенно когда PM5 в активном режиме и предлагается запускать ZFS...
     
     
     
    hmantsao
    Guest
    #2
    0
    16.12.2022 23:36:00
    Я нашел очень интересную ситуацию, возможно, кто-то с такой проблемой сможет это попробовать. 1. Когда я только завершил установку PVE и переместил данные, я увидел, что ZFS имеет нестабильную и очень медленную скорость, а использование ЦП также высокое. 2. Я пробовал другие файловые системы, и с ними такой проблемы нет. 3. После различных комбинационных тестов выясняется, что ZFS/Btrfs в PVE имеет аналогичные проблемы. Результат финального теста: "не создали swap при установке PVE?", когда я сам построил swap, эти проблемы исчезли. В настоящее время всё нормально работает, даже я не использовал пространство под swap. Но ZFS все равно очень медленный при использовании apt/распаковке, всего около 1/3 от ext4, похоже, это старая проблема, кто-нибудь знает ответ?
     
     
     
    Dunuin
    Guest
    #3
    0
    17.12.2022 00:04:00
    PVE не использует своп при использовании ZFS для системных дисков, так как не стоит размещать своп на ZFS. Какое оборудование вы используете (модели HDD/SSD, модель контроллера дисков)? QLC SSD и SMR HDD, например, ужасны. Также не следует использовать аппаратные RAID-карты. Какова структура пула? Какова общая ёмкость и сколько ARC? Соответствует ли ashift физическому размеру сектора? Адекватен ли volblocksize для структуры пула?
     
     
     
    hmantsao
    Guest
    #4
    0
    17.12.2022 02:36:00
    мой компьютер очень простой, всего один SATA/SSD для корневой системы ZFS. и пытаюсь подключить другой USB/HDD для ZFS. мои настройки просто стандартные для ZFS. конечно, я пробовал много параметров. и да, мы знаем, что нам не нужен своп, если достаточно ОЗУ. но факт в том, что нам нужен своп для системы PVE, если вы используете ZFS или btrfs, даже если не пользуетесь им.
     
     
     
    Dunuin
    Guest
    #5
    0
    17.12.2022 02:55:00
    Тогда вам следует изменить "hdsize" при установке PVE, чтобы оставить часть дискового пространства нераспределенным. Позже вы сможете использовать это нераспределенное дисковое пространство для ручного создания раздела подкачки вне ZFS. Файл подкачки на наборе данных или zvol в качестве раздела подкачки может привести к сбою всего вашего PVE-сервера, как только RAM заполнится: https://bugs.freebsd.org/bugzilla/show_bug.cgi?id=199189
     
     
     
    hmantsao
    Guest
    #6
    0
    17.12.2022 03:55:00
    хорошая идея. но мой текущий статус держит "0" (используемый) в области подкачки. а другой я создаю своп, копируя другого человека, как ниже, есть идеи? zfs create -V 16G -b $(getconf PAGESIZE) -o compression=zle \ -o logbias=throughput -o sync=always \ -o primarycache=metadata -o secondarycache=none \ -o com.sun:auto-snapshot=false rpool/swap
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры