Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Чрезвычайно медленная производительность на ZFS.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Чрезвычайно медленная производительность на ZFS., Proxmox Виртуальная Среда
     
    jollel
    Guest
    #1
    0
    24.02.2025 15:14:00
    Привет всем! Я перерыл форум вдоль и поперек и не могу найти ничего, что сработало бы для меня. Я мучаюсь с очень плохой производительностью случайного чтения/записи на моем ZFS пуле (rpool) в Proxmox, несмотря на использование enterprise SSD и попытки различных оптимизаций. Я, так сказать, новичок в тюнинге ZFS, поэтому буду очень благодарен за любые советы! Конфигурация системы:

    Proxmox Version: 8.3.3
    Storage: 2x Kingston DC600M 480GB SATA SSD (2 дня от даты покупки)
    Server: HPE DL20 Gen9 (без аппаратного RAID-контроллера)

    Результаты бенчмарка FIO:

    Прямая производительность SSD (тест fio на /dev/sda)
    read: IOPS=91.3k, BW=357MiB/s
    write: IOPS=39.2k, BW=153MiB/s

    Производительность ZFS пула:
    read: IOPS=2686, BW=10.5MiB/s
    write: IOPS=1161, BW=4.6MiB/s

    Что я уже пробовал:
    "sync=disabled" → Без эффекта.
    "recordsize=16K" → Улучшения нет.
    primarycache=metadata → Разницы нет.
    atime=off → Не изменилось.
    logbias=throughput → Заметного влияния не оказало.
    zfs_txg_timeout=30 → Существенного эффекта не наблюдается.
    ashift=12 → по умолчанию.
    Убедился, что выравнивание SSD выполнено → Используются 4K блоки.
    Подтвердил, что кэширование VM установлено в Write Back в Proxmox.
    Тесты, проведенные внутри Windows 2025 Server VM (с большим количеством RAM и CPU), показывают еще более низкую производительность. Это приводит к настолько плохой производительности, что просто открытие панели управления иногда занимает 5-8 секунд. И если несколько простых операций происходят внутри VM одновременно, все зависает, пока "все не будет готово".

    Почему ZFS настолько медленнее, чем прямая производительность SSD? Что еще можно подкрутить для улучшения производительности? Я в полном тупике в этот момент. Буду очень признателен за любую помощь!

    Заранее спасибо!
     
     
     
    chrcoluk
    Guest
    #2
    0
    24.02.2025 18:53:00
    Первое, что бросается в глаза – это очень медленный SSD, всего 357 операций чтения и 153 записи? Это последовательные операции? Вот что я думаю о том, что ты изменил. Отключение sync просто заставляет производиться принудительные синхронные записи, как если бы они были асинхронными. Это никак не влияет на настройки по умолчанию, которые и так асинхронные. recordsize — это максимальный размер кластера, он динамически определяется размером, установленным через ashift и recordsize. Меньший recordsize также затрудняет хорошее сжатие. Если recordsize совпадает с ashift, ты не сможешь добиться сжатия ни на чём, кроме чистых нулей. logbias: если у тебя нет специального устройства для журналов (slog), всегда оставляй его на latency, пропускная способность увеличится за счёт фрагментации. txg timeout может ускорить асинхронные записи, если у тебя есть свободный буфер для записи и SSD сам является узким местом. Если это помогло, то это скорее скрывает проблему, поскольку ты будешь писать в оперативную память вместо диска. ashift — это минимальный размер операций ввода-вывода кластером, в идеале он должен соответствовать тому, что используется базовым хранилищем. 4k обычно лучшее значение, даже для SSD больше 8k, прошивка будет оптимизирована для 4k. Поэтому ashift=12. Для ZFS следует использовать стандартную настройку кэша — no cache, поскольку ZFS имеет собственный буфер для записи, который не зависит от кэширования страниц в Linux. Если разрешить кэширование записи в кэше страниц, ты будешь дважды кэшировать записи. Установка первичного кэша (ARC) только для метаданных не ускорит работу, а наоборот, может ухудшить производительность. Причины использования только для метаданных — избежание двойного кэширования чтения (например, InnoDB pools) или если у тебя ограниченный ARC и ты хочешь приоритизировать его использование для определённых наборов данных.
     
     
     
    User Tron
    Guest
    #3
    0
    25.05.2025 12:33:00
    У меня та же проблема. zfs raid5 с 4 SSD: скорость записи 3 МБ/с. С тем же самым железом я мог переносить данные на mdadm raid5 со скоростью 250 МБ/с (максимальная скорость сети). Перепробовал все, что предлагалось, ничего не помогает.
     
     
     
    leesteken
    Guest
    #4
    0
    25.05.2025 13:03:00
    https://forum.proxmox.com/threads/very-slow-vm-on-dell-r620.164605/post-761270, и может быть, стоит использовать enterprise SSD с PLP вместо SSD с QLC флеш-памяти?

    Редактирую: Ты продолжаешь сравнивать RAID5/6 с RAIDz1/2, этого делать не стоит, так как это совершенно разные вещи. Пожалуйста, прочитай тему и поищи информацию о QLC накопителях на форуме; это действительно очень плохо.
     
     
     
    User Tron
    Guest
    #5
    0
    25.05.2025 14:08:00
    Спасибо, позже гляну тему. Конечно, enterprise SSD помогло бы, но это не объясняет отвратительную производительность. У меня в основном ПК 8 потребительских SSD в массиве RAID6 от madadm – скорость записи 7000 МБ/с. Что-то не так, когда у тебя виртуальные диски на ZFS RAID в Proxmox.
     
     
     
    Johannes S
    Guest
    #6
    0
    25.05.2025 14:54:00
    RAIDZ в целом – не лучший вариант с точки зрения производительности, см. https://forum.proxmox.com/threads/fabu-can-i-use-zfs-raidz-for-my-vms.159923/. Для производительности лучше всего подходит полосатое зеркалирование (ZFS RAID 10). RAIDZ показывает себя там, где нужно больше места для хранения или резервирование, и вы готовы пожертвовать производительностью ради этого. Так что, как обычно, все зависит от ваших целей и сценария использования.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры