Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Как выгадать максимум производительности с программным RAID на NVMe накопителях?

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Как выгадать максимум производительности с программным RAID на NVMe накопителях?, Proxmox Виртуальная Среда
     
    bomzh
    Guest
    #1
    0
    23.05.2023 22:22:00
    Всем привет! Во-первых, не хочу тут навлечь на себя гнев, но ищу ваши советы. Во-вторых, я огромный фанат Proxmox (использую с PVE 2.x) и такой же большой фанат ZFS (использую с тех пор, как он появился в FreeBSD). Думаю, мой вопрос довольно распространен в наши дни, ведь мы все растем во всех смыслах — лучшее оборудование, современные CPU, сотни гигабайт RAM, быстрые корпоративного класса NVME диски… так что спрошу прямо — какой лучший вариант программного RAID-а, когда нужно выжать максимум скорости/IOPS из быстрых NVME дисков вместе с PVE? Как мы все знаем, Proxmox в большинстве случаев предлагает использовать ZFS, и должен сказать, что это очень превосходная файловая система с множеством функций, она очень зрелая, стабильная, безопасная — я действительно люблю ее с самого начала, без всяких сомнений. Я действительно внедрял ZFS в каждый проект, где мое мнение учитывалось — берите хороший HBA контроллер, используйте серверные SAS диски, ECC RAM, резервируйте все с помощью L2ARC или ZFS Special Device, и у вас получится неплохая настройка для практически всего. Но есть одна настройка, которая не дает мне спокойно спать — использование ZFS поверх NVME дисков. В частности, использование ZFS на серверном оборудовании, таком как платформы Supermicro All-NVME с несколькими NVME дисками, например, Intel D7-P5600. Так что, если коротко, у меня сегодня есть — совершенно новый сервер Supermicro, два CPU Xeon 4214, 512GB ECC RAM и 4 x Intel P7-5620 3.2TB NVME U.2 диска. И честно говоря, должен сказать, что ZFS в любой конфигурации на этом сервере (всевозможные RAID(z) конфигурации из 4 дисков) действительно подводит с точки зрения скорости, IOPS и нагрузки на CPU. Я тестировал множество zpool/zfs опций, все тесты проведены с помощью FIO (не хочу вдаваться в подробности, это будет очень длинное описание), но по сравнению с простым Linux MDADM с или без LVM сверху ZFS сильно отстает. Я прекрасно понимаю, почему это происходит — ZFS просто обеспечивает безопасность ваших данных на всем пути, и есть множество тем в интернете, что ZFS поверх NVME не позволяет получить максимум скорости и IOPS — это просто компромисс, если вам нужны все функции ZFS. В то же время я понимаю, почему Proxmox официально не поддерживает MDADM — ок, я с этим согласен, это их решение, и мы должны ему подчиняться, особенно когда есть простой способ обойти это ограничение. Итак, мой простой вопрос — когда вы покупаете быстрые NVME диски и хотите воспользоваться их преимуществами — как вы выстраиваете файловую систему и что используете? Я уверен, что я не единственный человек, столкнувшийся с этой проблемой, давайте обсудим!
     
     
     
    davemcl
    Guest
    #2
    0
    11.11.2023 13:29:00
    @bomzh Как тебе MDADM+LVM на твоих NVME накопителях? Остался при этом же?
     
     
     
    LnxBil
    Guest
    #3
    0
    11.11.2023 13:41:00
    Меня очень интересует запуск ZFS после недавнего огромного улучшения, о котором объявили. Это может перевесить чашу весов в пользу ZFS.
     
     
     
    davemcl
    Guest
    #4
    0
    11.11.2023 13:51:00
    Спасибо, я его не видел. Слежу и за этим тоже https://github.com/openzfs/zfs/pull/10018
     
     
     
    davemcl
    Guest
    #5
    0
    11.11.2023 15:57:00
    Для случая автора вопроса это ничего не даст в плане просмотров.
     
     
     
    bomzh
    Guest
    #6
    0
    12.11.2023 11:56:00
    Привет! Да, пока что мы используем MDADM+LVM поверх NVMe. MDADM+LVM все еще значительно превосходит варианты ZFS по производительности и не создает такой нагрузки на систему, как ZFS.
     
     
     
    davemcl
    Guest
    #7
    0
    15.11.2023 09:51:00
    Вот небольшой пробел https://openbenchmarking.org/result/2311156-TCST-231104749. Это thin-pool. Я использовал размер чанка 64K, не уверен, это ли стандарт в PVE. Создано с помощью... Код: pvcreate /dev/md0
    vgcreate SSD-RAID-10 /dev/md0
    lvcreate -l 97%FREE -n SSD-RAID-10 SSD-RAID-10
    lvconvert --type thin-pool --poolmetadatasize 2048M --chunksize 64 SSD-RAID-10/SSD-RAID-10
     
     
     
    bomzh
    Guest
    #8
    0
    15.11.2023 16:12:00
    @davemcl, скажи, какую NVME модель ты использовал в этих тестах? Твои тесты просто подтверждают то, что мы видим у себя в системах.
     
     
     
    davemcl
    Guest
    #9
    0
    15.11.2023 23:16:00
    4 x Intel P5620 3.2TB https://www.solidigm.com/products/data-center/d7/p5620.html
     
     
     
    mikeyo
    Guest
    #10
    0
    20.02.2024 11:47:00
    @bomzh Не мог бы ты поделиться, как ты настроил накопитель NVMe для оптимальной производительности RAID NVMe? Собираюсь установить Proxmox на 2 x WD BLACK PCIe4 NVMe накопителя, которые будут использоваться для виртуальных машин.
     
     
     
    bomzh
    Guest
    #11
    0
    04.03.2024 17:47:00
    Прости за поздний ответ. Ничего особенного в нашей конфигурации: просто создал обычный MDADM-устройство из NVMe-дисков со значениями по умолчанию, затем добавил это MDADM-устройство в качестве LVM PV, затем создал VG GROUP, используя PV, и потом использовал его как LVM-thin тип хранилища внутри Proxmox.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры