Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Производительность NVMe IOPS в 4k - на одном и том же диске с разными хостами результаты разные.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Производительность NVMe IOPS в 4k - на одном и том же диске с разными хостами результаты разные., Proxmox Виртуальная Среда
     
    dominiaz
    Guest
    #1
    0
    30.05.2025 13:21:00
    Хост1: Epyc 7702P с 512 ГБ ОЗУ, Micron 7400 Pro 1,92 ТБ
    Хост2: Core Ultra 7 265k с 128 ГБ ОЗУ, Micron 7400 Pro 1,92 ТБ. Micron 7400 Pro 1,92 ТБ смонтирован как DIR с файловой системой XFS на Хосте. Я использовал fstrim -av перед проведением тестов.

    Конфигурация VM:
    Код: virtio0: local-u2-micron-1:2105/vm-2105-disk-0.raw,aio=native,cache=directsync,discard=on,iothread=1,size=32G

    Хост1 (Epyc 7702P):
    Код: fio --ioengine=libaio --direct=1 --rw=randread --bs=4k --numjobs=32 --iodepth=32 --runtime=60 --time_based --name=rand_read --filename=/mnt/pve/local-u2-micron-1/fio.4k --size=1G
    735k IOPS

    VM Guest на Хосте1:
    Код: fio --ioengine=libaio --direct=1 --rw=randread --bs=4k --numjobs=32 --iodepth=32 --runtime=60 --time_based --name=rand_read --filename=/tmp/fio.4k --size=1G
    192k IOPS

    Хост2 (Core Ultra 7 265k):
    Код: fio --ioengine=libaio --direct=1 --rw=randread --bs=4k --numjobs=32 --iodepth=32 --runtime=60 --time_based --name=rand_read --filename=/mnt/pve/local-u2-micron-1/fio.4k --size=1G
    745k IOPS

    VM Guest на Хосте2:
    Код: fio --ioengine=libaio --direct=1 --rw=randread --bs=4k --numjobs=32 --iodepth=32 --runtime=60 --time_based --name=rand_read --filename=/tmp/fio.4k --size=1G
    495k IOPS

    VM guest на Epyc 7702P: 192k IOPS
    VM guest на Core Ultra 7 265k: 495k IOPS

    Почему один и тот же NVME Micron 7400 Pro 1,92 на разных Хостах показывает разные результаты внутри VM?
     
     
     
    Domino
    Guest
    #2
    0
    01.06.2025 21:12:00
    Всё сводится к тому, как гипервизор и гостевые ОС устанавливают паравиртуальные соединения через KVM/HV enlightenments. К сожалению, Qemu/KVM и даже Proxmox как UI (хотя он и улучшается, просто слишком много настроек, чтобы успевать за всем, и это вполне понятно — дилемма) — всё это немного настоящий бардак, потому что не всё настраивается оптимально для каждой системы, то есть CPU и гостевой ОС, не говоря уже об устройствах и бесчисленных комбинациях прошивок на устройствах и материнских платах и даже до микрокода процессора. А ещё есть гостевые дистрибутивы, у них полный завал, и они требуют изменений в командной строке ядра, которые опять же варьируются от дистрибутива к дистрибутиву, от хоста к процессору, от версии Qemu к версии ядра... уххх... честно говоря, именно поэтому Microshaft's HV/Azure и бесчисленное количество других крупных облачных провайдеров так привлекательны в наши дни — почему? Потому что все оптимизации уже сделаны и настроены до совершенства в зависимости от сценариев использования нагрузки — вы просто платите взнос и расслабляетесь lol. Вы не поделились, делаете ли вы NVME passthrough или нет, или используете Virtio-fs или нет, поэтому я не буду углубляться в нерелевантный путь. Однако могу заверить вас, в 9 случаях из 10 проблема не в технологии, а в пользователе и отсутствии автоматизации, то есть вам приходится тратить часы и дни на поиски в интернете, на github и в каких-то неведомых тёмных углах мира блогов, чтобы найти какой-нибудь маленький «флаг», который делает всю разницу в вашей конкретной конфигурации. В общем, ответ на ваш вопрос "почему" — это… тестируйте и экспериментируйте, изучайте это сами. Когда вы используете Qemu/KVM/Linux в целом, вы берёте на себя ответственность за то, чтобы тратить бесчисленные часы своей жизни на что-то, что, вероятно, выбросите и никогда больше не понадобится, а затем вы поймёте, что это время уже не вернуть, как только оно ушло, оно безвозвратно. Здесь нет момента "прочти документацию", потому что нет руководства, которое подходит для всех конфигураций, это огромный хаос, это и делает Linux таким мощным, а также головной болью. Удачи.
     
     
     
    _gabriel
    Guest
    #3
    0
    01.06.2025 23:14:00
    265K – это последняя информация по поводу CPU (конец 2024 года), где вычислительная мощность одного ядра примерно в 2,5 раза выше, чем у Epyc 7702 (конец 2019 года). Epyc медленнее, если запускать только одну виртуальную машину, но попробуй провести тот же тест с 32 одновременными VM.
     
     
     
    Domino
    Guest
    #4
    0
    02.06.2025 01:06:00
    Да, конечно, ты прав, однако… Ты не совсем правильно понял его сообщение. Проблема с baremetal отсутствует, IOPs на обоих CPU в порядке... проблема, которую он замечает, касается производительности IOPs внутри VM. Многие из нас тратили безумное количество времени – от часов до недель – на то, чтобы всё это настраивать в бесчисленных билдах, и в итоге это оказывалось связано с разными вещами: от огромного количества VM-exits до обеспечения активности правильной виртуализации paravirtual APIC, до задержек, возникающих из-за того, что что-то не работало на основных ядрах, до бесчисленных проблем с потоками, до глупых багов в конкретных версиях ядра с отсутствующими патчами и так далее.
     
     
     
    _gabriel
    Guest
    #5
    0
    02.06.2025 08:18:00
    Насколько я знаю, vDisk в настоящее время ограничен одним qemu-потоком, который, в свою очередь, ограничен одним потоком процессора. D Thread '[Feature Request] Proxmox 9.0 - iothread-vq-mapping' 1 июня 2025 г. https://blogs.oracle.com/linux/post/virtioblk-using-iothread-vq-mapping @bund69 proxmox тесты: Code: args: -object iothread,id=iothread0 -object iothread,id=iothread1 -object iothread,id=iothread2 -object iothread,id=iothread3 -object iothread,id=iothread4 -object iothread,id=iothread5 -object iothread,id=iothread6 -object iothread,id=iothread7 -object iothread,id=iothread8 -object iothread,id=iothread9 -object iothread,id=iothread10 -object iothread,id=iothread11 -object iothread,id=iothread12 -object iothread,id=iothread13 -object iothread,id=iothread14 -object... dominiaz Ответов: 10 Форум: Proxmox VE: Установка и настройка
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры