Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    [Запрос функции] Proxmox 9.0 - iothread-vq-mapping

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    [Запрос функции] Proxmox 9.0 - iothread-vq-mapping, Proxmox Виртуальная Среда
     
    dominiaz
    Guest
    #1
    0
    01.06.2025 19:31:00
    https://blogs.oracle.com/linux/post/virtioblk-using-iothread-vq-mapping @bund69 тесты Proxmox: Код: args: -object iothread,id=iothread0 -object iothread,id=iothread1 -object iothread,id=iothread2 -object iothread,id=iothread3 -object iothread,id=iothread4 -object iothread,id=iothread5 -object iothread,id=iothread6 -object iothread,id=iothread7 -object iothread,id=iothread8 -object iothread,id=iothread9 -object iothread,id=iothread10 -object iothread,id=iothread11 -object iothread,id=iothread12 -object iothread,id=iothread13 -object iothread,id=iothread14 -object iothread,id=iothread15
    -drive file=/mnt/pmem0fs/images/103/vm-103-disk-1.raw,if=none,id=drive-virtio1,aio=io_uring,format=raw,cache=none
    --device '{"driver":"virtio-blk-pci","iothread-vq-mapping":[{"iothread":"iothread0"},{"iothread":"iothread1"},{"iothread":"iothread2"},{"iothread":"iothread3"},{"iothread":"iothread4"},{"iothread":"iothread5"},{"iothread":"iothread6"},{"iothread":"iothread7"},{"iothread":"iothread8"},{"iothread":"iothread9"},{"iothread":"iothread10"},{"iothread":"iothread11"},{"iothread":"iothread12"},{"iothread":"iothread13"},{"iothread":"iothread14"},{"iothread":"iothread15"}],"drive":"drive-virtio1","queue-size":1024,"config-wce":false}' Код: ~150K IOPS, 600 МБ/с с 1 потоком ввода/вывода, Fedora VM
    ~1000k IOPS, 4200 МБ/с с 16 потоками ввода/вывода и iothread-vq-mapping, Fedora VM
    ~3300k IOPS, 12800 МБ/с на хосте Proxmox

    fio bs=4k, iodepth=128, numjobs=30, 40 vCPU's
    dl380 gen 10 с 2x 6230 и 2x 256GB Optane DIMM. Мои собственные тесты iothread-vq-mapping с Proxmox очень похожи на это. В 5 РАЗ ПОБЫЛ УВЕЛИЧЕНЫЕ IOPS на NVME! Пожалуйста, добавьте iothread-vq-mapping в новый Proxmox 9.0.
     
     
     
    Domino
    Guest
    #2
    0
    02.06.2025 09:46:00
    Я бы хотел поднять вопрос: проводились ли какие-либо исследования влияния подобной конфигурации на других гостей, работающих на том же хосте? Одна из самых больших проблем виртуализации – управление потоками для смягчения проблем с задержкой. Чем больше потоков ввода-вывода, тем больше запросов прерываний, и стоимость таких конфигураций может быть довольно существенной на хостах, работающих с несколькими виртуальными машинами. Действительно, в случае пары виртуальных машин это должно быть вполне нормально. Так, в случае типической домашней нагрузки, где решили виртуализировать игровой компьютер с зафиксированными ядрами и зарезервированными большими страницами — всё отлично... но для тех, кто запускает значительное количество гостей (по сути, платёжная база пользователей Proxmox), общее влияние на задержку на виртуальную машину может не стоить полученного прироста операций ввода-вывода в одной виртуальной машине. Обязательно нужно исследовать. Существуют действительно немало оптимизаций, которые можно использовать для повышения производительности виртуальной машины, но многие такие правки приводят к нарушению политики справедливого использования ресурсов на большом хосте. К сожалению, многие из таких оптимизаций редко рассматриваются в корпоративных нагрузках, поэтому официальных бенчмарков/белых книг практически нет. Я отмечал в бесчисленных статьях/блогах/примерах конфигураций, от AMD до Oracle, где суть задачи — просто добиться пиковой производительности для данной задачи, без каких-либо ссылок на влияние на другие гости и сервисы, работающие на том же хосте. Поэтому многие из таких трюков откладываются до строгих изолированных случаев, где важны цифры производительности, в основном демонстрационные примеры. Давайте не забывать: "если вам нужна абсолютная производительность, вы покупаете ещё один сервер, baremetal никуда не денется, в мире корпоративной виртуализации важен принцип – делиться — не вредно". Отбросив вышеописанные любопытства, внедрение этой новой функции в Proxmox будет очень приветствоваться для тех, кто ищет такое ускорение операций ввода-вывода, чем больше опций — тем лучше.
     
     
     
    fiona
    Guest
    #3
    0
    02.06.2025 10:10:00
    Для справки: https://bugzilla.proxmox.com/show_bug.cgi?id=6350
     
     
     
    dominiaz
    Guest
    #4
    0
    02.06.2025 11:32:00
    У тебя неверный взгляд на вещи. У меня быстрый накопитель с 8 млн IOPS, поэтому нормальные 150-200 тысяч IOPS на VM (при реальном 1x iothread) — это очень, очень плохо. Если ты хочешь продавать 200 тысяч IOPS или 1 млн IOPS, то продавай по справедливой цене. Можно всегда настроить от 1 до 64 iothread на VM, но нам нужен выбор.
     
     
     
    dominiaz
    Guest
    #5
    0
    10.06.2025 14:23:00
    Сделал патч для Proxmox 8.4: https://github.com/dominiaz/iothread-vq-mapping Просто добавь, например, iothread_vq_mapping=8 в конфигурацию твоего virtio-диска.
     
     
     
    LnxBil
    Guest
    #6
    0
    10.06.2025 14:49:00
    Ты уже пробовал отправить патчи в основную ветку разработки? https://pve.proxmox.com/wiki/Developer_Documentation
     
     
     
    werter
    Guest
    #7
    0
    15.06.2025 16:33:00
    Привет! @fiona, а какая версия qemu будет в PVE 9.0?
     
     
     
    fiona
    Guest
    #8
    0
    16.06.2025 09:25:00
    Привет, на данный момент план таков: начнём с QEMU 10.0.
     
     
     
    _gabriel
    Guest
    #9
    0
    21.06.2025 17:03:00
    Работает с ZFS?
     
     
     
    dominiaz
    Guest
    #10
    0
    26.06.2025 00:17:00
    Да, должно работать с ZFS. Попробуй, протестируй.
     
     
     
    sensei_pv
    Guest
    #11
    0
    11.07.2025 07:08:00
    Будет ли заметно улучшение производительности при использовании Ceph storage?
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры