Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Задержки диска виртуальной машины резко возрастают, когда гостевая ОС использует ядро 6.8.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Задержки диска виртуальной машины резко возрастают, когда гостевая ОС использует ядро 6.8., Proxmox Виртуальная Среда
     
    nugzarg
    Guest
    #1
    0
    16.01.2025 09:38:00
    У нас появились странные всплески задержки диска после перезагрузки Ubuntu 22.04 гостевой машины с ядром 6.8. На скриншотах графиков нашей системы мониторинга видно, что задержка диска составляет 3-5 секунд, но загрузка диска минимальна (см. второй скриншот пропускной способности/операций диска). Версия Proxmox — 8.3: proxmox-ve: 8.3.0 (используемое ядро: 6.5.13-1-pve) pve-manager: 8.3.2 (используемая версия: 8.3.2/3e76eec21c4a14a7) proxmox-kernel-helper: 8.1.0 proxmox-kernel-6.8: 6.8.12-4 proxmox-kernel-6.8.12-4-pve-signed: 6.8.12-4 proxmox-kernel-6.8.12-2-pve-signed: 6.8.12-2 proxmox-kernel-6.5.13-6-pve-signed: 6.5.13-6 proxmox-kernel-6.5: 6.5.13-6 proxmox-kernel-6.5.13-1-pve-signed: 6.5.13-1 ceph: 18.2.4-pve3 ceph-fuse: 18.2.4-pve3 corosync: 3.1.7-pve3 criu: 3.17.1-2+deb12u1 glusterfs-client: 10.3-5 ifupdown: residual config ifupdown2: 3.2.0-1+pmx11 intel-microcode: 3.20241112.1~deb12u1 ksm-control-daemon: 1.4-1 libjs-extjs: 7.0.0-5 libknet1: 1.28-pve1 libproxmox-acme-perl: 1.5.1 libproxmox-backup-qemu0: 1.4.1 libproxmox-rs-perl: 0.3.4 libpve-access-control: 8.2.0 libpve-apiclient-perl: 3.3.2 libpve-cluster-api-perl: 8.0.10 libpve-cluster-perl: 8.0.10 libpve-common-perl: 8.2.9 libpve-guest-common-perl: 5.1.6 libpve-http-server-perl: 5.1.2 libpve-network-perl: 0.10.0 libpve-rs-perl: 0.9.1 libpve-storage-perl: 8.3.2 libqb0: 1.0.5-1 libspice-server1: 0.15.1-1 lvm2: 2.03.16-2 lxc-pve: 6.0.0-1 lxcfs: 6.0.0-pve2 novnc-pve: 1.5.0-1 proxmox-backup-client: 3.3.2-1 proxmox-backup-file-restore: 3.3.2-2 proxmox-firewall: 0.6.0 proxmox-kernel-helper: 8.1.0 proxmox-mail-forward: 0.3.1 proxmox-mini-journalreader: 1.4.0 proxmox-offline-mirror-helper: 0.6.7 proxmox-widget-toolkit: 4.3.3 pve-cluster: 8.0.10 pve-container: 5.2.2 pve-docs: 8.3.1 pve-edk2-firmware: 4.2023.08-4 pve-esxi-import-tools: 0.7.2 pve-firewall: 5.1.0 pve-firmware: 3.14-1 pve-ha-manager: 4.0.6 pve-i18n: 3.3.2 pve-qemu-kvm: 9.0.2-4 pve-xtermjs: 5.3.0-3 qemu-server: 8.3.3 smartmontools: 7.3-pve1 spiceterm: 3.3.0 swtpm: 0.8.0+pve1 vncterm: 1.8.0 zfsutils-linux: 2.2.6-pve1 Хранилище — CEPH 18.2.4, построено на базе 108 NVMe SSD (Micron 9300) предприятиями. Для OSD CEPH не используются SSD потребительского класса или SSD, оптимизированные для чтения. У нас нет предупреждений о задержках или медленных запросах в CEPH. Конфигурация VM: agent: 1 balloon: 3072 bootdisk: scsi0 cores: 12 cpu: x86-64-v2-AES hotplug: disk,network,usb,memory,cpu memory: 4096 name: my-vm.example.com net0: virtio=BC:24:11:30:28:A3,bridge=vmbr0,firewall=1,queues=2 net1: virtio=BC:24:11:80:25:30,bridge=grnet,mtu=8950,queues=2 numa: 1 ostype: l26 sata0: none,media=cdrom sata1: SSD:vm-204-cloudinit,media=cdrom,size=4M scsi0: SSD:vm-204-disk-0,cache=writeback,discard=on,size=1G scsi1: SSD:vm-204-disk-1,cache=writeback,discard=on,size=30G scsihw: virtio-scsi-single serial0: socket sockets: 2 usb0: spice,usb3=1 vcpus: 2 vga: virtio Мы пробовали разные варианты конфигурации (разные контроллеры SCSI, разные режимы кэширования, без кэша, прямой синх, с или без iothreads, асинх I/O io_uting или native). Ничего не помогает. Задержка диска гостевой системы уменьшается только при загрузке VM с ядром 6.5 или 5.15. У кого-нибудь была подобная проблема?
     
     
     
    nugzarg
    Guest
    #2
    0
    20.01.2025 09:20:00
    Обновление: Похоже, проблема (вероятно) связана с pve-qemu-kvm. После отката пакета pve-qemu-kvm до версии 8.2.2-1, задержка ввода-вывода диска снова уменьшилась. Даже если гостевое ядро – 6.8. Все еще бывают кратковременные задержки, но они происходят гораздо реже. С более старыми гостевыми ядрами (6.5 или 5.15) задержек нет. Проблема возникает только при использовании CEPH в качестве хранилища (вероятно, опять). Мы используем Linstor как второе хранилище, и мы не видим никаких задержек для дисков любых ВМ, расположенных на этом хранилище.
     
     
     
    VoIP-Ninja
    Guest
    #3
    0
    23.01.2025 09:08:00
    Очень интересно, у нас похожие проблемы: только один узел показывает те же проблемы с задержкой диска, которая растет по сравнению с другими узлами, но Disk I/O низкий (кажется, после обновления ядра, но и предыдущее ядро было 6.8). Все узлы - только NVMe и SATA SSD, нет жестких дисков. Проблемный узел имеет Samsung PM1733, у которого более высокая задержка (см. скриншот прикреплён, OS / Boot Drives Samsung SATA SSDs не имеют высокой задержки) Это метка времени, когда начались проблемы: reboot system boot 6.8.12-4-pve Sun Dec 8 18:00 - 19:54 (45+01:53) раньше система работала тоже на 6.8, но на 6.8.8-4 reboot system boot 6.8.8-4-pve Fri Sep 6 16:14 - 17:59 (93+02:44) Другие узлы с точно таким же CPU / MB Chassis и ядром и т.д., но с разными NVMe (Intel, Kioxia и Micron) не показывают такой высокой задержки. Пример (Intel NVMe) Другие узлы работают как HCI с CEPH, тоже не показывают высокой задержки, но!!! эти HCI кластеры (NVMe только) пока что работают все на 6.5.
     
     
     
    nugzarg
    Guest
    #4
    0
    03.06.2025 13:21:00
    Обновление. Результаты после множества экспериментов: скачки задержки происходят каждый раз после использования виртуального диска гостем после некоторого простоя (времени бездействия). Например, если на VM диске нет ввода-вывода в течение нескольких минут, а затем какой-то процесс начинает на него записывать, задержка резко возрастает на короткое время. Неважно, используется ли бэкенд-хранилище CEPH или локальная файловая система (даже локальный NVMe). Если режим кеширования VM — directsync, задержка стабильна и низкая (1-5 мс). Если файловая система смонтирована с опцией sync в VM (неважно, какой режим кеширования используется для VM диска), задержка тоже стабильна и низка. В обоих случаях производительность случайной записи в 3 раза медленнее, чем при использовании режима кеширования writeback. Последовательная запись на 10 % медленнее. Производительность чтения примерно одинаковая. Похоже, проблема с латентными скачками связана с page cache хостов Proxmox, но я не знаю, как именно.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры