Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    VM ### команда qmp не удалась - команда qmp 'query-proxmox-support' не выполнена.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    VM ### команда qmp не удалась - команда qmp 'query-proxmox-support' не выполнена., Proxmox Виртуальная Среда
     
    MikeAndreev
    Guest
    #1
    0
    31.05.2021 13:47:00
    Привет всем! Получаю эти ошибки на 3 больших (только больших) ВМ в PVE 6.4 (128-256ГБ ОЗУ) с Ubuntu в качестве гостевой ОС, хранилище: внешний кластер CEPH (пулы RBD).

    31 мая 09:31:13 вечера по времени pm-cal-56-02 pvestatd[3589]: Сбой команды qmp для ВМ 134 - команда qmp для ВМ 134 'query-proxmox-support' не удалась - не удалось подключиться к сокету qmp для ВМ 134 - таймаут после 31 попытки.
    31 мая 09:31:16 вечера по времени pm-cal-56-02 pvestatd[3589]: Сбой команды qmp для ВМ 138 - команда qmp для ВМ 138 'query-proxmox-support' не удалась - таймаут.
    31 мая 09:31:19 вечера по времени pm-cal-56-02 pvestatd[3589]: Время обновления статуса (13.761 секунды).
    31 мая 09:31:25 вечера по времени pm-cal-56-02 pvestatd[3589]: Сбой команды qmp для ВМ 138 - команда qmp для ВМ 138 'query-proxmox-support' не удалась - не удалось подключиться к сокету qmp для ВМ 138 - таймаут после 31 попытки.
    31 мая 09:31:28 вечера по времени pm-cal-56-02 pvestatd[3589]: Сбой команды qmp для ВМ 134 - команда qmp для ВМ 134 'query-proxmox-support' не удалась - не удалось подключиться к сокету qmp для ВМ 134 - таймаут после 31 попытки.
    31 мая 09:31:33 вечера по времени pm-cal-56-02 pvestatd[3589]: Таймаут.
    31 мая 09:31:33 вечера по времени pm-cal-56-02 pvestatd[3589]: Время обновления статуса (14.259 секунды).
    31 мая 09:31:42 вечера по времени pm-cal-56-02 pvestatd[3589]: Сбой команды qmp для ВМ 138 - команда qmp для ВМ 138 'query-proxmox-support' не удалась - таймаут.
    31 мая 09:31:45 вечера по времени pm-cal-56-02 pvestatd[3589]: Сбой команды qmp для ВМ 134 - команда qmp для ВМ 134 'query-proxmox-support' не удалась - не удалось подключиться к сокету qmp для ВМ 134 - таймаут после 31 попытки.
    31 мая 09:31:45 вечера по времени pm-cal-56-02 pvestatd[3589]: Время обновления статуса (12.259 секунды).
    31 мая 09:31:54 вечера по времени pm-cal-56-02 pvestatd[3589]: Сбой команды qmp для ВМ 138 - команда qmp для ВМ 138 'query-proxmox-support' не удалась - не удалось подключиться к сокету qmp для ВМ 138 - таймаут после 31 попытки.

    root@pm-cal-56-02:~# pveversion -v
    proxmox-ve: 6.4-1 (running kernel: 5.4.106-1-pve)
    pve-manager: 6.4-4 (running version: 6.4-4/337d6701)
    pve-kernel-5.4: 6.4-1
    pve-kernel-helper: 6.4-1
    pve-kernel-5.4.106-1-pve: 5.4.106-1
    pve-kernel-5.4.73-1-pve: 5.4.73-1
    ceph-fuse: 14.2.20-pve1
    corosync: 3.1.2-pve1
    criu: 3.11-3
    glusterfs-client: 5.5-3
    ifupdown: residual config
    ifupdown2: 3.0.0-1+pve3
    ksm-control-daemon: 1.3-1
    libjs-extjs: 6.0.1-10
    libknet1: 1.20-pve1
    libproxmox-acme-perl: 1.0.8
    libpve-access-control: 6.4-1
    libpve-apiclient-perl: 3.1-3
    libpve-common-perl: 6.4-2
    libpve-guest-common-perl: 3.1-5
    libpve-http-server-perl: 3.2-1
    libpve-storage-perl: 6.4-1
    libqb0: 1.0.5-1
    libspice-server1: 0.14.2-4~pve6+1
    lvm2: 2.03.02-pve4
    lxc-pve: 4.0.6-2
    lxcfs: 4.0.6-pve1
    novnc-pve: 1.1.0-1
    proxmox-backup-client: 1.1.5-1
    proxmox-mini-journalreader: 1.1-1
    proxmox-widget-toolkit: 2.5-3
    pve-cluster: 6.4-1
    pve-container: 3.3-5
    pve-docs: 6.4-1
    pve-edk2-firmware: 2.20200531-1
    pve-firewall: 4.1-3
    pve-firmware: 3.2-2
    pve-ha-manager: 3.1-1
    pve-i18n: 2.3-1
    pve-qemu-kvm: 5.2.0-6
    pve-xtermjs: 4.7.0-3
    qemu-server: 6.4-1
    smartmontools: 7.2-pve2
    spiceterm: 3.1-1
    vncterm: 1.6-2
    zfsutils-linux: 2.0.4-pve1

    cat /etc/pve/qemu-server/134.conf
    #Ubuntu Focal Fossa LTS
    agent: 1
    boot: order=scsi0
    cores: 21
    cpu: Cascadelake-Server-noTSX,flags=+spec-ctrl;+ssbd
    ide2: none,media=cdrom
    localtime: 0
    memory: 131072
    name: **********
    net0: virtio=********,bridge=vmbr10,firewall=1,tag=226
    numa: 0
    ostype: l26
    scsi0: pm-ce1-ssd-ec42:vm-134-disk-0,cache=writeback,size=932G
    scsi1: pm-ce1-ec42:vm-134-disk-1,cache=writeback,size=1397G
    scsi2: pm-ce1-ec42:vm-134-disk-2,cache=writeback,size=1863G
    scsihw: virtio-scsi-pci
    smbios1: uuid=c9f3d864-76a1-444f-b054-bbc239aff0db
    sockets: 2
    tablet: 0
    vga: qxl
    vmgenid: 1961b584-14f1-4b75-8651-008eaf663ca7

    Есть какие-нибудь идеи?
    WBR
    Mike
     
     
     
    MikeAndreev
    Guest
    #2
    0
    02.11.2021 13:00:00
    Флотхо, проблема была в "Максимальное количество открытых файлов" на PM-хосте. Мы решили её, увеличив DefaultLimitNOFILE до 32768:524288: `cat /etc/systemd/system.conf.d/open-files.conf`
    [Manager] DefaultLimitNOFILE=32768:524288
    Обсуждение проблемы здесь: https://forum.proxmox.com/threads/open-files-issue-on-pve-node.69783/
     
     
     
    mbx
    Guest
    #3
    0
    11.04.2023 14:12:00
    @MikeAndreev Не уверен, правда ли это помогло, но у меня была та же проблема, и после того, как я сделал предложенное тобой изменение, это больше не повторялось. Спасибо, что поделился своим советом.
     
     
     
    spirit
    Guest
    #4
    0
    07.12.2023 14:36:00
    Привет, я столкнулся с этой ошибкой в своем кластере Ceph, на ВМ с 10 дисками и 100 OSD. При последовательном чтении со всех дисков открываются соединения с каждым OSD (то есть 10x100 соединений только для сети + внутренние файловые дескрипторы Qemu). Когда достигается предел, начинаются случайные таймауты доступа к блокам (так как невозможно открыть соединение). Значение soft-лимита `max open file` по умолчанию — 1024, и оно слишком низкое. Попробую посмотреть, можно ли увеличить значение по умолчанию в pve8.
     
     
     
    foxpalace
    Guest
    #5
    0
    22.10.2021 13:20:00
    Зачем ты это исправил? У меня сегодня та же проблема.
     
     
     
    flotho
    Guest
    #6
    0
    01.11.2021 12:09:00
    У меня та же проблема, буду рад любому фидбэку. Связано ли это с ceph?
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры