Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    unexpected cgroup entry error

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    unexpected cgroup entry error, Proxmox Виртуальная Среда
     
    tsumaru720
    Guest
    #1
    0
    12.07.2023 14:51:00
    Привет, у меня кластер PVE из трех узлов. У меня есть виртуальная машина "opnsense", работающая на iSCSI-накопителе. Я заметил, что в системном журнале постоянно появляется следующая ошибка Код: 2023-07-12T13:40:58.394754+01:00 pve1 qmeventd[1946]: неожиданная запись cgroup 13:blkio:/qemu.slice 2023-07-12T13:40:58.395072+01:00 pve1 qmeventd[1946]: не удалось получить vmid из pid 236351 2023-07-12T13:41:03.396247+01:00 pve1 qmeventd[1946]: неожиданная запись cgroup 13:blkio:/qemu.slice 2023-07-12T13:41:03.396533+01:00 pve1 qmeventd[1946]: не удалось получить vmid из pid 236351 2023-07-12T13:41:08.397322+01:00 pve1 qmeventd[1946]:unexpected cgroup entry 13:blkio:/qemu.slice 2023-07-12T13:41:08.397626+01:00 pve1 qmeventd[1946]: не удалось получить vmid из pid 236351. PID, о котором идет речь, соответствует процессу KVM, привязанному к моей ВМ. Интересно, что я получаю эту ошибку только на двух из трех узлов - третий узел не выдает такую же информацию в журнале. Несмотря на это, сама ВМ, похоже, работает нормально, несмотря на ошибку. В моем кластере сейчас включен systemd.unified_cgroup_hierarchy=0 для некоторых устаревших контейнеров LXC, которые я пытаюсь переместить. Кто-нибудь знает, что эта ошибка на самом деле означает? Конфигурация ВМ Код: agent: 1,fstrim_cloned_disks=1 bootdisk: scsi0 cores: 1 cpu: host memory: 1024 name: vpn2 net0: virtio=3E:6A:2B:E6:1A:57,bridge=vlan110 numa: 0 onboot: 1 ostype: l26 scsi0: san:vm-102-disk-0,discard=on,iothread=1,size=8G scsihw: virtio-scsi-single smbios1: uuid=113c06af-3815-4e07-9be1-686397541ba0 sockets: 2 tablet: 0 tags: san;ha vmgenid: a121ca48-1522-4631-90ce-c6908448450d
     
     
     
    lotharea
    Guest
    #2
    0
    18.08.2023 18:18:00
    Привет, вот что ты можешь сделать: 1. Установи "systemd.unified_cgroup_hierarchy=0" в 1 или убери его: Bash: # Редактируем меню grub
    nano /etc/default/grub

    # Убери systemd.unified_cgroup_hierarchy=0 из CMDLINE:
    GRUB_CMDLINE_LINUX_DEFAULT="quiet systemd.unified_cgroup_hierarchy=0"

    # Теперь это будет выглядеть так:
    GRUB_CMDLINE_LINUX_DEFAULT="quiet"

    # Запускаем update-grub
    update-grub

    # Перезагружаем хост
    sudo reboot 2. Измени порядок Mount Units (для продвинутых): Bash: # Просмотр монтирований
    systemctl list-units -t mount

    # Создай новый mount unit для blkio:
    nano /etc/systemd/system/sys-fs-cgroup-blkio.mount

    # Добавь следующий код:
    [Unit]
    Description=Cgroup blkio Mountpoint
    DefaultDependencies=no
    Conflicts=umount.target
    Before=umount.target

    [Mount]
    What=cgroup
    Where=/sys/fs/cgroup/blkio
    Type=cgroup
    Options=blkio

    [Install]
    WantedBy=multi-user.target

    # Если ты хочешь, чтобы он загружался перед другим Mount Unit:
    Before=sys-fs-cgroup-memory.mount

    # Если ты хочешь, чтобы он загружался после другого Mount Unit:
    After=sys-fs-cgroup-blkio.mount

    # Включи и запусти пользовательские Mount Units
    systemctl daemon-reload
    systemctl enable sys-fs-cgroup-blkio.mount
    systemctl start sys-fs-cgroup-blkio.mount

    # Перезагрузи сервер
    sudo reboot Учитывая, что это серьезная настройка и может привести к неправильной загрузке системы, убедись, что ты протестируешь вышеуказанный подход в тестовой среде сначала.
     
     
     
    Fra
    Guest
    #3
    0
    19.08.2023 00:25:00
    lotharea оба 1. и 2. или любой из них? ​ ​ в моем случае (pve-manager/8.0.4/d258a813cfa6b390 (работающий ядро: 6.2.16-6-pve) ​ У меня уже есть ​ GRUB_CMDLINE_LINUX_DEFAULT="quiet", но все равно вижу этот шум.
     
     
     
    lotharea
    Guest
    #4
    0
    21.08.2023 03:57:00
    @Fra Either - я бы рекомендовал сначала попробовать первый вариант, так как его гораздо проще вернуть назад. Когда вы выполните команду: cat /proc/cmdline, содержит ли возвращаемое значение systemd.unified_cgroup_hierarchy=0? Если да, проверьте ваш файл /etc/default/grub. Если в любой из строк, начинающихся с: GRUB_CMDLINE_LINUX_DEFAULT или GRUB_CMDLINE_LINUX, есть systemd.unified_cgroup_hierarchy=0 - удалите его и сохраните файл. Запустите update-grub и перезагрузите машину.
     
     
     
    Fra
    Guest
    #5
    0
    22.08.2023 18:07:00
    Хорошо, спасибо. Значит, мне ничего не нужно делать, так как моя первозданная установка pve 8 имеет Код: root@proxmox:~# pveversion
    pve-manager/8.0.4/d258a813cfa6b390 (работающий ядро: 6.2.16-6-pve)

    root@proxmox:~# grep GRUB_CMDLINE_LINUX /etc/default/grub
    GRUB_CMDLINE_LINUX_DEFAULT="quiet"
    GRUB_CMDLINE_LINUX=""

    root@proxmox:~# grep systemd.unified_cgroup_hierarchy /proc/cmdline
    initrd=\EFI\proxmox\6.2.16-6-pve\initrd.img-6.2.16-6-pve root=ZFS=rpool/ROOT/pve-1 boot=zfs systemd.unified_cgroup_hierarchy=0
     
     
     
    Fra
    Guest
    #6
    0
    22.08.2023 18:14:00
    Ух... У меня есть вот такое: Код: # grep -r cgroup /etc/
    /etc/kernel/cmdline:root=ZFS=rpool/ROOT/pve-1 boot=zfs systemd.unified_cgroup_hierarchy=0

    root@proxmox:~# df -h
    Файловая система                     Размер  Использовано  Доступно  Использ. % Смонтировано на
    udev                                 126G     0  126G   0% /dev
    tmpfs                                 26G  1.9M   26G   1% /run
    rpool/ROOT/pve-1                     6.7T  2.3T  4.5T  34% /
    tmpfs                                126G   46M  126G   1% /dev/shm
    tmpfs                                5.0M     0  5.0M   0% /run/lock
    tmpfs                                4.0M     0  4.0M   0% /sys/fs/cgroup
    rpool                                4.5T  128K  4.5T   1% /rpool
    rpool/ROOT                           4.5T  128K  4.5T   1% /rpool/ROOT
    rpool/data                           4.5T  128K  4.5T   1% /rpool/data
    rpool/data/subvol-701-disk-1         250G  172G   79G  69% /rpool/data/subvol-701-disk-1
    rpool/data/subvol-701-disk-0          80G  7.1G   73G   9% /rpool/data/subvol-701-disk-0
    /dev/fuse                            128M   32K  128M   1% /etc/pve
    tmpfs                                 26G     0   26G   0% /run/user/1000
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры