Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Сервис 'ct:4090' в состоянии ошибки, сначала его нужно отключить и исправить. Как мне отключить LXC в Proxmox?

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Сервис 'ct:4090' в состоянии ошибки, сначала его нужно отключить и исправить. Как мне отключить LXC в Proxmox?, Proxmox Виртуальная Среда
     
    alpha754293
    Guest
    #1
    0
    09.06.2025 00:17:00
    Я пытался остановить один из контейнеров:
    `Code: root@minipc3:/etc/pve/nodes# pct stop 4090`
    Запрос на остановку HA для CT 4090
    Сервис 'ct:4090' находится в состоянии ошибки, его нужно отключить и исправить сначала
    Команда `ha-manager crm-command stop ct:4090 0` завершилась с кодом выхода 255. Как отключить LXC в Proxmox? Я пробовал гуглить, искал в документации Proxmox, `pct help`, а также искал на форумах, но ничего конкретного не нашёл. Буду очень признателен за помощь. (К слову: я получаю эту ошибку, которая является следствием другой ошибки, которую я также получаю: `Code: root@minipc3:/etc/pve/nodes# pct delsnapshot 4090 vzdump
    rbd error: error setting snapshot context: (2) No such file or directory`.  Не совсем понимаю, как это исправить. ) Это часть трехнодового кластера Proxmox HA. Вот конфигурация LXC:
    `Code: arch: amd64
    features: mount=nfs,nesting=1
    hostname: proxmox-gtr5-plex
    memory: 2048
    nameserver: x.x.x.x,x.x.x.x
    net0: name=eth0,bridge=vmbr2,firewall=1,gw=x.x.x.x,hwaddr=06:AE:B4:E5:91:E0,ip=x.x.x.x/24,type=veth
    onboot: 1
    ostype: ubuntu
    parent: vzdump
    rootfs: ceph-erasure:vm-4090-disk-0,size=300G
    searchdomain: local.home
    startup: order=3,up=5
    swap: 256
    tags: gpu;ubuntu
    lxc.cgroup.devices.allow: c 195:* rwm
    lxc.cgroup.devices.allow: c 509:* rwm
    lxc.cgroup.devices.allow: c 226:* rwm
    lxc.mount.entry: /dev/nvidia0 dev/nvidia0 none bind,optional,create=file
    lxc.mount.entry: /dev/nvidiactl dev/nvidiactl none bind,optional,create=file
    lxc.mount.entry: /dev/nvidia-modeset dev/nvidia-modeset none bind,optional,create=file
    lxc.mount.entry: /dev/nvidia-uvm dev/nvidia-uvm none bind,optional,create=file
    lxc.mount.entry: /dev/nvidia-uvm-tools dev/nvidia-uvm-tools none bind,optional,create=file
    lxc.mount.entry: /dev/nvram dev/nvram none bind,optional,create=file`

    [vzdump]
    #vzdump backup snapshot
    `arch: amd64
    features: mount=nfs,nesting=1
    hostname: proxmox-gtr5-plex
    memory: 2048
    nameserver: x.x.x.x,x.x.x.x
    net0: name=eth0,bridge=vmbr2,firewall=1,gw=x.x.x.x,hwaddr=06:AE:B4:E5:91:E0,ip=x.x.x.x/24,type=veth
    onboot: 1
    ostype: ubuntu
    rootfs: ceph-erasure:vm-4090-disk-0,size=300G
    searchdomain: local.home
    snapstate: delete
    snaptime: 1749357173
    startup: order=3,up=5
    swap: 256
    tags: gpu;ubuntu
    lxc.cgroup.devices.allow: c 195:* rwm
    lxc.cgroup.devices.allow: c 509:* rwm
    lxc.cgroup.devices.allow: c 226:* rwm
    lxc.mount.entry: /dev/nvidia0 dev/nvidia0 none bind,optional,create=file
    lxc.mount.entry: /dev/nvidiactl dev/nvidiactl none bind,optional,create=file
    lxc.mount.entry: /dev/nvidia-modeset dev/nvidia-modeset none bind,optional,create=file
    lxc.mount.entry: /dev/nvidia-uvm dev/nvidia-uvm none bind,optional,create=file
    lxc.mount.entry: /dev/nvidia-uvm-tools dev/nvidia-uvm-tools none bind,optional,create=file
    lxc.mount.entry: /dev/nvram dev/nvram none bind,optional,create=file`

    Вот вывод для `rbd snap ls`:
    `Code: root@minipc3:/etc/pve/nodes/minipc3/lxc# rbd snap ls ceph-replicate/vm-4090-disk-0
    root@minipc3:/etc/pve/nodes/minipc3/lxc#`

    Вот содержимое `/etc/pve/storage.cfg`:
    `Code: dir: local
           path /var/lib/vz
           content iso,vztmpl
           shared 0

    lvmthin: local-lvm
           thinpool data
           vgname pve
           content rootdir,images

    cephfs: cephfs
           path /mnt/pve/cephfs
           content snippets,vztmpl,iso,backup
           fs-name cephfs
           prune-backups keep-all=1

    rbd: ceph-replicate
           content rootdir,images
           krbd 1
           pool ceph-replicate

    rbd: ceph-erasure
           content rootdir,images
           data-pool ceph-erasure
           krbd 1
           pool ceph-replicate

    pbs: debian-pbs
           datastore debian-pbs
           server x
           content backup
           fingerprint x
           namespace x
           prune-backups keep-all=1
           username x

    pbs: debian-pbs-6700k-pve
           datastore debian-pbs
           server x.x.x.x
           content backup
           fingerprint x
           namespace x
           prune-backups keep-all=1
           username x`

    И вот содержимое `/etc/pve/ceph.conf`:
    `Code: [global]
           auth_client_required = cephx
           auth_cluster_required = cephx
           auth_service_required = cephx
           cluster_network = x
           fsid = 85daf8e9-198d-4ca5-86c6-cc0e9186a491
           mon_allow_pool_delete = true
           mon_host = x
           ms_bind_ipv4 = true
           ms_bind_ipv6 = false
           osd_pool_default_min_size = 2
           osd_pool_default_size = 3
           public_network = x

    [client]
           keyring = /etc/pve/priv/$cluster.$name.keyring

    [client.crash]
           keyring = /etc/pve/ceph/$cluster.$name.keyring

    [mds]
           keyring = /var/lib/ceph/mds/ceph-$id/keyring

    [mds.minipc1]
           host = minipc1
           mds_standby_for_name = pve

    [mds.minipc2]
           host = minipc2
           mds_standby_for_name = pve

    [mds.minipc3]
           host = minipc3
           mds_standby_for_name = pve

    [mon.minipc1]
           public_addr = x

    [mon.minipc2]
           public_addr = x

    [mon.minipc3]
           public_addr = x`

    Ваша помощь была бы очень кстати. Спасибо.
     
     
     
    alpha754293
    Guest
    #2
    0
    09.06.2025 00:21:00
    Кстати, когда я смотрю панель управления Ceph Manager, чтобы проверить, есть ли там какие-нибудь снимки для этого диска, а их нет:
     
     
     
    Impact
    Guest
    #3
    0
    09.06.2025 06:47:00
    Это относится к HA. Смотри документацию и как это сделать через CLI. Можно сделать и через GUI, вот так: Дай ему пару секунд, чтобы изменения применились.
     
     
     
    alpha754293
    Guest
    #4
    0
    09.06.2025 06:48:00
    Ахх...ну ладно. Поняла. Спасибо. Извини. Простите за мою неосведомленность.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры