Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Не получается удалить диск для ВМ, когда не все узлы Proxmox онлайн.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Не получается удалить диск для ВМ, когда не все узлы Proxmox онлайн., Proxmox Виртуальная Среда
     
    devedse
    Guest
    #1
    0
    24.02.2025 13:37:00
    Сейчас использую кластер Proxmox из 4 узлов с файловой системой CEPH в качестве хранилища. Из этих 4 узлов работают только 3, а один в автономном режиме. Это соответствует моим задачам. У меня есть ВМ (104), которая в данный момент хранится в erasure pool. Этот erasure pool хранится только на работающих узлах. Узел proxmox4 не участвует в этом CEPH-пуле. Однако, когда я пытаюсь удалить диск для ВМ 104 (или в данном случае, целую ВМ), Proxmox показывает ошибку, что не может получить cfs lock: Код: ().

    пытаюсь получить cfs lock 'storage-DeveErasurePool_P1' ...
    пытаюсь получить cfs lock 'storage-DeveErasurePool_P1' ...
    пытаюсь получить cfs lock 'storage-DeveErasurePool_P1' ...
    пытаюсь получить cfs lock 'storage-DeveErasurePool_P1' ...
    пытаюсь получить cfs lock 'storage-DeveErasurePool_P1' ...
    пытаюсь получить cfs lock 'storage-DeveErasurePool_P1' ...
    пытаюсь получить cfs lock 'storage-DeveErasurePool_P1' ...
    пытаюсь получить cfs lock 'storage-DeveErasurePool_P1' ...
    пытаюсь получить cfs lock 'storage-DeveErasurePool_P1' ...
    Не удалось удалить диск 'DeveErasurePool_P1:vm-104-disk-0', проверьте вручную: cfs-lock 'storage-DeveErasurePool_P1' error: got lock request timeout
    удаляю ВМ 104 из связанных конфигураций..
    TASK OK Только когда я включаю proxmox4, я могу удалить этот диск.
     
     
     
    Moayad
    Guest
    #2
    0
    24.02.2025 14:00:00
    Привет! Что показывает вывод команды `pvecm status`, когда онлайн только 3 ноды? И не могли бы вы также предоставить вывод команды `pveceph status`?
     
     
     
    devedse
    Guest
    #3
    0
    24.02.2025 16:33:00
    Странно дело, но после загрузки и сразу же выключения этого оффлайн-хоста Proxmox, я теперь могу удалять диски. У меня такое уже случалось несколько раз, и единственный способ решения этой проблемы был – запускать этот оффлайн-хост Proxmox. К сожалению, воспроизвести это сложно. В любом случае, я выполнил команды по твоему запросу:

    ```
    root@proxmox1:~# pvecm status
    Cluster information
    -------------------
    Name:             DeveCluster
    Config Version:   8
    Transport:        knet
    Secure auth:      on

    Quorum information
    ------------------
    Date:             Mon Feb 24 16:31:47 2025
    Quorum provider:  corosync_votequorum
    Nodes:            3
    Node ID:          0x00000001
    Ring ID:          1.16dbb
    Quorate:          Yes

    Votequorum information
    ----------------------
    Expected votes:   3
    Highest expected: 3
    Total votes:      3
    Quorum:           2
    Flags:            Quorate

    Membership information
    ----------------------
       Nodeid      Votes Name
    0x00000001          1 10.88.20.10 (local)
    0x00000003          1 10.88.20.12
    0x00000004          1 10.88.20.13
    root@proxmox1:~# pveceph status
     cluster:
       id:     3d4ac63a-0d65-479a-a467-cf90a222c285
       health: HEALTH_WARN
               6 osds down
               1 host (6 osds) down
               Reduced data availability: 128 pgs stale

     services:
       mon: 3 daemons, quorum proxmox1,proxmoxdevenologynew,proxmox3 (age 23m)
       mgr: proxmox1(active, since 24m), standbys: proxmoxdevenologynew, proxmox3
       mds: 1/1 daemons up, 1 standby
       osd: 9 osds: 3 up (since 3m), 9 in (since 2h)

     data:
       volumes: 1/1 healthy
       pools:   8 pools, 321 pgs
       objects: 270.40k objects, 1.0 TiB
       usage:   2.1 TiB used, 3.1 TiB / 5.2 TiB avail
       pgs:     193 active+clean
                128 stale+active+clean

     io:
       client:   6.4 MiB/s rd, 18 MiB/s wr, 238 op/s rd, 78 op/s wr I configured proxmox4 to not have any votes in quorum. (Since it's mostly offline)
    ```
     
     
     
    devedse
    Guest
    #4
    0
    25.02.2025 13:24:00
    @Moayad, мне стоит посмотреть, как всё идёт, и вернуться к этой теме, когда столкнусь с той же проблемой снова?
     
     
     
    devedse
    Guest
    #5
    0
    04.07.2025 12:56:00
    @Moayad, вот опять та же ошибка: Вот pveceph status:
    Code: root@proxmox1:~# pveceph status
     cluster:
       id:     3d4ac63a-0d65-479a-a467-cf90a222c285
       health: HEALTH_WARN
               3 osd не работают
               1 хост (6 osd) не работает
               Снижена доступность данных: 128 pgs неактивны
               128 pgs не прошли глубокую проверку вовремя
               128 pgs не прошли проверку вовремя

     services:
       mon: 3 демона, кворум proxmox1, proxmoxdevenologynew, proxmox3 (возраст 3 недели)
       mgr: proxmox1(активный, с 3 недели), резервы: proxmoxdevenologynew, proxmox3
       mds: 1/1 демона работает, 1 в режиме ожидания
       osd: 9 osd: 3 работают (с 3 недели), 6 ввоются (с 7 недель)

     data:
       volumes: 1/1 здоровы
       pools:   8 пулов, 321 pgs
       objects: 197.38k объектов, 753 GiB
       usage:   1.5 TiB используется, 993 GiB / 2.5 TiB доступно
       pgs:     39.875% pgs неизвестны
                193 active+clean
                128 unknown

     io:
       client:   341 B/s чтение, 138 KiB/s запись, 0 op/s чтение, 21 op/s запись
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры