Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Не удалось активировать новый LV при создании/клонировании виртуальной машины.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Не удалось активировать новый LV при создании/клонировании виртуальной машины., Proxmox Виртуальная Среда
     
    monk
    Guest
    #1
    0
    11.07.2017 15:46:00
    Сначала вывод сообщения об ошибке из интерфейса Proxmox: создать полный клон диска virtio0 (vms:vm-993-disk-1) device-mapper: создание ioctl на vms-vm--109--disk--1 завершилось неудачей: Устройство или ресурс заняты ЗАДАЧА ОШИБКА: клон не удался: lvcreate 'vms/pve-vm-109' ошибка: Не удалось активировать новый LV. Это происходит всегда (воспроизводимо), когда виртуальная машина удаляется, а затем создается или клонируется новая виртуальная машина с тем же идентификатором vmid в качестве целевого vmid. Исследуя эту проблему, я обнаружил, что устройство mapper не освобождает логические разделы после удаления виртуальной машины: root@phase-n1:/dev# dmsetup table | grep 109 vms-vm--109--disk--2: 0 104857600 linear 251:0 2712145920 vms-vm--109--disk--1: 0 20971520 linear 251:0 8017580032 Это можно обойти с помощью dmsetup remove vms-vm--109--disk--1. После этого шага создание/клонирование снова работает для конкретного vmid. Мы используем напрямую подключенное хранилище с 5 вычислительными узлами и LVM для управления изоляцией дисков виртуальных машин (это работает как для kvm, так и для lxc). Это наша версия: proxmox-ve: 4.4-87 (работающий ядро: 4.4.59-1-pve) pve-manager: 4.4-13 (работающая версия: 4.4-13/7ea56165) pve-kernel-4.4.35-1-pve: 4.4.35-77 pve-kernel-4.4.59-1-pve: 4.4.59-87 pve-kernel-4.4.44-1-pve: 4.4.44-84 lvm2: 2.02.116-pve3 corosync-pve: 2.4.2-2~pve4+1 libqb0: 1.0.1-1 pve-cluster: 4.0-49 qemu-server: 4.0-110 pve-firmware: 1.1-11 libpve-common-perl: 4.0-94 libpve-access-control: 4.0-23 libpve-storage-perl: 4.0-76 pve-libspice-server1: 0.12.8-2 vncterm: 1.3-2 pve-docs: 4.4-4 pve-qemu-kvm: 2.7.1-4 pve-container: 1.0-99 pve-firewall: 2.0-33 pve-ha-manager: 1.0-40 ksm-control-daemon: 1.2-1 glusterfs-client: 3.5.2-2+deb8u3 lxc-pve: 2.0.7-4 lxcfs: 2.0.6-pve1 criu: 1.6.0-1 novnc-pve: 0.5-9 smartmontools: 6.5+svn4324-1~pve80 zfsutils: 0.6.5.9-pve15~bpo80 Я не знаю, связано ли это с нашей конфигурацией DAS или это баг внутри Proxmox в целом (возможно, какой-то вызов не доходит до device mapper или что-то в этом роде?). Сам DAS не должен быть проблемой, так как он просто отображается в узлах как обычный физический LVM-раздел с группой объемов (настроенный через CLI), предоставленный Proxmox (настроенный через GUI).
     
     
     
    xPakrikx
    Guest
    #2
    0
    20.01.2020 14:25:00
    Та же проблема в нашей среде: один кластер версии 5.4.X (6 узлов, iSCSI/FC с MP) и второй кластер версии 6.0.X (2 узла, iSCSI). Похоже, это ошибка в очистке ВМ. LV все еще смонтирован на некоторых узлах.
     
     
     
    xPakrikx
    Guest
    #3
    0
    22.01.2020 13:28:00
    Из тестирования и исследования: мультипат не участвует в этой проблеме (тестировалось на нескольких кластерах с мультипатом и без него) оборудование хранения или протокол передачи данных не участвуют в этой проблеме (тестировалось на iSCSI и FC на различных типах хранилищ) LVM не участвует в этой проблеме (репликация LVM между узлами работает корректно) очистка ВМ не участвует в этой проблеме (ВМ удаляется правильно с LV и DM) Проблема возникает случайным образом при создании ВМ. LV смонтирован на других узлах, кроме узла, на котором работает ВМ. Поэтому при удалении ВМ LV удаляется из всего кластера, но DM удаляется только на узле, где работала ВМ. Есть ли какие-то сведения от разработчиков Proxmox о том, что может вызывать эти проблемы с DM?
     
     
     
    Dzung
    Guest
    #4
    0
    31.10.2021 05:17:00
    Может кто-то решить эту проблему? У меня тоже такая же ошибка при работе с iSCSI, я использую Proxmox 7.
     
     
     
    tuneo
    Guest
    #5
    0
    25.11.2021 16:30:00
    Для меня проблема та же самая на одном узле. После того как я убедился, что нет резервной копии этого ID виртуальной машины, или даже сменил ID виртуальной машины на другой, я могу создать новую виртуальную машину, используя ID, который определенно уникален.
     
     
     
    aasami
    Guest
    #6
    0
    03.08.2023 08:18:00
    Спасибо, @monk! Ваше решение с кодом: dmsetup remove работает отлично. Надеюсь, разработчики Proxmox когда-нибудь исправят эту неприятность.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры