Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Резервное копирование не удалось, так как логический том уже существует в группе томов.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Резервное копирование не удалось, так как логический том уже существует в группе томов., Proxmox Виртуальная Среда
     
    Oskari Jokinen
    Guest
    #1
    0
    22.03.2018 09:16:00
    Привет, у нас недавно возникла проблема с кластером Proxmox после обновления до последней версии, которая, скорее всего, была связана с ошибкой в ядре, упомянутой в github.com/lxc/lxc/issues/2141. Это в итоге заставило нас перезагрузить обновленный гипервизор, когда он перестал отвечать после перезапуска некоторых контейнеров. pveversion pve-manager/5.1-46/ae8241d4 (используемое ядро: 4.13.13-6-pve). Теперь есть один контейнер, который не может делать резервные копии, (некоторые названия в выводе были изменены из соображений безопасности). INFO: старт нового задания резервного копирования: vzdump 1246 --node hypervisor1 --remove 0 --mode snapshot --storage local-backup2 --compress lzo INFO: Начало резервного копирования ВМ 1246 (lxc) INFO: статус = работающий INFO: Название CT: container1 INFO: режим резервного копирования: snapshot INFO: приоритет ionice: 7 INFO: создается снимок хранилища 'vzdump' Используется размер полос по умолчанию 64.00 KiB. создание снимка завершилось неудачей: старт очистки, не найдено блокировки, пытаясь удалить 'backup' блокировка ERROR: Резервное копирование ВМ 1246 не удалось - lvcreate snapshot 'pve/snap_vm-1246-disk-1_vzdump' ошибка: Логический том "snap_vm-1246-disk-1_vzdump" уже существует в группе томов "pve" INFO: Задание резервного копирования завершилось с ошибками TASK ERROR: ошибки задания В системе есть LV с таким именем, созданный, когда система упала из-за ранее упомянутой проблемы; lvdisplay /dev/pve/snap_vm-1246-disk-1_vzdump --- Логический том --- Путь LV                /dev/pve/snap_vm-1246-disk-1_vzdump Имя LV                snap_vm-1246-disk-1_vzdump Имя VG                pve UUID LV                4wgqeR-OpvP-xVo9-1JkD-yazS-4Ugb-lKZ2an Доступ на запись LV        только для чтения Хост и время создания LV hypervisor1, 2018-03-19 22:58:26 +0200 Имя пула LV           data Имя оригинала тонкого LV    vm-1246-disk-1 Статус LV              Доступен Наличие LV                250.00 GiB Текущий LE             64000 Сегменты               1 Распределение             наследуется Чтение вперед сектора     авто Безопасно ли просто удалить этот том с помощью lvremove или есть другой способ решения такой проблемы?
     
     
     
    starnetwork
    Guest
    #2
    0
    30.04.2018 22:23:00
    Найдите решение: 1. покажите это с помощью группы томов, используя команду: lvdisplay 2. удалите этот lv командой: lvremove /dev/pve/snap_vm-326-disk-1_vzdump теперь новые снимки работают.
     
     
     
    netdesignate
    Guest
    #3
    0
    18.02.2019 16:09:00
    Спасибо @starnetwork - это было очень полезно - это идеально решило мою проблему.
     
     
     
    Oskari Jokinen
    Guest
    #4
    0
    09.04.2018 16:06:00
    Привет, мы тоже пока ничего не сделали с объемом, я ждал, что кто-то здесь поделится своим опытом по этому поводу, прежде чем пытаться это удалить. -Оскари
     
     
     
    starnetwork
    Guest
    #5
    0
    22.04.2018 11:43:00
    та же история, есть ли решение без резервного копирования данных > удалить контейнер -> восстановить все -> восстановить данные?
     
     
     
    starnetwork
    Guest
    #6
    0
    24.04.2018 11:56:00
    как мне удалить snap_vm-326-disk-1_vzdump? команда lvremove snap_vm-326-disk-1_vzdump не работает root@server215:/# lvs LV                        VG  Attr       LSize   Pool Origin        Data%  Meta%  Move Log Cpy%Sync Convert data                      pve twi-aotz-- 716.38g                    56.15  25.99 root                      pve -wi-ao----  96.00g snap_vm-326-disk-1_vzdump pve Vri---tz-k  20.00g data vm-326-disk-1 swap                      pve -wi-ao----   8.00g vm-103-disk-1             pve Vwi-aotz--  10.00g data               71.72 vm-213-disk-1             pve Vwi-aotz-- 130.00g data               53.38 vm-224-disk-1             pve Vwi-aotz--  20.00g data               14.15 vm-226-disk-1             pve Vwi-aotz-- 150.00g data               86.69 vm-231-disk-1             pve Vwi-aotz--  50.00g data               24.31 vm-234-disk-1             pve Vwi-aotz--  30.00g data               75.50 vm-235-disk-1             pve Vwi-aotz--  40.00g data               90.18 vm-311-disk-1             pve Vwi-aotz--  30.00g data               31.17 vm-322-disk-1             pve Vwi-aotz--  30.00g data               65.75 vm-323-disk-1             pve Vwi-aotz--  20.00g data               40.26 vm-326-disk-1             pve Vwi-aotz--  20.00g data               31.99 vm-331-disk-1             pve Vwi-aotz-- 150.00g data               32.88
     
     
     
    PiaZaccharias
    Guest
    #7
    0
    18.02.2019 18:25:00
    Привет, ребята, у меня почти такая же проблема с одной ВМ: Код: INFO: включить диск 'scsi0' 'local-lvm-2t:vm-100-disk-0' 40G INFO: включить диск 'scsi1' 'local-lvm-2t:vm-100-disk-1' 30G Найдено несколько VG с тем же именем: пропускаем vgData ОШИБКА: резервное копирование ВМ 100 не удалось - нет такого тома 'local-lvm-2t:vm-100-disk-0' INFO: Задание резервного копирования завершилось с ошибками ОШИБКА ЗАДАЧИ: ошибки задания Но в lvs | grep vm-100 показывается следующее: Код: # lvs | grep vm-100 vm-100-disk-0 vgData Vwi-a-tz-- 40.00g lvThinPool 100.00 vm-100-disk-1 vgData Vwi-a-tz-- 30.00g lvThinPool 0.08 Так что это действительно диски для ВМ... и я не хочу их удалять, так как данные там... есть идеи, как это решить?
     
     
     
    PiaZaccharias
    Guest
    #8
    0
    18.02.2019 19:13:00
    Интересно.. проблема, видимо, в том, что у меня есть vgData на хосте и также в госте.. и почему-то выдает эту ошибку.. когда я удалил vgData из гостя, резервное копирование заработало.. ошибка?
     
     
     
    borpin
    Guest
    #9
    0
    30.11.2022 16:15:00
    Большое спасибо, это решило мою проблему.
     
     
     
    liuhonglu
    Guest
    #10
    0
    16.10.2023 15:01:00
    Можешь помочь мне? Я не могу это удалить по вашим инструкциям.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры