Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    [РЕШЕНО]Как восстановить диски виртуальных машин после локального удаления ZFS Ребята, у кого-то были похожие проблемы? Недавно случайно удалил локальный пул ZFS, в котором хранились диски виртуальных машин. Сейчас пытаюсь их восстановить. Вот что я сд

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    [РЕШЕНО]Как восстановить диски виртуальных машин после локального удаления ZFS Ребята, у кого-то были похожие проблемы? Недавно случайно удалил локальный пул ZFS, в котором хранились диски виртуальных машин. Сейчас пытаюсь их восстановить. Вот что я сд, Proxmox Виртуальная Среда
     
    Vaillant
    Guest
    #1
    0
    06.04.2025 23:54:00
    Привет, я совершил глупую ошибку и нуждаюсь в помощи. К сожалению, я удалил локальное zfs вместе со всеми дисками виртуальных машин. Благодаря резервной копии мне удалось восстановить большинство ВМ, но две из них не работают: одна – потому что у меня не было резервной копии, а другая – потому что недостаточно памяти для восстановления. Вот данные, которые я получаю при перечислении ZFS:
    root@Homelab1:~# zfs list
    NAME                                USED  AVAIL  REFER  MOUNTPOINT
    rpool                               740G   160G    96K  /rpool
    rpool/ROOT                          139G   160G    96K  /rpool/ROOT
    rpool/ROOT/pve-1                    139G   160G   139G  /
    rpool/data                          304G   160G    96K  /rpool/data
    rpool/data/vm-100-disk-0           29.1G   160G  29.1G  -
    rpool/data/vm-101-disk-0           6.59G   160G  6.59G  -
    rpool/data/vm-101-disk-1           35.0G   160G  35.0G  -
    rpool/data/vm-102-disk-0           8.55G   160G  8.55G  -
    rpool/data/vm-200-disk-0           74.8G   160G  47.0G  -
    rpool/data/vm-200-state-BeforeUPS  2.94G   160G  2.94G  -
    rpool/data/vm-200-state-Updated    6.13G   160G  6.13G  -
    rpool/data/vm-201-disk-0           11.8G   160G  11.8G  -
    rpool/data/vm-202-disk-0           41.2G   160G  41.2G  -
    rpool/data/vm-301-disk-0           17.7G   160G  17.7G  -
    rpool/data/vm-302-disk-0           20.9G   160G  20.9G  -
    rpool/data/vm-401-disk-0           49.7G   160G  49.7G  -
    rpool/vm-101-disk-0                16.3G   169G  6.59G  -
    rpool/vm-101-disk-1                81.3G   205G  35.4G  -
    rpool/vm-102-disk-0                36.6G   188G  8.50G  -
    rpool/vm-301-disk-0                65.0G   207G  17.7G  -
    rpool/vm-302-disk-0                32.5G   171G  21.5G  -
    rpool/vm-401-disk-0                65.0G   174G  50.6G  -

    Мне нужно восстановить vm-100: я вижу диск в data, но не имею ни малейшего представления, как перенести его в rpool (я новичок). Мне также нужно восстановить vm-200, но у меня есть резервная копия, которая не работает. Таким образом, я полагаю, что лучший вариант — следовать той же процедуре, что и для vm-100. Хотел бы узнать, как удалить vm-201 и vm-202, так как они были удалены из интерфейса, но из-за моей ошибки они все еще находятся в пуле.
     
     
     
    aj@root
    Guest
    #2
    0
    09.04.2025 07:38:00
    Основы ZFS. Я бы рекомендовал ознакомиться с вводным материалом по ZFS. Это тот случай, когда, хотя я бы не советовал воспринимать это как истину в последней инстанции, можно пообщаться с LLM, чтобы понять суть и приобрести необходимую лексику, чтобы понимать, какие вопросы задавать. Само знание различных команд `zfs` для перечисления, создания, удаления, отправки, получения и понимание того, как они работают (реальное копирование против связанного снимка) очень полезно. Тем не менее... я не думаю, что это нам нужно для решения вашей проблемы.

    Восстановление локального хранилища. Я думаю, что вы просто удалили ссылку на локальное хранилище в веб-интерфейсе, как здесь:


    Да? Так что вам просто нужно добавить его обратно!


    Управление хранилищем. Вы можете использовать `zfs destroy` для удаления этих "блуждающих" томов, но также можете использовать диспетчер хранилища на каждом узле:

    Вы не сможете удалить их, пока не удалите владеющую их ВМ. Если вы уже добавили `local` обратно, вам может потребоваться немного потанцевать, создав `local2`, переместив туда все, удалив `local` (когда он станет пустым), удалив `local2` (просто ссылку в Центре обработки данных) и добавив его обратно как `local`.

    Миграция дисков. Вы можете использовать `zfs send` и `zfs receive` для копирования томов между наборами данных, но также можете использовать веб-интерфейс


    Поскольку у вас закончилось дисковое пространство, вам может потребоваться удалить неиспользованные диски из хранилища, прежде чем перемещать какие-либо другие. Если вы удалите их с помощью веб-интерфейса, там будут проверки, чтобы предотвратить ошибки. Если вы используете `zfs destroy`, он просто выполнит то, что вы ему скажете.

    P.S. Кстати, чтобы не путать, "memory" – это ОЗУ, а "storage" – это диск. Я знаю, что во многих кругах "memory" употребляется для обозначения многого, но в IT-мире это разные вещи.
     
     
     
    aj@root
    Guest
    #3
    0
    09.04.2025 07:47:00
    В зависимости от того, насколько все запутанно, возможно, будет полезно отредактировать некоторые файлы в /etc/pve/qemu-server/*.conf и вручную изменить несколько строк. Например, можно изменить scsi0: local:101/vm-101-disk-0.qcow2,cache=writethrough,discard=on,size=32G,ssd=1 на scsi0: local2:101/vm-101-disk-0.qcow2,cache=writethrough,discard=on,size=32G,ssd=1, а потом, в зависимости от того, как вы пытаетесь все перетасовать, вернуть обратно. Я рекомендую скопировать файл, отредактировать его, а затем скопировать обратно:

    Bash:
    mkdir -p ~/Backups
    cp -RPp /etc/pve/qemu-server/101.conf ~/Backups/101.conf
    cp -RPp /etc/pve/qemu-server/101.conf /tmp/101.conf
    nano /tmp/101.conf
    mv /tmp/101.conf /etc/pve/qemu-server/

    Или вам это вообще может быть не нужно. Возможно, вы сможете все сделать через веб-интерфейс. Но, вероятно, будут какие-то ошибки вроде "не удалось найти диск" или что-то в этом роде. В таком случае, сделайте это, чтобы указать правильный Datacenter Storage ID. Вы должны быть в состоянии вернуть все в порядок без особых проблем.
     
     
     
    Vaillant
    Guest
    #4
    0
    10.04.2025 01:19:00
    Огромное спасибо за помощь, я смог вернуться туда, куда хотел.
     
     
     
    aj@root
    Guest
    #5
    0
    11.04.2025 01:59:00
    @Vaillant Не за что. Рад, что это помогло вернуть всё в нормальное состояние. Не могли бы вы пометить эту тему как "Решено"?
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры