Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    migration failed. 2 разных ошибки

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    migration failed. 2 разных ошибки, Proxmox Виртуальная Среда
     
    Northern_War
    Guest
    #1
    0
    28.08.2020 15:16:00
    Всем привет. Мне нужна помощь с двумя ошибками. У меня есть 2 разные ВМ на одном кластере. И я хочу мигрировать их на другой узел. Это могут быть 2 разных узла. Но у меня следующие ошибки. Первая ВМ содержит 2 диска (zfs) 1) Код: drive-scsi1: передано: 34224472064 байт, осталось: 30204100608 байт, всего: 64428572672 байт, прогресс: 53.12 %, занято: 1, готово: 0 drive-scsi1: передано: 34325135360 байт, осталось: 30103437312 байт, всего: 64428572672 байт, прогресс: 53.28 %, занято: 1, готово: 0 drive-scsi1: Отмена блокировки задания drive-scsi1: Завершено. 2020-08-28 15:54:43 ОШИБКА: ошибка онлайн-миграции - ошибка зеркалирования: drive-scsi1: зеркалирование отменено 2020-08-28 15:54:43 прерывание фазы 2 - освобождение ресурсов 2020-08-28 15:54:43 migrate_cancel 2020-08-28 15:54:59 ОШИБКА: миграция завершилась с проблемами (длительность 00:06:04) ОШИБКА ЗАДАЧИ: проблемы миграции Я пытался мигрировать эту ВМ несколько раз на разные узлы, но всегда неудачно. Я видел zfs с именем ВМ на целевом узле, но… + px-node-1 pvedaemon[6856]: команда qmp ВМ 146 не удалась - команда qmp ВМ 146 'block-job-cancel' не удалась - Блокировка задания 'drive-scsi1' не найдена 2) Вторая ВМ была оффлайн. Код: 2020-08-28 15:25:48 найден локальный диск 'data_1:vm-109-disk-0' (в текущей конфигурации ВМ) 2020-08-28 15:25:48 копирование локальных образов дисков полная передача data_1/vm-109-disk-0@__migration__ оценочный размер 5.14G общий оценочный размер 5.14G ВРЕМЯ ОТПРАВЛЕНО СНИМК ДАННЫХ data_1/vm-109-disk-0@__migration__ 15:25:50 2.10M data_1/vm-109-disk-0@__migration__ 15:25:51 2.10M data_1/vm-109-disk-0@__migration__ … 15:27:16 5.12G data_1/vm-109-disk-0@__migration__ команда 'zfs destroy data_1/vm-109-disk-0@__migration__' не удалась: время ожидания истекло отправка/получение не удалось, очищение снимка(ов)… 2020-08-28 15:28:09 ОШИБКА: не удалось синхронизировать данные - команда 'set -o pipefail && pvesm export data_1:vm-109-disk-0 zfs - -with-snapshots 0 -snapshot __migration__ | /usr/bin/ssh -e none -o 'BatchMode=yes' -o 'HostKeyAlias=proxmox-node-4' root@10.1.1.4 -- pvesm import data_1:vm-109-disk-0 zfs - -with-snapshots 0 -delete-snapshot __migration__' не удалась: код выхода 4 2020-08-28 15:28:09 прерывание фазы 1 - освобождение ресурсов 2020-08-28 15:28:09 ОШИБКА: найдена устаревшая копия тома 'data_1:vm-109-disk-0' на узле 'proxmox-node-4' 2020-08-28 15:28:09 ОШИБКА: миграция прервана (длительность 00:02:21): не удалось синхронизировать данные - команда 'set -o pipefail && pvesm export data_1:vm-109-disk-0 zfs - -with-snapshots 0 -snapshot __migration__ | /usr/bin/ssh -e none -o 'BatchMode=yes' -o 'HostKeyAlias=proxmox-node-4' root@10.1.1.4 -- pvesm import data_1:vm-109-disk-0 zfs - -with-snapshots 0 -delete-snapshot __migration__' не удалась: код выхода 4 ОШИБКА ЗАДАЧИ: миграция прервана Исходный узел Код: root@proxmox-node-1:~# pveversion -v proxmox-ve: 6.1-2 (работает ядро: 5.3.13-1-pve) pve-manager: 6.1-3 (работает версия: 6.1-3/37248ce6) pve-kernel-5.3: 6.1-1 pve-kernel-helper: 6.1-1 pve-kernel-5.0: 6.0-11 pve-kernel-5.3.13-1-pve: 5.3.13-1 pve-kernel-5.0.21-5-pve: 5.0.21-10 pve-kernel-5.0.15-1-pve: 5.0.15-1 ceph-fuse: 12.2.11+dfsg1-2.1+b1 corosync: 3.0.2-pve4 criu: 3.11-3 glusterfs-client: 5.5-3 ifupdown: 0.8.35+pve1 ksm-control-daemon: 1.3-1 libjs-extjs: 6.0.1-10 libknet1: 1.13-pve1 libpve-access-control: 6.0-5 libpve-apiclient-perl: 3.0-2 libpve-common-perl: 6.0-9 libpve-guest-common-perl: 3.0-3 libpve-http-server-perl: 3.0-3 libpve-storage-perl: 6.1-2 libqb0: 1.0.5-1 libspice-server1: 0.14.2-4~pve6+1 lvm2: 2.03.02-pve3 lxc-pve: 3.2.1-1 lxcfs: 3.0.3-pve60 novnc-pve: 1.1.0-1 proxmox-mini-journalreader: 1.1-1 proxmox-widget-toolkit: 2.1-1 pve-cluster: 6.1-2 pve-container: 3.0-14 pve-docs: 6.1-3 pve-edk2-firmware: 2.20191127-1 pve-firewall: 4.0-9 pve-firmware: 3.0-4 pve-ha-manager: 3.0-8 pve-i18n: 2.0-3 pve-qemu-kvm: 4.1.1-2 pve-xtermjs: 3.13.2-1 qemu-server: 6.1-3 smartmontools: 7.0-pve2 spiceterm: 3.1-1 vncterm: 1.6-1 zfsutils-linux: 0.8.2-pve2 Целевой узел: Код: root@proxmox-node-4:~# pveversion -v proxmox-ve: 6.2-1 (работает ядро: 5.4.55-1-pve) pve-manager: 6.2-11 (работает версия: 6.2-11/22fb4983) pve-kernel-5.4: 6.2-5 pve-kernel-helper: 6.2-5 pve-kernel-5.0: 6.0-11 pve-kernel-5.4.55-1-pve: 5.4.55-1 pve-kernel-5.0.21-5-pve: 5.0.21-10 pve-kernel-5.0.15-1-pve: 5.0.15-1 ceph-fuse: 12.2.11+dfsg1-2.1+b1 corosync: 3.0.4-pve1 criu: 3.11-3 glusterfs-client: 5.5-3 ifupdown: 0.8.35+pve1 ksm-control-daemon: 1.3-1 libjs-extjs: 6.0.1-10 libknet1: 1.16-pve1 libproxmox-acme-perl: 1.0.4 libpve-access-control: 6.1-2 libpve-apiclient-perl: 3.0-3 libpve-common-perl: 6.1-5 libpve-guest-common-perl: 3.1-2 libpve-http-server-perl: 3.0-6 libpve-storage-perl: 6.2-6 libqb0: 1.0.5-1 libspice-server1: 0.14.2-4~pve6+1 lvm2: 2.03.02-pve4 lxc-pve: 4.0.3-1 lxcfs: 4.0.3-pve3 novnc-pve: 1.1.0-1 proxmox-mini-journalreader: 1.1-1 proxmox-widget-toolkit: 2.2-10 pve-cluster: 6.1-8 pve-container: 3.1-12 pve-docs: 6.2-5 pve-edk2-firmware: 2.20200531-1 pve-firewall: 4.1-2 pve-firmware: 3.1-2 pve-ha-manager: 3.0-9 pve-i18n: 2.1-3 pve-qemu-kvm: 5.0.0-12 pve-xtermjs: 4.7.0-1 qemu-server: 6.2-11 smartmontools: 7.1-pve2 spiceterm: 3.1-1 vncterm: 1.6-2 zfsutils-linux: 0.8.4-pve1
     
     
     
    Northern_War
    Guest
    #2
    0
    16.09.2020 15:48:00
    Привет, извини за долгое ожидание ответа. Моя главная задача — обновить весь кластер Proxmox. Для этого я пытался перенести виртуальные машины на другие узлы кластера, но не все виртуалки удалось успешно мигрировать. Первая виртуальная машина из моего предыдущего поста мигрировала только тогда, когда была выключена. Я пытался разобраться, что происходило во время миграции, и дошел до команды 'qm monitor', и именно в этот момент возникла проблема. Не было задачи на миграцию после 53% процесса. px-node-1 pvedaemon[6856]: VM 146 qmp команда не удалась - qmp команда 'block-job-cancel' для VM 146 не удалась - Задача блока 'drive-scsi1' не найдена.
     
     
     
    oguz
    Guest
    #3
    0
    16.09.2020 16:38:00
    можешь протестировать, работает ли SSH между узлами? Это должно работать без взаимодействия. Какая размерность ВМ, которые ты пытаешься мигрировать? Можешь выложить конфигурации из qm config VMID?
     
     
     
    Northern_War
    Guest
    #4
    0
    17.09.2020 12:12:00
    Bash: # qm config 146 balloon: 2048 bootdisk: scsi0 cores: 4 ide2: none,media=cdrom memory: 4096 name: some-vm-on-proxmox.my.zone net0: virtio=xx:xx:xx:xx:xx:xx,bridge=vmbr0,firewall=1,tag=36 numa: 0 onboot: 1 ostype: l26 scsi0: data_2:vm-146-disk-0,size=5G scsi1: data_2:vm-146-disk-1,size=32G scsihw: virtio-scsi-pci smbios1: uuid=8ebff6ef-c36d-4e69-ba03-847025427639 sockets: 1 vmgenid: d7672a52-a429-4a7e-97dc-e2dd63911e22 У меня несколько раз возникали проблемы с разными целевыми узлами. Проблем с подключениями между узлами кластера не было. Я уже мигрировал эту виртуалку через отключение.
     
     
     
    oguz
    Guest
    #5
    0
    17.09.2020 12:17:00
    хорошо, конфигурация выглядит вполне нормальной, диски находятся на data_2. какой это бэкенд хранения? можешь выложить содержимое /etc/pve/storage.cfg? я спрашиваю из-за этой ошибки: Код: px-node-1 pvedaemon[6856]: команда qmp VM 146 не удалась - команда qmp VM 146 'block-job-cancel' не удалась - Задача блокировки 'drive-scsi1' не найдена, так как scsi1 не найден во время миграции.
     
     
     
    Northern_War
    Guest
    #6
    0
    17.09.2020 12:36:00
    Bash: dir: local
           путь /var/lib/vz
           содержимое rootdir,iso,images,snippets
           maxfiles 0
           shared 0

    zfspool: data_1
           пул data_1
           содержимое rootdir,images
           sparse 0

    zfspool: data_2
           пул data_2
           содержимое images,rootdir
           sparse 0

    nfs: ds10
           экспорт /vol/proxmox
           путь /mnt/pve/ds10
           сервер 10.1.10.35
           содержимое backup,iso
           maxfiles 1
           опции vers=3

    nfs: Backups
           экспорт /BackupData
           путь /mnt/pve/Backups
           сервер backup-01.my.zone
           содержимое backup,vztmpl
           maxfiles 3
           опции vers=3 " Живая миграция началась нормально, но спустя некоторое время (примерно на 50% миграции) была получена эта ошибка.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры