Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Не удалось завершить миграцию хранилища: ошибка задания на блоки (зеркалирование).

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Не удалось завершить миграцию хранилища: ошибка задания на блоки (зеркалирование)., Proxmox Виртуальная Среда
     
    cglmicro
    Guest
    #1
    0
    09.04.2025 17:25:00
    Привет, я пытаюсь перенести VM с одного узла на другой в том же кластере, но в конце происходит ошибка:

    Код: 2025-04-09 10:23:55 использовать выделенный сетевой адрес для отправки трафика миграции (192.168.150.26)
    2025-04-09 10:23:55 начало миграции VM 11011 на узел 'proxmox26s' (192.168.150.26)
    2025-04-09 10:23:55 найден локальный диск 'local:11011/vm-11011-disk-0.qcow2' (присоединен)
    2025-04-09 10:23:55 найден локальный диск 'local:11011/vm-11011-disk-1.qcow2' (присоединен)
    2025-04-09 10:23:55 завершение подготовки миграции
    2025-04-09 10:23:55 average migration speed: 95.6 MiB/s - downtime 58 ms
    2025-04-09 10:23:55 migration status: completed
    все 'mirror' задания готовы
    drive-scsi0: Завершение задания с блоками...
    drive-scsi0: Завершено успешно.
    drive-scsi1: Завершение задания с блоками...
    drive-scsi1: Завершено успешно.
    drive-scsi0: Отмена задания с блоками
    drive-scsi1: Отмена задания с блоками
    drive-scsi0: Готово.
    ПРЕДУПРЕЖДЕНИЕ: drive-scsi1: Ошибка ввода/вывода (состояние ввода/вывода: ok)
    drive-scsi1: Готово.
    2025-04-09 10:57:22 ОШИБКА: сбой онлайн-миграции - Не удалось завершить миграцию хранилища: ошибка задания с блоками (зеркало): drive-scsi0: Ошибка ввода/вывода (состояние ввода/вывода: ok)
    2025-04-09 10:57:22 прерывание этапа 2 - очистка ресурсов
    2025-04-09 10:57:22 migrate_cancel
    2025-04-09 10:57:28 ОШИБКА: миграция завершилась с проблемами (продолжительность 00:33:33)
    TASK ERROR: проблемы с миграцией. Нет снимка, нет TPM, и вот спецификации VM: Стоит ли попробовать запланировать время простоя на 30 минут, выключить VM и попытаться перенести ее с выключенной VM? Ваша помощь была бы оценена Спасибо.
     
     
     
    fiona
    Guest
    #2
    0
    10.04.2025 09:36:00
    Привет, пожалуйста, предоставь вывод команды pveversion -v, а также системный лог/журнал примерно на момент возникновения проблемы с узла источника и целевого узла. Также поделись результатом выполнения команды qm config 11011.
     
     
     
    cglmicro
    Guest
    #3
    0
    11.04.2025 20:46:00
    Привет, Фиона!

    Спасибо за ответ. Я попробовал еще раз вчера после обновления с PVE 8.3.x на 8.4.0, та же проблема. Логи прикреплены к этому тикету. Вот конфигурация ВМ:

    ```
    Code:
    root@proxmox24s:~# qm config 11011
    agent: 1,fstrim_cloned_disks=1
    bootdisk: scsi0
    cores: 9
    cpu: host
    ide2: none,media=cdrom
    memory: 18432
    name: ssd2.legardeur.net
    net0: virtio=02:00:00:6d:6a:f9,bridge=vmbr0
    numa: 1
    onboot: 1
    ostype: l26
    protection: 1
    scsi0: local:11011/vm-11011-disk-0.qcow2,discard=on,format=qcow2,size=325G
    scsi1: local:11011/vm-11011-disk-1.qcow2,discard=on,size=50G
    scsihw: virtio-scsi-pci
    smbios1: uuid=91f02b56-3f07-45c3-95b2-b35470e9a540
    sockets: 1
    vmgenid: 03d21b16-1578-4f87-93c2-2d6915a6faf8
    ```

    С источника (PROXMOX24S):

    ```
    Code:
    root@proxmox24s:~# pveversion -v
    proxmox-ve: 8.4.0 (running kernel: 6.8.12-8-pve)
    pve-manager: 8.4.0 (running version: 8.4.0/ec58e45e1bcdf2ac)
    proxmox-kernel-helper: 8.1.1
    pve-kernel-6.2: 8.0.5
    pve-kernel-5.15: 7.0.104-pve3
    novnc-pve: 1.6.0-2
    lxc-pve: 6.0.0-1
    lxcfs: 6.0.0-pve2
    proxmox-backup-client: 3.3.7-1
    proxmox-backup-file-restore: 3.3.7-1
    proxmox-firewall: 0.7.1
    proxmox-mail-forward: 0.3.2
    proxmox-mini-journalreader: 1.4.0
    proxmox-widget-toolkit: 4.3.10
    pve-cluster: 8.1.0
    pve-container: 5.2.6
    pve-docs: 8.4.0
    pve-edk2-firmware: 4.2025.02-3
    pve-esxi-import-tools: 0.7.3
    pve-firewall: 5.1.1
    pve-firmware: 3.15-3
    pve-ha-manager: 4.0.7
    pve-i18n: 3.4.2
    pve-qemu-kvm: 9.2.0-5
    pve-xtermjs: 5.5.0-2
    qemu-server: 8.3.12
    smartmontools: 7.3-pve1
    spiceterm: 3.3.0
    swtpm: 0.8.0+pve1
    vncterm: 1.8.0
    zfsutils-linux: 2.2.7-pve2
    ```

    С назначения (PROXMOX26S):

    ```
    Code:
    root@proxmox26s:~# pveversion -v
    proxmox-ve: 8.4.0 (running kernel: 6.8.12-8-pve)
    pve-manager: 8.4.0 (running version: 8.4.0/ec58e45e1bcdf2ac)
    proxmox-kernel-helper: 8.1.1
    proxmox-kernel-6.8: 6.8.12-9
    proxmox-kernel-6.8.12-9-pve-signed: 6.8.12-9
    proxmox-kernel-6.8.12-8-pve-signed: 6.8.12-8
    proxmox-kernel-6.8.12-5-pve-signed: 6.8.12-5
    proxmox-kernel-6.8.12-4-pve-signed: 6.8.12-4
    ceph-fuse: 17.2.7-pve3
    corosync: 3.1.9-pve1
    criu: 3.17.1-2+deb12u1
    glusterfs-client: 10.3-5
    ifupdown2: 3.2.0-1+pmx11
    ksm-control-daemon: 1.5-1
    libjs-extjs: 7.0.0-5
    libknet1: 1.30-pve2
    libproxmox-acme-perl: 1.6.0
    libproxmox-backup-qemu0: 1.5.1
    libproxmox-rs-perl: 0.3.5
    libpve-access-control: 8.2.2
    libpve-apiclient-perl: 3.3.2
    libpve-cluster-api-perl: 8.1.0
    libpve-cluster-perl: 8.1.0
    libpve-common-perl: 8.3.1
    libpve-guest-common-perl: 5.2.2
    libpve-http-server-perl: 5.2.2
    libpve-network-perl: 0.11.2
    libpve-rs-perl: 0.9.4
    libpve-storage-perl: 8.3.6
    libspice-server1: 0.15.1-1
    lvm2: 2.03.16-2
    lxc-pve: 6.0.0-1
    lxcfs: 6.0.0-pve2
    novnc-pve: 7.1.0-3
    proxmox-backup-client: 3.3.7-1
    proxmox-backup-file-restore: 3.3.7-1
    proxmox-firewall: 0.7.1
    proxmox-kernel-helper: 8.1.1
    proxmox-mail-forward: 0.3.2
    proxmox-mini-journalreader: 1.4.0
    proxmox-offline-mirror-helper: 0.6.7
    proxmox-widget-toolkit: 4.3.10
    pve-cluster: 8.1.0
    pve-container: 5.2.6
    pve-docs: 8.4.0
    pve-edk2-firmware: 4.2025.02-3
    pve-esxi-import-tools: 0.7.3
    pve-firewall: 5.1.1
    pve-firmware: 3.15-3
    pve-ha-manager: 4.0.7
    pve-i18n: 3.4.2
    pve-qemu-kvm: 9.2.0-5
    pve-xtermjs: 5.5.0-2
    qemu-server: 8.3.12
    smartmontools: 7.3-pve1
    spiceterm: 3.3.0
    swtpm: 0.8.0+pve1
    vncterm: 1.8.0
    zfsutils-linux: 2.2.7-pve2
    ```

    Спасибо!
     
     
     
    fiona
    Guest
    #4
    0
    22.04.2025 11:58:00
    В целевой системе возникла следующая ошибка: Код: QEMU[1710235]: kvm: Putting registers after init: Failed to set special registers: Invalid argument. Вы используете тип процессора host для ВМ. В этом случае гарантировать успешную миграцию в реальном времени можно только в том случае, если на обеих сторонах (источнике и целевой системе) используется абсолютно идентичная модель физического процессора. Вы можете проверить это с помощью lscpu, иногда даже может потребоваться одинаковая версия микрокода. Смотрите: https://pve.proxmox.com/pve-docs/chapter-qm.html#_cpu_type Кроме того, много сообщений от Corosync. Используете ли вы одну и ту же сеть для миграции и Corosync? Это не рекомендуется, так как Corosync требует низкой задержки.
     
     
     
    cglmicro
    Guest
    #5
    0
    03.05.2025 16:09:00
    Привет, Фиона! Я вообще не использую Corosync между своими нодами. Попробую мигрировать в следующий раз, но не с живой миграцией, когда семейства серверов не идентичны. Спасибо за помощь.
     
     
     
    fiona
    Guest
    #6
    0
    05.05.2025 10:31:00
    Журналы не врут. Если у вас есть кластер, значит, используете Corosync: https://pve.proxmox.com/pve-docs/chapter-pvecm.html
     
     
     
    cglmicro
    Guest
    #7
    0
    05.05.2025 12:23:00
    Привет, Извини, я запутался с Ceph :-/. Да, конечно, я использую Corosync. Он на отдельной сетевой карте под адресом 192.168.x.x. Спасибо.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры