У меня слетела ВМ после живой миграции с одного хоста на другой. Восстанавливать повреждённый диск было слишком заморочно, поэтому решил откатиться к бэкапу, сделанному раньше в тот же день. Проблема в том, что не могу восстановить напрямую на хранилище gluster. Он сразу падает с такой ошибкой:
Code: restore vma archive: vma extract -v -r /var/tmp/vzdumptmp9100.fifo /mnt/pve/filer/dump/vzdump-qemu-103-2016_04_02-03_15_01.vma /var/tmp/vzdumptmp9100
CFG: size: 606 name: qemu-server.conf
DEV: dev_id=1 size: 10737418240 devname: drive-scsi0
DEV: dev_id=2 size: 107374182400 devname: drive-scsi1
CTIME: Sat Apr 2 03:15:02 2016
[2016-04-02 22:19:41.341953] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
[2016-04-02 22:19:41.719619] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
[2016-04-02 22:19:41.996203] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
Форматирование 'gluster://pve1-cluster/datastore/images/103/vm-103-disk-1.qcow2', fmt=qcow2 size=10737418240 encryption=off cluster_size=65536 preallocation=metadata lazy_refcounts=off refcount_bits=16
[2016-04-02 22:19:42.267284] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
новый ID тома 'datastore:103/vm-103-disk-1.qcow2'
маппинг 'drive-scsi0' на 'gluster://pve1-cluster/datastore/images/103/vm-103-disk-1.qcow2' (write zeros = 0)
[2016-04-02 22:19:42.460444] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
[2016-04-02 22:19:42.797402] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
[2016-04-02 22:19:43.361414] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
Форматирование 'gluster://pve1-cluster/datastore/images/103/vm-103-disk-2.qcow2', fmt=qcow2 size=107374182400 encryption=off cluster_size=65536 preallocation=metadata lazy_refcounts=off refcount_bits=16
[2016-04-02 22:19:43.755407] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
новый ID тома 'datastore:103/vm-103-disk-2.qcow2'
маппинг 'drive-scsi1' на 'gluster://pve1-cluster/datastore/images/103/vm-103-disk-2.qcow2' (write zeros = 0)
** (process:9101): ERROR **: vma_reader_register_bs для потока drive-scsi1 провалился — неожиданная длина 107390828544 != 107374182400
временный том 'datastore:103/vm-103-disk-1.qcow2' успешно удалён
временный том 'datastore:103/vm-103-disk-2.qcow2' успешно удалён
ОШИБКА ЗАДАЧИ: команда 'vma extract -v -r /var/tmp/vzdumptmp9100.fifo /mnt/pve/filer/dump/vzdump-qemu-103-2016_04_02-03_15_01.vma /var/tmp/vzdumptmp9100' провалилась: получен сигнал 5
Сейчас восстанавливаю на "локальное" хранилище, а потом перемещу обратно на gluster.
Code: # pveversion -v
proxmox-ve: 4.1-39 (ядро: 4.2.8-1-pve)
pve-manager: 4.1-22 (версия: 4.1-22/aca130cf)
pve-kernel-4.2.6-1-pve: 4.2.6-36
pve-kernel-3.19.8-1-pve: 3.19.8-3
pve-kernel-4.2.8-1-pve: 4.2.8-39
pve-kernel-4.1.3-1-pve: 4.1.3-7
pve-kernel-4.2.0-1-pve: 4.2.0-13
pve-kernel-4.2.1-1-pve: 4.2.1-14
pve-kernel-4.2.2-1-pve: 4.2.2-16
pve-kernel-4.2.3-2-pve: 4.2.3-22
lvm2: 2.02.116-pve2
corosync-pve: 2.3.5-2
libqb0: 1.0-1
pve-cluster: 4.0-36
qemu-server: 4.0-64
pve-firmware: 1.1-7
libpve-common-perl: 4.0-54
libpve-access-control: 4.0-13
libpve-storage-perl: 4.0-45
pve-libspice-server1: 0.12.5-2
vncterm: 1.2-1
pve-qemu-kvm: 2.5-9
pve-container: 1.0-52
pve-firewall: 2.0-22
pve-ha-manager: 1.0-25
ksm-control-daemon: 1.2-1
glusterfs-client: 3.5.2-2+deb8u1
lxc-pve: 1.1.5-7
lxcfs: 2.0.0-pve2
cgmanager: 0.39-pve1
criu: 1.6.0-1
zfsutils: 0.6.5-pve7~jessie
Code: restore vma archive: vma extract -v -r /var/tmp/vzdumptmp9100.fifo /mnt/pve/filer/dump/vzdump-qemu-103-2016_04_02-03_15_01.vma /var/tmp/vzdumptmp9100
CFG: size: 606 name: qemu-server.conf
DEV: dev_id=1 size: 10737418240 devname: drive-scsi0
DEV: dev_id=2 size: 107374182400 devname: drive-scsi1
CTIME: Sat Apr 2 03:15:02 2016
[2016-04-02 22:19:41.341953] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
[2016-04-02 22:19:41.719619] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
[2016-04-02 22:19:41.996203] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
Форматирование 'gluster://pve1-cluster/datastore/images/103/vm-103-disk-1.qcow2', fmt=qcow2 size=10737418240 encryption=off cluster_size=65536 preallocation=metadata lazy_refcounts=off refcount_bits=16
[2016-04-02 22:19:42.267284] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
новый ID тома 'datastore:103/vm-103-disk-1.qcow2'
маппинг 'drive-scsi0' на 'gluster://pve1-cluster/datastore/images/103/vm-103-disk-1.qcow2' (write zeros = 0)
[2016-04-02 22:19:42.460444] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
[2016-04-02 22:19:42.797402] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
[2016-04-02 22:19:43.361414] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
Форматирование 'gluster://pve1-cluster/datastore/images/103/vm-103-disk-2.qcow2', fmt=qcow2 size=107374182400 encryption=off cluster_size=65536 preallocation=metadata lazy_refcounts=off refcount_bits=16
[2016-04-02 22:19:43.755407] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
новый ID тома 'datastore:103/vm-103-disk-2.qcow2'
маппинг 'drive-scsi1' на 'gluster://pve1-cluster/datastore/images/103/vm-103-disk-2.qcow2' (write zeros = 0)
** (process:9101): ERROR **: vma_reader_register_bs для потока drive-scsi1 провалился — неожиданная длина 107390828544 != 107374182400
временный том 'datastore:103/vm-103-disk-1.qcow2' успешно удалён
временный том 'datastore:103/vm-103-disk-2.qcow2' успешно удалён
ОШИБКА ЗАДАЧИ: команда 'vma extract -v -r /var/tmp/vzdumptmp9100.fifo /mnt/pve/filer/dump/vzdump-qemu-103-2016_04_02-03_15_01.vma /var/tmp/vzdumptmp9100' провалилась: получен сигнал 5
Сейчас восстанавливаю на "локальное" хранилище, а потом перемещу обратно на gluster.
Code: # pveversion -v
proxmox-ve: 4.1-39 (ядро: 4.2.8-1-pve)
pve-manager: 4.1-22 (версия: 4.1-22/aca130cf)
pve-kernel-4.2.6-1-pve: 4.2.6-36
pve-kernel-3.19.8-1-pve: 3.19.8-3
pve-kernel-4.2.8-1-pve: 4.2.8-39
pve-kernel-4.1.3-1-pve: 4.1.3-7
pve-kernel-4.2.0-1-pve: 4.2.0-13
pve-kernel-4.2.1-1-pve: 4.2.1-14
pve-kernel-4.2.2-1-pve: 4.2.2-16
pve-kernel-4.2.3-2-pve: 4.2.3-22
lvm2: 2.02.116-pve2
corosync-pve: 2.3.5-2
libqb0: 1.0-1
pve-cluster: 4.0-36
qemu-server: 4.0-64
pve-firmware: 1.1-7
libpve-common-perl: 4.0-54
libpve-access-control: 4.0-13
libpve-storage-perl: 4.0-45
pve-libspice-server1: 0.12.5-2
vncterm: 1.2-1
pve-qemu-kvm: 2.5-9
pve-container: 1.0-52
pve-firewall: 2.0-22
pve-ha-manager: 1.0-25
ksm-control-daemon: 1.2-1
glusterfs-client: 3.5.2-2+deb8u1
lxc-pve: 1.1.5-7
lxcfs: 2.0.0-pve2
cgmanager: 0.39-pve1
criu: 1.6.0-1
zfsutils: 0.6.5-pve7~jessie
