Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    не удаётся восстановить в glusterfs

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    не удаётся восстановить в glusterfs, Proxmox Виртуальная Среда
     
    vkhera
    Guest
    #1
    0
    03.04.2016 00:33:00
    У меня слетела ВМ после живой миграции с одного хоста на другой. Восстанавливать повреждённый диск было слишком заморочно, поэтому решил откатиться к бэкапу, сделанному раньше в тот же день. Проблема в том, что не могу восстановить напрямую на хранилище gluster. Он сразу падает с такой ошибкой:

    Code: restore vma archive: vma extract -v -r /var/tmp/vzdumptmp9100.fifo /mnt/pve/filer/dump/vzdump-qemu-103-2016_04_02-03_15_01.vma /var/tmp/vzdumptmp9100  
    CFG: size: 606 name: qemu-server.conf  
    DEV: dev_id=1 size: 10737418240 devname: drive-scsi0  
    DEV: dev_id=2 size: 107374182400 devname: drive-scsi1  
    CTIME: Sat Apr 2 03:15:02 2016  
    [2016-04-02 22:19:41.341953] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
    [2016-04-02 22:19:41.719619] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
    [2016-04-02 22:19:41.996203] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
    Форматирование 'gluster://pve1-cluster/datastore/images/103/vm-103-disk-1.qcow2', fmt=qcow2 size=10737418240 encryption=off cluster_size=65536 preallocation=metadata lazy_refcounts=off refcount_bits=16  
    [2016-04-02 22:19:42.267284] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
    новый ID тома 'datastore:103/vm-103-disk-1.qcow2'  
    маппинг 'drive-scsi0' на 'gluster://pve1-cluster/datastore/images/103/vm-103-disk-1.qcow2' (write zeros = 0)  
    [2016-04-02 22:19:42.460444] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
    [2016-04-02 22:19:42.797402] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
    [2016-04-02 22:19:43.361414] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
    Форматирование 'gluster://pve1-cluster/datastore/images/103/vm-103-disk-2.qcow2', fmt=qcow2 size=107374182400 encryption=off cluster_size=65536 preallocation=metadata lazy_refcounts=off refcount_bits=16  
    [2016-04-02 22:19:43.755407] E [afr-common.c:4168:afr_notify] 0-datastore-replicate-0: Все сабтомы отключены. Переходит в оффлайн, пока хотя бы один не появится.
    новый ID тома 'datastore:103/vm-103-disk-2.qcow2'  
    маппинг 'drive-scsi1' на 'gluster://pve1-cluster/datastore/images/103/vm-103-disk-2.qcow2' (write zeros = 0)

    ** (process:9101): ERROR **: vma_reader_register_bs для потока drive-scsi1 провалился — неожиданная длина 107390828544 != 107374182400  
    временный том 'datastore:103/vm-103-disk-1.qcow2' успешно удалён  
    временный том 'datastore:103/vm-103-disk-2.qcow2' успешно удалён  
    ОШИБКА ЗАДАЧИ: команда 'vma extract -v -r /var/tmp/vzdumptmp9100.fifo /mnt/pve/filer/dump/vzdump-qemu-103-2016_04_02-03_15_01.vma /var/tmp/vzdumptmp9100' провалилась: получен сигнал 5

    Сейчас восстанавливаю на "локальное" хранилище, а потом перемещу обратно на gluster.

    Code: # pveversion -v  
    proxmox-ve: 4.1-39 (ядро: 4.2.8-1-pve)  
    pve-manager: 4.1-22 (версия: 4.1-22/aca130cf)  
    pve-kernel-4.2.6-1-pve: 4.2.6-36  
    pve-kernel-3.19.8-1-pve: 3.19.8-3  
    pve-kernel-4.2.8-1-pve: 4.2.8-39  
    pve-kernel-4.1.3-1-pve: 4.1.3-7  
    pve-kernel-4.2.0-1-pve: 4.2.0-13  
    pve-kernel-4.2.1-1-pve: 4.2.1-14  
    pve-kernel-4.2.2-1-pve: 4.2.2-16  
    pve-kernel-4.2.3-2-pve: 4.2.3-22  
    lvm2: 2.02.116-pve2  
    corosync-pve: 2.3.5-2  
    libqb0: 1.0-1  
    pve-cluster: 4.0-36  
    qemu-server: 4.0-64  
    pve-firmware: 1.1-7  
    libpve-common-perl: 4.0-54  
    libpve-access-control: 4.0-13  
    libpve-storage-perl: 4.0-45  
    pve-libspice-server1: 0.12.5-2  
    vncterm: 1.2-1  
    pve-qemu-kvm: 2.5-9  
    pve-container: 1.0-52  
    pve-firewall: 2.0-22  
    pve-ha-manager: 1.0-25  
    ksm-control-daemon: 1.2-1  
    glusterfs-client: 3.5.2-2+deb8u1  
    lxc-pve: 1.1.5-7  
    lxcfs: 2.0.0-pve2  
    cgmanager: 0.39-pve1  
    criu: 1.6.0-1  
    zfsutils: 0.6.5-pve7~jessie
     
     
     
    blackpaw
    Guest
    #2
    0
    28.04.2016 04:54:00
    Та же проблема у меня (спасибо за сообщение об ошибке). Есть более простой способ обойти её — добавьте монтирование gluster fuse как общий каталог для хранения, восстановите туда резервную копию, а потом отредактируйте файл vm.conf и измените записи хранилища на основное монтирование gluster.
     
     
     
    vkhera
    Guest
    #3
    0
    29.04.2016 16:18:00
    Думаю, я сдаюсь с gluster. При перезагрузке у меня повреждаются файлы на диске, даже если ВМ не работает. Если повезёт и есть снимок файловой системы, откат к нему, кажется, безопасен (по крайней мере в одном случае, когда это сработало). Я также отправляю баг-репорт по этому поводу.
     
     
     
    Alessandro 123
    Guest
    #4
    0
    27.09.2016 14:51:00
    У меня похожая проблема. Я сделал резервную копию виртуальной машины и теперь, пытаясь восстановить её на том же хранилище Gluster, получаю следующий результат: http://pastebin.com/raw/81AK3zAe. К тому же, почему Proxmox использует Gluster 3.3? У меня установлена версия 3.8, и на сервере тоже.
     
     
     
    Alessandro 123
    Guest
    #5
    0
    28.09.2016 19:16:00
    напоминание
     
     
     
    Alessandro 123
    Guest
    #6
    0
    28.09.2016 20:43:00
    Похожая проблема возникает при попытке сделать снимок. Похоже, что PM не может связаться с Gluster для создания снимка или восстановления, но при этом без проблем создает новые виртуальные машины или запускает их.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры