Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Не удается получить доступ к диску на zfs

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Не удается получить доступ к диску на zfs, Proxmox Виртуальная Среда
     
    dean_za
    Guest
    #1
    0
    20.10.2016 09:42:00
    Привет, у меня есть зеркальный zpool, который не сообщает о каких-либо ошибках. root@proxmox03:/dev/zvol/zfspool0# zpool status -v pool: zfspool0 state: ONLINE scan: сканирование продолжается с Чт Окт 20 08:36:59 2016 81.0G отсканировано из 133G со скоростью 25.4M/s, осталось 0h34m 0 исправлено, 60.86% завершено config: NAME        STATE     READ WRITE CKSUM zfspool0    ONLINE       0     0     0 mirror-0  ONLINE       0     0     0 sdb     ONLINE       0     0     0 sdc     ONLINE       0     0     0 errors: Нет известных ошибок данных. Когда я перечисляю блочные устройства zfs, я вижу все из них. zfs list NAME                             USED  AVAIL  REFER  MOUNTPOINT zfspool0                         133G   405G    96K  /zfspool0 zfspool0/vm-102-disk-1          7.58G   405G  7.58G  - zfspool0/vm-103-disk-1          24.1G   405G  24.1G  - zfspool0/vm-105-disk-1          10.2G   405G  10.2G  - zfspool0/vm-105-disk-2          30.5G   405G  30.5G  - zfspool0/vm-105-disk-3          10.1G   405G  10.1G  - zfspool0/vm-107-disk-1          26.9G   405G  25.7G  - zfspool0/vm-107-state-centrify  2.97G   405G  2.97G  - zfspool0/vm-110-disk-1          21.0G   405G  21.0G  - Когда я пытаюсь запустить vm-103, он не запускается и сообщает, что не может получить доступ к устройству. kvm: -drive file=/dev/zvol/zfspool0/vm-103-disk-1,if=none,id=drive-scsi0,format=raw,cache=none,aio=native,detect-zeroes=on: Не удалось открыть '/dev/zvol/zfspool0/vm-103-disk-1': Нет такого файла или директории. Задача не выполнена: ошибка запуска: команда '/usr/bin/kvm -id 103 -chardev 'socket,id=qmp,path=/var/run/qemu-server/103.qmp,server,nowait' -mon 'chardev=qmp,mode=control' -pidfile /var/run/qemu-server/103.pid -daemonize ...' завершилась с кодом выхода 1. Как я могу проверить, что блочное устройство vm-103 не повреждено? Спасибо, Дин.
     
     
     
    MisterY
    Guest
    #2
    0
    27.10.2017 11:45:00
    У меня такая же проблема. /dev/zvol отсутствует.
     
     
     
    hardstone
    Guest
    #3
    0
    31.10.2017 10:59:00
    Я тоже. После обновления с Proxmox 5.0 до 5.1 я потерял все диски виртуальных машин, и /dev/zvol отсутствует. Я еще не перезагрузил сервер, но я знаю, что не смогу восстановить то, что потерял, а мне нужно создать новые серверы, и я не могу.
     
     
     
    J.Carlos
    Guest
    #4
    0
    31.10.2017 16:55:00
    Привет. У меня тоже так. С уважением.
     
     
     
    Denny
    Guest
    #5
    0
    31.10.2017 18:47:00
    Проверь свою версию ядра. У меня был один узел, который не смог получить обновление ядра и, следовательно, не мог монтировать zfs тома с новыми библиотеками. Правильная версия должна быть 4.13.4-1-pve #1 SMP PVE 4.13.4-25 или выше.
     
     
     
    joshin
    Guest
    #6
    0
    03.11.2017 06:14:00
    @hardstone - Не перезагружай. Я смотрел, что ты делаешь, и перезагрузил. Большая ошибка. Мне пришлось восстановить все мои виртуальные машины на другой сервер. (Я, возможно, мог бы сделать ZFS push на другой сервер, но резервные копии только что запустились.) Похоже, в версии 4.13 есть ошибка, которая вызывает панику isci_task_abort_task на нескольких моих хостах. Оба — Supermicro x9srw с E5-2660 v2. Поведение очень похоже на этот отчет: https://bugs.launchpad.net/ubuntu/+source/linux/+bug/1726519 Возврат к 4.10.17-4-pve загружает Proxmox, но /dev/zvol отсутствует, так что я не могу много сделать с локальными файловыми системами ZFS.
     
     
     
    J.Carlos
    Guest
    #7
    0
    03.11.2017 08:32:00
    Привет, Джошин! Если ты снова на 4.10, сделай следующее. Если ты не обновил пул: apt-get install libzpool2linux=0.6.5.11-pve17~bpo90 apt-get install libnvpair1linux=0.6.5.11-pve17~bpo90 apt-get install libuutil1linux=0.6.5.11-pve17~bpo90 apt-get install libzfs2linux-dev=0.6.5.11-pve17~bpo90 apt-get install zfs-initramfs=0.6.5.11-pve17~bpo90 apt-get install zfsutils-linux=0.6.5.11-pve17~bpo90 apt-get install spl=0.6.5.11-pve10~bpo90 Затем перезагрузи систему, zfs заработает, и ты сможешь запустить свою виртуалку. С наилучшими пожеланиями.
     
     
     
    joshin
    Guest
    #8
    0
    03.11.2017 18:53:00
    Спасибо, J. Carlos! Я подозреваю, что вы имели в виду: apt-get install libzfs2linux=0.6.5.11-pve17~bpo90 вместо libzfs2linux-dev, так как -dev, похоже, не существует в стандартной установке. На моих двух серверах, которые ведут себя неправильно на 4.13, наблюдается ядро-паника с интересной ошибкой isci_task_abort_task. Так что это не совсем совпадает с другими, у кого есть такая проблема, но похоже достаточно.
     
     
     
    fabian
    Guest
    #9
    0
    06.11.2017 15:17:00
    доступны новые пакеты ZFS и ядра для тестирования, пожалуйста, проверьте, выпущен Proxmox VE 5.1!
     
     
     
    Jake Messinger
    Guest
    #10
    0
    16.11.2017 22:41:00
    У меня была проблема, она возникла из-за того, что по какой-то причине символическая ссылка на фактический zvol для ВМ исчезла после сбоя системы, вызванного тем, что старый добрый zfs скушал всю оперативную память во время высокой нагрузки... шёл процесс резервного копирования. Я просто добавил её заново. В папке /dev/zvol/rpool/data я выполнил команду ln -s ../../../zd64 vm-100-disk-1, и ВМ снова появилась! Теперь мне нужно разобраться с другой проблемой. Эта машина имеет 64 ГБ оперативной памяти, и я запускал всего 4 ВМ, а также установил максимальный объём zfs arc на 8 ГБ... отключил сжатие и так далее для раздела rpool/swap и т. д., и она ВСЁ равно зависла. Я собираюсь обновиться до 5.чего-то. Это машина с 4.3 версией.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры