Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Не удалось начать импорт ZFS пулов сканированием по устройствам.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Не удалось начать импорт ZFS пулов сканированием по устройствам., Proxmox Виртуальная Среда
     
    why-be-banned
    Guest
    #1
    0
    17.07.2023 13:12:00
    Привет,

    Эта ошибка возникает при загрузке HOST'а: "failed to start import zfs pools by device scanning". Запусти команду "systemctl status zfs-import-scan" на HOST'е: У меня нет zfs пулов на HOST'е, есть пул "ssd750" в VM "pbs".
     
     
     
    Roberto24
    Guest
    #2
    0
    06.11.2024 12:10:00
    Привет, спасибо за быстрый ответ! Вот вывод:

    Код: root@pve-HSM:~# df
    Файловая система                  1K-блоков  Использовано Доступно Процент Подмонтировано на
    udev                             16286656         0  16286656   0% /dev
    tmpfs                            3264088      2332   3261756   1% /run
    /dev/mapper/pve-root            71017632  17893236  49471176  27% /
    tmpfs                           16320440     34320  16286120   1% /dev/shm
    tmpfs                              5120         0      5120   0% /run/lock
    efivarfs                             150         79        67  55% /sys/firmware/efi/efivars
    /dev/nvme1n1p2                        1046512   52608    993904   6% /boot/efi
    /dev/fuse                             131072       20    131052   1% /etc/pve
    //ip/Musik                      1967874324 1671665280 296209044  85% /mnt/LMS-Music
    //ip/RestDaten/syncFolders 1967874324 1671665280 296209044  85% /mnt/syncFolders
    tmpfs                             3264088         0   3264088   0% /run/user/0

    root@pve-HSM:~# zpool list
    no pools available

    root@pve-HSM:~# blkid
    /dev/mapper/pve-root: UUID="f7b1a8ec-6858-4cad-8d18-d62fe75fcf10" BLOCK_SIZE="4096" TYPE="ext4"
    /dev/mapper/pve-vm--106--disk--0: UUID="01d8fb4b-2cdb-4c03-80aa-74835f851fd8" BLOCK_SIZE="4096" TYPE="ext4"
    /dev/nvme0n1p1: UUID="a5d49e1c-4918-44d9-979f-7e861e2256fc" BLOCK_SIZE="4096" TYPE="ext4" PARTUUID="eda25130-c8b3-4013-801c-d5308b33bc66"
    /dev/mapper/pve-vm--102--disk--0: UUID="78e022bb-03fb-4e89-9e60-10c1c05878f4" BLOCK_SIZE="4096" TYPE="ext4"
    /dev/mapper/pve-swap: UUID="551f3995-a1bc-4c8f-bfd7-a50a6bf20c36" TYPE="swap"
    /dev/mapper/pve-vm--105--disk--0: UUID="f5e6810b-83ae-4f0e-b053-3b7d7bc4fb91" BLOCK_SIZE="4096" TYPE="ext4"
    /dev/mapper/pve-vm--100--disk--0: UUID="b136ebdd-1ddc-4e44-b83c-ae81b12a4d89" BLOCK_SIZE="4096" TYPE="ext4"
    /dev/nvme1n1p2: UUID="BFDC-4824" BLOCK_SIZE="512" TYPE="vfat" PARTUUID="fdd67148-a50e-4ec4-a7e7-204fdd8289aa"
    /dev/nvme1n1p3: UUID="M9aaHl-wcS7-23wG-mU7p-25XS-aG4v-sXLTrk" TYPE="LVM2_member" PARTUUID="e36f5203-3c9f-4e5d-a24c-ac1ec78dfb08"
    /dev/mapper/pve-vm--104--disk--0: PTUUID="edc0b1f6" PTTYPE="dos"
    /dev/nvme1n1p1: PARTUUID="299ea344-d02b-4836-8d82-83a47caed8f2"

    Это повод для беспокойства, или можно просто проигнорировать это сообщение? Все работает нормально, ошибок вроде бы нет. Я не знаю ни о каких проблемах, но хотел бы перепроверить, что ты думаешь об этом сообщении об ошибке при загрузке/старте Proxmox. Большое спасибо!
     
     
     
    waltar
    Guest
    #3
    0
    06.11.2024 13:04:00
    Больше нет ZFS-члена, возможно, у тебя раньше был диск с ZFS, и при загрузке ты получаешь ошибку импорта из-за этого. Так что лучше отключи этот сервис.
     
     
     
    Roberto24
    Guest
    #4
    0
    06.11.2024 18:04:00
    Ок, сделаю — спасибо!
     
     
     
    overload
    Guest
    #5
    0
    05.10.2024 11:16:00
    Привет! У меня точно такая же проблема, и я не знаю, почему.

    root@proxmox:~# lsblk
    NAME                         MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
    sda                            8:0    0 111.8G  0 disk
    ├─sda1                         8:1    0  1007K  0 part
    ├─sda2                         8:2    0     1G  0 part
    └─sda3                         8:3    0 110.8G  0 part
    ├─pve-swap                 252:0    0   7.7G  0 lvm  [SWAP]
    ├─pve-root                 252:1    0  37.8G  0 lvm  /
    ├─pve-data_tmeta           252:2    0     1G  0 lvm
    │ └─pve-data-tpool         252:4    0  49.6G  0 lvm
    │   ├─pve-data             252:5    0  49.6G  1 lvm
    │   ├─pve-vm--100--disk--0 252:6    0    32G  0 lvm
    │   └─pve-vm--101--disk--0 252:7    0     8G  0 lvm
    └─pve-data_tdata           252:3    0  49.6G  0 lvm
    └─pve-data-tpool         252:4    0  49.6G  0 lvm
    ├─pve-data             252:5    0  49.6G  1 lvm
    ├─pve-vm--100--disk--0 252:6    0    32G  0 lvm
    └─pve-vm--101--disk--0 252:7    0     8G  0 lvm
    sdb                            8:16   0   9.1T  0 disk
    ├─sdb1                         8:17   0   9.1T  0 part
    └─sdb9                         8:25   0     8M  0 part
    sdc                            8:32   0   1.8T  0 disk
    └─sdc1                         8:33   0   1.8T  0 part
    sdd                            8:48   0   9.1T  0 disk
    ├─sdd1                         8:49   0   9.1T  0 part
    └─sdd9                         8:57   0     8M  0 part
    root@proxmox:~# zpool status pool: Stor10TB
    state: ONLINE
    config:
     NAME                            STATE     READ WRITE CKSUM
     Stor10TB                        ONLINE       0     0     0
     mirror-0                      ONLINE       0     0     0
     ata-ST10000NM0046_ZA23520J  ONLINE       0     0     0
     ata-ST10000NM0046_ZA21K1R2  ONLINE       0     0     0
    errors: No known data errors
     
     
     
    Roberto24
    Guest
    #6
    0
    06.11.2024 09:05:00
    Привет, у меня тоже ошибка "failed to start ZFS-import .." при загрузке Proxmox Стоит ли это повод для беспокойства, или можно просто проигнорировать? Пока что всё работает отлично. Вероятно, это та же причина, что и описано выше: я передал жесткий диск виртуальной машине, и, возможно (я не помню, делал ли я это...), на этом диске есть zpool. Когда HOST загружается, HOST сканирует все диски для поиска всех zpool. Спасибо за совет!
     
     
     
    waltar
    Guest
    #7
    0
    06.11.2024 09:43:00
    Что показывают lsblk, zpool list и df?
     
     
     
    Roberto24
    Guest
    #8
    0
    06.11.2024 10:22:00
    Вот вывод:
    root@pve-HSM:~# lsblk
    NAME                         MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
    nvme0n1                      259:0    0   1.9T  0 disk
    └─nvme0n1p1                  259:6    0   1.9T  0 part
    nvme1n1                      259:2    0 238.5G  0 disk
    ├─nvme1n1p1                  259:3    0  1007K  0 part
    ├─nvme1n1p2                  259:4    0     1G  0 part /boot/efi
    └─nvme1n1p3                  259:5    0 237.5G  0 part
    ├─pve-swap                 252:0    0     8G  0 lvm  [SWAP]
    ├─pve-root                 252:1    0  69.4G  0 lvm  /
    ├─pve-data_tmeta           252:2    0   1.4G  0 lvm
    │ └─pve-data-tpool         252:4    0 141.2G  0 lvm
    │   ├─pve-data             252:5    0 141.2G  1 lvm
    │   ├─pve-vm--104--disk--0 252:6    0    20G  0 lvm
    │   ├─pve-vm--100--disk--0 252:7    0     8G  0 lvm
    │   ├─pve-vm--102--disk--0 252:8    0     8G  0 lvm
    │   ├─pve-vm--105--disk--0 252:9    0     2G  0 lvm
    │   └─pve-vm--106--disk--0 252:10   0     6G  0 lvm
    └─pve-data_tdata           252:3    0 141.2G  0 lvm
    └─pve-data-tpool         252:4    0 141.2G  0 lvm
    ├─pve-data             252:5    0 141.2G  1 lvm
    ├─pve-vm--104--disk--0 252:6    0    20G  0 lvm
    ├─pve-vm--100--disk--0 252:7    0     8G  0 lvm
    ├─pve-vm--102--disk--0 252:8    0     8G  0 lvm
    ├─pve-vm--105--disk--0 252:9    0     2G  0 lvm
    └─pve-vm--106--disk--0 252:10   0     6G  0 lvm
    root@pve-HSM:~# zpool status
    no pools available
    root@pve-HSM:~# df
    say df: say: No such file or directory
     
     
     
    waltar
    Guest
    #9
    0
    06.11.2024 11:54:00
    Что там говорит "df"... команда zpool status не показывает zpool list... но ладно... lsblk вообще не показывает zfs диск с part1+9 или с чем-то ещё, но может быть nvme0n1 был zfs диском, который использовался как один диск с разделом part1, но сейчас раздел part9 пропал... Так что если nvme0n1 был zfs диском и использовался как целый диск, а раздел part9 исчез, то этот nvme отправился в небытие, и нужен новый... Но в последний раз... что говорит "blkid"?
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры