У меня (или у меня было?) настроено ZFS-хранилище через Proxmox, которое перестало работать. Все диски отображаются в Node > Disks, со статусом "SMART: PASSED", но "Mounted: No" 
Bash: root@homelab:~# zpool status
no pools available
root@homelab:~# zpool history
no pools available
root@homelab:~# zpool import tank
cannot import 'tank': I/O error
Destroy and re-create the pool from
a backup source.
root@homelab:~# ls /dev/disk/by-id
ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105328K nvme-TEAM_TM8FP6512G_TPBF2310170070320761
ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105328K-part1 nvme-TEAM_TM8FP6512G_TPBF2310170070320761_1
ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105332H nvme-TEAM_TM8FP6512G_TPBF2310170070320761_1-part1
ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105332H-part1 nvme-TEAM_TM8FP6512G_TPBF2310170070320761_1-part2
ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105332H-part9 nvme-TEAM_TM8FP6512G_TPBF2310170070320761-part3
ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105404L nvme-TEAM_TM8FP6512G_TPBF2310170070320761-part1
ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105404L-part1 nvme-TEAM_TM8FP6512G_TPBF2310170070320761-part2
ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105404L-part9 nvme-TEAM_TM8FP6512G_TPBF2310170070320761-part3
dm-name-pve-root wwn-0x5002538f33112e23
dm-name-pve-swap wwn-0x5002538f33112e23-part1
dm-uuid-LVM-R6n6naJnN0MGscNHJMQliRntP3DadNPO3W8zZskqP5j8BDVtr2CLOlYH4JDV euBz wwn-0x5002538f33112e27
dm-uuid-LVM-R6n6naJnN0MGscNHJMQliRntP3DadNPOJ0bU7RRhVlJBUNsR4GvNBk09kxgh MlvV wwn-0x5002538f33112e27-part1
lvm-pv-uuid-1JMPCW-SdpW-Gmfq-srge-NVyN-rdvN-D6ndtC wwn-0x5002538f33112e27-part9
nvme-eui.6479a784e0000385 wwn-0x5002538f33112e6f
nvme-eui.6479a784e0000385-part1 wwn-0x5002538f33112e6f-part1
nvme-eui.6479a784e0000385-part2 wwn-0x5002538f33112e6f-part9
nvme-eui.6479a784e0000385-part3
Я хотел бы восстановить этот пул, если это возможно, но если нет, было бы неплохо узнать, что произошло. Он использовал RAIDZ1, и я предполагал, что отказ диска должен быть восстанавливаемым. Как мог весь пул выйти из строя? В случае, если проблема не в пуле, а в PVE, контейнеры сообщают об этой ошибке при запуске. Сводка показывает много свободного места
, но в Disks > LVM указано 97% использования. Я не уверен, что это значит. 
---
Отредактировано 1
Я нашел этот пост и установил `thin_check_options = [ "-q", "--skip-mappings" ]` и перезагрузился. Ошибка `pve/data` исчезла, и некоторые контейнеры запустились, но ZFS-хранилище по-прежнему не отображается и по-прежнему возвращает ошибку при попытке импортировать его.

Bash: root@homelab:~# zpool status
no pools available
root@homelab:~# zpool history
no pools available
root@homelab:~# zpool import tank
cannot import 'tank': I/O error
Destroy and re-create the pool from
a backup source.
root@homelab:~# ls /dev/disk/by-id
ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105328K nvme-TEAM_TM8FP6512G_TPBF2310170070320761
ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105328K-part1 nvme-TEAM_TM8FP6512G_TPBF2310170070320761_1
ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105332H nvme-TEAM_TM8FP6512G_TPBF2310170070320761_1-part1
ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105332H-part1 nvme-TEAM_TM8FP6512G_TPBF2310170070320761_1-part2
ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105332H-part9 nvme-TEAM_TM8FP6512G_TPBF2310170070320761-part3
ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105404L nvme-TEAM_TM8FP6512G_TPBF2310170070320761-part1
ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105404L-part1 nvme-TEAM_TM8FP6512G_TPBF2310170070320761-part2
ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105404L-part9 nvme-TEAM_TM8FP6512G_TPBF2310170070320761-part3
dm-name-pve-root wwn-0x5002538f33112e23
dm-name-pve-swap wwn-0x5002538f33112e23-part1
dm-uuid-LVM-R6n6naJnN0MGscNHJMQliRntP3DadNPO3W8zZskqP5j8BDVtr2CLOlYH4JDV
dm-uuid-LVM-R6n6naJnN0MGscNHJMQliRntP3DadNPOJ0bU7RRhVlJBUNsR4GvNBk09kxgh
lvm-pv-uuid-1JMPCW-SdpW-Gmfq-srge-NVyN-rdvN-D6ndtC wwn-0x5002538f33112e27-part9
nvme-eui.6479a784e0000385 wwn-0x5002538f33112e6f
nvme-eui.6479a784e0000385-part1 wwn-0x5002538f33112e6f-part1
nvme-eui.6479a784e0000385-part2 wwn-0x5002538f33112e6f-part9
nvme-eui.6479a784e0000385-part3
Я хотел бы восстановить этот пул, если это возможно, но если нет, было бы неплохо узнать, что произошло. Он использовал RAIDZ1, и я предполагал, что отказ диска должен быть восстанавливаемым. Как мог весь пул выйти из строя? В случае, если проблема не в пуле, а в PVE, контейнеры сообщают об этой ошибке при запуске. Сводка показывает много свободного места
, но в Disks > LVM указано 97% использования. Я не уверен, что это значит. 
---
Отредактировано 1
Я нашел этот пост и установил `thin_check_options = [ "-q", "--skip-mappings" ]` и перезагрузился. Ошибка `pve/data` исчезла, и некоторые контейнеры запустились, но ZFS-хранилище по-прежнему не отображается и по-прежнему возвращает ошибку при попытке импортировать его.
