Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Пуул ZFS не монтируется, все диски в порядке.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Пуул ZFS не монтируется, все диски в порядке., Proxmox Виртуальная Среда
     
    kyeotic
    Guest
    #1
    0
    02.08.2024 19:03:00
    У меня (или у меня было?) настроено ZFS-хранилище через Proxmox, которое перестало работать. Все диски отображаются в Node > Disks, со статусом "SMART: PASSED", но "Mounted: No"

    Bash: root@homelab:~# zpool status
    no pools available

    root@homelab:~# zpool history
    no pools available

    root@homelab:~# zpool import tank
    cannot import 'tank': I/O error
           Destroy and re-create the pool from
           a backup source.

    root@homelab:~# ls /dev/disk/by-id
    ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105328K                                   nvme-TEAM_TM8FP6512G_TPBF2310170070320761
    ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105328K-part1                             nvme-TEAM_TM8FP6512G_TPBF2310170070320761_1
    ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105332H                                   nvme-TEAM_TM8FP6512G_TPBF2310170070320761_1-part1
    ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105332H-part1                             nvme-TEAM_TM8FP6512G_TPBF2310170070320761_1-part2
    ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105332H-part9                             nvme-TEAM_TM8FP6512G_TPBF2310170070320761-part3
    ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105404L                                   nvme-TEAM_TM8FP6512G_TPBF2310170070320761-part1
    ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105404L-part1                             nvme-TEAM_TM8FP6512G_TPBF2310170070320761-part2
    ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105404L-part9                             nvme-TEAM_TM8FP6512G_TPBF2310170070320761-part3
    dm-name-pve-root                                                              wwn-0x5002538f33112e23
    dm-name-pve-swap                                                              wwn-0x5002538f33112e23-part1
    dm-uuid-LVM-R6n6naJnN0MGscNHJMQliRntP3DadNPO3W8zZskqP5j8BDVtr2CLOlYH4JDV­euBz  wwn-0x5002538f33112e27
    dm-uuid-LVM-R6n6naJnN0MGscNHJMQliRntP3DadNPOJ0bU7RRhVlJBUNsR4GvNBk09kxgh­MlvV  wwn-0x5002538f33112e27-part1
    lvm-pv-uuid-1JMPCW-SdpW-Gmfq-srge-NVyN-rdvN-D6ndtC                            wwn-0x5002538f33112e27-part9
    nvme-eui.6479a784e0000385                                                     wwn-0x5002538f33112e6f
    nvme-eui.6479a784e0000385-part1                                               wwn-0x5002538f33112e6f-part1
    nvme-eui.6479a784e0000385-part2                                               wwn-0x5002538f33112e6f-part9
    nvme-eui.6479a784e0000385-part3
    Я хотел бы восстановить этот пул, если это возможно, но если нет, было бы неплохо узнать, что произошло.  Он использовал RAIDZ1, и я предполагал, что отказ диска должен быть восстанавливаемым. Как мог весь пул выйти из строя? В случае, если проблема не в пуле, а в PVE, контейнеры сообщают об этой ошибке при запуске. Сводка показывает много свободного места , но в Disks > LVM указано 97% использования.  Я не уверен, что это значит.

    ---
    Отредактировано 1
    Я нашел этот пост и установил `thin_check_options = [ "-q", "--skip-mappings" ]` и перезагрузился. Ошибка `pve/data` исчезла, и некоторые контейнеры запустились, но ZFS-хранилище по-прежнему не отображается и по-прежнему возвращает ошибку при попытке импортировать его.
     
     
     
    kyeotic
    Guest
    #2
    0
    19.08.2024 17:58:00
    Вот результат:
    Код: root@homelab:~# zpool import
      pool: tank
        id: 12367558582491436533
     state: ONLINE
    action: Пулом можно воспользоваться, указав его имя или числовой идентификатор.
    config:

           tank                                             ONLINE
             raidz1-0                                       ONLINE
               ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105328K  ONLINE
               ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105332H  ONLINE
               ata-Samsung_SSD_870_EVO_2TB_S6PNNS0W105404L  ONLINE

    Я также несколько раз отлаживал проблему вместе с пользователем на reddit, в этой ветке. Там много результатов других команд.
     
     
     
    simonhoffmann
    Guest
    #3
    0
    18.08.2024 22:03:00
    Можешь просто написать "zpool import" без каких-либо дополнительных параметров? Я думаю, что есть ошибки чтения/записи/контрольной суммы на дисках, или диски отображаются, но по какой-то причине работают только на чтение, потому что что-то в диске сломано и это не отражается в SMART. Возможно, тебе повезет, если ты сможешь импортировать пул в режиме только для чтения и без монтирования наборов данных (zpool import -o readonly=on -N), а затем выполнить ZFS send для восстановления данных. Также можно попробовать варианты восстановления zpool import -F или zpool import -F -X, но будь осторожен, так как это может привести к потере данных, так как пул откатится к рабочему состоянию, если это возможно.
     
     
     
    alexskysilk
    Guest
    #4
    0
    19.08.2024 20:29:00
    Судя по вашему описанию, похоже на проблемы с прошивкой/таймингами. Первое, что нужно сделать, — определить наихудший допустимый исход: нужны ли вам данные? Если да, установите ваши диски на обычный SATA HBA и проверьте, сможет ли пул импортироваться. Если сможет, переходите к проверке/обновлению прошивки вашего HBA и SSD. Если нет, очистите диски и попробуйте снова. Далее, создайте пример данных до повторения проблемы, а затем опубликуйте соответствующие записи из dmesg.
     
     
     
    kyeotic
    Guest
    #5
    0
    19.08.2024 20:33:00
    Данные мне не нужны. Хотелось бы их, правда, перенастраивать всё на них будет стоить часов, но мне не требуются. Просто хочу понять, что произошло, чтобы в будущем этого избежать. Можешь объяснить, что такое "релевантные записи из dmesg"? Я не знаю, что это такое.
     
     
     
    alexskysilk
    Guest
    #6
    0
    19.08.2024 20:36:00
    dmesg | grep 'scsi\|sd\|mpt2sas'
     
     
     
    kyeotic
    Guest
    #7
    0
    19.08.2024 20:40:00
    Сейчас это ничего не возвращает. Ожидаешь ли ты, чтобы это что-то вернуло в текущем состоянии?
     
     
     
    alexskysilk
    Guest
    #8
    0
    19.08.2024 20:58:00
    Ну вот и обложка на лицо, совсем не подумал, что с pve8 системой это не так просто. Попробовал посмотреть journalctl на pve8 для событий дисков, и ничего не нашёл. Может, кто-нибудь из команды Proxmox подскажет? А пока что, может, стоит установить rsyslog и перезагрузиться (apt install rsyslog).
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры