Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    [РЕШЕНО] ZFS rpool недоступен - сообщение: не удается импортировать пул, пул или набор данных не найден

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    [РЕШЕНО] ZFS rpool недоступен - сообщение: не удается импортировать пул, пул или набор данных не найден, Proxmox Виртуальная Среда
     
    Joris L.
    Guest
    #1
    0
    07.06.2025 19:21:00
    Этот поток (thread) создан, чтобы задокументировать произошедшее и как это было исправлено, на случай, если это сможет кому-то помочь. Работает pve-manager/8.4.1/2a5fa54a8503f96d (ядро: 6.11.11-2-pve) в однохостовой конфигурации для лабораторной среды. Обычно система стабильна, пока не становится иначе. После нескольких зависаний, система перестала загружаться. На всякий случай я вернулся к загрузке ядра 6.8.x по умолчанию, каким-то образом система постоянно откатывалась обратно к ядру 6.11, которое теперь должно быть исправлено. Сообщение на экране "невозможно импортировать пул, пул или датасет не найден" сопровождалось предложением восстановить данные из резервной копии или попробовать ручной импорт.

    Статус
    Сейчас система работает нормально, и данные не были потеряны.

    Что сделало систему снова загрузочной, не установлено на 100%, и причина неисправности также не установлена на 100%.

    Я не буду делиться с вами несколькими часами пота и проб и ошибок.

    Наблюдения
    `zpool status` (очевидно) не удался, так как пул не был найден.
    Ручной запуск `zpool import` не привел к онлайн `rpool`, была указана одна неактивная разделенная часть.
    Пул был указан как `UNAVAILABLE GAP`.
    Хотя это изначально не наблюдалось, один из дисков просто перестал отображаться.

    Решение
    Загрузил систему с помощью простой live-системы, использовал `gdisk` для восстановления таблицы разделов GPT, выключил питание, выключил PSU (для полноты картины), оставил выключенным на 10-20 секунд (для очистки состояния памяти, необязательно), включил питание. Система загрузилась, невидимый диск снова отобразился, недоступная разделенная часть стала доступна.

    Скрипт
    Чтобы обеспечить возможность восстановления любых повреждений таблицы разделов GPT, я написал простой скрипт для резервного копирования таблиц разделов GPT.
    ```bash
    mkdir gptbackup
    ```
    ```bash
    #!/bin/bash

    disks=`lsblk -p --nodeps --noheadings | grep -v zd | cut -d" "  -f1`
    h=`hostname -s`
    p="gptbackup"
    dat=`date --iso-8601`

    for d in $disks
    do
           x=`echo "$d" | cut -d"/" -f3`
           sgdisk -b "$p"/"$h"_"$dat"_"$x" "$d"
    done
    ```
    Теперь в папке `gptbackup` должна быть резервная копия таблиц GPT для физических дисков.

    Опасения и соображения
    Если на этой системе нет вредоносной активности (не невозможно, хотя и маловероятно), то использование ядра 6.11 сопряжено с реальными рисками, лучше не стоит. Эта система не работает с ECC-RAM и страдала от множества ситуаций "зависания", что может "искажать" таблицы разделов. Тот факт, что один диск просто "не отображался" при нескольких перезагрузках, по-прежнему вызывает опасения, на которые у меня нет ответа. Если в ядре 6.8 также возникнет аналогичная ситуация, я обновлю эту тему. Пока я полагаю, что это решено путем повторного переключения на ядро по умолчанию.
     
     
     
    Joris L.
    Guest
    #2
    0
    17.06.2025 23:14:00
    Обновление: улучшений нет, подобная проблема "полузависания" уже возникала дважды. Использую proxmox-default-kernel (6.8) (KSM включен). Отвечала только TTY1, остальные TTYn не были видны и недоступны. Клавиши sysrq показывали сообщение об ошибке "ZFS rpool недоступен - сообщение: невозможно импортировать пул, пула или набора данных не существует". Странно, что это похоже на проблему с памятью, поскольку отключение системы на некоторое время исправляет проблему и загрузка возобновляется. Странная проблема с ВМ, сообщающей "Jun 17 12:16:14 pve kernel: Buffer I/O error on dev zd202, logical block 10501392, async page read". Странно, что это видно не только в Proxmox VE, но и для устройств хранения ВМ как "kernel: I/O error, dev vda, sector NNNNNNNN at 0x0:(READ) flags 0x0 phys_seg 1 prio class 2". Для раздела /boot в ВМ странно, что fsck /boot/efi предлагает восстановить сектор загрузки из-за "различий между сектором загрузки и его резервной копией", что, вероятно, не очень страшно. (Различия: (смещение: оригинальный/резервная копия) 65:01/00). Хоть у меня не хватает времени и ресурсов, чтобы все это зафиксировать, это впервые для меня. Proxmox VE полузависает (точная причина все еще неизвестна). Восстановился от сбоя ZFS пула, восстановив таблицу разделов из резервной копии для одного раздела (или так мне показалось). Из предосторожности держал машину выключенной на 20 секунд. Перезагрузка показала снова функциональный Proxmox VE (один диск, который "исчез", вернулся). Теперь я выяснил, что оставлять машину выключенной на некоторое время (30 секунд или больше) и снова загружать ее исправляет то же самое, другие действия не требуются. ВМ показывает ошибку I/O для раздела загрузки, эта ошибка видна вне ВМ. Запуск fsck предполагает, что раздел /boot/efi дефектный. Странно, что для восстановления раздела требуется восстановление резервной копии таблицы разделов (иронично, то же самое, что и в первой попытке восстановления). Поскольку я смутно помню о предыдущих проблемах с KSM, интересно, лучше ли отключить эту функцию или настроить ее, чтобы она была менее агрессивной / рискованной. Мне кажется, вышеуказанное указывает на что-то "неполадки" с управлением памятью, вероятно, баг или слабость.
     
     
     
    Joris L.
    Guest
    #3
    0
    18.06.2025 20:18:00
    Обновление на основе изучения логов и сообщений об ошибках journalctl -b all -p warning -f. Я пришел к "обоснованному предположению", что проблема, вероятно, либо совершенно неизвестна на данный момент, либо вызвана ошибками ввода/вывода (I/O) на Debian VM /dev/sda, которые воспроизводятся на Proxmox VE ZFS, что приводит к нестабильности системы. Главная причина в том, что ошибки ввода/вывода для раздела /boot "преломляются" на Proxmox ZFS. Это, на мой взгляд, доказуемо, потому что ошибка проявляется только после расшифровки VM для загрузки. Кроме того, когда Debian VM остается включенной, и позже повторяются ошибки 'Buffer I/O error ... async ...', также упоминается "zed" как источник err=52, что является ошибкой класса=data. Насколько я понимаю, это потенциально можно решить с помощью resilver.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры