Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    VM-диски повреждаются на тонком хранилище ZSF.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    VM-диски повреждаются на тонком хранилище ZSF., Proxmox Виртуальная Среда
     
    LMC
    Guest
    #1
    0
    19.02.2020 22:04:00
    Привет, у меня есть сервер с последней версией PVE и хранилищем ZFS RAIDZ на SSD. Время от времени некоторые KVM ВМ становятся с файловой системой только для чтения и требуют перезагрузки и восстановления файловой системы. Это не выглядит как проблема, специфичная для какой-то определённой ОС, потому что это происходило на CentOS, Ubuntu, Debian... Zpool кажется в порядке, scrub никогда не сообщал об ошибках, а корневая файловая система PVE всегда была в норме. У кого-то была похожая ситуация? Скриншоты сделаны из консоли ВМ. Дан
     
     
     
    uibmz
    Guest
    #2
    0
    17.08.2020 12:33:00
    У нас есть аналогичные ошибки в нашей среде, но два различных сервера, на которых наблюдается такое поведение. Оба сервера имеют два пула ZFS с зеркальными VDEV: INI: root@prodnode1:~# zpool list -v  
    NAME                                        SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT  
    pool_spinning                              3.62T  1.04T  2.59T        -         -    12%    28%  1.00x    ONLINE  -  
     mirror                                    928G   220G   708G        -         -    11%  23.7%      -  ONLINE  
       sdm                                        -      -      -        -         -      -      -      -  ONLINE  
       sdn                                        -      -      -        -         -      -      -      -  ONLINE  
     mirror                                    928G   266G   662G        -         -    13%  28.7%      -  ONLINE  
       sdo                                        -      -      -        -         -      -      -      -  ONLINE  
       sdp                                        -      -      -        -         -      -      -      -  ONLINE  
     mirror                                    928G   290G   638G        -         -    13%  31.2%      -  ONLINE  
       sdq                                        -      -      -        -         -      -      -      -  ONLINE  
       sdr                                        -      -      -        -         -      -      -      -  ONLINE  
     mirror                                    928G   284G   644G        -         -    14%  30.6%      -  ONLINE  
       sds                                        -      -      -        -         -      -      -      -  ONLINE  
       sdt                                        -      -      -        -         -      -      -      -  ONLINE  
    pool_ssd                                   2.60T  1.67T   955G        -         -    30%    64%  1.00x    ONLINE  -  
     mirror                                    444G   285G   159G        -         -    29%  64.2%      -  ONLINE  
       sda                                        -      -      -        -         -      -      -      -  ONLINE  
       sdb                                        -      -      -        -         -      -      -      -  ONLINE  
     mirror                                    444G   285G   159G        -         -    30%  64.2%      -  ONLINE  
       sdc                                        -      -      -        -         -      -      -      -  ONLINE  
       sdd                                        -      -      -        -         -      -      -      -  ONLINE  
     mirror                                    444G   285G   159G        -         -    30%  64.1%      -  ONLINE  
       sde                                        -      -      -        -         -      -      -      -  ONLINE  
       sdf                                        -      -      -        -         -      -      -      -  ONLINE  
     mirror                                    444G   285G   159G        -         -    31%  64.1%      -  ONLINE  
       sdg                                        -      -      -        -         -      -      -      -  ONLINE  
       sdh                                        -      -      -        -         -      -      -      -  ONLINE  
     mirror                                    444G   285G   159G        -         -    31%  64.2%      -  ONLINE  
       sdi                                        -      -      -        -         -      -      -      -  ONLINE  
       sdj                                        -      -      -        -         -      -      -      -  ONLINE  
     mirror                                    444G   285G   159G        -         -    32%  64.2%      -  ONLINE  
       sdk                                        -      -      -        -         -      -      -      -  ONLINE  
       sdl                                        -      -      -        -         -      -      -      -  ONLINE  
    Похоже, что для возникновения ошибки нагрузка на пул должна превышать среднюю. Когда ошибка происходит, виртуальные машины переключаются на режим Readonly-FS. (Смотрите прикрепленное изображение1) У нас были виртуальные машины, файловая система которых была переполнена ошибками, и восстановление из резервной копии было единственным вариантом. Более того, у нас были виртуальные машины, таблица разделов которых стала нечитаемой, восстановление с помощью testdisk было возможным... Оба рассматриваемых сервера — это машины Supermicro, один из них SC216BE1C-R920LPB с платой X10-DRi-T и RAID-контроллером 9361-8i в режиме JBOD, а другой — SC216BE1C-R920LPB с платой X11-DPi-NT и HBA Broadcom SAS III 9300-8i. Можно было бы сказать, что 9361-8i является проблемой, так как это RAID-контроллер, работающий в режиме JBOD, и если бы ошибка возникала только на этом узле, я бы с этим полностью согласился. Но ошибка происходит на обоих узлах, 9300-8i должен быть вполне подходящим HBA для ZFS... Оба сервера имеют общий бэкплейн (BPN-SAS3-216EL1), используемые диски: - INTEL_SSDSC2KB240G8 - HGST_HTE721010A9E630
     
     
     
    turnicus
    Guest
    #3
    0
    03.04.2023 14:49:00
    Здравствуйте. У меня PVE на 6.4-15, и сегодня я столкнулся с точно такой же проблемой. На некоторых моих виртуальных машинах операционная система гостя сообщала "содержит файловую систему с ошибками" и "найдены inodes, которые были частью орфанного связного списка", в то время как основное хранилище выглядело нормально: - команда zpool status на хосте выдала "нет известных ошибок" - команда zfs list показала много свободного места Мне пришлось вручную запустить fsck на всех виртуальных машинах, чтобы исправить проблему... Как может виртуальный диск повредиться, если основное ZFS хранилище этого не замечает? На всех этих виртуальных машинах я использую: - VirtIO SCSI - Кэш: По умолчанию (без кэша) - Эмуляция SSD: включена - Discard: включен Спасибо за любую помощь!
     
     
     
    Dunuin
    Guest
    #4
    0
    03.04.2023 14:59:00
    Вы проводили недавнюю проверку zpool scrub YourPool? По умолчанию она выполняется только раз в месяц, поэтому данные могут быть повреждены, но ZFS пока это не замечает, так как повреждение могло произойти после последней проверки. Используете ли вы ECC RAM? ZFS может обнаруживать повреждения только тогда, когда данные хранятся на дисках. Данные все еще могут повреждаться в ОЗУ или ЦП, и ZFS не сможет это заметить.
     
     
     
    fiona
    Guest
    #5
    0
    04.04.2023 09:24:00
    Привет, эта версия устарела уже полтора года. Пожалуйста, обновите до актуальной версии: https://pve.proxmox.com/wiki/Upgrade_from_6.x_to_7.0
     
     
     
    LnxBil
    Guest
    #6
    0
    07.04.2023 13:10:00
    Ваша файловая система также может быть повреждена, если квота пула или набора данных исчерпана и это не было обнаружено сразу.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры