Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    [ZFS + ZED] Нет уведомлений об OFFLINE (удалённых) дисков.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    [ZFS + ZED] Нет уведомлений об OFFLINE (удалённых) дисков., Proxmox Виртуальная Среда
     
    koyax
    Guest
    #1
    0
    31.08.2019 17:40:00
    Система: Proxmox VE 6.0-6 (обновлено с 5.4)

    Привет, ребята! Пришлось перенастраивать zed, так как файл конфигурации был перезаписан при обновлении. Уведомления работают отлично, за исключением того, что я не получаю email, когда удаляю диск. Закончили scrubs и resilvering – приходит письмо. А вот тот факт, что диск вышел из строя, – нет. В zedlet statechange-notify.sh, похоже, есть только триггеры для дисков 'DEGRADED', 'FAULTED' или 'REMOVED'. Это как-то намеренно? Или я что-то упускаю? Тот факт, что диск вышел из строя в моей системе, довольно критичен (по моему мнению).

    Код: Aug 30 2019 14:47:17.040921375 resource.fs.zfs.statechange
           version = 0x0
           class = "resource.fs.zfs.statechange"
           pool = "hdd"
           pool_guid = 0x79d541d265310a54
           pool_state = 0x0
           pool_context = 0x0
           vdev_guid = 0xedfa949ff5bf4746
           vdev_state = "OFFLINE" (0x2)
           vdev_path = "/dev/sdb1"
           vdev_devid = "ata-WDC_WD5000AAKX-XXXXXXXXXXX-part1"
           vdev_physpath = "pci-0000:00:1f.2-ata-2"
           vdev_laststate = "ONLINE" (0x7)
           time = 0x5d691ad5 0x270691f
           eid = 0x5c

    Part of statechange-notify.sh

    Код:
    #
    # Send notification in response to a fault induced statechange
    #
    # ZEVENT_SUBCLASS: 'statechange'
    # ZEVENT_VDEV_STATE_STR: 'DEGRADED', 'FAULTED' or 'REMOVED'              <==== !!
    #
    # Exit codes:
    #   0: notification sent
    #   1: notification failed
    #   2: notification not configured
    #   3: statechange not relevant
    #   4: statechange string missing (unexpected)
     
     
     
    exitcomestothis
    Guest
    #2
    0
    13.03.2020 04:12:00
    Привет! У меня та же проблема на proxmox 6.1-3. Если я вручную удаляю диск из массива, он становится "UNAVAIL", а пул отображается как деградированный. Но уведомление по электронной почте не приходит. Как и у автора исходного поста, я получаю письма о скрубах, ресилверах и т.д., но не о том, что пул деградировал. Я открыл issue на github #10123 и также добавил ссылку на похожий issue, который был открыт, исправлен, а затем закрыт обратно в 2017 году #4653. Кто-нибудь нашёл обходной путь к этой проблеме, кроме использования самописного shell-скрипта? Моя конфигурация: PowerEdge R515, 128gb ECC RAM, 8x WDRE 2tb дисков в raid-z2, PERC H310 (прошитый в IT mode).
     
     
     
    exitcomestothis
    Guest
    #3
    0
    17.03.2020 19:23:00
    Я снова провёл тест и загрузил 4 ВМ в пул, чтобы получить достаточно IO-запросов, чтобы zed поймал диск, как предлагалось в #4653. Однако после переноса более 1 ТБ ВМ в пул и их работы в течение последних 5 дней, zed так и не выдал никакого оповещения.
     
     
     
    exitcomestothis
    Guest
    #4
    0
    18.03.2020 21:44:00
    Еще одно наблюдение по этому поводу: даже несмотря на то, что состояние пула ухудшено, иконка узла слева на экране все равно показывает зеленый цвет. Однако, если зайти в node->disks->zfs, состояние здоровья показывает ухудшенное с желтым предупреждением. Зеленая иконка узла тоже должна быть желтой, чтобы указать на возможную проблему.
     
     
     
    exitcomestothis
    Guest
    #5
    0
    19.03.2020 02:33:00
    Я обновил все доступные пакеты сегодня после обеда, что обновило ZFS и ZED с версии 0.8.2 до 0.8.3, однако эта проблема всё ещё сохраняется. Кто-нибудь смог настроить ZED так, чтобы он оповещал о переходе пула в деградированное состояние?

    Код: root@pve:~# pveversion -v
    proxmox-ve: 6.1-2 (running kernel: 5.3.18-2-pve)
    pve-manager: 6.1-8 (running version: 6.1-8/806edfe1)
    pve-kernel-helper: 6.1-7
    pve-kernel-5.3: 6.1-5
    pve-kernel-5.3.18-2-pve: 5.3.18-2
    pve-kernel-5.3.10-1-pve: 5.3.10-1
    ceph-fuse: 12.2.11+dfsg1-2.1+b1
    corosync: 3.0.3-pve1
    criu: 3.11-3
    glusterfs-client: 5.5-3
    ifupdown: 0.8.35+pve1
    ksm-control-daemon: 1.3-1
    libjs-extjs: 6.0.1-10
    libknet1: 1.15-pve1
    libpve-access-control: 6.0-6
    libpve-apiclient-perl: 3.0-3
    libpve-common-perl: 6.0-17
    libpve-guest-common-perl: 3.0-5
    libpve-http-server-perl: 3.0-5
    libpve-storage-perl: 6.1-5
    libqb0: 1.0.5-1
    libspice-server1: 0.14.2-4~pve6+1
    lvm2: 2.03.02-pve4
    lxc-pve: 3.2.1-1
    lxcfs: 3.0.3-pve60
    novnc-pve: 1.1.0-1
    proxmox-mini-journalreader: 1.1-1
    proxmox-widget-toolkit: 2.1-3
    pve-cluster: 6.1-4
    pve-container: 3.0-22
    pve-docs: 6.1-6
    pve-edk2-firmware: 2.20200229-1
    pve-firewall: 4.0-10
    pve-firmware: 3.0-6
    pve-ha-manager: 3.0-9
    pve-i18n: 2.0-4
    pve-qemu-kvm: 4.1.1-4
    pve-xtermjs: 4.3.0-1
    qemu-server: 6.1-7
    smartmontools: 7.1-pve2
    spiceterm: 3.1-1
    vncterm: 1.6-1
    zfsutils-linux: 0.8.3-pve1
     
     
     
    Michael Andreasen
    Guest
    #6
    0
    23.06.2020 20:56:00
    Привет, у меня та же проблема. Я получаю уведомления об удалении, но не получаю уведомлений при отключении диска. Кто-нибудь знает решение?
     
     
     
    exitcomestothis
    Guest
    #7
    0
    26.02.2024 02:41:00
    Просто уведомляю всех, кто смотрит этот вопрос: этот вопрос всё ещё помечен как открытый на GitHub и связан с этим постом.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры