Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    1 MDSs отстает от графика по обрезке.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    1 MDSs отстает от графика по обрезке., Proxmox Виртуальная Среда
     
    mattock
    Guest
    #1
    0
    26.12.2024 13:26:00
    В последние несколько дней у меня статус Ceph HEALTH_WARN со следующим сообщением: mds.pve1(mds.0): отстаёт от очистки (1109/128) max_segments: 128, num_segments: 1109. Количество num_segments постоянно растёт. Я использую CephFS и недавно обновился до CEPH 19.2.0 (с 18). Проблема возникла после обновления. Конечно, это не значит, что это причина. Я уже пробовал:

    `ceph config set mds mds_cache_trim_threshold 384Ki`
    `ceph config set mds mds_cache_trim_decay_rate 0.5`
    `ceph config set mds mds_recall_max_caps 45000B`
    `ceph config set mds mds_recall_max_decay_rate 0.75`

    Источник: [https://www.suse.com/de-de/support/kb/doc/?id=000019740](<#0 >)

    И:

    `ceph config set mds mds_dir_max_commit_size 80`
    `ceph fs fail fs_name`
    `ceph fs set fs_name joinable true`

    Источник: [https://github.com/rook/rook/issues/14220#issuecomment-2270086717](<#1 >)

    Но это не помогло ( [https://github.com/rook/rook/issues/14220#issuecomment-2270086717](<#1 >) ). Я вернул эти настройки. Как можно решить эту проблему? Если нужна дополнительная информация, дайте знать.

    Заранее спасибо.

    Спец:

    версии пакетов:
    proxmox-ve: 8.3.0 (запущенный ядро: 6.8.12-5-pve)
    pve-manager: 8.3.2 (запущенная версия: 8.3.2/3e76eec21c4a14a7)
    proxmox-kernel-helper: 8.1.0
    pve-kernel-5.15: 7.4-4
    proxmox-kernel-6.8: 6.8.12-5
    proxmox-kernel-6.8.12-5-pve-signed: 6.8.12-5
    proxmox-kernel-6.8.12-4-pve-signed: 6.8.12-4
    proxmox-kernel-6.5.13-6-pve-signed: 6.5.13-6
    proxmox-kernel-6.5: 6.5.13-6
    pve-kernel-5.4: 6.4-5
    pve-kernel-5.15.108-1-pve: 5.15.108-1
    pve-kernel-5.15.5-1-pve: 5.15.5-1
    pve-kernel-5.4.128-1-pve: 5.4.128-2
    pve-kernel-5.4.106-1-pve: 5.4.106-1
    amd64-microcode: 3.20240820.1~deb12u1
    ceph: 19.2.0-pve2
    ceph-fuse: 19.2.0-pve2
    corosync: 3.1.7-pve3
    criu: 3.17.1-2
    glusterfs-client: 10.3-5
    ifupdown: не установлен корректно
    ifupdown2: 3.2.0-1+pmx11
    intel-microcode: 3.20240910.1~deb12u1
    ksm-control-daemon: 1.5-1
    libjs-extjs: 7.0.0-5
    libknet1: 1.28-pve1
    libproxmox-acme-perl: 1.5.1
    libproxmox-backup-qemu0: 1.4.1
    libproxmox-rs-perl: 0.3.4
    libpve-access-control: 8.2.0
    libpve-apiclient-perl: 3.3.2
    libpve-cluster-api-perl: 8.0.10
    libpve-cluster-perl: 8.0.10
    libpve-common-perl: 8.2.9
    libpve-guest-common-perl: 5.1.6
    libpve-http-server-perl: 5.1.2
    libpve-network-perl: 0.10.0
    libpve-rs-perl: 0.9.1
    libpve-storage-perl: 8.3.3
    libqb0: 1.0.5-1
    libspice-server1: 0.15.1-1
    lvm2: 2.03.16-2
    lxc-pve: 6.0.0-1
    lxcfs: 6.0.0-pve2
    novnc-pve: 1.5.0-1
    proxmox-backup-client: 3.3.2-1
    proxmox-backup-file-restore: 3.3.2-2
    proxmox-firewall: 0.6.0
    proxmox-kernel-helper: 8.1.0
    proxmox-mail-forward: 0.3.1
    proxmox-mini-journalreader: 1.4.0
    proxmox-offline-mirror-helper: 0.6.7
    proxmox-widget-toolkit: 4.3.3
    pve-cluster: 8.0.10
    pve-container: 5.2.3
    pve-docs: 8.3.1
    pve-edk2-firmware: 4.2023.08-4
    pve-esxi-import-tools: 0.7.2
    pve-firewall: 5.1.0
    pve-firmware: 3.14-2
    pve-ha-manager: 4.0.6
    pve-i18n: 3.3.2
    pve-qemu-kvm: 9.0.2-4
    pve-xtermjs: 5.3.0-3
    qemu-server: 8.3.3
    smartmontools: 7.3-pve1
    spiceterm: 3.3.0
    swtpm: 0.8.0+pve1
    vncterm: 1.8.0
    zfsutils-linux: 2.2.6-pve1
     
     
     
    smarthall
    Guest
    #2
    0
    03.01.2025 10:54:00
    У меня та же проблема в Kubernetes с rook-ceph, и я думаю, что это вызвано этой ошибкой: https://tracker.ceph.com/issues/66948. Описание ошибки подразумевает, что негативных последствий нет, и больше логов в mds приведет к повторному удалению. Исправление ждет переноса в squid, но это, наверное, займет некоторое время: https://github.com/ceph/ceph/pull/60838
     
     
     
    atomique
    Guest
    #3
    0
    03.07.2025 13:09:00
    Спасибо за ссылки. У меня та же проблема. Кажется, это исправят в 19.2.3. Кто-нибудь уже пробовал эту версию и у кого получилось исправить? У меня стоит 19.2.2.

    Редактирую: Похоже, сейчас её нет в репозитории.

    Код: apt list -a ceph-common
    Listing... Done
    ceph-common/stable,now 19.2.2-pve1~bpo12+1 amd64 [installed]
    ceph-common/stable 19.2.1-pve3 amd64
    ceph-common/stable 19.2.1-pve2 amd64
    ceph-common/stable 19.2.1-pve1 amd64
    ceph-common/stable 19.2.0-pve2 amd64
    ceph-common/stable 19.2.0-pve1 amd64
    ceph-common/stable,stable-security 16.2.15+ds-0+deb12u1 amd64
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры