Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Пропали части на графиках.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Пропали части на графиках., Proxmox Виртуальная Среда
     
    filippoclikkami
    Guest
    #1
    0
    02.07.2025 18:50:00
    Всем привет, вполне нормально, что графики показывают эти пропуски. Это кластер из 4 узлов Minisforum MS-01, проблем с ВМ нет. У меня нестабильность с PBS при синхронизации с удаленным PBS. Нестабильность на стороне PVE, я имею в виду, синхронизация идет, но на стороне PVE несколько раз выдает сообщение о таймауте соединения. PBS — это ВМ с 4 ядрами и 8 ГБ оперативной памяти, а в прикрепленных графиках под названием cpuramnodes вы можете видеть, что пропуски происходят на каждом узле, а также проявляются в сетевом трафике, Disk IO и т. д. Я думаю, что здесь может быть какая-то энергосберегающая функция или троттлинг процессора, но ВМ работают нормально. Кто-нибудь с такой конфигурацией или похожей ситуацией?
     
     
     
    groque
    Guest
    #2
    0
    07.07.2025 07:29:00
    В тех пробелах, которые вы видите на графиках Proxmox, обычно виноваты перебои в работе pvestatd — сервиса, отвечающего за сбор и обновление статистики ресурсов. Если pvestatd не может вовремя собрать данные из-за сбоев, чрезмерной нагрузки, задержек ввода-вывода или таймаутов, то на графиках будут видны пропущенные участки. Проверить его состояние можно так:
    Bash: systemctl status pvestatd
    journalctl -u pvestatd
     
     
     
    filippoclikkami
    Guest
    #3
    0
    08.07.2025 18:48:00
    Спасибо за ответы.
    Jul 08 18:10:03 clikka1 pvestatd[1195]: proxmox-backup-client failed: Error: http request timed out
    Jul 08 18:10:03 clikka1 pvestatd[1195]: status update time (120.248 seconds)
    Jul 08 18:12:04 clikka1 pvestatd[1195]: proxmox-backup-client failed: Error: http request timed out
    Jul 08 18:12:04 clikka1 pvestatd[1195]: status update time (120.234 seconds)
    Jul 08 18:14:04 clikka1 pvestatd[1195]: proxmox-backup-client failed: Error: http request timed out
    Jul 08 18:14:04 clikka1 pvestatd[1195]: status update time (120.227 seconds)
    Jul 08 18:16:04 clikka1 pvestatd[1195]: proxmox-backup-client failed: Error: http request timed out
    Jul 08 18:16:04 clikka1 pvestatd[1195]: status update time (120.226 seconds)
    Jul 08 18:16:22 clikka1 pvestatd[1195]: status update time (17.886 seconds)
    Jul 08 18:18:42 clikka1 pvestatd[1195]: proxmox-backup-client failed: Error: http request timed out
    Jul 08 18:18:42 clikka1 pvestatd[1195]: status update time (120.242 seconds)
    Jul 08 18:20:42 clikka1 pvestatd[1195]: proxmox-backup-client failed: Error: http request timed out
    Jul 08 18:20:42 clikka1 pvestatd[1195]: status update time (120.227 seconds)
    Jul 08 18:22:42 clikka1 pvestatd[1195]: proxmox-backup-client failed: Error: http request timed out
    Jul 08 18:22:42 clikka1 pvestatd[1195]: status update time (120.234 seconds)
    Jul 08 18:24:42 clikka1 pvestatd[1195]: proxmox-backup-client failed: Error: http request timed out
    Jul 08 18:24:42 clikka1 pvestatd[1195]: status update time (120.231 seconds)

    Вот что я получаю, и так происходит каждый день с начала июня. Хотел добавить, что хранилище – это NFS-шара на QNAP rack NAS. Проблем не было, пока я не начал синхронизировать удалённые PBS. Сначала подумал, что дело в настройках энергосбережения NAS, отключение остановки дисков, казалось, помогло, но через пару дней проблема снова появилась.
     
     
     
    gfngfn256
    Guest
    #4
    0
    08.07.2025 19:58:00
    Если я правильно понял, у вас смонтирована NFS-шара как Datastore на PBS VM на PVE (на том же узле?) и монтируется на NFS-сервер (BM QNAP). Это, скорее всего, создаст большую нагрузку на этот узел/сеть. В целом, NFS в качестве Datastore для PBS (даже BM) лучше избегать. Посмотрите эти результаты. Я не использую PBS, но у вас включен/выключен параметр "Проверять новые резервные копии сразу после завершения"?
     
     
     
    gfngfn256
    Guest
    #5
    0
    07.07.2025 08:05:00
    Тебе нужно добавить ещё один узел (или QDevice), чтобы обеспечить кворум. Как минимум, учитывая вашу нестабильность, это вряд ли улучшит ситуацию в кластере. Более того, это даже может быть одной из причин нестабильности.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры