Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Долгие временные задержки пинга на заднем интерфейсе обнаружены.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Долгие временные задержки пинга на заднем интерфейсе обнаружены., Proxmox Виртуальная Среда
     
    kaltsi
    Guest
    #1
    0
    30.11.2020 09:32:00
    У меня есть кластер Proxmox из 5 узлов. Система использует Ceph. Она работала без проблем в течение 3 лет. Никаких изменений не было, но Ceph показывает следующую ошибку. Код: кластер:
       id:     fb926dd9-17b9-42fb-88d6-27f4944fd554
       состояние: HEALTH_WARN
               Долгое время ответа при проверке соединения на заднем интерфейсе, максимальное 6566.709 мс
               Долгое время ответа при проверке соединения на переднем интерфейсе,最大ное 8522.771 мс
       
     службы:
       мон: 3 демона, кворум vCTDB-host-2,vCTDB-host-4,vCTDB-host-5
       менеджер: vCTDB-host-2(активен), резервные: vCTDB-host-5, vCTDB-host-4
       OSD: 19 OSD, 18 работают, 18 включены

     данные:
       пуулы:   1 пул, 512 PG
       объекты: 823.49k объектов, 2.59TiB
       использование:   6.67TiB использовано, 14.6TiB / 21.3TiB доступно
       PG:     510 активных+чистых
                2   активных+чистых+проверяются+глубокие

     IO:
       клиент:   57.1KiB/с чтение, 415KiB/с запись, 38операций/с чтение, 32операции/с запись Ceph работает очень медленно. Я не нашел проблем с сетью. Можете, пожалуйста, помочь мне решить эту проблему?
     
     
     
    CTCcloud
    Guest
    #2
    0
    15.06.2022 16:51:00
    Окей, я обновил все узлы в нашем кластере до последней версии 5.15.35-2-pve... на данный момент все выглядит лучше. Прошло чуть больше трех часов, и пока никаких аномалий. Нет ошибок медленного пинга Ceph, а производительность и отзывчивость ВМ на данный момент очень хорошие. Время покажет, действительно ли эта версия так же стабильна, как мы надеемся, и будет ли она такой же стабильной, как 5.13.19-6-pve.
     
     
     
    midsize_erp
    Guest
    #3
    0
    05.07.2022 11:43:00
    @CTCcloud Я считаю, что это дело закрыто – с тех пор как я перешёл на 5.15.35-2, повторных случаев не было. А как у тебя дела?
     
     
     
    CTCcloud
    Guest
    #4
    0
    07.05.2022 16:08:00
    Эта проблема возникла и с нашим гиперконвергентным Ceph... когда? Сразу после обновления до Proxmox 7.2 и перезагрузки на новый 5.15 ядро. Она проявилась на всех узлах Ceph (Pacific 16.2.6). Это Dell R740 с картами Mellanox 25Gb и 100% NVMe дисками. Всё работало отлично на Proxmox 7.1 с ядром 5.13.19. Я предположил бы, что это ошибка либо в коде Proxmox, либо изменения в ядре... есть предложения? Стоит ли это сообщить как об ошибке или как-то иначе?
     
     
     
    CTCcloud
    Guest
    #5
    0
    09.05.2022 15:46:00
    Поднятие темы... еще, допустил ошибку с версией Ceph... 16.2.7, а не 16.2.6... с тех пор, как это было выпущено командой Proxmox. Кроме того, все затронутые серверы находятся в репозитории Proxmox Enterprise.
     
     
     
    jsterr
    Guest
    #6
    0
    09.05.2022 17:27:00
    У меня больше нет этой проблемы (я тоже на 7.2), но, как видишь в истории, она у меня была в декабре 2020 года. Я не думаю, что это ошибка, скорее, небольшое прерывание сети или что-то в этом роде. Обычно это проявляется, если есть проблемы с сетью. Ты можешь исправить это, перезапустив OSD, которые затронуты этой проблемой (после того, как поправишь сеть или когда она снова заработает). Может быть, это происходит, если ты перезагружаешь узел без обычно необходимых глобальных флагов? Могло бы быть что-то вроде этого… но я не совсем уверен. Возможно, Proxmox сможет рассказать об этом больше.
     
     
     
    CTCcloud
    Guest
    #7
    0
    09.05.2022 17:35:00
    Нет, потому что не было проблем с сетью. Я также перезапустил несколько OSD, но это ничего не дало. Проблема не проявлялась ни в предыдущих ядрах, ни в версиях Proxmox, а теперь появилась с ядром 5.15. Это явно связано с новым ядром или новыми двоичными файлами Proxmox, которые появились в версии 7.2. Если у вас нет полностью укомплектованных машин Dell R720XD с U.2 NVMe-дисками и сетевыми картами Mellanox 25Gb, я не уверен, что вы сможете провести прямое сравнение. Тем не менее, спасибо за попытку объяснить это. Возможно, мне придется перезагрузить кажд узел на предыдущее ядро 5.13.19-6 и оставить его так, пока Proxmox не сделает что-то по этому поводу в новой версии ядра... однако я жду, когда кто-то из вышестоящих что-то скажет об этом, что могло бы прояснить ситуацию. Еще раз спасибо.
     
     
     
    CTCcloud
    Guest
    #8
    0
    10.05.2022 19:05:00
    Для информации... Я вернул все узлы Ceph к ядру 5.13.19-6, и проблема с сердцебиением OSD на передней и задней стороне исчезла. Очевидно, что что-то изменилось с новым ядром 5.15. Было бы здорово, если бы кто-то еще, кто столкнулся с этой проблемой, высказался, чтобы было понятно, что мы не одни.
     
     
     
    midsize_erp
    Guest
    #9
    0
    19.05.2022 05:05:00
    Я в такой же ситуации. Пятиузловый кластер, всё обновлено, и я получаю медленные сердцебиения OSD и с передней, и с задней стороны. Спойлер: Код Код: proxmox-ve: 7.2-1 (используемое ядро: 5.15.35-1-pve) pve-manager: 7.2-4 (используемая версия: 7.2-4/ca9d43cc) pve-kernel-5.15: 7.2-3 pve-kernel-helper: 7.2-3 pve-kernel-5.13: 7.1-9 pve-kernel-5.15.35-1-pve: 5.15.35-3 pve-kernel-5.13.19-6-pve: 5.13.19-15 pve-kernel-5.13.19-2-pve: 5.13.19-4 pve-kernel-4.15: 5.4-16 pve-kernel-4.15.18-27-pve: 4.15.18-55 pve-kernel-4.15.18-9-pve: 4.15.18-30 ceph: 15.2.16-pve1 ceph-fuse: 15.2.16-pve1 corosync: 3.1.5-pve2 criu: 3.15-1+pve-1 glusterfs-client: 9.2-1 ifupdown: 0.8.36+pve1 ksm-control-daemon: 1.4-1 libjs-extjs: 7.0.0-1 libknet1: 1.22-pve2 libproxmox-acme-perl: 1.4.2 libproxmox-backup-qemu0: 1.3.1-1 libpve-access-control: 7.1-8 libpve-apiclient-perl: 3.2-1 libpve-common-perl: 7.2-1 libpve-guest-common-perl: 4.1-2 libpve-http-server-perl: 4.1-2 libpve-storage-perl: 7.2-4 libqb0: 1.0.5-1 libspice-server1: 0.14.3-2.1 lvm2: 2.03.11-2.1 lxc-pve: 4.0.12-1 lxcfs: 4.0.12-pve1 novnc-pve: 1.3.0-3 proxmox-backup-client: 2.2.1-1 proxmox-backup-file-restore: 2.2.1-1 proxmox-mini-journalreader: 1.3-1 proxmox-widget-toolkit: 3.5.1 pve-cluster: 7.2-1 pve-container: 4.2-1 pve-docs: 7.2-2 pve-edk2-firmware: 3.20210831-2 pve-firewall: 4.2-5 pve-firmware: 3.4-2 pve-ha-manager: 3.3-4 pve-i18n: 2.7-2 pve-qemu-kvm: 6.2.0-7 pve-xtermjs: 4.16.0-1 qemu-server: 7.2-3 smartmontools: 7.2-pve3 spiceterm: 3.2-2 swtpm: 0.7.1~bpo11+1 vncterm: 1.7-1 zfsutils-linux: 2.1.4-pve1
     
     
     
    CTCcloud
    Guest
    #10
    0
    19.05.2022 14:19:00
    Не рад слышать, что у вас такая же проблема, но приятно знать, что кто-то другой с этим сталкивается. Интересно отметить, что у вас немного новая версия ядра, чем у нас, когда у нас возникала эта проблема, что говорит мне, что я правильно решил не обновляться до последней версии ядра. У нас все еще работает 5.13.19-6-pve, и проблем с медленными сердечниками OSD на задней и передней стороне нет. Наши проблемы возникли конкретно на ядре 5.15.30-2-pve. Спасибо.
     
     
     
    CTCcloud
    Guest
    #11
    0
    19.05.2022 22:09:00
    Добавлю кое-что к проблеме с сердцебиением OSD в новом ядре... на узлах, которые только выполняют ВМ, с новым ядром ВМ просто выключаются без видимой причины... иногда возникает синий экран... вернулся к ядру 5.13.19-6, и эта странность тоже прекратилась.
     
     
     
    midsize_erp
    Guest
    #12
    0
    20.05.2022 05:51:00
    @Ричард, чем мы можем помочь вам в расследовании этого?
     
     
     
    CTCcloud
    Guest
    #13
    0
    24.05.2022 15:41:00
    Чтобы добавить к этому... с обновлением Proxmox 7.2 у нас возникла странная проблема... после перезагрузки серверы запускаются, но при попытке их просмотреть через WebGUI возникает ошибка... точно не помню, может, ошибка 595? В любом случае, нужно подключиться по ssh к серверу и выполнить systemctl restart pve-cluster. После этого все работает нормально, и вы можете мигрировать ВМ на узел и с него. Как будто pve-cluster пытается запуститься до того, как сеть полностью заработает во время загрузки. Извините, если это относится к другой теме... мне кажется, это связано, так как происходит с момента Proxmox 7.2. Если вы считаете, что мне стоит разместить это где-то еще, я весь внимание...
     
     
     
    CTCcloud
    Guest
    #14
    0
    01.06.2022 19:49:00
    @midsize_erp - похоже, @Richard не отвечает... возможно, потому что они уже в курсе проблем и активно работают над их решением? Очень на это надеюсь, потому что мне не нравится застревать на ядре 5.13.19-6-pve, когда в репозитории Enterprise уже доступны 2 новые версии ядра. Проблема однозначно связана с регрессией ядра... У меня были проблемы на обоих последних ядрах 5.15.
     
     
     
    midsize_erp
    Guest
    #15
    0
    13.06.2022 06:09:00
    Итак, у меня были пару дней стабильности (два узла, которые раньше неправильно работали, больше не перезагружаются ежедневно). Может быть, версия 5.15.35-2-pve что-то исправила? Код: proxmox-ve: 7.2-1 (работает ядро: 5.15.35-2-pve) pve-manager: 7.2-4 (актуальная версия: 7.2-4/ca9d43cc) pve-kernel-5.15: 7.2-4 pve-kernel-helper: 7.2-4 pve-kernel-5.13: 7.1-9 pve-kernel-5.4: 6.4-4 pve-kernel-5.15.35-2-pve: 5.15.35-5 pve-kernel-5.15.35-1-pve: 5.15.35-3 pve-kernel-5.13.19-6-pve: 5.13.19-15 pve-kernel-5.13.19-2-pve: 5.13.19-4 pve-kernel-5.4.124-1-pve: 5.4.124-1 pve-kernel-5.4.106-1-pve: 5.4.106-1 ceph: 15.2.16-pve1 ceph-fuse: 15.2.16-pve1 corosync: 3.1.5-pve2 criu: 3.15-1+pve-1 glusterfs-client: 9.2-1 ifupdown: 0.8.36+pve1 ksm-control-daemon: 1.4-1 libjs-extjs: 7.0.0-1 libknet1: 1.24-pve1 libproxmox-acme-perl: 1.4.2 libproxmox-backup-qemu0: 1.3.1-1 libpve-access-control: 7.2-2 libpve-apiclient-perl: 3.2-1 libpve-common-perl: 7.2-2 libpve-guest-common-perl: 4.1-2 libpve-http-server-perl: 4.1-2 libpve-storage-perl: 7.2-4 libqb0: 1.0.5-1 libspice-server1: 0.14.3-2.1 lvm2: 2.03.11-2.1 lxc-pve: 4.0.12-1 lxcfs: 4.0.12-pve1 novnc-pve: 1.3.0-3 proxmox-backup-client: 2.2.3-1 proxmox-backup-file-restore: 2.2.3-1 proxmox-mini-journalreader: 1.3-1 proxmox-widget-toolkit: 3.5.1 pve-cluster: 7.2-1 pve-container: 4.2-1 pve-docs: 7.2-2 pve-edk2-firmware: 3.20210831-2 pve-firewall: 4.2-5 pve-firmware: 3.4-2 pve-ha-manager: 3.3-4 pve-i18n: 2.7-2 pve-qemu-kvm: 6.2.0-10 pve-xtermjs: 4.16.0-1 qemu-server: 7.2-3 smartmontools: 7.2-pve3 spiceterm: 3.2-2 swtpm: 0.7.1~bpo11+1 vncterm: 1.7-1 zfsutils-linux: 2.1.4-pve1
     
     
     
    CTCcloud
    Guest
    #16
    0
    13.06.2022 13:55:00
    Я действительно надеюсь, что ты прав. Будем надеяться, что твои проблемы действительно исчезли — это хороший знак, что последний ядро исправило хотя бы некоторые из них. Я все еще работаю на своих узлах Ceph на версии 5.13.19-6-pve, потому что просто не могу столкнуться с такими проблемами. Хотя у меня узлы выполнения ВМ на версии 5.15.35-1-pve, и у нас ВМ просто постоянно выключаются без предупреждения. Я надеюсь, что проблема с Ceph исчезла, но также переживаю из-за этих странных проблем с поведением ВМ.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры