Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Сокет libceph закрыт.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Сокет libceph закрыт., Proxmox Виртуальная Среда
     
    kbechler
    Guest
    #1
    0
    20.02.2025 10:05:00
    Привет, у меня установлена простая кластеризация Ceph с 4 узлами и 8 OSD (по 2 OSD на узел) на PVE8. Вроде бы всё работает нормально, но на одном из узлов (в dmesg) куча сообщений "libceph: socket closed":

    Code: [czw lut 20 09:52:54 2025] libceph: osd7 (1)10.40.0.111:6809 socket closed (con state OPEN)
    [czw lut 20 09:53:14 2025] libceph: osd4 (1)10.40.0.106:6805 socket closed (con state OPEN)
    [czw lut 20 09:53:20 2025] libceph: osd4 (1)10.40.0.106:6805 socket closed (con state OPEN)
    [czw lut 20 09:53:25 2025] libceph: osd4 (1)10.40.0.106:6805 socket closed (con state OPEN)
    [czw lut 20 09:53:26 2025] libceph: osd4 (1)10.40.0.106:6805 socket closed (con state OPEN)
    [czw lut 20 09:53:32 2025] libceph: osd4 (1)10.40.0.106:6805 socket closed (con state OPEN)
    [czw lut 20 09:53:33 2025] libceph: osd4 (1)10.40.0.106:6805 socket closed (con state OPEN)
    [czw lut 20 09:53:33 2025] libceph: osd4 (1)10.40.0.106:6805 socket closed (con state OPEN)
    [czw lut 20 09:54:05 2025] libceph: osd1 (1)10.40.0.108:6805 socket closed (con state OPEN)
    [czw lut 20 09:54:11 2025] libceph: osd1 (1)10.40.0.108:6805 socket closed (con state OPEN)
    [czw lut 20 09:54:25 2025] libceph: osd1 (1)10.40.0.108:6805 socket closed (con state OPEN)
    [czw lut 20 09:54:43 2025] libceph: osd1 (1)10.40.0.108:6805 socket closed (con state OPEN)
    [czw lut 20 09:54:44 2025] libceph: osd1 (1)10.40.0.108:6805 socket closed (con state OPEN)
    [czw lut 20 09:54:45 2025] libceph: osd1 (1)10.40.0.108:6805 socket closed (con state OPEN)
    [czw lut 20 09:54:58 2025] libceph: osd1 (1)10.40.0.108:6805 socket closed (con state OPEN)
    [czw lut 20 09:55:01 2025] libceph: osd1 (1)10.40.0.108:6805 socket closed (con state OPEN)
    [czw lut 20 09:55:03 2025] libceph: osd1 (1)10.40.0.108:6805 socket closed (con state OPEN)
    [czw lut 20 09:55:10 2025] libceph: osd1 (1)10.40.0.108:6805 socket closed (con state OPEN)

    Все узлы имеют очень похожую конфигурацию оборудования (AMD EPYC, NIc 25Gbps) и работают с одним и тем же ядром 6.11.11-1-pve (я надеялся, что переход с 6.8 поможет). Не мог бы кто-нибудь сказать, что именно означает это сообщение? И как это отладить?

    С уважением,
    Конрад
     
     
     
    kbechler
    Guest
    #2
    0
    25.02.2025 09:25:00
    Забавно. Мы перенесли два контейнера на другой узел, и эти сообщения: Код: libceph: osd0 (1)10.40.0.108:6804 сокет закрыт (состояние соединения OPEN) теперь сообщает... другой узел (тот, на котором находятся перенесенные CT). Получается какая-то "проблема" между CEPH и CT...
     
     
     
    michel.seicon
    Guest
    #3
    0
    24.04.2025 22:30:00
    Привет, у меня та же проблема. 24 апреля 17:26:10 sr1 kernel: libceph: osd5 (1)192.168.10.201:6812 socket closed (con state OPEN) 24 апреля 17:26:10 sr1 kernel: libceph: osd2 (1)192.168.10.203:6815 socket closed (con state OPEN) 24 апреля 17:26:10 sr1 kernel: libceph: osd2 (1)192.168.10.203:6815 socket closed (con state OPEN) 24 апреля 17:26:35 sr1 kernel: libceph: osd2 (1)192.168.10.203:6815 socket closed (con state OPEN) 24 апреля 17:26:35 sr1 kernel: libceph: osd5 (1)192.168.10.201:6812 socket closed (con state OPEN) 24 апреля 17:27:01 sr1 kernel: libceph: osd8 (1)192.168.10.205:6801 socket closed (con state OPEN) После замены HDD на SSD у меня есть 3 ноды (sr1, sr3, sr5), но только одна сообщает об этом — sr1.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры