Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Игнорирую пользовательскую конфигурацию Ceph для хранилища.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Игнорирую пользовательскую конфигурацию Ceph для хранилища., Proxmox Виртуальная Среда
     
    Timothy1056
    Guest
    #1
    0
    28.06.2023 14:39:00
    Добрый день, хотел бы узнать, как избавиться от этой ошибки.

    Jun 28 14:37:01 pve13 pvestatd[1495]: ignoring custom ceph config for storage 'CephData', 'monhost' is not set (assuming pveceph managed cluster)!
    Jun 28 14:37:12 pve13 pvestatd[1495]: ignoring custom ceph config for storage 'CephData', 'monhost' is not set (assuming pveceph managed cluster)!
    Jun 28 14:37:21 pve13 pvestatd[1495]: ignoring custom ceph config for storage 'CephData', 'monhost' is not set (assuming pveceph managed cluster)!
    Jun 28 14:37:31 pve13 pvestatd[1495]: ignoring custom ceph config for storage 'CephData', 'monhost' is not set (assuming pveceph managed cluster)!
    Jun 28 14:37:41 pve13 pvestatd[1495]: ignoring custom ceph config for storage 'CephData', 'monhost' is not set (assuming pveceph managed cluster)!
    Jun 28 14:37:51 pve13 pvestatd[1495]: ignoring custom ceph config for storage 'CephData', 'monhost' is not set (assuming pveceph managed cluster)!
    Jun 28 14:38:01 pve13 pvestatd[1495]: ignoring custom ceph config for storage 'CephData', 'monhost' is not set (assuming pveceph managed cluster)!
    Jun 28 14:38:11 pve13 pvestatd[1495]: ignoring custom ceph config for storage 'CephData', 'monhost' is not set (assuming pveceph managed cluster)!
    Jun 28 14:38:21 pve13 pvestatd[1495]: ignoring custom ceph config for storage 'CephData', 'monhost' is not set (assuming pveceph managed cluster)!
    Jun 28 14:38:31 pve13 pvestatd[1495]: ignoring custom ceph config for storage 'CephData', 'monhost' is not set (assuming pveceph managed cluster)!
    Jun 28 14:38:41 pve13 pvestatd[1495]: ignoring custom ceph config for storage 'CephData', 'monhost' is not set (assuming pveceph managed cluster)!

    В данный момент всё работает нормально.
     
     
     
    Timothy1056
    Guest
    #2
    0
    02.02.2024 13:25:00
    Прости за такой задержку с ответом. Я убедился, что все файлы конфигурации одинаковые в /etc/pve/ceph.conf
     
     
     
    sb-jw
    Guest
    #3
    0
    02.02.2024 13:35:00
    Во-первых, стоит помнить, что развертывать 4 Mons не стоит. Либо 3, либо 5, или максимум 7. В вашей конфигурации вам вполне хватит и 3. Большим настройками с сотнями OSD хватит и 5, а 7 нужны в очень редких случаях. Только на pve13 есть эта ошибка? Как выглядит ваш /etc/pve/storage.cfg? Что-нибудь осталось под /etc/ceph?
     
     
     
    Timothy1056
    Guest
    #4
    0
    02.02.2024 13:49:00
    Привет @sb-jw! Я сократил количество мониторов до 3. Прилагаю storage.cfg. В директории /etc/ceph лежит два файла: ceph.conf и rbdmap.
     
     
     
    sb-jw
    Guest
    #5
    0
    02.02.2024 14:09:00
    Этот вопрос касается предыдущего вопроса, и существует ли файл rbdmap на всех серверах? Он вам на самом деле не нужен, и вы можете его удалить; это может решить проблему с ошибкой.
     
     
     
    Timothy1056
    Guest
    #6
    0
    02.02.2024 14:18:00
    Появляется эта ошибка на всех серверах, и файл rbdmap тоже на каждом есть. Заметил, что файл ceph.conf отсутствует на PVE7, PVE10 и PVE11.
     
     
     
    sb-jw
    Guest
    #7
    0
    02.02.2024 14:47:00
    Какой из них: под /etc/ceph/ceph.conf (на самом деле просто символическая ссылка) или /etc/pve/ceph.conf? Если второй, срочно проверь ноды, которые вызвало проблемы, потому что папка должна быть реплицирована на все из них и не должна отличаться.
     
     
     
    Timothy1056
    Guest
    #8
    0
    02.02.2024 14:48:00
    Это будет файл, расположенный в каталоге /etc/ceph/ceph.conf.
     
     
     
    Philipp Hufnagl
    Guest
    #9
    0
    05.02.2024 11:46:00
    Ты это исправил? Если не обновлять версию OSD на 2 или более релизов, можно столкнуться с довольно серьезными проблемами. Вот вики по этой теме. И, кстати, перед этим убедись, что у тебя есть рабочая резервная копия (на всякий случай).
     
     
     
    Timothy1056
    Guest
    #10
    0
    05.02.2024 11:51:00
    Привет @Philipp Hufnagl, к сожалению, проблема по-прежнему возникает. Обновлю версии OSD и сообщу об этом как можно скорее.
     
     
     
    Timothy1056
    Guest
    #11
    0
    05.02.2024 11:54:00
    Вижу, они обновились до версии 17.2.7.
     
     
     
    Philipp Hufnagl
    Guest
    #12
    0
    05.02.2024 12:07:00
    Привет! Проблема не в том, что OSD не обновляются. Проблема в том, что твоя система до сих пор разрешает использование более старой версии OSD, чем та, которую ты используешь. CEPH гарантирует совместимость только для версий, которые на 2 версии старше используемой тобой. Большая разница между используемой версией и требуемой скорее всего повредит твои OSD и заставит тебя восстанавливать данные из резервной копии.
     
     
     
    Timothy1056
    Guest
    #13
    0
    05.02.2024 13:40:00
    Когда запускаю Code: ceph mon dump | grep min_mon_release, получаю следующий вывод Code: min_mon_release 17 (quincy). Судя по документации, которую ты прислал в предыдущем сообщении, ограничение на использование только Quincy установлено, а ошибка всё равно осталась.
     
     
     
    Philipp Hufnagl
    Guest
    #14
    0
    09.02.2024 15:21:00
    Привет! Добавил CEPH хранилище как локальное или как удалённое? Если я правильно понимаю, эту ошибку можно получить только если добавить внешний кластер CEPH.
     
     
     
    Timothy1056
    Guest
    #15
    0
    12.02.2024 06:46:00
    Это локальный кластер Ceph, созданный на Proxmox.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры