Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    [SOLVED]CEPH - ошибка rbd: rbd: не удалось подключиться к кластеру (500)

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    [SOLVED]CEPH - ошибка rbd: rbd: не удалось подключиться к кластеру (500), Proxmox Виртуальная Среда
     
    alchemyx
    Guest
    #1
    0
    14.04.2014 15:02:00
    Здравствуйте, я выполнил установку CEPH согласно этому руководству - http://pve.proxmox.com/wiki/Ceph_Server. Все прошло хорошо. Выполнил все шаги, CEPH, похоже, работает: Код: root@proxmox-A:/etc/pve/priv/ceph# pveceph lspoolsИмя                       размер    pg_num                 использовано данные                          2         64                    0метаданные                      2         64                    0rbd                           2         64                    0 storage.cfg: Код: rbd: rbd monhost 10.10.10.1,10.10.10.2,10.10.10.3 pool rbd контент images имя пользователя admindir: local путь /var/lib/vz контент images,iso,vztmpl,rootdir макс. файлов 0 Но когда я нажимаю на запись RBD, получаю ошибку rbd: rbd: не удалось подключиться к кластеру (500). Может, у вас есть идеи, как это решить? Спасибо!
     
     
     
    MACscr
    Guest
    #2
    0
    15.11.2015 03:38:00
    Мы уверены, что должны быть пробелы? На вики на самом деле стоят точки с запятой между ними: Код: # из /etc/pve/storage.cfg rbd: my-ceph-storage monhost 10.10.10.1;10.10.10.2;10.10.10.3 pool rbd content images username admin Хотя у меня такая же ошибка соединения как с пробелами, так и с точками с запятой. =/
     
     
     
    MACscr
    Guest
    #3
    0
    15.11.2015 03:42:00
    Неважно, проблема решена. Дело было в ключнице тоже. Я думал, что она нужна только если ты не используешь графический интерфейс. Жаль, что они это не автоматизировали. Смотрится довольно сыро.
     
     
     
    MACscr
    Guest
    #4
    0
    23.11.2015 19:45:00
    Чтобы другие не тратили время, мне пришлось сделать следующее в моем storage.cfg, чтобы GUI мог к нему подключиться: Код: rbd: ceph-ssd
    monhost 10.10.0.100:6789 10.10.0.104:6789 10.10.0.108:6789
    content images,rootdir
    pool rbd
    krbd
    username admin ИЗМЕНЕНИЕ: Я соврал. Я был на неправильной вкладке. Все равно получаю ту же ошибку 500, как и ты изначально. Такое странное дело.
     
     
     
    D.P.
    Guest
    #5
    0
    13.05.2016 10:04:00
    Привет, ты решил эту проблему? У меня такая же ошибка после установки согласно уроку на http://pve.proxmox.com/wiki/Ceph_Server.
     
     
     
    tomas666
    Guest
    #6
    0
    09.09.2016 18:46:00
    Привет, у меня та же ошибка rbd: не удалось подключиться к кластеру proxmox 4.2. Я пробовал почти всё, keyring доступен из командной строки, всё работает, просто веб-интерфейс не видит доступное пространство, не могу использовать для ВМ, контент недоступен, поэтому rbd: не удалось подключиться к кластеру (500).
     
     
     
    tomas666
    Guest
    #7
    0
    09.09.2016 18:49:00
    и, пожалуйста, уточните, какой правильный синтаксис для монитора хоста: с запятой, пробелом или точкой с запятой? с портами или без? кстати, я использую mesh-сеть для Ceph, тем не менее, сеть и Ceph работают.
     
     
     
    Davyd
    Guest
    #8
    0
    09.09.2016 19:32:00
    Для меня всё прекрасно работает с этой конфигурацией хранилища, без портов: Code: rbd: ceph-rbd monhost 10.200.0.3;10.200.0.1;10.200.0.2 username admin content images pool rbd Когда я настраивал этот кластер, у меня была такая же проблема, но это была моя ошибка с расположением файла ключей. Или вы можете отключить аутентификацию ceph, установив эти строки в ceph.conf Code: [global] auth client required = none auth cluster required = none auth service required = none
     
     
     
    trekkygeek
    Guest
    #9
    0
    18.11.2016 05:55:00
    Скопируйте ключи в /etc/pve/priv/ceph и переименуйте в то же имя, что и ваш пул. Например: storage.cfg: rbd: ceph-ssd monhost x.x.x.x:6789;y.y.y.y:6789;z.z.z.z:6789 content rootdir,images username admin pool ssd rbd: ceph-sata monhost x.x.x.x:6789;y.y.y.y:6789;z.z.z.z:6789 content rootdir,images username admin pool sata #/etc/pve/priv/ceph# ls -l всего 1 -rw------- 1 root www-data 63 Ноя 17 23:51 ceph-sata.keyring -rw------- 1 root www-data 63 Ноя 17 23:51 ceph-ssd.keyring
     
     
     
    aschmitt
    Guest
    #10
    0
    21.12.2016 19:55:00
    Быстрый вопрос. Где находится сам ключ, который мы должны скопировать?
     
     
     
    aschmitt
    Guest
    #11
    0
    21.12.2016 20:03:00
    ха-ха. Не беда, я нашел это в документации Ceph Server. Для справки, я скопирую это сюда для остальных: Вам также нужно скопировать ключевую кольцевую в заранее определенное место. Обратите внимание, что имя файла должно быть storage id + .keyring. storage id — это выражение после 'rbd:' в /etc/pve/storage.cfg, которое в текущем примере my-ceph-storage. # cd /etc/pve/priv/ # mkdir ceph # cp /etc/ceph/ceph.client.admin.keyring ceph/my-ceph-storage.keyring
     
     
     
    RealVaVa
    Guest
    #12
    0
    22.06.2017 13:20:00
    У меня такая же проблема. После копирования keyring в директорию pve/ceph на первом узле проблема была решена, но только на первом узле. Например, cp /etc/ceph/ceph.client.admin.keyring /etc/pve/priv/ceph/ceph-rbd.keyring ceph-rbd - это название моего пула. Как я могу это исправить на втором узле?
     
     
     
    Alwin
    Guest
    #13
    0
    30.04.2018 16:37:00
    @RealVaVa, вы написали в теме, помеченной как решённая, так что вряд ли кто-то ответит на ваш вопрос здесь. Для этого откройте новую тему.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры