Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Проблемы с переустановкой Ceph

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Проблемы с переустановкой Ceph, Proxmox Виртуальная Среда
     
    oz1cw7yymn
    Guest
    #1
    0
    01.08.2019 17:51:00
    У меня проблемы с настройкой ceph в pve. Главная проблема в том, что, очевидно, я где-то допустил ошибку в конфигурации, и теперь не могу удалить и перезагрузить. Иными словами, у меня есть неправильная установка ceph на недавно установленном узле 6.0. Я попробовал следующее, чтобы сбросить конфигурацию и перезапустить установку/конфигурацию ceph: * pveceph purge - "не удалось получить информацию о мониторе из DNS SRV с именем службы: ceph-mon" * rm -Rf /etc/ceph /etc/pve/ceph.conf /etc/pve/priv/ceph* /var/lib/ceph * apt remove ceph ceph-base ceph-mon ceph-mgr ceph-osd ceph-mgr-dashboard ceph-mgr-diskprediction-local ceph-mgr-ssh (дополнительные пакеты были установлены во время одной из частично успешных попыток установки ceph) - apt не удалось, потому что скрипты ceph*.prerm в /var/lib/dpkg/info не смогли остановить службы * rm ceph-{base,mds,mgr,mon,osd}.prerm в папке dpkg * повторная попытка apt remove выше - успешная * rm ceph-{base,mds,mgr,mon,osd}.* в папке dpkg * rm -Rf /etc/ceph /etc/pve/ceph.conf /etc/pve/priv/ceph* /var/lib/ceph Я использовал посты с https://forum.proxmox.com/threads/ceph-config-broken.54122/page-2 в качестве вдохновения. После вышеуказанных шагов я попытался установить ceph заново, получив следующие результаты: * pveceph install 122MB дополнительного дискового пространства и т.д. - успешно установил ceph nautilus, настроил ceph в GUI, общая сеть установлена на сеть узла по умолчанию, кластерная сеть установлена на сеть узла по умолчанию (у меня есть отдельная сеть, предназначенная для кластера) монитор узла = pve узел - ошибка с блокировкой cfs 'file-ceph_conf': команда 'cp /etc/pve/priv/ceph.client.admin.keyring /etc/ceph/ceph.client.admin.keyring' завершилась неудачей: код выхода 1 (500) Есть предложения? Или переустановка узла - это единственное решение, когда установка ceph выходит из строя?
     
     
     
    0x3d
    Guest
    #2
    0
    13.09.2019 13:56:00
    У меня были те же проблемы с обновлением с PVE 5 (используя только локальное хранилище, Ceph вообще не использовался) до версии 6 с намерением наконец перенести всё на Ceph. Проблемный шаг заключался в том, что pveceph createmon выдавал "Не удалось подключиться к кластеру ceph, несмотря на настроенные мониторы". Я решил это (скорее, напортачил) закомментировав строку 202 в /usr/share/perl5/PVE/API2/Ceph/MON.pm. После этого он продолжал жаловаться, что "монитор <hostname> уже существует", поэтому я также закомментировал строку 74 в том же файле. Возможно, вам потребуется выполнить rm -rf /var/lib/ceph/mon/* перед повторным запуском pveceph createmon. В моём случае всё успешно завершилось, и монитор запустился. То же самое нужно сделать для каждого узла в кластере. Подсказка: apt install libdevel-trace-perl, а затем выполнение pveceph как perl -T -d:Trace /usr/bin/pveceph mon create оказалось очень полезным для отладки этого.
     
     
     
    chrisj2020
    Guest
    #3
    0
    02.12.2020 22:01:00
    Я сейчас испытываю ту же проблему. Я снес свою конфигурацию хранилища Ceph, чтобы потом восстановить её и лучше понять процесс. Похоже, всё было удалено нормально. Затем я снова запустил настройку Ceph и смог настроить два из трёх узлов. Но старый мастер-узел не позволяет мне добавить к нему монитор. Я получаю следующую ошибку: Код: ошибка во время операции cfs-locked 'file-ceph_conf': команда 'chown ceph:ceph /var/lib/ceph/mon/ceph-nuc10i7-pve01' завершилась с кодом выхода 1. Есть идеи или советы? Я хочу попробовать это исправить, а не возвращаться к переустановке.
     
     
     
    chrisj2020
    Guest
    #4
    0
    03.12.2020 08:25:00
    ок, просто чтобы уточнить. Мне удалось вернуть ceph в полностью рабочее состояние без переустановки. Как бы просто это ни звучало, мне всего лишь нужно было заново создать две папки ниже на узле с проблемой. Добавление Менеджера и Мониторов через CLI или UI затем автоматически создало под папки (ceph-mon.nuc10i7-pve01 и ceph-mgr.nuc10i7-pve01) за меня. По какой-то причине мне просто нужно было вручную создать родительские папки. mkdir /var/lib/ceph/mgr mkdir /var/lib/ceph/mon Вот и всё.
     
     
     
    chrisj2020
    Guest
    #5
    0
    03.12.2020 10:39:00
    Я беру свои слова назад. Хотя кажется, что все в порядке, это не так. На 'старом' основном узле у меня есть OSD, который остался без хозяина, и я не могу его убрать. На остальных узлах в /var/lib/ceph/osd/ я вижу все узлы. А на 'старом' основном узле показывается только он сам. [ОБНОВЛЕНИЕ] Я продвинулся дальше. На 'старом' основном узле я запустил ceph osd tree. Это показало мне оставшийся без хозяина OSD (ID был 0). После этого я выполнил pveceph osd destroy 0, чтобы удалить его. Все выглядит нормально. Но я не понимаю, почему узлы кластера 2 и 3 показывают все OSD в /var/lib/ceph/osd/. В то время как на узле 1 (старом главном узле) в той же папке только один OSD. Может кто-то объяснить, в чем дело?
     
     
     
    mat5911
    Guest
    #6
    0
    09.01.2021 20:49:00
    Привет, у меня были такие же проблемы после переустановки Ceph при обновлении с 4 на 5 и на 6. Что мне помогло: systemctl restart pvestatd, как в этом посте: https://forum.proxmox.com/threads/reinstall-ceph-on-proxmox-6.57691/post-266933 1. очистить все, как показано выше 2. перезапустить pvestatd 3. запустить pveceph init... 4. снова перезапустить pvestatd После этого я смог создать мониторы.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры