Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    После пересоздания монитора в CEPH не появилось никаких OSD.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    После пересоздания монитора в CEPH не появилось никаких OSD., Proxmox Виртуальная Среда
     
    daubner
    Guest
    #1
    0
    08.04.2025 14:34:00
    Привет! Я пытаюсь создать план аварийного восстановления для нашего кластера PVE с CEPH. Наша текущая конфигурация включает три монитора на трех серверах. Мы будем использовать три монитора и стандартную конфигурацию пула (3 реплики). Я пытаюсь создать руководство по удалению конфигурации монитора и запуску только на одном мониторе. Я получил monmap от работающего CEPH, удалил два остановленных монитора из него и отредактировал ceph.conf соответствующим образом:

    ```
    root@nextclouda:~# ceph mon getmap -o /root/monmap
    root@nextclouda:~# monmaptool --rm nextcloudb /root/monmap
    root@nextclouda:~# monmaptool --rm nextcloudc /root/monmap
    root@nextclouda:~# cat /etc/pve/ceph.conf
    [global]
       auth_client_required = cephx
       auth_cluster_required = cephx
       auth_service_required = cephx
       cluster_network = 10.0.0.1/24
       fsid = cf282c03-77a3-458d-8989-b4a477f121dd
       mon_allow_pool_delete = true
       mon_host = 10.0.1.1
    #10.0.1.2 10.0.1.3
       ms_bind_ipv4 = true
       ms_bind_ipv6 = false
       osd_pool_default_min_size = 2
       osd_pool_default_size = 3
       public_network = 10.0.1.1/24

    [client]
       keyring = /etc/pve/priv/$cluster.$name.keyring

    [client.crash]
       keyring = /etc/pve/ceph/$cluster.$name.keyring

    [mds]
       keyring = /var/lib/ceph/mds/ceph-$id/keyring

    [mds.nextclouda]
       host = nextclouda
       mds_standby_for_name = pve

    [mds.nextcloudb]
       host = nextcloudb
       mds_standby_for_name = pve

    [mds.nextcloudc]
       host = nextcloudc
       mds_standby_for_name = pve

    [mon.nextclouda]
       public_addr = 10.0.1.1

    #[mon.nextcloudb]
    #    public_addr = 10.0.1.2
    #
    #[mon.nextcloudc]
    #    public_addr = 10.0.1.3
    ```

    Используя эти команды, мне удалось удалить конфигурацию монитора и перезапустить один монитор, имеющий кворум (третий хост nextcloudc полностью выключен, а служба монитора на втором хосте nextcloudb остановлена вручную):

    ```
    root@nextclouda:~# systemctl stop ceph-mon@nextclouda
    root@nextclouda:~# rm -rf /var/lib/ceph/mon/ceph-nextclouda
    root@nextclouda:~# ceph-mon --monmap /root/monmap --keyring /etc/pve/priv/ceph.mon.keyring --mkfs -i nextclouda -m 10.0.1.1
    root@nextclouda:~# chown -R ceph:ceph /var/lib/ceph/mon/ceph-nextclouda
    root@nextclouda:~# systemctl start ceph-mon@nextclouda
    root@nextclouda:~# ceph -s
     cluster:
       id:     cf282c03-77a3-458d-8989-b4a477f121dd
       health: HEALTH_WARN
               mon is allowing insecure global_id reclaim

     services:
       mon: 1 daemons, quorum nextclouda (age 50s)
       mgr: no daemons active
       osd: 0 osds: 0 up, 0 in

     data:
       pools:   0 pools, 0 pgs
       objects: 0 objects, 0 B
       usage:   0 B used, 0 B / 0 B avail
       pgs:
    ```

    Но, как вы видите, теперь монитор не видит никаких OSD, пулов или менеджеров для cephfs. Я пытаюсь сделать это без пересоздания всего вручную, но буду прибегать к этому, если потребуется. Я буду очень благодарен за вашу помощь и/или советы, если то, что я пытаюсь сделать, имеет смысл. У меня есть резервная копия /var/lib/ceph и оригинальный monmap, если они могут помочь.

    ```
    package versions:

    proxmox-ve: 8.3.0 (running kernel: 6.8.12-9-pve)
    pve-manager: 8.3.5 (running version: 8.3.5/dac3aa88bac3f300)
    proxmox-kernel-helper: 8.1.1
    proxmox-kernel-6.8: 6.8.12-9
    proxmox-kernel-6.8.12-9-pve-signed: 6.8.12-9
    proxmox-kernel-6.8.12-8-pve-signed: 6.8.12-8
    proxmox-kernel-6.8.12-4-pve-signed: 6.8.12-4
    ceph: 19.2.1-pve2
    ceph-fuse: 19.2.1-pve2
    corosync: 3.1.9-pve1
    criu: 3.17.1-2+deb12u1
    dnsmasq: 2.90-4~deb12u1
    glusterfs-client: 10.3-5
    ifupdown2: 3.2.0-1+pmx11
    ksm-control-daemon: 1.5-1
    libjs-extjs: 7.0.0-5
    libknet1: 1.30-pve1
    libproxmox-acme-perl: 1.6.0
    libproxmox-backup-qemu0: 1.5.1
    libproxmox-rs-perl: 0.3.5
    libpve-access-control: 8.2.1
    libpve-apiclient-perl: 3.3.2
    libpve-cluster-api-perl: 8.1.0
    libpve-cluster-perl: 8.1.0
    libpve-common-perl: 8.3.0
    libpve-guest-common: 3.3.0
    libpve-ha-manager: 4.0.6
    libpve-i18n: 3.4.1
    libpve-proxy-modules: 3.4.0
    lxcfs: 6.0.0-pve2
    novnc-pve: 1.6.0-2
    proxmox-backup-client: 3.3.7-1
    proxmox-backup-file-restore: 3.3.7-1
    proxmox-firewall: 0.6.0
    proxmox-mini-journalreader: 1.4.0
    proxmox-offline-mirror-helper: 0.6.7
    proxmox-proxy: 6.1-1
    proxmox-widget-toolkit: 4.3.8
    pve-cluster: 8.1.0
    pve-container: 5.2.5
    pve-docs: 8.3.1
    pve-edk2-firmware: 4.2025.02-3
    pve-esxi-import-tools: 0.7.2
    pve-firewall: 5.1.0
    pve-firmware: 3.15-3
    pve-qemu-kvm: 9.2.0-5
    pve-xtermjs: 5.5.0-1
    qemu-server: 3.6.0-1
    smartmontools: 7.3-pve1
    spiceterm: 3.3.0
    swtpm: 0.8.0+pve1
    vncterm: 1.8.0
    zfsutils-linux: 2.2.7-pve2
    ```

    Спасибо вам большое и прекрасного дня!
     
     
     
    gurubert
    Guest
    #2
    0
    15.04.2025 08:29:00
    Тебе действительно нужно извлечь старую карту кластера из OSD. Пока ты только развертываешь новый MON, ты создаешь новый кластер Ceph. Существующие OSD не смогут к нему подключиться. Файл ceph.conf здесь не имеет значения — он только сообщает клиентам и OSD, где найти MON.
     
     
     
    gurubert
    Guest
    #3
    0
    09.04.2025 19:03:00
    С помощью "# ceph-mon --monmap /root/monmap --keyring /etc/pve/priv/ceph.mon.keyring --mkfs -i nextclouda -m 10.0.1.1" ты создал новую базу данных MON (--mkfs) и стер всю информацию из старой, не только monmap. Ты должен был просто вставить новый monmap с "ceph-mon -i mon.nextclouda --inject-monmap /root/monmap". Твой старый Ceph-кластер можно восстановить, извлекая карту кластера с одного из OSD: https://docs.ceph.com/en/reef/rados/troubleshooting/troubleshooting-mon/#recovery-using-osds
     
     
     
    daubner
    Guest
    #4
    0
    14.04.2025 16:37:00
    Большое спасибо за ответ! Я могу восстановить оригинальный монитор, уничтожив его и переразвернув (через Proxmox GUI), но хорошо знать, что мы можем извлекать monmap из OSD. К сожалению, я все еще сталкиваюсь с проблемами: перед вставкой monmap монитор все еще как-то работает, даже если systemctl сервис показывает, что он остановлен, но я могу убить процесс:
    ```
    root@nextclouda:~# lsof -i :3300
    COMMAND      PID USER   FD   TYPE   DEVICE SIZE/OFF NODE NAME
    ceph-osd    4046 ceph   91u  IPv4 24004284      0t0  TCP 10.0.1.1:43066->10.0.1.1:3300 (ESTABLISHED)
    ceph-osd    4052 ceph   92u  IPv4 24057885      0t0  TCP 10.0.1.1:43052->10.0.1.1:3300 (ESTABLISHED)
    ceph-mds 1063362 ceph   38u  IPv4 24041674      0t0  TCP 10.0.1.1:43090->10.0.1.1:3300 (ESTABLISHED)
    ceph-mds 1277231 ceph   31u  IPv4 24039765      0t0  TCP 10.0.1.1:43076->10.0.1.1:3300 (ESTABLISHED)
    ceph-mds 1278172 ceph   30u  IPv4 24036442      0t0  TCP 10.0.1.1:43096->10.0.1.1:3300 (ESTABLISHED)
    ceph-mon 1544762 root   29u  IPv4 24003721      0t0  TCP 10.0.1.1:3300 (LISTEN)
    ceph-mon 1544762 root   32u  IPv4 24040538      0t0  TCP 10.0.1.1:3300->10.0.1.1:43052 (ESTABLISHED)
    ceph-mon 1544762 root   37u  IPv4 24040541      0t0  TCP 10.0.1.1:3300->10.0.1.1:43066 (ESTABLISHED)
    ceph-mon 1544762 root   40u  IPv4 24040544      0t0  TCP 10.0.1.1:3300->10.0.1.2:50622 (ESTABLISHED)

    root@nextclouda:~# kill -9 1544762
    ```
    Как только я его убиваю, я могу вставить новый monmap (без двух других мониторов и без `--mkfs`) и попытаться запустить его, но это все равно не работает так, как ожидалось: e11 get_health_metrics сообщает о 3487 медленных операциях, самая старая из которых — аутентификация (proto 0 41 bytes epoch 0). Может быть, я что-то упускаю в конфигурации? Нужно ли просто удалить остановленные мониторы из /etc/pve/ceph.conf? Нужно ли модифицированный monmap отправлять на менеджеры/OSD? Спасибо!
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры