Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    CEPH: ЗАБОТА О ЗДОРОВЬЕ мон 1 мало доступного места

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    CEPH: ЗАБОТА О ЗДОРОВЬЕ мон 1 мало доступного места, Proxmox Виртуальная Среда
     
    Smarti
    Guest
    #1
    0
    08.09.2017 10:03:00
    Привет, я не совсем знаю, что делать с этим, может кто-то помочь? Проблема, похоже, в /dev/mapper/pve-root - не уверен, что это такое. proxmox-ve: 5.0-20 (работающий ядро: 4.10.17-2-pve) pve-manager: 5.0-30 (работающая версия: 5.0-30/5ab26bc) pve-kernel-4.10.17-2-pve: 4.10.17-20 pve-kernel-4.10.15-1-pve: 4.10.15-15 libpve-http-server-perl: 2.0-6 lvm2: 2.02.168-pve3 corosync: 2.4.2-pve3 libqb0: 1.0.1-1 pve-cluster: 5.0-12 qemu-server: 5.0-15 pve-firmware: 2.0-2 libpve-common-perl: 5.0-16 libpve-guest-common-perl: 2.0-11 libpve-access-control: 5.0-6 libpve-storage-perl: 5.0-14 pve-libspice-server1: 0.12.8-3 vncterm: 1.5-2 pve-docs: 5.0-9 pve-qemu-kvm: 2.9.0-4 pve-container: 2.0-15 pve-firewall: 3.0-2 pve-ha-manager: 2.0-2 ksm-control-daemon: 1.2-2 glusterfs-client: 3.8.8-1 lxc-pve: 2.0.8-3 lxcfs: 2.0.7-pve4 criu: 2.11.1-1~bpo90 novnc-pve: 0.6-4 smartmontools: 6.5+svn4324-1 zfsutils-linux: 0.6.5.11-pve17~bpo90 openvswitch-switch: 2.7.0-2 ceph: 12.1.2-pve1
     
     
     
    Alwin
    Guest
    #2
    0
    24.11.2020 12:21:00
    Логи должны дать более четкое представление об этом. MON DB может увеличиться в два раза в размере во время компакции, и это могло быть учтено в его расчете.
     
     
     
    ubu74
    Guest
    #3
    0
    25.10.2022 14:03:00
    Это место на вашем /var/lib/ceph/mon на хосте ceph, а не место внутри ceph.
     
     
     
    huky
    Guest
    #4
    0
    25.12.2019 03:06:00
    У меня та же проблема: Код: mons 1,2 мало доступного места
    mon.1 имеет 21% доступно
    mon.2 имеет 25% доступно, но места достаточно: Код: # df -h
    Filesystem               Size  Used Avail Use% Mounted on
    udev                      63G     0   63G   0% /dev
    tmpfs                     13G  1.3G   12G  11% /run
    /dev/mapper/pve-root      28G   13G   14G  49% /
    tmpfs                     63G   63M   63G   1% /dev/shm
    tmpfs                    5.0M     0  5.0M   0% /run/lock
    tmpfs                     63G     0   63G   0% /sys/fs/cgroup
    /dev/mapper/pve-data      55G   52M   55G   1% /var/lib/vz
    /dev/fuse                 30M  132K   30M   1% /etc/pve
    tmpfs                     63G   48K   63G   1% /var/lib/ceph/osd/ceph-0
    tmpfs                     63G   48K   63G   1% /var/lib/ceph/osd/ceph-4
    tmpfs                     63G   48K   63G   1% /var/lib/ceph/osd/ceph-6
    tmpfs                     63G   48K   63G   1% /var/lib/ceph/osd/ceph-9
    tmpfs                     63G   48K   63G   1% /var/lib/ceph/osd/ceph-12
    tmpfs                     13G     0   13G   0% /run/user/0
     
     
     
    Stoiko Ivanov
    Guest
    #5
    0
    27.12.2019 16:12:00
    Не мог бы ты вставить вывод 'df' с двух хостов, на которых работают mon.1 и mon.2?
     
     
     
    Alwin
    Guest
    #6
    0
    23.11.2020 09:06:00
    Проверьте пространство инодов на pve-root, возможно, оно почти заполнено.
     
     
     
    huky
    Guest
    #7
    0
    24.11.2020 01:42:00
    Код: root@node001:~# ceph health detail  
    HEALTH_WARN мониторы 1,2 имеют низкий уровень доступного пространства  
    MON_DISK_LOW мониторы 1,2 имеют низкий уровень доступного пространства  
       мон.1 имеет 20% доступно  
       мон.2 имеет 24% доступно  
    root@node001:~# df  
    Файловая система                                                                       1K-блоки    Использовано Доступно  Использ. % Смонтировано на  
    udev                                                                                 65937592        0   65937592    0% /dev  
    tmpfs                                                                                13199088  1247412   11951676    10% /run  
    /dev/mapper/pve-root                                                                 28510348 12508740   14530328    47% /  
    tmpfs                                                                                65995432    51892   65943540    1% /dev/shm  
    tmpfs                                                                                    5120        0       5120    0% /run/lock  
    tmpfs                                                                                65995432        0   65995432    0% /sys/fs/cgroup  
    /dev/mapper/pve-data                                                                 57280788    53112   57211292    1% /var/lib/vz  
    tmpfs                                                                                65995432       28   65995404    1% /var/lib/ceph/osd/ceph-6  
    tmpfs                                                                                65995432       28   65995404    1% /var/lib/ceph/osd/ceph-12  
    tmpfs                                                                                65995432       28   65995404    1% /var/lib/ceph/osd/ceph-4  
    tmpfs                                                                                65995432       28   65995404    1% /var/lib/ceph/osd/ceph-9  
    tmpfs                                                                                65995432       28   65995404    1% /var/lib/ceph/osd/ceph-0  
    /dev/fuse                                                                               30720      132      30588    1% /etc/pve  
    10.10.10.1,10.10.10.1:6789,10.10.10.2,10.10.10.2:6789,10.10.10.3,10.10.10.3:6789:/ 7908769792 31207424 7877562368    1% /mnt/pve/cephfs1  
    tmpfs                                                                                13199084        0   13199084    0% /run/user/0  
    Код: root@node002:~# ceph health detail  
    HEALTH_WARN мониторы 1,2 имеют низкий уровень доступного пространства  
    MON_DISK_LOW мониторы 1,2 имеют низкий уровень доступного пространства  
       мон.1 имеет 20% доступно  
       мон.2 имеет 24% доступно  
    root@node002:~# df  
    Файловая система                                                                       1K-блоки    Использовано Доступно  Использ. % Смонтировано на  
    udev                                                                                 65872156        0   65872156    0% /dev  
    tmpfs                                                                                13179388  1313044   11866344    10% /run  
    /dev/mapper/pve-root                                                                 33220400 25094456    6733336    79% /  
    tmpfs                                                                                65896920    48772   65848148    1% /dev/shm  
    tmpfs                                                                                    5120        0       5120    0% /run/lock  
    tmpfs                                                                                65896920        0   65896920    0% /sys/fs/cgroup  
    /dev/mapper/pve-data                                                                 15737816   220164   15501268    2% /var/lib/vz  
    tmpfs                                                                                65896920       28   65896892    1% /var/lib/ceph/osd/ceph-10  
    tmpfs                                                                                65896920       28   65896892    1% /var/lib/ceph/osd/ceph-1  
    tmpfs                                                                                65896920       28   65896892    1% /var/lib/ceph/osd/ceph-16  
    tmpfs                                                                                65896920       28   65896892    1% /var/lib/ceph/osd/ceph-7  
    tmpfs                                                                                65896920       28   65896892    1% /var/lib/ceph/osd/ceph-3  
    tmpfs                                                                                65896920       28   65896892    1% /var/lib/ceph/osd/ceph-13  
    /dev/fuse                                                                               30720      132      30588    1% /etc/pve  
    10.10.10.1,10.10.10.1:6789,10.10.10.2,10.10.10.2:6789,10.10.10.3,10.10.10.3:6789:/ 7908773888 31211520 7877562368    1% /mnt/pve/cephfs1  
    tmpfs                                                                                13179384        0   13179384    0% /run/user/0  
    использование inode составляет 9% и 10%  
    Код: root@node002:~# df -i /  
    Файловая система            Идент.  Использовано  Свободно  % Использ. Смонтировано на  
    /dev/mapper/pve-root 2113536 174903 1938633    9% /  

    root@node001:~# df -i /  
    Файловая система            Идент.  Использовано  Свободно  % Использ. Смонтировано на  
    /dev/mapper/pve-root 1818624 170132 1648492   10% /
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры