Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    pve root full, не могу найти потребление.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    pve root full, не могу найти потребление., Proxmox Виртуальная Среда
     
    B1G_WH1T3
    Guest
    #1
    0
    06.07.2025 14:38:00
    Привет! Короче, моя JBOD была занята, занимаясь всякими делами, поэтому пришлось перезагрузить мой PVE-узел. После перезагрузки я запустил всё, но не проверил, и оказалось, что один из дисков моего LXC не смонтировался корректно, и похоже, он занял весь объем на /dev/mapper/pve-root. В итоге, узел стал неработоспособным, потому что места на диске не осталось. В конце концов я выкроил немного места и расширил LVM до 77 ГБ. Но теперь проблема в том, что я вообще не могу найти, куда ушло это место. Есть какие-нибудь подсказки или места, где стоит посмотреть?

    Вот вывод df:

    Filesystem                            Size  Used Avail Use% Mounted on
    udev                                   44G     0   44G   0% /dev
    tmpfs                                 8.7G  5.5M  8.7G   1% /run
    /dev/mapper/pve-root                   77G   58G   15G  80% /
    tmpfs                                  44G   34M   44G   1% /dev/shm
    tmpfs                                 5.0M     0  5.0M   0% /run/lock
    efivarfs                              128K  106K   18K  87% /sys/firmware/efi/efivars
    /dev/sdb1                             469G  207G  239G  47% /mnt/pve/Fastboi
    /dev/sdc2                            1022M  344K 1022M   1% /boot/efi
    /dev/fuse                             128M   24K  128M   1% /etc/pve
    tmpfs                                 8.7G     0  8.7G   0% /run/user/0

    du -h -x -d1
    root@pve:/# du -h -x -d1
    60K     ./mnt
    4.0K    ./home
    4.0K    ./media
    4.0K    ./srv
    4.0K    ./opt
    1.1G    ./var
    733M    ./boot
    7.0M    ./usr
    104K    ./etc
    40K     ./root
    16K     ./tmp
    9.1G    ./lost+found

    Я что-то упускаю из виду или я слепой?
     
     
     
    Impact
    Guest
    #2
    0
    06.07.2025 16:49:00
    Пожалуйста, выводи результаты команд выше в блоки кода, чтобы их было легче читать. Также пришли lsblk -o+FSTYPE и lvs.
     
     
     
    waltar
    Guest
    #3
    0
    06.07.2025 17:00:00
    Есть два варианта для проблемы с 58 против 9 ГБ: Либо у вас всё ещё запущен процесс, который хранит данные, даже если они удалены и больше не видны `du` (что решается перезагрузкой), либо вы случайно записали данные в путь, который пока недоступен из-за монтирования, и `du` пока не может его посчитать (например, в /mnt/pve/Fastboi).
     
     
     
    B1G_WH1T3
    Guest
    #4
    0
    06.07.2025 18:25:00
    Прошу прощения, что не использовал блок кода, виноват. Смотри, что получилось:

    Код: root@pve:~# lsblk -o+FSTYPE
    NAME         MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS      FSTYPE
    loop0          7:0    0   200G  0 loop                  ext4
    loop1          7:1    0    40G  0 loop                  ext4
    loop2          7:2    0     8G  0 loop                  ext4
    loop3          7:3    0    60G  0 loop                  ext4
    loop4          7:4    0    24G  0 loop                  ext4
    loop5          7:5    0    23G  0 loop                  ext4
    loop6          7:6    0     8G  0 loop                  ext4
    sdb            8:16   0 476.9G  0 disk                
    └─sdb1         8:17   0 476.9G  0 part /mnt/pve/Fastboi ext4
    sdc            8:32   0 111.8G  0 disk                
    ├─sdc1         8:33   0  1007K  0 part                
    ├─sdc2         8:34   0     1G  0 part /boot/efi        vfat
    └─sdc3         8:35   0 110.8G  0 part                  LVM2_member
     ├─pve-swap 252:0    0     8G  0 lvm  [SWAP] swap
     └─pve-root 252:1    0  77.7G  0 lvm  /                ext4
    root@pve:~# lvs
     LV   VG  Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
     root pve -wi-ao---- <77.70g                                                  
     swap pve -wi-ao----   8.00g
     
     
     
    Impact
    Guest
    #5
    0
    06.07.2025 18:47:00
    Попробуй отключить и отмонтировать fanboi, а затем запусти это, чтобы узнать, каким образом используется место на диске, используя Bash: `apt install gdu`
    `gdu /`
     
     
     
    B1G_WH1T3
    Guest
    #6
    0
    06.07.2025 19:52:00
    Спасибо, попробую, когда у меня будет время на моём PVE хосте. Что касается gdu, выглядит как ncdu, но вот вывод без отмонтирования Ничего особенного не видно.
     
     
     
    Impact
    Guest
    #7
    0
    06.07.2025 19:53:00
    @waltar, скорее всего, прав. Текущая точка крепления фанатов перекрывает директорию монтирования. Я бы порекомендовал выполнить chattr +i на ней, как только появится возможность отмонтировать и очистить, как предложено здесь: https://serverfault.com/questions/5...ng-data-to-an-unmounted-mount-point-directory. И да, gdu очень похож на ncdu, только быстрее.
     
     
     
    waltar
    Guest
    #8
    0
    06.07.2025 20:13:00
    "chattr +i" – это хорошо, но его можно и забыть, особенно если есть скрипт с "mountpoint -q" в корне, домашней директории или /usr/local/bin – его можно легко заархивировать и даже скопировать на "следующий" диск или хост… Никто из нас сам по себе не компьютер, чтобы помнить всё, что сделал.
     
     
     
    B1G_WH1T3
    Guest
    #9
    0
    07.07.2025 08:54:00
    Спасибо за помощь, постараюсь выкроить время и отпишусь!
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры