Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    [РЕШЕНО] Объём Node HD и общий объём хранилища Node Device (на вкладках Summary и Disks) не совпадают.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    [РЕШЕНО] Объём Node HD и общий объём хранилища Node Device (на вкладках Summary и Disks) не совпадают., Proxmox Виртуальная Среда
     
    edd189
    Guest
    #1
    0
    15.04.2025 05:37:00
    Почему это не сходится? Это один узел, в нём NVMe на 250 ГБ и SATA SSD на 4 ТБ. А сообщается, что общий объём - 66,35 ГиБ, 97% заполнено. У меня какие-то странные ошибки (иногда VM зависает), и я пытаюсь исключить это как причину.
     
     
     
    leesteken
    Guest
    #2
    0
    15.04.2025 07:46:00
    Раздел '/HD space' – это корневая файловая система, которая является лишь (небольшой) частью LVM на вашем NVMe. Вы, вероятно, размещаете виртуальные диски VM как файлы в корневой файловой системе вместо размещения их на LVM(-Thin) или ZFS, что является распространенной ошибкой (особенно для тех, кто переходит с других гипервизоров). Здесь на форуме множество тем о том, как корневая файловая система заполняется из-за резервных копий или файлов виртуальных дисков, случайно попавших туда.
     
     
     
    gfngfn256
    Guest
    #3
    0
    15.04.2025 08:16:00
    Просто чтобы добавить к leesteken, если тебе нужен общий обзор доступного хранилища/хранилищ, использования/количества — посмотри внизу (выпадающий список) узла (GUI в левой колонке), там они будут перечислены вместе со всей необходимой информацией.
     
     
     
    gfngfn256
    Guest
    #4
    0
    15.04.2025 08:44:00
    Только хотел добавить кое-что - потребительская версия CT4000MX500SSD1, кажется, имеет DWPD около ~0.14 (на 5 лет), что довольно низко для серверного хранилища (+ ZFS, но похоже у вас нет RAID). Заметил, что вы показываете n/a в Wearout, не уверен, стоит ли это беспокоиться — но, возможно, стоит проверить фактические значения SMART. Ваш 250GB 960 EVO показывает себя немного лучше, с DWPD около ~0.22 (на 5 лет) — но даже это не очень хорошо. Даже в домашнем сервере лучше убедиться, что у вас есть полные (внешние) резервные копии всех ваших данных, если вы планируете их хранить!
     
     
     
    edd189
    Guest
    #5
    0
    15.04.2025 15:39:00
    Похоже, я сам допустил ошибку. Использовал только часть своего 250ГБ NVMe для системы/корня. Остальное в какой-то момент я выделил под LVM-thin диск, но потом удалил, так как оно не использовалось. На остальной части диска ничего не нашёл в использовании (ВМ на диске ZFS, а бэкапы на SMB шаре). Так что я запустил следующий код и теперь могу использовать весь диск. Код: lvextend -l +100%FREE /dev/pve/root resize2fs /dev/pve/root
     
     
     
    gfngfn256
    Guest
    #6
    0
    15.04.2025 18:58:00
    Вот это да, неожиданно, учитывая, что 64,36 GiB только для ОС/root Proxmox — это просто какое-то безумие. (У меня, например, 14G, и я считаю, что это уже большая сторона). Подозрительно, что что-то упущено — может, сделана резервная копия, когда SMB был недоступен? Или какие-то ISO, шаблоны и т.д. Может, попробовать запустить Code: du -h -x -d1 /
     
     
     
    edd189
    Guest
    #7
    0
    18.04.2025 22:29:00
    Вот что возвращается после выполнения предыдущей команды. Суммарно это не составляет 64.36GiB.

    16K /lost+found
    412M /boot
    172K /tmp
    5.0M /etc
    4.0K /opt
    1.7G /var
    4.0K /srv
    8.0K /mnt
    64K /root
    4.7G /usr
    4.0K /home
    4.0K /media
    6.8G / root@pve1:~# ^C
    root@pve1:~#
     
     
     
    edd189
    Guest
    #8
    0
    18.04.2025 23:06:00
    Точно! Я отключил SMB-шару, перезагрузился и обнаружил несколько резервных копий в той же директории, но они были локальными, а не общими. Хороший совет. Убрал их, и теперь у меня: места на диске 3,06% (6,73 GiB из 219,81 GiB.
     
     
     
    gfngfn256
    Guest
    #9
    0
    19.04.2025 20:18:00
    Вот это другое дело! Может, стоит пометить эту тему как решённую? В самом верху темы выбери кнопку "Редактировать тему", а затем в выпадающем списке (no prefix) выбери "Решено".
     
     
     
    Impact
    Guest
    #10
    0
    19.04.2025 20:58:00
    Не надо этого делать. Есть причина, по которой часть места не выделена. Если ты когда-нибудь допустишь ошибку в перераспределении и твой тонкий пул достигнет 100%, тебе будет намного сложнее исправить систему.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры