Привет, мы используем ZFS (на одном диске) внутри некоторых ВМ для огромных дисков. Причина в том, что таким образом мы можем легко делать снимки и отправлять их на наш zpool на сервере резервного копирования. Не нужно возиться с rsync и ACL / разрешениями и т.д. Это работает просто отлично. Но мы заметили одну вещь: кажется, тонкое выделение не работает корректно. У нас есть Debian VM с диском на 5 TB, настроенная следующим образом: Код: agent: 1,fstrim_cloned_disks=1 bios: ovmf boot: order=scsi0 cores: 24 cpu: host efidisk0: replicated:vm-119-disk-0,size=1M ide0: none,media=cdrom memory: 32768 meta: creation-qemu=9.0.2,ctime=1742653482 name: mail-1-DMZ net0: virtio=00:50:56:97:6c:8b,bridge=vmbr4 onboot: 1 ostype: l26 scsi0: replicated:vm-119-disk-1,aio=native,discard=on,iothread=1,size=110G,ssd=1 scsi1: replicated:vm-119-disk-2,aio=native,discard=on,iothread=1,size=5T,ssd=1 scsihw: virtio-scsi-single smbios1: uuid=42172fec-e2f2-683f-c6a7-3ad6bfb31ba3 sockets: 1 vmgenid: c133273b-3f0c-449d-8d1c-380706c831b0 Поддержка Discard и эмуляция SSD включены! Поддерживающее хранилище — пул Ceph (названный "replicated" с репликацией 3/2). `rbd du` говорит, что для диска 2 используется 5079,51 GiB / 5120,00 GiB. Внутри ВМ ZFS говорит вот это: Код: NAME USED AVAIL REFER MOUNTPOINT storage 3.25T 1.61T 2.38T /storage Я вручную запустил `zpool trim storage` внутри ВМ, чтобы спровоцировать тримминг... к сожалению, это не уменьшило используемое пространство в пуле Ceph. Есть ли что-нибудь, что я могу сделать, чтобы вернуть 1,6 TB, или это невозможно, потому что ZFS не предназначен для ВМ? Спасибо за вашу помощь!
ZFS внутри ВМ: тонкое выделение и тримминг., Proxmox Виртуальная Среда
Читают тему
