Создал виртуальную машину с образом LV, смапленным через virtio, в VG, присоединённой по iSCSI. Затем при попытке установки внутри выяснилось, что нужная ОС не поддерживает драйвер virtio, поэтому я попытался сменить virtio на scsi-драйвер, но обнаружил, что он, похоже, напрямую мапит iSCSI-устройство гипервизора, а не ожидаемый LV. Повезло, что пользователь ВМ не установил систему на это устройство. В итоге использовал драйвер data, и с ним всё нормально, но ситуация была довольно страшной, и интересно, нормально ли это или я где-то ошибся.
# pveversion -verbose
proxmox-ve: 4.0-16 (запущенное ядро: 4.2.2-1-pve)
pve-manager: 4.0-50 (запущенная версия: 4.0-50/d3a6b7e5)
pve-kernel-4.2.2-1-pve: 4.2.2-16
lvm2: 2.02.116-pve1
corosync-pve: 2.3.5-1
libqb0: 0.17.2-1
pve-cluster: 4.0-23
qemu-server: 4.0-31
pve-firmware: 1.1-7
libpve-common-perl: 4.0-32
libpve-access-control: 4.0-9
libpve-storage-perl: 4.0-27
pve-libspice-server1: 0.12.5-1
vncterm: 1.2-1
pve-qemu-kvm: 2.4-10
pve-container: 1.0-10
pve-firewall: 2.0-12
pve-ha-manager: 1.0-10
ksm-control-daemon: 1.2-1
glusterfs-client: 3.5.2-2+deb8u1
lxc-pve: 1.1.3-1
lxcfs: 0.9-pve2
cgmanager: 0.37-pve2
criu: 1.6.0-1
zfsutils: 0.6.5-pve4~jessie
openvswitch-switch: 2.3.2-1
# pveversion -verbose
proxmox-ve: 4.0-16 (запущенное ядро: 4.2.2-1-pve)
pve-manager: 4.0-50 (запущенная версия: 4.0-50/d3a6b7e5)
pve-kernel-4.2.2-1-pve: 4.2.2-16
lvm2: 2.02.116-pve1
corosync-pve: 2.3.5-1
libqb0: 0.17.2-1
pve-cluster: 4.0-23
qemu-server: 4.0-31
pve-firmware: 1.1-7
libpve-common-perl: 4.0-32
libpve-access-control: 4.0-9
libpve-storage-perl: 4.0-27
pve-libspice-server1: 0.12.5-1
vncterm: 1.2-1
pve-qemu-kvm: 2.4-10
pve-container: 1.0-10
pve-firewall: 2.0-12
pve-ha-manager: 1.0-10
ksm-control-daemon: 1.2-1
glusterfs-client: 3.5.2-2+deb8u1
lxc-pve: 1.1.3-1
lxcfs: 0.9-pve2
cgmanager: 0.37-pve2
criu: 1.6.0-1
zfsutils: 0.6.5-pve4~jessie
openvswitch-switch: 2.3.2-1
