Привет, столкнулся с очень медленной миграцией дисков в моем Proxmox кластере при переносе диска ВМ с FlashME5 (iSCSI multipath + LVM) на CephStorage (RBD). Миграция с Ceph → FlashME5 происходит быстро (~500–700 МБ/с), а в обратном направлении (FlashME5 → Ceph) я получаю только ~200 МБ/с или меньше.
Среда: Proxmox 8.x
FlashME5 подключен через iSCSI с multipath (multipath -ll показывает 4 пути, 2 активных).
Ceph настроен правильно и работает быстро в остальном.
ВМ выключена во время миграции (qm move_disk).
Диски: aio=threads, cache=writeback, пробовал discard=ignore.
Тест fio на FlashME5:
Code: WRITE: bw=7002MiB/s (7342MB/s), IOPS=1.7M+
Во время миграции:
Code: transferred 258.6 MiB of 25.0 GiB (1.01%)
transferred 517.1 MiB of 25.0 GiB (2.02%)
...
Что уже пробовал:
* rbd_cache = true
* discard=ignore
* Разные режимы кэша
* qm migrate с --with-local-disks --online 0
Все равно очень медленно. Какие есть идеи, что может быть узким местом? Поможет ли использование dd + rbd import в этом случае, или это проблема RBD/QEMU? Заранее спасибо!
Среда: Proxmox 8.x
FlashME5 подключен через iSCSI с multipath (multipath -ll показывает 4 пути, 2 активных).
Ceph настроен правильно и работает быстро в остальном.
ВМ выключена во время миграции (qm move_disk).
Диски: aio=threads, cache=writeback, пробовал discard=ignore.
Тест fio на FlashME5:
Code: WRITE: bw=7002MiB/s (7342MB/s), IOPS=1.7M+
Во время миграции:
Code: transferred 258.6 MiB of 25.0 GiB (1.01%)
transferred 517.1 MiB of 25.0 GiB (2.02%)
...
Что уже пробовал:
* rbd_cache = true
* discard=ignore
* Разные режимы кэша
* qm migrate с --with-local-disks --online 0
Все равно очень медленно. Какие есть идеи, что может быть узким местом? Поможет ли использование dd + rbd import в этом случае, или это проблема RBD/QEMU? Заранее спасибо!
