Я обновил свой кластер до новых загрузочных дисков, используя zfs1 зеркалирование на sdc и sdd. Все идет хорошо. Хочу извлечь старые диски из корпуса. Хотел стереть диски с помощью Proxmox, прежде чем это сделать. Пытаюсь удалить sda. Когда я пытаюсь стереть диск, я получаю ошибку `disk/partition '/dev/sda3' has a holder (500)`. Google говорит, что процесс # 500 удерживает диск. Вот что делает процесс 500: `500 ? I 0:02 [kworker/23:1-mm_percpu_wq] `. Я знаю, что могу просто вынуть диски, но не хочу вызвать сбой кластера Proxmox, если он действительно использует этот диск. Может ли кто-нибудь просветить меня, что происходит, и безопасно ли вынимать диски?
Спасибо,
Брэд
Код:
root@pve0:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
sda 8:0 0 223.6G 0 disk
├─sda1 8:1 0 1007K 0 part
├─sda2 8:2 0 1G 0 part
└─sda3 8:3 0 222.6G 0 part
├─pve-swap 252:1 0 8G 0 lvm
├─pve-root 252:2 0 65.6G 0 lvm
├─pve-data_tmeta 252:3 0 1.3G 0 lvm
│ └─pve-data-tpool 252:5 0 130.3G 0 lvm
│ └─pve-data 252:6 0 130.3G 1 lvm
└─pve-data_tdata 252:4 0 130.3G 0 lvm
└─pve-data-tpool 252:5 0 130.3G 0 lvm
└─pve-data 252:6 0 130.3G 1 lvm
sdb 8:16 0 3.6T 0 disk
└─ceph--b3a9822c--520c--496a--9410--0421c6793e4c-osd--block--01070731--205a--45d0--b0fb--3b48d4f68f64 252:0 0 3.6T 0 lvm
sdc 8:32 0 931.5G 0 disk
├─sdc1 8:33 0 1007K 0 part
├─sdc2 8:34 0 1G 0 part
└─sdc3 8:35 0 930G 0 part
sdd 8:48 0 931.5G 0 disk
├─sdd1 8:49 0 1007K 0 part
├─sdd2 8:50 0 1G 0 part
└─sdd3 8:51 0 930G 0 part
Спасибо,
Брэд
Код:
root@pve0:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
sda 8:0 0 223.6G 0 disk
├─sda1 8:1 0 1007K 0 part
├─sda2 8:2 0 1G 0 part
└─sda3 8:3 0 222.6G 0 part
├─pve-swap 252:1 0 8G 0 lvm
├─pve-root 252:2 0 65.6G 0 lvm
├─pve-data_tmeta 252:3 0 1.3G 0 lvm
│ └─pve-data-tpool 252:5 0 130.3G 0 lvm
│ └─pve-data 252:6 0 130.3G 1 lvm
└─pve-data_tdata 252:4 0 130.3G 0 lvm
└─pve-data-tpool 252:5 0 130.3G 0 lvm
└─pve-data 252:6 0 130.3G 1 lvm
sdb 8:16 0 3.6T 0 disk
└─ceph--b3a9822c--520c--496a--9410--0421c6793e4c-osd--block--01070731--205a--45d0--b0fb--3b48d4f68f64 252:0 0 3.6T 0 lvm
sdc 8:32 0 931.5G 0 disk
├─sdc1 8:33 0 1007K 0 part
├─sdc2 8:34 0 1G 0 part
└─sdc3 8:35 0 930G 0 part
sdd 8:48 0 931.5G 0 disk
├─sdd1 8:49 0 1007K 0 part
├─sdd2 8:50 0 1G 0 part
└─sdd3 8:51 0 930G 0 part
