Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    [РЕШЕНО] Вопросы по iSCSI

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    [РЕШЕНО] Вопросы по iSCSI, Proxmox Виртуальная Среда
     
    hashman
    Guest
    #1
    0
    17.06.2025 16:47:00
    У меня есть пара Dell R730 с такими старыми картами памяти (2 x 32GB SD cards), на которых я установил Proxmox. У меня несколько 10GB портов NIC, которые подключены к Nimble SAN по iSCSI, и мне удалось добавить том/LVM диск через настройки кластера. Я также добавил том на один из хостов как локальное хранилище, чтобы хранить ISO-образы. Затем я включил multipath, и общий том работает как положено, но локальный том я больше не могу смонтировать в папку с ISO-образами. Мне также нужно создать локальный том, который можно будет использовать для виртуальных машин, так как Veeam создает там рабочую машину. Том на хранилище у меня уже создан, и хост его видит, но когда я пытаюсь добавить его, получаю сообщение "No Disks unused".
     
     
     
    bbgeek17
    Guest
    #2
    0
    17.06.2025 17:30:00
    Привет, @hashman, добро пожаловать на форум. Не мог бы ты, пожалуйста, предоставить вывод командной строки, чтобы лучше проиллюстрировать твою среду? cat /etc/pve/storage.cfg pvesm status lsscsi lsblk blkid mount Используй текстовый вывод, закодированный тегами CODE <>. Добавляй комментарии, где это необходимо, чтобы идентифицировать, что является общим хранилищем, а что локальным. Blockbridge: Ultra low latency all-NVME общее хранилище для Proxmox - https://www.blockbridge.com/proxmox
     
     
     
    hashman
    Guest
    #3
    0
    17.06.2025 18:41:00
    Вот перевод текста сообщения на русский язык:

    Вот вывод команд:
    Код: root@pve01:~# cat /etc/pve/storage.cfg
    dir: local
           path /var/lib/vz
           content backup,iso,vztmpl

    #Локальное хранилище
    lvmthin: local-lvm
           thinpool data
           vgname pve
           content rootdir,images

    #iSCSI-том
    iscsi: Proxmox-01
           portal 192.168.250.202
           target iqn.2007-11.com.nimblestorage:proxmox-01-v711643a4c477761a.0000001b.b56135be
           content none

    #LVM-диск поверх iSCSI-тома
    lvm: Proxmox-01Nimble
           vgname Proxmox-LUN01
           base Proxmox-01:0.0.0.scsi-22b8a3d76f776869f6c9ce900be3561b5
           content images,rootdir
           saferemove 0
           shared 1

    #Папка, которая ранее была смонтирована в sdb
    dir: ISOs
           path /mnt/ISOs
           content iso
           prune-backups keep-all=1
           shared 0


    root@pve01:~# pvesm status
    Name                    Type     Status           Total            Used       Available        %
    ISOs                     dir     active         6854092         4149528         2335108   60.54%
    Proxmox-01             iscsi     active               0               0               0    0.00%
    Proxmox-01Nimble         lvm     active      1073737728       157294592       916443136   14.65%
    local                    dir     active         6854092         4149528         2335108   60.54%
    local-lvm            lvmthin     active         4956160               0         4956160    0.00%


    root@pve01:~# lsscsi
    -bash: lsscsi: команда не найдена


    root@pve01:~# lsblk
    NAME                                MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINTS
    sda                                   8:0    0   15G  0 disk
    ├─sda1                                8:1    0 1007K  0 part
    ├─sda2                                8:2    0  512M  0 part
    └─sda3                                8:3    0 14.5G  0 part
     ├─pve-swap                        252:0    0    1G  0 lvm   [SWAP]
     ├─pve-root                        252:1    0  6.7G  0 lvm   /
     ├─pve-data_tmeta                  252:2    0    1G  0 lvm
     │ └─pve-data                      252:4    0  4.7G  0 lvm
     └─pve-data_tdata                  252:3    0  4.7G  0 lvm
       └─pve-data                      252:4    0  4.7G  0 lvm
    #До включения многопутевого доступа к устройствам sda, эти разделы были смонтированы в /dev/sda1, /dev/sda2, /dev/sda3.
    #Перед использованием их следует сначала удалить.
    #Они были предварительно настроены с использованием этих конфигураций:
    #pve: /dev/sda1
    #pve: /dev/sda2
    #pve: /dev/sda3

    #До включения многопутевого доступа к устройствам sdb, эти разделы были смонтированы в /dev/sdb1, /dev/sdb2, /dev/sdb3.
    #Перед использованием их следует сначала удалить.
    #Они были предварительно настроены с использованием этих конфигураций:
    #pve: /dev/sdb1
    #pve: /dev/sdb2
    #pve: /dev/sdb3

    sdb                                   8:16   0    64G  0 disk
    └─sdb1                               8:17   1    64G  0 part
    sdc                                   8:32   0    111.8G  0 disk
    └─sdb1                               8:27   1    111.8G  0 part

    #Перед использованием их следует сначала удалить.
    #Они были предварительно настроены с использованием этих конфигураций:
    #pve: /dev/sdb1
    #pve: /dev/sdb2
    #pve: /dev/sdb3

    #Настроено с использованием этих конфигураций:
    #pve: /dev/sda1
    #pve: /dev/sda2
    #pve: /dev/sda3

    #До включения многопутевого доступа к устройствам sdb, эти разделы были смонтированы в /dev/sdb1, /dev/sdb2, /dev/sdb3.
    #Перед использованием их следует сначала удалить.
    #Они были предварительно настроены с использованием этих конфигураций:
    #pve: /dev/sdb1
    #pve: /dev/sdb2
    #pve: /dev/sdb3

    #Они были предварительно настроены с использованием этих конфигураций:
    #pve: /dev/sda1
    #pve: /dev/sda2
    #pve: /dev/sda3

    #До включения многопутевого доступа к устройствам sdb, эти разделы были смонтированы в /dev/sdb1, /dev/sdb2, /dev/sdb3.
    #Перед использованием их следует сначала удалить.
    #Они были предварительно настроены с использованием этих конфигураций:
    #pve: /dev/sdb1
    #pve: /dev/sdb2
    #pve: /dev/sdb3

    #Настроено с использованием этих конфигураций:
    #pve: /dev/sda1
    #pve: /dev/sda2
    #pve: /dev/sda3

    root@pve01:~# mount
    sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
    proc on /proc type proc (rw,relatime)
    udev on /dev type devtmpfs (rw,nosuid,relatime,size=98948508k,nr_inodes=24737127,mode=755,inode64)
    devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000)
    tmpfs on /run type tmpfs (rw,nosuid,nodev,noexec,relatime,size=19796480k,mode=755,inode64)
    /dev/mapper/pve-root on / type ext4 (rw,relatime,errors=remount-ro)
    securityfs on /sys/kernel/security type securityfs (rw,nosuid,nodev,noexec,relatime)
    tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev,inode64)
    tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k,inode64)
    cgroup2 on /sys/fs/cgroup type cgroup2 (rw,nosuid,nodev,noexec,relatime)
    pstore on /sys/fs/pstore type pstore (rw,nosuid,nodev,noexec,relatime)
    bpf on /sys/fs/bpf type bpf (rw,nosuid,nodev,noexec,relatime,mode=700)
    systemd-1 on /proc/sys/fs/binfmt_misc type autofs (rw,relatime,fd=30,pgrp=1,timeout=0,minproto=5,maxproto=5,direct,pipe_ino=15190)
    mqueue on /dev/mqueue type mqueue (rw,nosuid,nodev,noexec,relatime)
    debugfs on /sys/kernel/debug type debugfs (rw,nosuid,nodev,noexec,relatime)
    hugetlbfs on /dev/hugepages type hugetlbfs (rw,relatime,pagesize=2M)
    tracefs on /sys/kernel/tracing type tracefs (rw,nosuid,nodev,noexec,relatime)
    fusectl on /sys/fs/fuse/connections type fusectl (rw,nosuid,nodev,noexec,relatime)
    configfs on /sys/kernel/config type configfs (rw,nosuid,nodev,noexec,relatime)
    ramfs on /run/credentials/systemd-sysusers.service type ramfs (ro,nosuid,nodev,noexec,relatime,mode=700)
    ramfs on /run/credentials/systemd-tmpfiles-setup-dev.service type ramfs (ro,nosuid,nodev,noexec,relatime,mode=700)
    ramfs on /run/credentials/systemd-sysctl.service type ramfs (ro,nosuid,nodev,noexec,relatime,mode=700)
    ramfs on /run/credentials/systemd-tmpfiles-setup.service type ramfs (ro,nosuid,nodev,noexec,relatime,mode=700)
    binfmt_misc on /proc/sys/fs/binfmt_misc type binfmt_misc (rw,nosuid,nodev,noexec,relatime)
    sunrpc on /run/rpc_pipefs type rpc_pipefs (rw,relatime)
    lxcfs on /var/lib/lxcfs type fuse.lxcfs (rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other)
    /dev/fuse on /etc/pve type fuse (rw,nosuid,nodev,relatime,user_id=0,group_id=0,default_permissions,allow_other)
    tmpfs on /run/user/0 type tmpfs (rw,nosuid,nodev,relatime,size=19796476k,nr_inodes=4949119,mode=700,inode64)
     
     
     
    bbgeek17
    Guest
    #4
    0
    17.06.2025 19:26:00
    Если хочешь, чтобы SCSI-диск (sd) использовался для локального хранилища, а именно в качестве хранилища для каталогов файлов, то тебе нужно:
    - отформатировать диск (кажется, ты это уже сделал)
    - создать подходящую точку монтирования
    - смонтировать диск, предпочтительно через /etc/fstab, чтобы монтирование сохранялось после перезагрузок
    - создать пул локального хранилища PVE. Убедись, что атрибут "is_mount_point" установлен в значение true
    - указать, что новый пул хранилища должен поддерживать подходящий тип контента.

    Я не вижу диски, которые ты ожидаешь использовать для локального хранилища, смонтированными в твоей системе. Так как ты используешь multipath, тебе нужно добавить устройство mpath в fstab вместе с sdc.

    Blockbridge : Ultra low latency all-NVME shared storage for Proxmox - https://www.blockbridge.com/proxmox
     
     
     
    hashman
    Guest
    #5
    0
    18.06.2025 00:48:00
    Спасибо! Оказывается, я совершенно неправильно настроил multipath. С помощью этого руководства (https://forum.proxmox.com/threads/quick-howto-on-setting-up-iscsi-multipath.157532/) удалось всё исправить. Ещё я не знал, что имена multipath устройств находятся в /dev/mapper. И, наконец, для "Local" хранилища нужно было добавить том как LVM-Thin.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры