Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Boot Luns Fiber Channel (FC)

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Boot Luns Fiber Channel (FC), Proxmox Виртуальная Среда
     
    douglasvital
    Guest
    #1
    0
    13.05.2024 21:51:00
    У меня есть 3 хоста, на которых установлена Proxmox, загрузка происходит по Fiber Channel (FC). После установки Proxmox я установил multipath-tools и подключил еще три LUN по 1 ТБ каждый через FC. В выводе команды ``` multipath -ll ``` видно, что обычные DS видны, но загрузочный LUN не появляется в качестве активного multipath, он работает только с одной стороны контроллера. При этом обычно используемый DS можно подключить ко всем хостам через FC. Проблема в том, что при загрузке multipath не настраивается, и он активен только с одной стороны хранилища. Кто-нибудь знает, как это настроить?

    root@proxmoxm3-01:~# lsblk -f
    NAME                            FSTYPE       FSVER    LABEL UUID                                   FSAVAIL FSUSE% MOUNTPOINTS
    sda ├─sda1
    ├─sda2                          vfat         FAT32          DD34-7F50
    └─sda3                          LVM2_member  LVM2 001       EH8R3C-nPll-2Xb3-6hIn-pSWB-DPcv-IUwUq1
    sdb ├─sdb1
    ├─sdb2                          vfat         FAT32          DD34-7F50
    └─sdb3                          LVM2_member  LVM2 001       EH8R3C-nPll-2Xb3-6hIn-pSWB-DPcv-IUwUq1
    sdc                             LVM2_member  LVM2 001       HhZ9GA-ub5O-qLAE-mi9h-8v6e-G35C-lhGtXi
    └─mpathb                        LVM2_member  LVM2 001       HhZ9GA-ub5O-qLAE-mi9h-8v6e-G35C-lhGtXi
    └─vg_ds_8200-vm--100--disk--0
    sdd                             LVM2_member  LVM2 001       HhZ9GA-ub5O-qLAE-mi9h-8v6e-G35C-lhGtXi
    └─mpathb                        LVM2_member  LVM2 001       HhZ9GA-ub5O-qLAE-mi9h-8v6e-G35C-lhGtXi
    └─vg_ds_8200-vm--100--disk--0
    sde                             LVM2_member  LVM2 001       id71E0-nHp0-r72H-bjjc-ZIF9-GDUx-THsFki
    └─mpathc                        LVM2_member  LVM2 001       id71E0-nHp0-r72H-bjjc-ZIF9-GDUx-THsFki
    sdf                             LVM2_member  LVM2 001       id71E0-nHp0-r72H-bjjc-ZIF9-GDUx-THsFki
    └─mpathc                        LVM2_member  LVM2 001       id71E0-nHp0-r72H-bjjc-ZIF9-GDUx-THsFki
    sdg                             mpath_member
    └─mpathd
    sdh                             mpath_member
    └─mpathd
    sdi ├─sdi1
    ├─sdi2                          vfat         FAT32          DD34-7F50
    └─sdi3                          LVM2_member  LVM2 001       EH8R3C-nPll-2Xb3-6hIn-pSWB-DPcv-IUwUq1
    ├─pve-swap                    swap         1              25703b09-5792-4d11-ab3b-64297a12942b                  [SWAP]
    ├─pve-root                    xfs                         82ca20d3-3ba0-4fd8-b84d-79b8f27da774     14.3G    52% /
    ├─pve-data_tmeta │
    └─pve-data
    └─pve-data_tdata
    └─pve-data
    sdj ├─sdj1
    ├─sdj2                          vfat         FAT32          DD34-7F50
    └─sdj3                          LVM2_member  LVM2 001       EH8R3C-nPll-2Xb3-6hIn-pSWB-DPcv-IUwUq1
    sdk                             LVM2_member  LVM2 001       HhZ9GA-ub5O-qLAE-mi9h-8v6e-G35C-lhGtXi
    └─mpathb                        LVM2_member  LVM2 001       HhZ9GA-ub5O-qLAE-mi9h-8v6e-G35C-lhGtXi
    └─vg_ds_8200-vm--100--disk--0
    sdl                             LVM2_member  LVM2 001       HhZ9GA-ub5O-qLAE-mi9h-8v6e-G35C-lhGtXi
    └─mpathb                        LVM2_member  LVM2 001       HhZ9GA-ub5O-qLAE-mi9h-8v6e-G35C-lhGtXi
    └─vg_ds_8200-vm--100--disk--0
    sdm                             LVM2_member  LVM2 001       id71E0-nHp0-r72H-bjjc-ZIF9-GDUx-THsFki
    └─mpathc                        LVM2_member  LVM2 001       id71E0-nHp0-r72H-bjjc-ZIF9-GDUx-THsFki
    sdn                             LVM2_member  LVM2 001       id71E0-nHp0-r72H-bjjc-ZIF9-GDUx-THsFki
    └─mpathc                        LVM2_member  LVM2 001       id71E0-nHp0-r72H-bjjc-ZIF9-GDUx-THsFki
    sdo                             mpath_member
    └─mpathd
    sdp                             mpath_member
    └─mpathd

    root@proxmoxm3-01:~# root@proxmoxm3-01:~# cat /etc/fstab
    # <file system> <mount point> <type> <options> <dump> <pass>
    /dev/pve/root / xfs defaults 0 1
    /dev/pve/swap none swap sw 0 0
    proc /proc proc defaults 0 0
     
     
     
    douglasvital
    Guest
    #2
    0
    06.06.2024 19:00:00
    Ovirt планов окончания поддержки к 2026 году нет. Red Hat больше не будет главным вкладчиком, но Ovirt продолжит развиваться, даже Oracle присоединилась к проекту с OLVM, у которой неограниченная поддержка. Что касается Proxmox, я пытался связаться с поддержкой, чтобы узнать, поддерживают ли они FC boot нативно, но ответа не получил. Говорят, дадут ответ только если я куплю лицензию, а мне просто нужно было узнать, поддерживают ли вообще. Тогда бы я приступил к установке, протестировал продукт и, если бы все было хорошо, обязательно купил бы корпоративную поддержку.
     
     
     
    bbgeek17
    Guest
    #3
    0
    06.06.2024 19:33:00
    Я должен был быть более ясен: Red Hat прекратит поддержку Red Hat Virtualization (продукта на базе Ovirt) для корпоративных пользователей. Разумеется, как продукт с открытым исходным кодом, Ovirt продолжит существовать. Спасибо, что указали на это. https://access.redhat.com/announcements/6960518 Blockbridge : ультранизкая задержка, полностью NVMe-хранилище для Proxmox - https://www.blockbridge.com/proxmox
     
     
     
    douglasvital
    Guest
    #4
    0
    07.06.2024 15:54:00
    Спасибо за помощь.
     
     
     
    LnxBil
    Guest
    #5
    0
    07.06.2024 16:03:00
    Это отображается в выводе, или я просто слепой? Если нет, попробуйте посмотреть в debug-выводе multipath, почему оно занесено в чёрный список. Я ещё не делал этого с PVE, но подозреваю, что это должно работать так же, как на старых RHEL. Всегда можно собрать свой multipath-enabled initrd, чтобы получить поддержку при загрузке. Я не имею ни малейшего понятия, как это сделать, но, вероятно, это сработает. У меня сейчас нет рабочей среды на базе FC под рукой, но я могу попробовать эмулировать её внутри PVE.
     
     
     
    LnxBil
    Guest
    #6
    0
    07.06.2024 17:24:00
    Не получилось как следует все это просимулировать, даже установка Debian не распознала его корректно: multipath -v4 выдал Code: sda: blacklisted, udev property missing.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры