Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Не могу получить доступ к хранилищу.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Не могу получить доступ к хранилищу., Proxmox Виртуальная Среда
     
    Grunt
    Guest
    #1
    0
    28.04.2024 08:50:00
    Вот это странно. Недавно обновился до Proxmox 8.2, и теперь один из моих нод (двухнодовая конфигурация) как будто не может получить доступ к хранилищу. Я использую ZFS поверх iSCSI-хранилища для большей части виртуальных машин, но также есть несколько локальных LVM и директории, настроенные в хранилище. Все виртуальные машины можно запускать на этом хосте, и я могу свободно мигрировать виртуальные машины между двумя нодами. Однако я не могу создавать новые виртуальные машины на этом хосте, потому что выпадающий список хранилища пуст. При нажатии на любой тип хранилища под хостом слева отображается "загрузка" в разделе сводки, а затем появляется сообщение "сбой связи (0)". Однако при нажатии на "Диски ВМ" они отображаются. Такое поведение наблюдается для ВСЕХ вариантов хранилища только на этой ноде. Я перезагрузил ноду, остановил кластер (выключил оба хоста), удалил хранилище с ноды и передобавил его, удалил хранилище из кластера и передобавил его. Ничего не помогло. Какие-нибудь идеи, как это решить?
     
     
     
    franconovik
    Guest
    #2
    0
    12.12.2024 10:25:00
    У меня та же проблема с отказом коммуникации. Пока не решил. Вот содержимое файла storage.cfg:

    ```
    cat storage.cfg
    dir: local
    path /var/lib/vz
    content vztmpl,backup,iso
    lvmthin: local-lvm
    thinpool data
    vgname pve
    content images,rootdir
    lvm: pve01-1T
    vgname pve01-1T
    content images,rootdir
    nodes pve01
    shared 0
    lvm: pve00-1T
    vgname pve00-1T
    content images,rootdir
    nodes pve00
    shared 0
    ```

    Вот вывод команды `pvesm status`:

    На узле pve00 root@pve00:/etc/pve# pvesm status

    Name             Type     Status           Total            Used       Available        %
    local             dir             active       100614144        19886952        80727192   19.77%
    local-lvm     lvmthin     active       335130624               0       335130624    0.00%
    pve00-1T          lvm      active       976760832       186654720       790106112   19.11%
    pve01-1T          lvm      disabled               0               0               0      N/A

    На узле pve01 root@pve01:~# pvesm status

    Name             Type     Status           Total            Used       Available        %
    local             dir             active       100614144         3538096        97076048    3.52%
    local-lvm      lvmthin    active       335130624               0       335130624    0.00%
    pve00-1T          lvm      disabled               0               0               0      N/A
    pve01-1T          lvm      active       976760832        33554432       943206400    3.44%

    Возможно, проблема в статусе "disabled" из-за ошибки конфигурации. Может кто-нибудь помочь? Спасибо.
     
     
     
    fiona
    Guest
    #3
    0
    12.12.2024 12:44:00
    Привет, пожалуйста, проверь системные логи/журнал на обоих узлах. Когда и где именно появляется сообщение об ошибке? Получается ли пинговать узлы друг от друга? Каков статус кластера, то есть `pvecm status`? Ты очистил кеш браузера/попробовал с другим браузером?
     
     
     
    franconovik
    Guest
    #4
    0
    16.12.2024 08:19:00
    На узле pve01 я запускаю: root@pve01:~# pvesm status
    Name             Type     Status           Total            Used       Available        %
    local             dir     active       100614144         3538552        97075592    3.52%
    local-lvm     lvmthin     active       335130624               0       335130624    0.00%
    pve00-1T          lvm   disabled               0               0               0      N/A
    pve01-1T          lvm     active       976760832        33554432       943206400    3.44%
    ===============
    Вот команды, которые вы предложили выполнить:
    root@pve01:~# pvecm status
    Cluster information
    -------------------
    Name:             US01
    Config Version:   2
    Transport:        knet
    Secure auth:      on
    Quorum information
    ------------------
    Date:             Mon Dec 16 08:02:22 2024
    Quorum provider:  corosync_votequorum
    Nodes:            2
    Node ID:          0x00000002
    Ring ID:          1.50
    Quorate:          Yes
    Votequorum information
    ----------------------
    Expected votes:   2
    Highest expected: 2
    Total votes:      2
    Quorum:           1
    Flags:            2Node Quorate WaitForAll
    Membership information ----------------------
    Nodeid      Votes Name
    0x00000001          1 182.18.0.227
    0x00000002          1 182.18.0.228 (local)
    На узле pve01 я запускаю команду ping до другого узла:
    root@pve01:~# ping pve00
    PING pve00.uniplan.it (182.18.0.227) 56(84) bytes of data.
    64 bytes from pve00.uniplan.it (182.18.0.227): icmp_seq=1 ttl=64 time=0.176 ms
    64 bytes from pve00.uniplan.it (182.18.0.227): icmp_seq=2 ttl=64 time=0.191 ms
    64 bytes from pve00.uniplan.it (182.18.0.227): icmp_seq=3 ttl=64 time=0.249 ms
    64 bytes from pve00.uniplan.it (182.18.0.227): icmp_seq=4 ttl=64 time=0.176 ms
    64 bytes from pve00.uniplan.it (182.18.0.227): icmp_seq=5 ttl=64 time=0.179 ms
    На узле pve00 я запускаю те же команды:
    root@pve00:~# pvecm status
    Cluster information
    -------------------
    Name:             US01
    Config Version:   2
    Transport:        knet
    Secure auth:      on
    Quorum information
    ------------------
    Date:             Mon Dec 16 08:10:41 2024
    Quorum provider:  corosync_votequorum
    Nodes:            2
    Node ID:          0x00000001
    Ring ID:          1.50
    Quorate:          Yes
    Votequorum information
    ----------------------
    Expected votes:   2
    Highest expected: 2
    Total votes:      2
    Quorum:           1
    Flags:            2Node Quorate WaitForAll
    Membership information ----------------------
    Nodeid      Votes Name
    0x00000001          1 182.18.0.227 (local)
    0x00000002          1 182.18.0.228
    root@pve00:~# ping pve01
    PING pve01.uniplan.it (182.18.0.228) 56(84) bytes of data.
    64 bytes from pve01.uniplan.it (182.18.0.228): icmp_seq=1 ttl=64 time=0.171 ms
    64 bytes from pve01.uniplan.it (182.18.0.228): icmp_seq=2 ttl=64 time=0.115 ms
    64 bytes from pve01.uniplan.it (182.18.0.228): icmp_seq=3 ttl=64 time=0.186 ms
    64 bytes from pve01.uniplan.it (182.18.0.228): icmp_seq=4 ttl=64 time=0.173 ms
    Я также очистил кэш браузера и использовал другой браузер, результат всегда один и тот же – я получаю то, что видите вы в приложении: сбой связи. Есть ли еще какие-нибудь предложения? Спасибо.
     
     
     
    gfngfn256
    Guest
    #5
    0
    16.12.2024 09:41:00
    Если ты войдешь в GUI узла pve01 напрямую (полагаю, это 182.18.0.228:8006), сможешь ли ты получить доступ ко всему его локальному хранилищу и прочему? А как насчет хранилища pve00 с этого узла? Заметил, что у тебя версия устаревшая. Как насчет версии на другом узле? Может, стоит обновить обе сразу.
     
     
     
    franconovik
    Guest
    #6
    0
    16.12.2024 11:19:00
    Решил! Оказывается, была несовпадение в файле: /etc/pve/.members
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры