Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    [РЕШЕНО] Создание кластера, миграция не удается из-за ошибок SSH.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    [РЕШЕНО] Создание кластера, миграция не удается из-за ошибок SSH., Proxmox Виртуальная Среда
     
    NewDude
    Guest
    #1
    0
    24.06.2025 22:41:00
    В общем, как говорится в заголовке. Когда я пытаюсь перенести тестовую VM с исходного узла на новый, получаю статусную панель без содержимого, а при выборе "остановить" получаю вот это: 2025-06-24 16:40:26 ERROR: миграция прервана (длительность 00:00:22): Не удается подключиться к целевому адресу с использованием публичного ключа TASK ERROR: миграция прервана.

    Разумно ли будет просто отключить новый узел от кластера и потом подключить его обратно? Или лучше попытаться решить это вручную?
     
     
     
    NewDude
    Guest
    #2
    0
    25.06.2025 00:35:00
    Я выполнил некоторые из шагов из этой темы по схожей проблеме. В общем, вот что:

    Код: зайти на pve1

    cd .ssh
    mv id_rsa id_rsa.old
    mv id_rsa.pub id_rsa.pub.old
    mv config config.old

    зайти на pve2

    cd .ssh
    mv id_rsa id_rsa.old
    mv id_rsa.pub id_rsa.pub.old
    mv config config.old
    pvecm updatecerts

    вернуться на pve1
    pvecm updatecerts. После этого, если я изменил сеть для миграций с моей 10G линии на 1G линию, миграции работают. Когда я проверил обновления на исходном узле, я понял, что, возможно, в чем была проблема: Так что эти файлы были обновлены после первоначальных настроек сертификатов. Попробую еще раз тот же процесс создания ssh-ключей и запуска pvecm updatecerts на каждом узле и посмотрю, сработает ли это.
     
     
     
    NewDude
    Guest
    #3
    0
    25.06.2025 01:51:00
    Без радости. Снова пересоздавал сертификаты, запускал pvm updatecerts на обоих машинах, и всё равно он мигрирует по медленной сети, но не по быстрой. Когда пытаюсь, получаю > 2025-06-24 19:47:38 # /usr/bin/ssh -e none -o 'BatchMode=yes' -o 'HostKeyAlias=pve' -o 'UserKnownHostsFile=/etc/pve/nodes/pve/ssh_known_hosts' -o 'GlobalKnownHostsFile=none' root @10Gnet/bin/true > 2025-06-24 19:47:38 ERROR: migration aborted (duration 00:00:03): Can't connect to destination address using public key. Работает, но не так, как я хотел бы. Дополнительная информация: Оба интерфейса настроены резервированием, поэтому есть bond, а поверх него — bridge. И когда настраивал кластер, вместо того, чтобы просто указать management bond как интерфейс управления кластером, я ещё и воткнул туда 10G интерфейс на всякий случай. Возможно, эта лишняя сложность что-то испортила.
     
     
     
    NewDude
    Guest
    #4
    0
    25.06.2025 05:24:00
    Решили проблему – настройка MTU в 9000 на 10G-линке вызывала таймаут SSH.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры