Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Фреймворк для удаленной миграции на хосты Proxmox VE, находящиеся вне кластера.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Фреймворк для удаленной миграции на хосты Proxmox VE, находящиеся вне кластера., Proxmox Виртуальная Среда
     
    Maksimus
    Guest
    #1
    0
    23.11.2022 14:18:00
    В описании изменений в 7.3 есть пункт "Framework для удаленной миграции в Proxmox VE хосты, находящиеся за пределами кластера". Подскажите, как его использовать. Сейчас мы используем proxmove от ossobv, но это очень неудобный инструмент.
     
     
     
    anush.intech
    Guest
    #2
    0
    21.01.2023 12:47:00
    Привет, небольшая заметка.. После добавления API Token, назначьте права доступа к API в соответствии с требованиями, иначе вы получите ошибку "Target Storage not found".
     
     
     
    anush.intech
    Guest
    #3
    0
    21.01.2023 12:15:00
    Привет, я в замешательстве… Почему вы переезжаете на host=192.168.1.232 с того же хоста "192.168.1.232. local-btrfs"? Разве это не должно быть 192.168.1.231, раз вы переезжаете удаленно от источника 192.168.1.232?
     
     
     
    hsyah
    Guest
    #4
    0
    21.01.2023 12:32:00
    test-1. test-2. 192.168.1.231 migrating----->192.168.1.231 test-3. test-4. 192.168.1.231 migrating----->192.168.1.232

    Выполни следующую команду на узле 192.168.1.231:

    `cmd qm remote-migrate 101 102 'host=192.168.1.232,apitoken=PVEAPIToken=root@pam!root=xxxx,fingerprint=yyyyyy' --target-bridge vmbr0 --target-storage disk2 --online`
     
     
     
    anush.intech
    Guest
    #5
    0
    20.01.2023 16:38:00
    Привет! Пожалуйста, проверь, созданы ли у тебя права доступа к API в целевом кластере.
     
     
     
    hsyah
    Guest
    #6
    0
    21.01.2023 09:01:00
    Node 1. 192.168.1.231 local / localzfs 1 add api token 2 pvenode cert info 3 run VM101. windows 10 (local) test-1 fail ----- localzfs не поддерживает qm remote-migrate 101 102 'host=192.168.1.231,apitoken=PVEAPIToken=root@pam!root=xxxx,fingerprint=yyyyyy' --target-bridge vmbr0 --target-storage localzfs --online test-2 ok qm remote-migrate 101 102 'host=192.168.1.231,apitoken=PVEAPIToken=root@pam!root=xxxx,fingerprint=yyyyyy' --target-bridge vmbr0 --target-storage local --online
    Node 2 192.168.1.232. local-btrfs test-3 fail ----- localzfs не поддерживает node1 cmd qm remote-migrate 101 102 'host=192.168.1.232,apitoken=PVEAPIToken=root@pam!root=xxxx,fingerprint=yyyyyy' --target-bridge vmbr0 --target-storage local-btrfs --online test-4 ok -----ADD disk. Directory node1 cmd qm remote-migrate 101 102 'host=192.168.1.232,apitoken=PVEAPIToken=root@pam!root=xxxx,fingerprint=yyyyyy' --target-bridge vmbr0 --target-storage disk2 --online
     
     
     
    hsyah
    Guest
    #7
    0
    21.01.2023 14:11:00
    test-5. 192.168.1.231 переезжает -----> 192.168.1.232. Добавить tokenapi разрешения local-btrfs. Выполнить следующую команду на узле 192.168.1.231: cmd qm remote-migrate 100 100 'host=192.168.1.232,apitoken=PVEAPIToken=root@pam!root=xxxx,fingerprint=yyyyyy' --target-bridge vmbr0 --target-storage local-btrfs --online. test 5 провалился. 2023-01-21 21:01:30 ОШИБКА: миграция прервана (продолжительность 00:00:01): ошибка - команда туннеля '{"format":"qcow2","export_formats":"qcow2+size","cmd":"disk-import","with_snapshots":1,"volname":"vm-100-disk-0.qcow2","storage":"local-btrfs","snapshot":null,"migration_snapshot":"","allow_rename":"1"}' не удалась - не удалось обработать команду 'disk-import' - неподдерживаемый формат 'qcow2' для типа хранилища btrfs. Миграция прервана.
    ============================================================­=======
    test-6. 192.168.1.231 переезжает -----> 192.168.1.232. Добавить tokenapi разрешения local-btrfs и изменить диск VM101 (qcow2) -----> в режим RAW. Выполнить следующую команду на узле 192.168.1.231: qm remote-migrate 100 100 'host=192.168.1.232,apitoken=PVEAPIToken=root@pam!root=xxxx,fingerprint=yyyyyy' --target-bridge vmbr0 --target-storage local-btrfs --online. test 6 успешно завершен.
     
     
     
    jcraig
    Guest
    #8
    0
    01.02.2023 17:38:00
    Привет, у меня проблема с синтаксисом команды qm remote-migrate. Сейчас получаю ошибку 400 not enough arguments. Использую qm remote-migrate 129 111 --target-endpoint '192.168.x.x,apitoken=pvetransfer=root@pam!pvetransfer<apikey>' --target-bridge vmbr0.10 --target-storage PROD-POC --online. Похоже, у меня неправильный синтаксис для --target-endpoint, но если кто-то поможет с форматированием, буду очень благодарен.
     
     
     
    jcraig
    Guest
    #9
    0
    01.02.2023 22:11:00
    Я разобрался с этой частью, но теперь получаю ошибку 401 "No Ticket".
     
     
     
    t.lamprecht
    Guest
    #10
    0
    02.02.2023 09:17:00
    Всё вышеописанное неверно, должно быть так: apitoken=PVEAPIToken=pvetransfer=root@pam!pvetransfer<apikey> iow. PVEAPIToken менять нельзя.
     
     
     
    jcraig
    Guest
    #11
    0
    02.02.2023 16:25:00
    Отлично, это сработало. Большое спасибо! Если возникнут какие-то баги или мне понадобится что-то подсказать по результатам тестирования, каким образом лучше всего оставлять обратную связь?
     
     
     
    t.lamprecht
    Guest
    #12
    0
    02.02.2023 16:35:00
    В целом, форум работает отлично, здесь удобно задавать уточняющие вопросы и собирать информацию, чтобы лучше понять, в чем проблема. Но для очень специфичных и воспроизводимых проблем можно даже открыть баг-репорт в нашей системе отслеживания ошибок: https://bugzilla.proxmox.com/
     
     
     
    jcraig
    Guest
    #13
    0
    02.02.2023 16:45:00
    Отлично, сейчас делаю свой первый тест, так что буду сообщать о проблемах, если что найду. Я из тех инженеров, которые регулярно с головой бросаются в баги. Всегда ищу способы улучшить продукты, которые мне нравятся, и ProxMox для меня — один из них.
     
     
     
    jcraig
    Guest
    #14
    0
    02.02.2023 20:01:00
    Если не указать лимит пропускной способности, какой будет значение по умолчанию?
     
     
     
    jcraig
    Guest
    #15
    0
    02.02.2023 21:37:00
    Один из вопросов, который я заметил: после миграции origin cluster оставляет за собой артефакт. Пока что я файлы не изучал. Есть ли какие-нибудь данные, которые могли бы помочь определить причину? Я ничего не убирал и не чистил, вдруг потребуется информация.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры