Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    не удалось - IP адресс туннеля не получен

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    не удалось - IP адресс туннеля не получен, Proxmox Виртуальная Среда
     
    scouser_
    Guest
    #1
    0
    04.12.2020 23:59:00
    Привет, ребята! У меня возникла странная ошибка, когда я пытался мигрировать свою ВМ на другой узел: Код: 2020-12-04 10:32:04 найден локальный диск 'ssd1-crypt:203/vm-203-disk-0.raw' (в текущей конфигурации ВМ) 2020-12-04 10:32:04 найден локальный диск 'ssd1-crypt:203/vm-203-disk-1.raw' (в текущей конфигурации ВМ) 2020-12-04 10:32:04 найден локальный диск 'ssd1-crypt:203/vm-203-disk-2.raw' (в текущей конфигурации ВМ) 2020-12-04 10:32:05 копирование локальных образов дисков 2020-12-04 10:32:05 используется ограничение пропускной способности 73777152 бпс для передачи 'ssd1-crypt:203/vm-203-disk-0.raw' ошибка отправки/получения, очищение снимков.. 2020-12-04 10:32:05 ОШИБКА: Не удалось синхронизировать данные - миграция хранилища для 'ssd1-crypt:203/vm-203-disk-0.raw' в хранилище 'ssd1-crypt' завершилась неудачей - не получен IP туннеля 2020-12-04 10:32:05 прерывание стадии 1 - очистка ресурсов 2020-12-04 10:32:05 ОШИБКА: найдена устаревшая копия тома 'ssd1-crypt:203/vm-203-disk-0.raw' на узле 'ams-hv10' 2020-12-04 10:32:05 ОШИБКА: миграция прервана (длительность 00:00:01): Не удалось синхронизировать данные - миграция хранилища для 'ssd1-crypt:203/vm-203-disk-0.raw' в хранилище 'ssd1-crypt' завершилась неудачей - не получен IP туннеля. Раньше у меня никогда не было сбоев при миграции. В чем может быть причина?
     
     
     
    JamesT
    Guest
    #2
    0
    11.02.2021 07:13:00
    У меня такая же проблема. Миграции прекрасно работали в прошлом году. Я не пробовал их какое-то время (новогодние каникулы и прочее), но за последние две недели я попытался сделать три миграции, и все они завершились неудачей. Bash: 2021-02-11 08:22:19 используйте выделенный сетевой адрес для отправки миграционного трафика (172.16.10.23) 2021-02-11 08:22:19 старт миграции ВМ 199 на узел 'STEVE' (172.16.10.23) 2021-02-11 08:22:19 найден локальный, реплицированный диск 'pool1:vm-199-disk-0' (в текущей конфигурации ВМ) 2021-02-11 08:22:19 найден локальный, реплицированный диск 'pool1:vm-199-disk-1' (в текущей конфигурации ВМ) 2021-02-11 08:22:19 реплицирование образов дисков 2021-02-11 08:22:19 начало задания репликации 2021-02-11 08:22:19 гость => ВМ 199, работает => 0 2021-02-11 08:22:19 объемы => pool1:vm-199-disk-0,pool1:vm-199-disk-1 2021-02-11 08:22:22 создание снимка '__replicate_199-0_1613002939__' на pool1:vm-199-disk-0 2021-02-11 08:22:22 создание снимка '__replicate_199-0_1613002939__' на pool1:vm-199-disk-1 2021-02-11 08:22:22 используется небезопасная передача, ограничение по скорости: нет 2021-02-11 08:22:22 инкрементальная синхронизация 'pool1:vm-199-disk-0' (__replicate_199-0_1610121793__ => __replicate_199-0_1613002939__) отправка/получение не удалось, очистка снимка(ов).. 2021-02-11 08:37:25 удаление предыдущего снимка репликации '__replicate_199-0_1613002939__' на pool1:vm-199-disk-0 2021-02-11 08:37:25 удаление предыдущего снимка репликации '__replicate_199-0_1613002939__' на pool1:vm-199-disk-1 2021-02-11 08:37:25 завершение задания репликации с ошибкой: IP туннеля не получен 2021-02-11 08:37:25 ERROR: Не удалось синхронизировать данные - IP туннеля не получен 2021-02-11 08:37:25 прерывание этапа 1 - очистка ресурсов 2021-02-11 08:37:25 ERROR: миграция прервана (длительность 00:15:07): Не удалось синхронизировать данные - IP туннеля не получен ЗАДАЧА ОШИБКА: миграция прервана Спойлер: pveversion -v proxmox-ve: 6.3-1 (работающий ядро: 5.4.78-1-pve) pve-manager: 6.3-2 (работающая версия: 6.3-2/22f57405) pve-kernel-5.4: 6.3-2 pve-kernel-helper: 6.3-2 pve-kernel-5.4.78-1-pve: 5.4.78-1 pve-kernel-5.4.73-1-pve: 5.4.73-1 pve-kernel-5.4.65-1-pve: 5.4.65-1 pve-kernel-5.4.34-1-pve: 5.4.34-2 ceph-fuse: 12.2.11+dfsg1-2.1+b1 corosync: 3.0.4-pve1 criu: 3.11-3 glusterfs-client: 5.5-3 ifupdown: остаточная конфигурация ifupdown2: 3.0.0-1+pve3 ksm-control-daemon: 1.3-1 libjs-extjs: 6.0.1-10 libknet1: 1.16-pve1 libproxmox-acme-perl: 1.0.5 libproxmox-backup-qemu0: 1.0.2-1 libpve-access-control: 6.1-3 libpve-apiclient-perl: 3.1-1 libpve-common-perl: 6.3-1 libpve-guest-common-perl: 3.1-3 libpve-http-server-perl: 3.0-6 libpve-storage-perl: 6.3-2 libqb0: 1.0.5-1 libspice-server1: 0.14.2-4~pve6+1 lvm2: 2.03.02-pve4 lxc-pve: 4.0.3-1 lxcfs: 4.0.3-pve3 novnc-pve: 1.1.0-1 openvswitch-switch: 2.12.0-1 proxmox-backup-client: 1.0.5-1 proxmox-mini-journalreader: 1.1-1 proxmox-widget-toolkit: 2.4-3 pve-cluster: 6.2-1 pve-container: 3.3-1 pve-docs: 6.3-1 pve-edk2-firmware: 2.20200531-1 pve-firewall: 4.1-3 pve-firmware: 3.1-3 pve-ha-manager: 3.1-1 pve-i18n: 2.2-2 pve-qemu-kvm: 5.1.0-7 pve-xtermjs: 4.7.0-3 qemu-server: 6.3-1 smartmontools: 7.1-pve2 spiceterm: 3.1-1 vncterm: 1.6-2 zfsutils-linux: 0.8.5-pve1 Я сегодня попробовал еще две, и обе не удались, несмотря на то что репликация была в порядке. Я собираюсь попробовать перезагрузить свой кластер сегодня вечером и посмотреть, улучшится ли что-то.
     
     
     
    fiona
    Guest
    #3
    0
    11.02.2021 10:35:00
    Привет, каковы твои настройки миграции в /etc/pve/datacenter.cfg? Если значение сети задано в формате CIDR, не мог бы ты запустить следующий фрагмент Perl на целевом узле? Код: use strict; use warnings; use PVE::Network; use Data::Dumper; my ($cidr) = @ARGV; print Dumper($cidr); my $ips = PVE::Network::get_local_ip_from_cidr($cidr); print Dumper($ips); Просто создай файл networkinfo.pl с этими содержимым и используй Код: perl networkinfo.pl <CIDR>
     
     
     
    Dimarius
    Guest
    #4
    0
    12.04.2021 13:43:00
    Ошибка, вызванная /usr/share/perl5/PVE/Storage.pm, затем миграция: type=insecure. Как обойти изменения в /etc/pve/datacenter.cfg: Код: migration: type=secure.
     
     
     
    JamesT
    Guest
    #5
    0
    27.04.2021 02:58:00
    Извини, что не ответил, Фабиан, почему-то не получил уведомление. Если я правильно помню, я решил эту проблему, перезагрузив оба узла, и после этого все стало нормально.
     
     
     
    fiona
    Guest
    #6
    0
    27.04.2021 08:42:00
    Рад слышать, что проблема решена. Мы внесли изменения, чтобы показывать больше информации, если проблема появится снова в будущем.
     
     
     
    DJP
    Guest
    #7
    0
    26.08.2021 11:29:00
    У нас такая же проблема, и это произошло из-за ужесточения безопасности: мы добавили файл /etc/issue.net, и этот файл, похоже, мешает миграции, вызывая ту же ошибку. Удаление этого файла восстанавливает работу для тех, у кого та же проблема.
     
     
     
    fiona
    Guest
    #8
    0
    01.09.2021 10:54:00
    Да, установка баннера ssh будет сбивать с толку миграцию с типом=insecure (и, возможно, другие вещи), так как она не ожидает дополнительного вывода.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры