Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Проблемы с репликацией В связи с некоторыми сложностями, возникшими при репликации, хотим сообщить следующее: * Убедитесь, что у вас установлена последняя версия программного обеспечения. * Проверьте сетевое соединение. Слабый сигнал может привести

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Проблемы с репликацией В связи с некоторыми сложностями, возникшими при репликации, хотим сообщить следующее: * Убедитесь, что у вас установлена последняя версия программного обеспечения. * Проверьте сетевое соединение. Слабый сигнал может привести, Proxmox Виртуальная Среда
     
    gadreel
    Guest
    #1
    0
    08.10.2024 07:42:00
    Привет. У меня кластер Proxmox 8.2 с 3 нодами. Когда я выключаю одну из нод для обслуживания, например, получаю кучу писем о репликации контейнеров этой ноды. В письмах такой текст: Код: Репликация задания '112-0' с целью 'franky' и расписанием '21:00' завершилась неудачно!

    Последняя успешная синхронизация: 1970-01-01 02:00:00
    Следующая попытка синхронизации: 1970-01-01 21:05:00
    Количество неудач: 1

    Ошибка:
    команда '/usr/bin/ssh -e none -o 'BatchMode=yes' -o 'HostKeyAlias=franky' -o 'UserKnownHostsFile=/etc/pve/nodes/franky/ssh_known_hosts' -o 'GlobalKnownHostsFile=none' root@192.168.81.96 -- pvesr prepare-local-job 112-0 local-zfs:subvol-112-disk-0 --last_sync 0' завершилась неудачно: код выхода 255. Не понимаю, почему это происходит, не понимаю, почему даты 1970-го. Какие идеи? Спасибо.
     
     
     
    fiona
    Guest
    #2
    0
    25.10.2024 11:42:00
    Все эти гости HA управлялись? Можешь также поделиться фрагментом системных логов/журнала примерно на момент проблемы? Текущее состояние репликации на первый взгляд выглядит нормально, можешь повторно поделиться им, когда произойдёт сбой?
     
     
     
    gadreel
    Guest
    #3
    0
    24.10.2024 07:09:00
    Опять пишу, вдруг кто-нибудь подскажет, почему так происходит. Спасибо.
     
     
     
    fiona
    Guest
    #4
    0
    25.10.2024 10:14:00
    Привет, у этой задачи с репликацией хоть раз что-то получилось? Звучит как будто нода franky была изолирована (проблемы с сетью?), и больше не входит в кластер, поэтому репликация не может успешно завершиться после этого. Какая выдача команды pveversion -v и файла cat /var/lib/pve-manager/pve-replication-state.json на исходной ноде репликации?
     
     
     
    gadreel
    Guest
    #5
    0
    25.10.2024 11:25:00
    Привет, @fiona! Спасибо, что ответил. Если под "успевать хотя бы раз" ты имеешь в виду в общем-то да. Большинство моих заданий репликации запускаются ночью. Проблема в том, что это происходит, когда я выключаю сервер, а заданий репликации не запланировано на время выключения сервера. Снова смотри ниже на ту же ситуацию на другом сервере. Найди pveversion и состояние репликации на сервере zoro.

    Bash: Linux zoro 6.8.12-2-pve #1 SMP PREEMPT_DYNAMIC PMX 6.8.12-2 (2024-09-05T10:03Z) x86_64

    Программы, включенные в систему Debian GNU/Linux, являются программным обеспечением свободной лицензии;
    точные условия распространения для каждой программы описаны в
    соответствующих файлах в /usr/share/doc/*/copyright.

    Debian GNU/Linux предоставляется БЕЗ КАКИХ-ЛИБО ГАРАНТИЙ, в той мере,
    в какой это допускает применимое законодательство.
    Последний вход: Fri Oct 25 12:23:35 EEST 2024 from 192.168.81.99 on pts/0
    root@zoro:~# pveversion -v
    proxmox-ve: 8.2.0 (running kernel: 6.8.12-2-pve)
    pve-manager: 8.2.7 (running version: 8.2.7/3e0176e6bb2ade3b)
    proxmox-kernel-helper: 8.1.0
    proxmox-kernel-6.8: 6.8.12-2
    proxmox-kernel-6.8.12-2-pve-signed: 6.8.12-2
    proxmox-kernel-6.8.4-2-pve-signed: 6.8.4-2
    amd64-microcode: 3.20240820.1
    ceph-fuse: 17.2.7-pve3
    corosync: 3.1.7-pve3
    criu: 3.17.1-2
    glusterfs-client: 10.3-5
    ifupdown2: 3.2.0-1+pmx9
    ksm-control-daemon: 1.5-1
    libjs-extjs: 7.0.0-4
    libknet1: 1.28-pve1
    libproxmox-acme-perl: 1.5.1
    libproxmox-backup-qemu0: 1.4.1
    libproxmox-rs-perl: 0.3.4
    libpve-access-control: 8.1.4
    libpve-apiclient-perl: 3.3.2
    libpve-cluster-api-perl: 8.0.8
    libpve-cluster-perl: 8.0.8
    libpve-common-perl: 8.2.5
    libpve-guest-common-perl: 5.1.4
    libpve-http-server-perl: 5.1.2
    libpve-network-perl: 0.9.8
    libpve-rs-perl: 0.8.10
    libpve-storage-perl: 8.2.5
    libspice-server1: 0.15.1-1
    lvm2: 2.03.16-2
    lxc-pve: 6.0.0-1
    lxcfs: 6.0.0-pve2
    novnc-pve: 1.4.0-4
    proxmox-backup-client: 3.2.7-1
    proxmox-backup-file-restore: 3.2.7-1
    proxmox-firewall: 0.5.0
    proxmox-kernel-helper: 8.1.0
    proxmox-mail-forward: 0.2.3
    proxmox-mini-journalreader: 1.4.0
    proxmox-offline-mirror-helper: 0.6.7
    proxmox-widget-toolkit: 4.2.4
    pve-cluster: 8.0.8
    pve-container: 5.2.0
    pve-docs: 8.2.3
    pve-edk2-firmware: 4.2023.08-4
    pve-esxi-import-tools: 0.7.2
    pve-firewall: 5.0.7
    pve-firmware: 3.13-2
    pve-ha-manager: 4.0.5
    pve-i18n: 3.2.4
    pve-qemu-kvm: 9.0.2-3
    pve-xtermjs: 5.3.0-3
    qemu-server: 8.2.4
    smartmontools: 7.3-pve1
    spiceterm: 3.3.0
    swtpm: 0.8.0+pve1
    vncterm: 1.8.0
    zfsutils-linux: 2.2.6-pve1
    JSON: {"117":{"local/luffy":{"last_sync":1729792834,"last_iteration":1729792802,"duration":17.605772,"fail_count":0,"storeid_list":["local-zfs"],"last_node":"zoro","last_try":1729792834}},"128":{"local/luffy":{"last_iteration":1729847701,"last_sync":1729847706,"last_try":1729847706,"last_node":"zoro","storeid_list":["local-zfs"],"fail_count":0,"duration":2.722637}},"111":{"local/luffy":{"duration":3.322885,"fail_count":0,"storeid_list":["local-zfs"],"last_node":"zoro","last_try":1729846801,"last_sync":1729846801,"last_iteration":1729846801}},"119":{"local/luffy":{"duration":5.747837,"fail_count":0,"last_node":"zoro","storeid_list":["local-zfs"],"last_try":1729847701,"last_sync":1729847701,"last_iteration":1729847701}},"102":{"local/luffy":{"last_iteration":1729792802,"last_sync":1729792802,"storeid_list":["local-zfs"],"last_node":"zoro","last_try":1729792802,"duration":32.684891,"fail_count":0}}}
     
     
     
    gadreel
    Guest
    #6
    0
    25.10.2024 12:35:00
    @fiona Да, все эти гости управляются через HA. Прикрепляю журнал с 23:40 до 23:50 во время процедуры выключения...и журнал при включении сервера. Дай знать, если что-то еще понадобится.
     
     
     
    gadreel
    Guest
    #7
    0
    25.10.2024 12:48:00
    @fiona Прилагаю журнал узла "Luffy". Примерно в 23:46 в логах ты увидишь, что сервер "Luffy" отправляет письма, но, думаю, это те самые "фенсинговые" письма, получать которые нормально.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры