Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    [SOLVED]Проблема с восстановлением LXC

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    [SOLVED]Проблема с восстановлением LXC, Proxmox Виртуальная Среда
     
    petzorton
    Guest
    #1
    0
    19.12.2019 12:50:00
    Привет, у меня есть кластер Proxmox 5.4-13 с 2 узлами и 15 LXC контейнерами, один из которых — почтовый сервер. Я не испытываю проблем с восстановлением остальных, но резервная копия почтового сервера (75 ГБ) уже два дня в процессе, за 55 часов она так и не завершилась. Та же проблема на обоих узлах, это нормально? Использую значение по умолчанию для stripesize 64.00 KiB. Логический том "vm-122-disk-0" создан. mke2fs 1.43.4 (31-янв-2017) Освобождение блоков устройства: 4096/78643200 завершено Создание файловой системы с 78643200 4k блоками и 19660800 индексами UUID файловой системы: cac6b7ef-78a1-4ad1-9f7d-9a00d2335ed6 Резервные копии суперблока сохранены в блоках: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 4096000, 7962624, 11239424, 20480000, 23887872, 71663616 Выделение таблиц групп: 0/2400 завершено Запись таблиц индексов: 0/2400 завершено Создание журнала (262144 блока): завершено Защита от многократного монтирования включена с интервалом обновления 5 секунд. Запись суперблоков и учетной информации файловой системы: 0/2400 завершено Извлечение архива '/mnt/pve/NAS01_Virtualizacion/dump/vzdump-lxc-114-2019_12_17-03_00_02.tar.gz' С резервной копией Owncloud LXC объемом 90 ГБ восстановление занимает всего 3 часа.
     
     
     
    oguz
    Guest
    #2
    0
    02.01.2020 13:36:00
    Привет, можешь выложить конфигурацию почтового сервера CT? Также пожалуйста выведи pct config CTID и pveversion -v.
     
     
     
    TechHome
    Guest
    #3
    0
    19.05.2020 22:39:00
    То, что касается восстановления, относится к непривилегированным контейнерам с установленным Docker (вложенные, с включенным keyctl).
     
     
     
    petzorton
    Guest
    #4
    0
    03.01.2020 17:09:00
    привет, вот информация: arch: amd64 cores: 4 hostname: correo.clm-granada.com memory: 4096 net0: name=eth0,bridge=vmbr2,firewall=1,gw=150.214.95.222,hwaddr=C2:39:4F:A9:FA:dE,ip=150.214.95.157/24,type=veth onboot: 1 ostype: ubuntu rootfs: local-lvm:vm-114-disk-0,size=300G swap: 2048 proxmox-ve: 5.4-2 (running kernel: 4.15.18-24-pve) pve-manager: 5.4-13 (running version: 5.4-13/aee6f0ec) pve-kernel-4.15: 5.4-12 pve-kernel-4.13: 5.2-2 pve-kernel-4.15.18-24-pve: 4.15.18-52 pve-kernel-4.15.18-23-pve: 4.15.18-51 pve-kernel-4.15.18-21-pve: 4.15.18-48 pve-kernel-4.15.18-20-pve: 4.15.18-46 pve-kernel-4.15.18-18-pve: 4.15.18-44 pve-kernel-4.15.18-17-pve: 4.15.18-43 pve-kernel-4.15.18-16-pve: 4.15.18-41 pve-kernel-4.15.18-15-pve: 4.15.18-40 pve-kernel-4.15.18-14-pve: 4.15.18-39 pve-kernel-4.15.18-13-pve: 4.15.18-37 pve-kernel-4.15.18-12-pve: 4.15.18-36 pve-kernel-4.15.18-11-pve: 4.15.18-34 pve-kernel-4.15.18-10-pve: 4.15.18-32 pve-kernel-4.15.18-9-pve: 4.15.18-30 pve-kernel-4.15.18-8-pve: 4.15.18-28 pve-kernel-4.15.18-7-pve: 4.15.18-27 pve-kernel-4.15.18-5-pve: 4.15.18-24 pve-kernel-4.15.18-4-pve: 4.15.18-23 pve-kernel-4.15.18-2-pve: 4.15.18-21 pve-kernel-4.15.18-1-pve: 4.15.18-19 pve-kernel-4.15.17-3-pve: 4.15.17-14 pve-kernel-4.15.17-2-pve: 4.15.17-10 pve-kernel-4.15.17-1-pve: 4.15.17-9 pve-kernel-4.15.10-1-pve: 4.15.10-4 pve-kernel-4.15.3-1-pve: 4.15.3-1 pve-kernel-4.13.16-4-pve: 4.13.16-51 pve-kernel-4.13.16-3-pve: 4.13.16-50 pve-kernel-4.13.16-2-pve: 4.13.16-48 pve-kernel-4.13.16-1-pve: 4.13.16-46 pve-kernel-4.13.13-6-pve: 4.13.13-42 pve-kernel-4.13.13-2-pve: 4.13.13-33 corosync: 2.4.4-pve1 criu: 2.11.1-1~bpo90 glusterfs-client: 3.8.8-1 ksm-control-daemon: 1.2-2 libjs-extjs: 6.0.1-2 libpve-access-control: 5.1-12 libpve-apiclient-perl: 2.0-5 libpve-common-perl: 5.0-56 libpve-guest-common-perl: 2.0-20 libpve-http-server-perl: 2.0-14 libpve-storage-perl: 5.0-44 libqb0: 1.0.3-1~bpo9 lvm2: 2.02.168-pve6 lxc-pve: 3.1.0-7 lxcfs: 3.0.3-pve1 novnc-pve: 1.0.0-3 proxmox-widget-toolkit: 1.0-28 pve-cluster: 5.0-38 pve-container: 2.0-41 pve-docs: 5.4-2 pve-edk2-firmware: 1.20190312-1 pve-firewall: 3.0-22 pve-firmware: 2.0-7 pve-ha-manager: 2.0-9 pve-i18n: 1.1-4 pve-libspice-server1: 0.14.1-2 pve-qemu-kvm: 3.0.1-4 pve-xtermjs: 3.12.0-1 qemu-server: 5.0-54 smartmontools: 6.5+svn4324-1 spiceterm: 3.0-5 vncterm: 1.5-3 zfsutils-linux: 0.7.13-pve1~bpo2
     
     
     
    oguz
    Guest
    #5
    0
    07.01.2020 13:54:00
    Во-первых, я бы посоветовал тебе обновить свой PVE. Мое предположение, что поскольку ты делаешь резервные копии на NAS, медлительность может быть связана со скоростью передачи данных между NAS и хостом PVE.
     
     
     
    petzorton
    Guest
    #6
    0
    07.01.2020 14:25:00
    Что я не понимаю, так это как восстановление контейнера Owncloud занимает меньше 3 часов, хотя он больше. Тот же хост PVE и NAS. Это сводит меня с ума.
     
     
     
    oguz
    Guest
    #7
    0
    07.01.2020 14:41:00
    выводит ли она какие-либо ошибки в какой-либо момент или просто зависает? можешь ли ты смонтировать контейнер вручную через pct mount CTID, также находится ли контейнер owncloud на local-lvm?
     
     
     
    petzorton
    Guest
    #8
    0
    08.01.2020 09:22:00
    is owncloud container также на local-lvm? да, смонтирован CT 114 в '/var/lib/lxc/114/rootfs' Вчера я сделал 2 бэкапа: tar.gz занял больше 3 часов и 75GB, tar.lzo занял 2,30 часа и 105GB. Я пытаюсь восстановить бэкап tar.lzo, и сетевой трафик был 30mb/s в течение 1,14 часа, примерно так же, как и при чтении бэкапа (30mb/s ЧТЕНИЕ ДИСКА, мониторинг с iotop), а сейчас ничего значительного с iotop, но мониторинг с top показывает: 34142 root      20   0   26796   3256   2348 R 100,0  0,0  79:39.87 tar, tar — процесс с наибольшей нагрузкой на ЦП. Ничего в syslog про процесс восстановления, всё ещё работает. Спасибо.
     
     
     
    petzorton
    Guest
    #9
    0
    09.01.2020 12:36:00
    Привет! Моё решение — создать виртуальную машину и перенести сервер с помощью rsync, это заняло 2 часа 40 минут, а теперь я могу восстановить резервную копию виртуальной машины с почтой за 1 час.
     
     
     
    oguz
    Guest
    #10
    0
    09.01.2020 15:25:00
    Привет, здорово. Но все равно непонятно, почему этот контейнер так долго создаёт резервную копию. Виртуальная машина, которую ты создал, находится на том же узле и хранилище? Я бы хотел попробовать воспроизвести эту проблему и исправить её, если это баг, но, похоже, мы что-то упускаем.
     
     
     
    petzorton
    Guest
    #11
    0
    10.01.2020 08:30:00
    Привет, тот же хост, DELL POWEREDGE R740, и NAS. Мне кажется, что наличие почти 600,000 мелких файлов (это электронные письма) с их вложениями вызывает настолько сильное замедление, что восстановление становится невозможным. Это единственная резервная копия, которая доставляет мне проблемы. У меня есть 2 виртуальных машины и 15 LXC на двух хостах с одинаковым сетевым оборудованием и NAS. Если нужно, я могу отправить тебе файл журнала.
     
     
     
    oguz
    Guest
    #12
    0
    10.01.2020 13:31:00
    Конечно, просто прикрепи его сюда. Кстати, можешь обновить кластер? Возможно, это не проблема в новой версии.
     
     
     
    TechHome
    Guest
    #13
    0
    19.05.2020 19:37:00
    У меня такая же проблема. Новый LXC с 8 ГБ диска уже работает час. Резервная копия находится на дисковой станции. Виртуальная машина на 30 ГБ у меня занимала около 10 минут.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры