Привет всем! Хочу поделиться реальной ситуацией, с которой я столкнулся в своем Proxmox кластере, и получить ваши советы или отзывы, чтобы улучшить мою стратегию аварийного восстановления. ️ Техническая настройка: Proxmox VE кластер (последняя стабильная версия) 2 ноды: pve01 и pve02. Каждая нода использует локальное ZFS хранилище для дисков ВМ/КТ. ZFS репликация включена каждые 10 минут, используя встроенный инструмент Proxmox репликации — в обе стороны (pve01 → pve02 и pve02 → pve01). Живая миграция между нодами работает отлично. Нет общего хранилища, и ручное HA/failover. Текущая процедура: Когда pve01 выходит из строя, вот как я сейчас обрабатываю failover: Я загружаю pve01 с помощью rescue системы (например, SystemRescue), без немедленного присоединения к кластеру. Я вручную реплицирую с pve01 на pve02, чтобы перенести любые оставшиеся ZFS снапшоты, которые не были реплицированы до сбоя. Я копирую файлы конфигурации ВМ/КТ с pve01 на pve02 (/etc/pve/qemu-server/ или lxc/). Я запускаю ВМ/КТ на pve02, используя ZFS датасеты, которые были реплицированы. ВМ теперь работают на pve02, и самые свежие данные находятся на этой ноде. Моя обеспокоенность: Прежде чем вернуть pve01 обратно в кластер, я хочу избежать следующего критического риска: Итак, мои вопросы: Какой лучший способ избежать этого риска и гарантировать сохранение правильного направления данных? Как можно безопасно изменить направление репликации, как это делает Proxmox автоматически во время живой миграции ВМ? Есть ли рекомендованная процедура или автоматизация для обработки такого failover чисто и защиты данных? Заранее благодарю за вашу помощь и советы. Я думаю, что такая проблема может затронуть многих пользователей Proxmox, работающих с локальным ZFS и нативной репликацией без общего хранилища. С уважением,
[Реальный случай] Риск потери данных после повторного подключения ноды с включенным ZFS Replication (кластер Proxmox), Proxmox Виртуальная Среда
|
24.06.2025 20:16:00
|
|
|
|
|
Читают тему
