Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    [Запрос совета] Настройка Proxmox VE + Ceph – частное облако. Ищу мнение опытных пользователей!

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    [Запрос совета] Настройка Proxmox VE + Ceph – частное облако. Ищу мнение опытных пользователей!, Proxmox Виртуальная Среда
     
    ddoom
    Guest
    #1
    0
    19.05.2025 06:44:00
    Всем привет! Я сейчас работаю над проектом по миграции нашей устаревшей инфраструктуры, размещенной на собственных серверах, в частное облако. Планирую повторно использовать наши существующие серверы Dell R750 (3 ноды) без покупки нового оборудования и буду очень благодарен за советы тех, у кого есть практический опыт.

    Текущая инфраструктура:
    Серверы: 3 × Dell R750
    Все серверы в настоящее время размещают производственные сервисы

    План миграции:
    Резервное копирование (P2V) → Переустановка Proxmox VE → Настройка кластера Ceph → Восстановление ВМ

    Решение для резервного копирования:
    Планирую использовать решение, похожее на Veeam, также рассматриваю Proxmox Backup Server

    Запланированная архитектура (в настоящее время тестирую):
    Виртуализация: Proxmox VE 8.2 (планируется кластер с высокой доступностью)
    Хранилище: Ceph version: Reef (18.2.4, последняя стабильная версия)
    Диски OSD: Samsung U.2 NVMe 7.68TB × 6 (2 на ноду)
    Конфигурация пула: Репликация (size=3, min_size=2)
    Сеть: Выделенная сеть 10G (рассматриваю Mikrotik CRS312-4C+8XG-RM против других брендов)

    Ожидаемая нагрузка:
    Примерно 20 ВМ (Linux-based DB, Web, API servers и т.д.)

    Вопросы и опасения:

    При повторном использовании производственных серверов, возникают ли какие-то неожиданные проблемы или важные моменты, о которых нужно знать в процессе восстановления физического сервера (P2V)?

    Касательно настройки Ceph: при репликации (3 копии), какая скорость восстановления при сбоях и эффективность использования хранилища на вашем опыте?

    Сталкивались ли вы с узкими местами или накладными расходами при использовании реплицированных пулов даже в NVMe-окружении?

    В окружениях Proxmox VE + Ceph: сколько системных ресурсов (CPU, RAM) фактически потребляет Ceph? Какой реальный процент использования ресурсов у вас в опыте?

    В конфигурациях с высокой доступностью: какое фактическое время восстановления после сбоев?

    Для тех, кто использует Mikrotik CRS312-4C+8XG-RM: могли бы вы поделиться своим опытом работы с производительностью, управлением тепловыделением и стабильностью обработки трафика?

    Какие "обязательные советы" или "вещи, о которых я жалею, что не сделал" от тех, кто строил аналогичные решения?

    Я в настоящее время строю тестовую среду и провожу различные тесты с последней версией Ceph Reef (18.x). Независимо от того, увенчается ли этот проект успехом или нет, я обещаю поделиться подробным описанием всего процесса после завершения!

    Заранее благодарю за ваши советы и опыт!
     
     
     
    UdoB
    Guest
    #2
    0
    19.05.2025 10:10:00
    Три ноды — абсолютный минимум для работы с Ceph. У меня было ещё несколько подводных камней. Обязательно узнайте (а возможно, и намеренно их игнорируйте), прежде чем запускать в продакшн: https://forum.proxmox.com/threads/fabu-can-i-use-ceph-in-a-_very_-small-cluster.159671.  10 Гбит/с считается минимально приемлемой скоростью. В моем домашнем лабе была выделенная линия на 2.5 Гбит/с, и всё работало отлично (даже быстрее, чем я ожидал) — но ощущалось медленно в некоторых ситуациях. Что касается эффективности хранения: каждый бит будет храниться трижды. Всё. Сравните это с ZFS: если у меня три ноды с зеркальным пулом ZFS и репликацией на два других ноды, каждый бит хранится шесть раз. И да, именно так я сейчас и делаю. Учтите, что ни Ceph, ни ZFS не могут использовать полную ёмкость — всегда оставайтесь ниже ~80% (эмпьрическое правило, ваши результаты могут отличаться).  Для моей (теперь уже несуществующей) продакшн-среды: https://forum.proxmox.com/threads/f...a-_very_-small-cluster.159671/#-problem-6-ram.  Как и в любой другой конфигурации: ожидайте примерно двух минут, прежде чем ресурс на упавшей ноде начнёт функционировать на другой ноде.  Подумайте и реально постройте систему резервного копирования, предпочтительно с использованием PBS. Автоматизируйте её. Проверьте фактическое восстановление. А затем снова протестируйте... https://pbs.proxmox.com/docs/installation.html#recommended-server-system-requirements.  Важно: получайте удовольствие.
     
     
     
    LnxBil
    Guest
    #3
    0
    21.05.2025 03:08:00
    Трехузловая система CEPH тоже может работать без коммутатора. Можно подключить 25 Гбит или даже больше, чтобы получить лучшую скорость с NVMes. 10-гигабитная сеть здесь станет узким местом.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры