Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Вопросы по публичной сети Ceph и кластеру.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Вопросы по публичной сети Ceph и кластеру., Proxmox Виртуальная Среда
     
    Sycoriorz
    Guest
    #1
    0
    13.03.2021 15:06:00
    Привет! Хочу настроить Ceph с полной mesh-сетью через два сетевых адаптера на 100GbE. В документации "Deploy Hyper-Converged Ceph Cluster" рекомендуется разделять публичную и кластерную сети Ceph. Если я правильно понял, там сказано, что для Ceph нужна избыточность в сети. В связи с этим у меня вопрос: если и то, и другое рекомендуется, и я разделяю "сеть" и "кластерную" сеть и при этом хочу добавить дополнительную избыточность для сети Ceph, мне хватит одного дуального адаптера (1x2) или нужны два дуальных адаптера (2x2)? Если нужны 2x2: Требуется ли 100GbE для публичной и кластерной сети каждая? Или для одной из них хватит 10GbE? Хочу сделать полностью NVMe-систему с Mellanox 9300 MAX на 3 узлах. Планирую начать с 4 NVMe на узел, максимум — 8 NVMe на узел. Большое спасибо за помощь.
     
     
     
    karadimi
    Guest
    #2
    0
    14.07.2023 08:56:00
    Приветствую! У меня NAS с двумя 10-гигабитными сетевыми картами. Есть 3 сервера со следующей сетевой пропускной способностью: 1 x 2 10GB, 1 x 4 1GB.

    Исходя из того, что я прочитал здесь, сценарий сетевого разделения может быть таким:

    1 x 10GB - соединение с NAS
    1 x 10GB - соединение Ceph (кластер и публичное)
    1 x 1GB - соединение управления PVE
    1 x 1GB - кластер PVE (corosync)
    2 x 1GB (LACP bond) - сеть для VM PVE

    И еще вопрос: где лучше добавить настройку шлюза? В сети VM или в сети управления?
     
     
     
    aaron
    Guest
    #3
    0
    14.07.2023 14:53:00
    В целом выглядит неплохо. Но избыточности в сети для NAS и Ceph не наблюдается. И еще, учтите, что Corosync может поддерживать до 8 каналов связи. Поэтому неплохая идея — настроить дополнительные каналы связи в других сетях, чтобы у него был выбор, если выделенный канал Corosync выйдет из строя. На той сети, где доступен шлюз и через которую вы хотите, чтобы Proxmox VE выходил в интернет, и на всех остальных сетях, к которым у него может не быть прямого соединения.
     
     
     
    karadimi
    Guest
    #4
    0
    22.08.2023 08:09:00
    Спасибо большое за ответ, Аарон. Ты имеешь в виду добавить ещё сетевых интерфейсных контроллеров? Ещё один вопрос: достаточно ли Ceph для продакшена по сравнению с LINSTOR (или, может быть, NFS - NAS)? У Ceph минимум 3 ноды (как у меня), но он может выдержать только отказ одной ноды, а при отказе двух нод будет полное уничтожение (???)
     
     
     
    Maximiliano
    Guest
    #5
    0
    22.08.2023 08:50:00
    Ceph — это и надежно, и масштабируемо. Можно настроить количество реплик для каждого объекта (по умолчанию 3), а также минимальное количество реплик для каждого объекта (по умолчанию 2). Если два узла выходят из строя, количество реплик для всех объектов окажется ниже минимального, и пул заблокирует все операции записи до тех пор, пока ситуация не разрешится. Это очень отличается от полного уничтожения данных, ведь у вас все еще есть экземпляр вашей информации. Ceph может восстановиться после потери произвольного числа OSD и/или узлов, если предоставить ему достаточно ресурсов. Чтобы поддерживать нормальную работу при выходе из строя двух узлов, вам потребуется 4 узла в кластере, в этом случае Ceph сможет работать в деградированном состоянии (имея только 2 реплики для каждого объекта) до тех пор, пока узлы не вернутся в кластер.
     
     
     
    DaSilva
    Guest
    #6
    0
    19.02.2025 02:18:00
    Не против поделиться информацией, может, скриншоты конфига? Я новичок в Proxmox и никак не могу разобраться. У меня похожая конфигурация, как у тебя: 3 ноды, с несколькими 1B NICs для Proxmox, и 25GB Dual NICs для CEPH на каждом сервере. Но, никак не получается. Смотрел это, но так и не понял, и устал переустанавливать Proxmox.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры