Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Proxmox Hyperconverged Infrastructure — оборудование для хранения данных

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Proxmox Hyperconverged Infrastructure — оборудование для хранения данных, Proxmox Виртуальная Среда
     
    KyleS
    Guest
    #1
    0
    05.02.2025 23:56:00
    Привет! Мы планируем миграцию с vSphere на Proxmox, но при этом хотим сохранить гиперконвергентную инфраструктуру. Прочитав документацию Proxmox VE и сообщения на форуме, я вижу, что Ceph – это «золотой стандарт» для гиперконвергенции, но нам хотелось бы узнать, какое оборудование люди используют для хранения данных? Сейчас у нас есть SAN, интегрированный с vSphere по FC SCSI, и он уже не за горами своего срока годности. И, что бы мы ни выбрали, мы хотим как можно меньше отличаться от текущей конфигурации. Какое оборудование/решение люди используют для хранения данных в своих гиперконвергентных системах с Proxmox? Что, по вашему мнению, является "золотым стандартом"? Спасибо!
     
     
     
    guruevi
    Guest
    #2
    0
    06.02.2025 01:17:00
    Сейчас, пожалуй, золотым стандартом я бы назвал Ceph с NVMe SSD в дата-центре (Kioxia и т.д.) и резервированным бэкэндом на 100G. Ceph можно настроить как 3-way mirror, что лучше всего подходит для большинства потребностей в производительности. Если у вас большие диски подключены к ВМ, можно использовать 3n+2k (или больше n), чтобы сэкономить деньги, но хранилище сейчас относительно недорогое. Не так уж и дорого, достаточно места для большинства кластеров. Я бы сказал, что минимум 5 нод — только для резервирования, чтобы можно было потерять 2 без проблем. А во втором дата-центре стоит использовать Proxmox Backup Server.
     
     
     
    LnxBil
    Guest
    #3
    0
    11.07.2025 10:14:00
    SATA, SAS и NVMe – это транспортные протоколы, а SSD – это общий тип накопителя (разные технологии также подразделяются дальше, например, SLC, MLC, QLC и т.д. ... а также такие функции, как PLC), так что технически это не на 100% верно. NVMe тоже SSD, и SSD работает со всеми упомянутыми транспортными протоколами: SATA, SAS и NVMe (в порядке возрастания пропускной способности). Но это не для CEPH / гиперконвергентного хранения! Ах… это снова спам-пост… понял и сообщу!
     
     
     
    groque
    Guest
    #4
    0
    11.07.2025 10:43:00
    Ceph – предпочтительное программно-определяемое хранилище для гиперконвергентных кластеров Proxmox. Если правильно подобрать оборудование и конфигурации, можно добиться лучшей производительности и надежности, чем на традиционном SAN. Типичная конфигурация для продакшна: 3+ узла (нечетное число для кворума). Каждый узел: Enterprise SSD с PLP (Power Loss Protection), 25 Гбит/с или 100 Гбит/с NIC, JBOD (IT mode), HBA вместо RAID-контроллеров (НЕ ИСПОЛЬЗУЙТЕ RAID-КОНТРОЛЛЕРЫ). Рекомендации по коммутаторам: используйте коммутаторы L2/L3 с низкой задержкой и неблокирующие, с достаточной полосой пропускания бэкплейна для ваших NIC. Ceph любит Jumbo Frames. Включите Jumbo Frames (MTU 9000) в сетях Ceph. Для получения более подробной информации стоит проверить официальные рекомендации Ceph по оборудованию. Я также настоятельно рекомендую прочитать Proxmox VE Ceph Benchmark 2023/12. В нем описаны тесты из реального мира и показано следующее: 10 Гбит/с сетевое подключение быстро становится узким местом, даже при использовании одного быстрого SSD на узел. 25 Гбит/с обеспечивает запас прочности, но топология сети и тонкая настройка (например, маршрутизация или RSTP) имеют значение. 100 Гбит/с сети достаточно быстры, чтобы узким местом стал Ceph-клиент. Один клиент: ~6000 MiB/с на запись, ~7000 MiB/с на чтение. Три клиента: ~9800 MiB/с на запись, 19 500 MiB/с на чтение.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры