Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Перехожу с VMWare на Proxmox – нужна консультация по конфигурации оборудования.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Перехожу с VMWare на Proxmox – нужна консультация по конфигурации оборудования., Proxmox Виртуальная Среда
     
    sabari
    Guest
    #1
    0
    03.05.2025 00:39:00
    Привет!

    У нас есть 7 машинный кластер с vSAN следующей конфигурации: HP ProLiant DL380 G10 24-Bay Server с 2.5'' отсеками — 2x 3.10Ghz Gold 6254 18-Core Processors — Всего 36 ядер — 24x 32GB PC4-2933Y RAM — Всего 768GB памяти — 3x 1.92TB SSD SAS 2.5'' 12G + 21x 2.4TB 10K SAS 2.5'' 12G — 2x 800W Platinum Power Supplies с 2x Power Cords — Контроллер RAID P408i-a Cache 2GB — Без оптического диска — Сетевой интерфейс: 1x Dual-Port 10GB SFP+ (HP_548SFP+).

    Теперь нужно мигрировать это на Proxmox. Будет POC схожей конфигурации с 3 узлами, настройка и конфигурирование CEPH. И вот, просмотрев форумы, вижу, что P408i не очень хорош с CEPH. Можете посоветовать хороший HBA, который помог бы подключить 24 диска? Будет ли поддерживаться HPE H240 моими требованиями?

    Также планируется добавить HP NS204i-p OS Boot Device с 2x 480GB M.2 NVMe SSD для установки Proxmox, что в конечном итоге позволит использовать жесткие диски полностью для Ceph.

    Вышеуказанная конфигурация предназначена для vSAN с 3 группами дисков, каждая из которых имеет SSD кэш и остальные как диски емкости. Как структурировать это же для Ceph или требует ли это какие-либо изменения?
     
     
     
    kellogs
    Guest
    #2
    0
    03.05.2025 01:22:00
    Вот как бы я это настроил:

    1. Прямой диск, без RAID-карты для дисков Ceph (OSD).
    2. Минимум 5 выделенных узлов Ceph — я назвал их узлами хранения.
    3. 3 или более вычислительных узлов.
    4. У каждого узла как минимум 2x100G и 1x1G (для corosync — вторая сеть).
     
     
     
    Magnus-mercer
    Guest
    #3
    0
    09.05.2025 10:20:00
    Миграции — это такая головная боль… Когда я однажды занимался одной из них, нашёл довольно полезный инструмент под названием Vinchin или что-то в этом роде — он мог мигрировать виртуальные машины вместе с данными напрямую в новую среду, не требуя остановки сервисов. У них на сайте есть бесплатная пробная версия.
     
     
     
    Johannes S
    Guest
    #4
    0
    09.05.2025 11:04:00
    Это не ответ на вопрос ОП (оригинального автора вопроса), который касался Ceph HCI. Теперь я знаю, что вы большой поклонник Vinchin (поскольку большинство ваших сообщений здесь рекомендуют их для миграции), но на самом деле никому не нужен сторонний инструмент для миграции (хотя, если у вас уже есть лицензия Vinchin или Veeam, они могут быть полезны). В вики ProxmoxVE есть хороший обзор доступных вариантов миграции с использованием встроенных инструментов: https://pve.proxmox.com/wiki/Migrate_to_Proxmox_VE https://pve.proxmox.com/wiki/Advanced_Migration_Techniques_to_Proxmox_VE @sabari Я не уверен, возможно ли это с вашим RAID-адаптером, но, может быть, его можно прошить в режим "IT" или что-то вроде этого, чтобы отключить RAID? Самое важное для Ceph – это сетевая настройка, так как производительность Ceph-кластера зависит от сетевой инфраструктуры. Поскольку по умолчанию все данные должны быть записаны как минимум на три узла, это может серьезно повлиять на производительность. Один сетевой адаптер для всего – это не лучший вариант. В справочной документации есть глава о настройке HCI-кластера с CEPH, в которой рекомендуется использовать как минимум три независимые сети. В этом руководстве также содержатся сведения о других аспектах аппаратного обеспечения кластера. Вам также стоит прочитать остальную часть руководства администратора, там много полезной информации о том, как к этому подходить. @UdoB написал отличное руководство по небольшим кластерам (вроде вашего POC), которое является более практичным учебником/руководством: https://forum.proxmox.com/threads/fabu-can-i-use-ceph-in-a-_very_-small-cluster.159671/ Возможно, также стоит обратиться к одной из партнерских компаний Proxmox для получения помощи: https://forum.proxmox.com/threads/proxmox-partners-remote-and-international.165756/
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры