Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    PVE и Ceph на Mellanox Infiniband, какой текущий статус поддержки?

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    PVE и Ceph на Mellanox Infiniband, какой текущий статус поддержки?, Proxmox Виртуальная Среда
     
    alyarb
    Guest
    #1
    0
    02.08.2020 00:50:00
    Мы используем PVE и Ceph на серверах Dell в шасси Dell M1000e. Сейчас используем две картонные платы с 2x 10 GbE портами, один для Ceph front-end, один для Ceph back-end. Public LANs, guest LANs и Corosync обрабатываются 4x 10GbE картами через 40GbE MXL коммутаторы, так что там все хорошо. OSD – это 8TB intel P4510 NVMe/PCIe 3.0 диски, и мне нужно знать, как лучше построить Ceph сети, чтобы получить от них максимум. Поскольку Ceph front-end и back-end каждый состоит из 20 Gb LAG, наш I/O bottleneck довольно очевиден, а тестирование производительности показывает около 2 GB/s. Если объединить Ceph сети в один 40 Gb LAG, производительность становится немного хуже. Мне просто нужно узнать, учитывая ограничения M1000e, как лучше построить Ceph front/back end сети для наилучшей производительности гостевых VM? Какой опыт и мнение сообщества в целом? У нас есть варианты Infiniband 56 Gb и 40 Gb для нашего оборудования, которые мы рассматриваем, чтобы максимально отодвинуть bottleneck. Поддерживается ли Infiniband на PVE/Ceph? Вы используете их в чистом Infiniband режиме, в Ethernet режиме или IPoIB? Работает ли RDMA / используете ли вы его? Какую производительность вы получаете? Все доступные NIC основаны на ConnectX-3 silicon. FDR коммутатор — M4001F, а FDR10 коммутатор — M4001T, так что, видимо, FDR и FDR10 детали не взаимозаменяемы. Я все равно планирую как минимум 56 Gb. Все NIC – это двухпортовые NIC, и в шасси будет 4 коммутатора. Как можно объединить / агрегировать / связать ссылки, чтобы эффективно получить 112 Gb?
     
     
     
    foosec
    Guest
    #2
    0
    16.06.2021 13:21:00
    Это не работает по IP? Нельзя ли здесь использовать IPoIB?
     
     
     
    alyarb
    Guest
    #3
    0
    16.06.2021 17:34:00
    Производительность 56Гб IPoIB была отвратительной, меньше, чем у 10ГбE. Я проигнорировал советы всех и сам убедился в этом, чтобы поверить. Эта тема оставлена для того, чтобы другие сделали то же самое: как хотите.
     
     
     
    foosec
    Guest
    #4
    0
    16.06.2021 18:01:00
    Привет, спасибо большое, я как раз собирался делать это сам. Хорошо, что я написал! А ты пробовал что-нибудь ещё, типа EoIB или RDMA?
     
     
     
    alyarb
    Guest
    #5
    0
    16.06.2021 18:07:00
    Ваше приложение должно обеспечивать нативную, надёжную и постоянную поддержку. Ceph — это не одно из тех приложений. RDMA канули в Лету ещё давно.
     
     
     
    brosky
    Guest
    #6
    0
    06.06.2022 10:22:00
    Поднимаю эту тему. Кто-нибудь успешно использует Proxmox с картами/коммутаторами Infiniband?
     
     
     
    kenneth104
    Guest
    #7
    0
    09.08.2022 10:37:00
    Да, использую карту Infiniband 56Gbps и свитч. Работает в режиме IPoIB. Настраиваю IP over Infiniband через CLI, а Ceph — через GUI. Работает, но пропускная способность около 20Gbps.
     
     
     
    brosky
    Guest
    #8
    0
    09.08.2022 17:06:00
    Ну, 20 Гбит/с – это не так уж и много... Я имею в виду, я использую Mellanox Connect3 IB pci карты с Arista switch в Ethernet режиме, и у меня получается 25 Гбит/с – я уверен, что можно ещё подкрутить, но и этого вполне достаточно для моих нужд. #networking #highspeednetworking
     
     
     
    kenneth104
    Guest
    #9
    0
    10.08.2022 04:56:00
    Да, для режима IPoIB нужна производительность одного ядра CPU. У процессора E5-2682v4 сейчас большая нагрузка от множества виртуальных машин. Если бы он был новым, то скорость передачи данных в тесте была бы около 40 Гбит/с, а в IPoIB — 56 Гбит/с FDR InfiniBand.
     
     
     
    realguob
    Guest
    #10
    0
    24.08.2023 10:18:00
    Привет! Не мог бы ты поделиться своим ceph.conf, пожалуйста? У меня не получается использовать rdma в pve/ceph, и я создал тему в поисках помощи здесь: https://forum.proxmox.com/threads/ceph-in-pve-7-3-can-not-working-with-rdma-roce.132637/
     
     
     
    realguob
    Guest
    #11
    0
    25.08.2023 03:13:00
    Похоже, да, но нет. Я использую Mellanox adapter, чтобы построить сеть ipoib (поддерживается RoCE v1/v2), проблема в том, как настроить Ceph для работы с ipoib сетью, чтобы поддерживать функцию RDMA. Может, мои знания неверны, если да, пожалуйста, поправьте меня...
     
     
     
    hassoon
    Guest
    #12
    0
    27.10.2024 15:14:00
    Просто из любопытства: если использовать 3 узла и Mellanox MC2207130 FDR кабель напрямую, от порта к порту, то есть от карты к карте без свитча, получится ли достичь заявленной скорости 40 Гбит/с?
     
     
     
    alyarb
    Guest
    #13
    0
    24.08.2023 14:44:00
    RDMA в Ceph нет. Используется только Ethernet. Были попытки его реализовать, но от них отказались примерно 6-7 лет назад. https://github.com/Mellanox/ceph/tree/luminous-12.1.0-rdma
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры