Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    CEPH: Как найти лучший старт, будучи готовым выбрать оборудование

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    CEPH: Как найти лучший старт, будучи готовым выбрать оборудование, Proxmox Виртуальная Среда
     
    guyman
    Guest
    #1
    0
    08.10.2019 13:31:00
    Привет всем, Мы сейчас сталкиваемся с вопросом, каким могло бы быть новое концептуальное решение для хранения данных. К сожалению, мы можем только "опираться" на то, что нашли в интернете о Howtos и информации про CEPH. Что мы хотим достичь: - Я хотел бы создать растущий кластер как для виртуальных машин, так и для хранения данных - Мне нужен разумный уровень пропускной способности, как при чтении, так и при записи в МБ/с, а также, конечно, IOPS, особенно при записи. Кроме того, я хочу использовать CEPHFS для создания избыточной файловой системы, что мне нравится делать. Это позволит использовать ее как бэкэнд в различных ВМ параллельно. С чего мы хотим начать: Для эксперимента (что еще это в начале) я хотел бы начать с следующего: - 3 сервера, каждый с 2x2640v4 Xeon, 256GB RAM, 6x10 + 2x40Gb, и каждый с 2 x 6.4TB Samsung 1725b, загружаемые с 2 x SS300 Enterprise SSD - все 3 сервера изначально будут выполнять роли CEPH OSD, CEPH Manager и CEPH Monitor - но только на начальном этапе, кроме того, я хотел бы оставить несколько ВМ, иначе будет слишком перегруженно - Таким образом, у нас будет 6 x OSD в 3 x узлах, больше 2 x NVMe через PCI Express я хотел бы или не могу "препятствовать", потому что иначе будет слишком жарко/плотно в корпусе Supermicro - Я хочу создать избыточную сеть через LCAP и 2 x Juniper QFX5100 свитча, то есть по 2 x 40 GBit на каждом сервере для кластера CEPH OSD, 2 x 10 GBit для Heartbeat и Corosync, 2 x 10 GBit для внутренней сети связи. Мои вопросы: - Репликация из 2 узлов должна позволить мне, чтобы в случае полной потери узла кластер оставался доступным, а также безопасным и записываемым, так что у меня будет 2 x 6.4 TB на узел, тогда на 3 узлах и 2 реплики будет около 12.8 TB пространства, но я должен заполнить только около 80% максимум - правильно? - 2 x NVMe на узел? Думаю, 4 это определенно лучше для распределения I/O, но я боюсь, что в корпусе будет слишком тесно и тепло будет значительным. Позже я хотел бы выделить 3 мониторинговых/менеджерских узла на 3 маленьких серверах и подключить их только через 2x10 GBit к внутренней сети, так как для сетевого слоя OSD следует использовать только 40 GBit+. На мой взгляд, это не должно быть проблемой? Разделено, потому что мониторинговые узлы представляются мне очень важными ;-). Спасибо за ваш опыт. Привет, Ронни
     
     
     
    guyman
    Guest
    #2
    0
    20.03.2020 16:08:00
    Привет, мы все еще используем среду для некоторых сложных тестов, однако у меня возникло глупое вопрос; используя мой CEPH в качестве бэкенда для хранения, в статистике использования показывается выделенное пространство, но работает только статистика о том, какие данные реально используются, так что оно всегда резервирует всё выделенное место? Спасибо.
     
     
     
    Alwin
    Guest
    #3
    0
    20.03.2020 16:14:00
    Я не понимаю. Можешь выложить какой-нибудь результат?
     
     
     
    guyman
    Guest
    #4
    0
    20.03.2020 16:17:00
    @Alwin в статистике использования CEPH на GUI показывается, что 2 ТБ заполнено. Например, если я выделяю 2 ТБ для ВМ, но на этой ВМ используется только 2 ГБ. Это немного запутывает.
     
     
     
    Alwin
    Guest
    #5
    0
    20.03.2020 16:18:00
    Вам нужно использовать TRIM/Discard, чтобы вернуть освобожденное пространство.
     
     
     
    guyman
    Guest
    #6
    0
    20.03.2020 16:22:00
    @Alwin F***; Я забыл включить удаление *beng* и активировать обрезку. Извините за беспокойство. Берегите здоровье, все!
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры