Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Proxmox Ceph 10G настройка

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Proxmox Ceph 10G настройка, Proxmox Виртуальная Среда
     
    DerDanilo
    Guest
    #1
    0
    22.01.2017 14:52:00
    Возможно ли следующее оборудование с Ceph Jewel? 4 узла в кластере Proxmox/Ceph: 2 узла для хранения, на которых также работают тестовые ВМ: --> 2 узла (128 ГБ ОЗУ, 8-ядерный процессор) с 13 OSD, каждый по 6 ТБ, MON на тех же дисках 2 узла, выделенные под ВМ --> 2 узла (265 ГБ ОЗУ, 8-ядерный процессор) без OSD, но с MON, работающим на локальном SSD (GPT) хранилище Это оставляет нам 4 MON, 2 из которых на SSD и 26 OSD, распределённых по 2 узлам для хранения. - Все узлы имеют дополнительные сетевые карты на 10 Гбит, выделенные для ceph и коммуникации в кластере (через VLAN). - Публичная коммуникация происходит через сетевые карты на 1 Гбит. Если я правильно понимаю избыточность данных в Ceph (реплику), она может быть установлена на 2 вместо стандартных 3, и если один из узлов для хранения выйдет из строя, Ceph всё ещё должен работать, даже если нагрузка будет выше, верно? Сколько OSD может быть отсутствующим/повреждённым на каждом узле перед падением кластера, если реплика установлена на 2? Сколько OSD может быть отсутствующим/повреждённым на каждом узле перед падением кластера, если реплика установлена на 3? Спасибо за помощь!
     
     
     
    DerDanilo
    Guest
    #2
    0
    07.02.2017 22:19:00
    Рассматривается 3 узла для CEPH, но вся эта настройка немного дорогая, если использовать их только для ceph. Некритичные ВМ для тестирования будут работать непосредственно на узлах ceph. Известны ли какие-либо проблемы, когда CEPH и ВМ работают на одних и тех же узлах? Я имею в виду, что у узлов довольно мощное оборудование.
     
     
     
    Ashley
    Guest
    #3
    0
    08.02.2017 05:34:00
    При условии, что вы не используете krbd, а просто используете встроенный драйвер KVM RBD. Также будьте внимательны к недостатку оперативной памяти во время восстановления OSD.
     
     
     
    markusd
    Guest
    #4
    0
    10.02.2017 17:50:00
    Привет, очень интересно! У тебя есть какие-нибудь документы об этом? KRBD требует гораздо меньше мощности ЦП - разве это не имеет значения? Привет, Маркус
     
     
     
    Ashley
    Guest
    #5
    0
    11.02.2017 05:03:00
    Это задокументировано на многих онлайн-ресурсах, включая: http://ceph-users.ceph.narkive.com/px2L2fHc/is-it-still-unsafe-to-map-a-rbd-device-on-an-osd-server. Я еще не встречал четкую информацию о том, что какая-то конкретная версия ядра полностью исправила эту проблему, и не хочу проверять это на себе. У KRBD и QEMU есть свои преимущества и недостатки: https://forum.proxmox.com/threads/krbd-on-made-my-vm-fly-like-a-rocket-why.25608/ http://lists.ceph.com/pipermail/ceph-users-ceph.com/2015-October/005503.html
     
     
     
    DerDanilo
    Guest
    #6
    0
    21.04.2017 10:40:00
    Честно говоря, мы не совсем уверены, что хотим использовать Ceph PVEs, так как будем использовать его в основном как блочное хранилище для прямого монтирования в виртуальных машинах (vServer от Hetzner) в качестве частного облачного резервного копирования или для приложений, таких как Nextcloud/Seafile/Syncwerk.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры