Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    qemu с поддержкой RBD

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    qemu с поддержкой RBD, Proxmox Виртуальная Среда
     
    hverbeek
    Guest
    #1
    0
    27.03.2012 22:19:00
    Я пытаюсь выяснить, какая версия qemu стоит за 'pve-qemu-kvm: 1.0-8' и, что ещё важнее, поддерживает ли она RBD. Очень хочется протестировать qemu с бэкендом ceph. Есть какие-нибудь наводки? Спасибо!
     
     
     
    hverbeek
    Guest
    #2
    0
    18.04.2012 11:25:00
    Я обновил наш 4-узловой кластер Proxmox до PVE 2 и использую Ceph в качестве бэкенда. К сожалению, похоже, что версия qemu, поставляемая с PVE 2, не поддерживает rbd:  

    Код:  
    # rados mkpool vmimages  
    # rados lspools  
    data  
    metadata  
    rbd  
    vmimages  

    # qemu-img create -f rbd rbd:vmimages/disk1 10G  
    qemu-img: Неизвестный формат файла 'rbd'  

    Не могли бы вы включить поддержку rbd в qemu и сделать её доступной для тестирования? Спасибо!  
    http://ceph.newdream.net/wiki/QEMU-RBD#Building
     
     
     
    grape
    Guest
    #3
    0
    26.04.2012 00:41:00
    Я бы тоже хотел это протестировать. От команды Ceph выходит много классных вещей.
     
     
     
    mlanner
    Guest
    #4
    0
    17.05.2012 23:44:00
    Я планирую настроить и запустить Proxmox 2.0 с использованием Ceph в своей лаборатории для тестирования. hverbeek, расскажешь подробнее, как у тебя устроена среда?
     
     
     
    mlanner
    Guest
    #5
    0
    18.05.2012 00:28:00
    Похоже, что RDB был включён в ядро Linux только с версии 2.6.37 и выше. На моём хосте Proxmox стоит ядро 2.6.32-11-pve. Было бы здорово иметь RDB для тестирования в будущем. В качестве альтернативы, доступ к Sheepdog тоже был бы отличным вариантом. Какая сейчас ситуация со Sheepdog в Proxmox? Если я не ошибаюсь, изначально его планировали включить в «технический превью» в версии 2.0. Его приостановили или сейчас пересматривают в пользу Ceph и/или GlusterFS?
     
     
     
    dietmar
    Guest
    #6
    0
    18.05.2012 07:03:00
    К сожалению, стабильной версии Sheepdog до сих пор нет, поэтому мы не можем это включить.
     
     
     
    mlanner
    Guest
    #7
    0
    18.05.2012 07:06:00
    Ты вообще рассматриваешь Ceph как вариант? Похоже, Ceph достаточно стабилен и ещё входит в состав qemu. Или с Ceph есть какая-то серьёзная проблема, из-за которой его нельзя использовать?
     
     
     
    dietmar
    Guest
    #8
    0
    18.05.2012 07:11:00
    Насколько я знаю, стабильного релиза Ceph тоже нет (мы используем ядро 2.6.32).
     
     
     
    spirit
    Guest
    #9
    0
    19.05.2012 10:28:00
    Привет, dietmar, что касается CEPH, то для части rados block нам не нужен новый ядро, достаточно просто скомпилировать qemu-kvm с библиотекой rados. Rados стабилен, я на связи с Intank — новой компанией, созданной разработчиками ceph. Они поддерживают кластеры rados, и всё работает стабильно. Я собираюсь с их помощью построить промышленный rados block кластер, поэтому думаю добавить поддержку rados block в proxmox 2.0. (жду модули хранения)
     
     
     
    dietmar
    Guest
    #10
    0
    20.05.2012 07:36:00
    Но rados — это «только» клиентская часть? Интересно. Постараюсь как можно скорее залить код плагина ;-)
     
     
     
    hverbeek
    Guest
    #11
    0
    21.05.2012 13:58:00
    Извините за поздний ответ, несколько дней не был онлайн. Как уже упоминали другие в ответах здесь, меня интересует только использование Ceph в качестве хранилища для qemu. Мен не интересует использование Ceph как файловой системы общего назначения (где клиенты монтируются с помощью ядра 2.6.37+ или fuse-клиента). Моя установка очень простая и недорогая: у меня есть кластер PVE 2.1 из 4 хостов (нативная установка Debian squeeze, сверху PVE 2.1). Хосты соединены через 1GigE, и у каждого по несколько дисков за контроллером HW Raid. У немецкого хостинг-провайдера Hetzner такую систему можно арендовать за пару сотен евро в месяц. Я установил ядро Ceph (OSD, MON и MDS) на всех хостах (4 OSD, 3 MON, 1 MDS, позже добавлю еще запасных MDS). Красота этой схемы — это низкая стоимость в сочетании с мощной доступностью, масштабируемостью и автоматической реорганизацией. Конечно, о производительности пока ничего не могу сказать. По простоте и цене это лучше, чем DRBD+NFS; по стоимости и реорганизации лучше GlusterFS. Надеюсь, что по производительности лучше sheepdog. Мне просто нужно, чтобы qemu был скомпилирован с `--enable-rbd`... Как кто-то уже отметил, поддержка RBD в Qemu стабильна с версии 0.13.1. Да, ceph-бэкенд еще развивается, но если бы PVE «поддерживал» его (для продвинутых пользователей, только через командную строку; «поддержка» в смысле «включить», а не «коммерческая поддержка»), ceph мог бы получить скачок по популярности, что привело бы к большей стабильности!
     
     
     
    hverbeek
    Guest
    #12
    0
    21.05.2012 14:00:00
    Мне показалось, что создавать кластер довольно просто. Но что ты имеешь в виду под «модулем хранения»?
     
     
     
    mlanner
    Guest
    #13
    0
    21.05.2012 23:04:00
    Спасибо, hverbeek, за информацию. Это почти то, что я и думал. К сожалению, я не в Германии. :S Придется проверить на моём тестовом кластере. Правда, моя текущая конфигурация собрана напрямую с Proxmox ISO.
     
     
     
    dietmar
    Guest
    #14
    0
    22.05.2012 05:51:00
    В данный момент я пытаюсь упростить код библиотеки хранения (разбиваю код на отдельные файлы).
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры