Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    glusterfs руководство

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    glusterfs руководство, Proxmox Виртуальная Среда
     
    mir
    Guest
    #1
    0
    01.10.2013 22:37:00
    Всем привет! Если кто-то хочет поэкспериментировать с созданием хранилища на базе glusterfs, то на howtoforge.com только что опубликован подробный гайд: http://www.howtoforge.com/high-avai...replication-mirror-across-two-storage-servers
     
     
     
    jinjer
    Guest
    #2
    0
    23.10.2013 19:18:00
    По какой причине вы выбрали Ceph? Это было связано с производительностью или функционалом, или же просто из-за неправильного представления, что Gluster может работать только на двух узлах?
     
     
     
    wahmed
    Guest
    #3
    0
    23.10.2013 20:34:00
    Производительность точно не была проблемой. Я просто не дошёл до этапа серьёзного тестирования быстродействия. Вероятно, главной причиной была путаница с проблемой Gluster на 2 узлах, но сейчас я рад, что так получилось. Если я всё правильно понимаю, то CEPH гораздо гибче в кластерной среде.

    #1 — могу в любой момент запустить мониторинг состояния и проверить, как работает весь кластер хранения.  
    #2 — мне не нужно переживать из-за потери нескольких HDD или даже целого узла и того, что из-за этого упадёт весь кластер.  
    #3 — нравится, как CEPH использует все HDD, максимально задействуя доступное пространство.  
    #4 — легко масштабируется на несколько узлов.  

    Возможно, у Gluster есть что-то похожее, но я не в курсе. Пытаюсь протестировать Gluster, но сталкиваюсь с трудностями в совместной работе с Proxmox. Определённо проблема с моей стороны.  

    Отправлено с моего ASUS Transformer Pad TF700T через Tapatalk
     
     
     
    jinjer
    Guest
    #4
    0
    24.10.2013 11:15:00
    symmcom, я понимаю, откуда ты исходишь. В версии 3.4 тоже многое изменилось, и меня это надолго отпугнуло, пока я не начал пользоваться «новыми командами». У меня нет опыта с ceph. Сейчас пытаюсь понять, как лучше действовать, прежде чем соберу тестовый кластер. Обычно мои «кластеры» состоят максимум из 3–4 узлов. С тех пор как zfsonlinux объявили «стабильным», я передаю управление томами и шарингом zfs и строю все остальное на этом (либо общий хранилище через gluster, либо обычные локальные каталоги для всего прочего). Этот подход отлично работает для резервных копий вне сайта через zfs send/receive.

    На одном из объектов у меня есть KVM-машины, которые запускаются на нативном zfs, экспортированном через nfs с хоста на Solaris. Поскольку это становится узким местом по производительности и еще и единичной точкой отказа, я задумываюсь, не лучше ли перейти на gluster или ceph.
     
     
     
    deludi
    Guest
    #5
    0
    24.10.2013 11:22:00
    Привет, меня тоже интересует либо zfsonlinux + gluster, либо zfsonlinux + ceph. Видел скринкаст про оба, в котором говорилось, что gluster более продвинут в оптимизациях по сравнению с ceph. С уважением, Dirk Adamsky
     
     
     
    mir
    Guest
    #6
    0
    24.10.2013 12:07:00
    По моему мнению, ZFS поверх ceph или gluster — это катастрофа, которая рано или поздно случится.
     
     
     
    jinjer
    Guest
    #7
    0
    24.10.2013 12:50:00
    Добро пожаловать на борт. С Ceph ситуация такая: его часто называют «землей обетованной будущего». Но все тесты производительности, которые я видел, не учитывают настоящий кластер с несколькими подключенными узлами, на которых идёт реальная нагрузка. Там всегда только один OSD работает с одним клиентом и некоторой параллельностью. Честно говоря, я понятия не имею, как оно себя поведёт в реальных условиях (и, думаю, именно поэтому Symcomm проводит внутреннее бетатестирование и замеры с реальными пользователями). Ещё ZFSonLinux может быть не идеальным вариантом для Ceph. Все тесты сейчас сосредоточены на сравнении ext4, btrfs и xfs. Что касается RBD (который, как я понимаю, Proxmox использует именно так), то общее мнение такое: либо btrfs, либо xfs подойдут, но предпочтительнее xfs.
     
     
     
    jinjer
    Guest
    #8
    0
    24.10.2013 12:51:00
    Мне кажется, он говорит наоборот: ceph поверх zfs.
     
     
     
    wahmed
    Guest
    #9
    0
    24.10.2013 16:01:00
    Не могу не согласиться. ZFS на Ceph/Gluster или Ceph/Gluster на ZFS добавляют слишком много уровней, чтобы их можно было использовать в реальной среде. Это всё отдельные технологии с собственными задачами, и их лучше оставить как есть. Но смешивать Ceph, Gluster и ZFS — нет никакого смысла. Да, у CEPH не самая лучшая производительность ввода-вывода в мире, но у него есть преимущества в виде избыточности и простоты настройки и мониторинга. Я бы не называл это "землей обетованной" будущего, потому что каждая из этих технологий подходит для своих конкретных случаев. Универсального решения не существует. В реальной корпоративной среде я всегда выберу нулевой простой вместо безумной производительности I/O. Если какая-то виртуальная машина требует бешеной скорости, я всегда могу разместить её на SSD в CEPH и получить супербыстрый ввод-вывод. Так что в этом смысле CEPH даёт лучшее из обоих миров — и избыточность, и скорость в одном кластере. CEPH Pools позволяют создавать многоуровневое хранение для разных категорий клиентов. Менее чем за 6 секунд я могу увидеть производительность и состояние всего CEPH-кластера. Да, эти 6 секунд засеканы секундомером. Для администратора — это настоящее благословение земли обетованной. Отправлено с моего ASUS Transformer Pad TF700T через Tapatalk.
     
     
     
    jinjer
    Guest
    #10
    0
    24.10.2013 18:35:00
    symmcom, не поделитесь, на каком оборудовании у вас работает кластер? Спасибо.
     
     
     
    wahmed
    Guest
    #11
    0
    24.10.2013 20:07:00
    jinjer, железо такое же, как ты уже видел в посте про большие файлы ceph. Настройка Gluster сделана только на одном узле. Так как я просто хочу протестировать производительность proxmox с gluster, настроен только один узел. Отправлено с моего ASUS Transformer Pad TF700T через Tapatalk
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры