Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Рекомендации для 3-узлового кластера на существующем оборудовании

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Рекомендации для 3-узлового кластера на существующем оборудовании, Proxmox Виртуальная Среда
     
    IT Manager BIS
    Guest
    #1
    0
    25.04.2016 05:28:00
    Привет! У нас есть 3 идентичных сервера с такими характеристиками: Asus RS300-E8-PS4, Intel Xeon E3-1320v3, 16 Гб ОЗУ, 4 жестких диска SATA Enterprise по 2 ТБ, с аппаратным RAID LSI Logic / Symbios Logic MegaRAID SAS 2108 и 3 порта Ethernet 1 Гбит, объединенных для увеличения пропускной способности. Мы использовали их как очень простой кластер Proxmox VE 3.x, без распределенного хранилища, и он до сих пор отлично справляется с нашими задачами. Теперь мы планируем обновиться до Proxmox VE 4.1 и перенесли всю нагрузку на 2 узла, чтобы просто переустановить и начать с нуля по одному узлу за раз. Я ищу рекомендации по "лучшим практикам", "что бы вы сделали" и т.д. Я видел несколько обсуждений по поводу Ceph, DRBD9, ZFS синхронизации и т.д. для достижения живой миграции с только 3 узлами, но буду признателен за советы, чтобы понять, в каком направлении двигаться и начать исследование. Итак, коллеги-просимоксы, что бы вы сделали с нашим железом? Спасибо!
     
     
     
    alex purser
    Guest
    #2
    0
    21.01.2020 00:06:00
    Извините, но я не вижу текста, который нужно перевести. Пожалуйста, предоставьте текст для работы.
     
     
     
    alex purser
    Guest
    #3
    0
    21.01.2020 00:09:00
    Привет, Гоша! Не мог бы ты поделиться компонентами, которые ты использовал в своем DL380 G8? Я собираюсь использовать DL360 G8 и хочу подобрать правильный контроллер дисков. Не думаю, что P420i сможет работать в режиме HBA, поэтому мне нужна альтернативная карта HBA. Также будет здорово, если подскажешь рекомендуемую 10Gbs карту. Заранее спасибо, Алекс.
     
     
     
    damon1
    Guest
    #4
    0
    21.01.2020 03:08:00
    Привет, Алекс! Если ты хочешь посмотреть на 10 гигабайт, я обнаружил, что это не так дорого, как думал. Все зависит от того, какой 10ГБ коммутатор ты хочешь использовать. Я купил один из этих, так как он поддерживает оба кабеля (и стоит всего $850 за то, что ты получаешь) SFP+ — странный на вид, и стандартный RJ45. Цены указаны в австралийских долларах: QNAP QSW-1208-8C 10GbE 12-Port Unmanaged Switch для моей 4-нодовой установки. Я использую один 10ГБ порт для Ceph, а другой — для Proxmox, так что мне нужно минимум 8 портов. Один из других портов я использую для 10ГБ NAS для резервного копирования Proxmox, а другой — для подключения к другому компьютеру с Windows через 10ГБ. Он уже несколько лет в эксплуатации, так что, возможно, есть и лучшее, но он работает отлично. Однако за половину цены можно взять и 1ГБ, и 10ГБ коммутатор (4 порта) TP-Link JetStream T1700G-28TQ 24-Port Gigabit Smart Switch с 4 x 10Gb SFP+, затем покупаешь 10ГБ карты — как эти — они довольно недорогие, меньше $100 за карту, и большинство готовы поторговаться. Я купил 2 за $85.80 с доставкой. 15581201-B21 HP NC550SFP 586444-001 Двухпортовый 10GBE PCI-E СЕТЕВЫЙ АДАПТЕР или Dell Intel X540-T2 10GbE Двухпортовый Серверный Адаптер RJ45 X540T2 K7H46 Full Height. Кабели SFP+ тоже довольно дешевые — $20 за 3 метра или $15 за 1 метр SFP-H10GB-CU3M для Cisco, 10GBASE-CU SFP+ DAC, Twinax Copper Cable 3M SFP+ to SFP+ 1M/2M/3M 10Gbit Оптический Кабель с Прямым Подключением к Медь. Тебе все равно придется избавиться от кабеля CAT5 и перейти на CAT6a ($10 за 3 метра). Я ничего не знаю о контроллерах дисков и не использую их в наших системах, прямой SATA 3, похоже, отлично справляется с одним SSD и двумя HDD для Ceph на каждую коробку. Помни, Ceph не будет работать с массивами, управляемыми RAID. Не уверен, будет ли это иметь значение, поскольку сеть 1ГБ все равно будет узким местом. 10ГБ намного лучше. Вот мои скорости дисков с вышеупомянутым оборудованием и кабелями (cat6A и SFP+) Ceph работает как мечта. Если сервер выходит из строя, виртуальные машины быстро переходят на новый хост и перезагружаются (примерно за 2 минуты). Живая миграция — без проблем и очень быстро, меньше минуты. Если нужно отключить ноду, перенеси виртуальные машины на другие ноды (в реальном времени) и выключи эту ноду, добавь память, поменяй карты, убери пыль — подсоедини её обратно, когда все сделаешь, и включи. CEPH все перекалибрует (в основном) автоматически (это занимает время) без простоя. Я использую prox 6.1-5 (последнюю версию) и нахожу её довольно надежной, да, иногда что-то идет не так, и именно поэтому я здесь, чтобы задать вопрос, но я увидел твой и подумал, что смогу помочь. Спасибо, Дэймон.
     
     
     
    alex purser
    Guest
    #5
    0
    22.01.2020 10:55:00
    Спасибо, Дэймон, я посмотрю, ценю твою ответ, удачи, Алекс.
     
     
     
    jtracy
    Guest
    #6
    0
    22.01.2020 15:33:00
    Честно говоря, если вы не планируете развиваться, то можете подключить каждую ноду напрямую без необходимости в коммутаторе для CEPH. Вам нужны многопортовые карты 10G, а может, даже 25G или 40G, чтобы это работало. Вам нужно N-1 портов на карте, так что для кластера из 3 нод можно обойтись картой с 2 портами. Прочитайте этот пост в вики для получения дополнительной информации.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры