Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Ищу правильную настройку (аппаратное обеспечение и программное обеспечение).

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Ищу правильную настройку (аппаратное обеспечение и программное обеспечение)., Proxmox Виртуальная Среда
     
    raffael
    Guest
    #1
    0
    10.05.2017 13:08:00
    Привет! Я собираюсь перестроить серверную инфраструктуру нашей компании и хотел бы получить рекомендации, в каком направлении двигаться. Главная цель — устранить единственные точки отказа. Что работает в инфраструктуре: Критическое: Samba Domain Controller (около 40 пользователей с данными приложений на общих ресурсах) Samba ресурсы (1,5 ТБ занято) Служба индексации/поиска файлов Почтовый сервер (Linux, 500 ГБ занимаемого места) Групповое программное обеспечение (Linux) Jabber сервер Веб-серверы (сайты компании/проектов) MySQL сервер (без тяжелых нагрузок) DNS сервер Ldap сервер Брандмауэр (ipfire) ArchiCAD Bim сервер (Windows, большие файлы, 200 ГБ занято) JEE сервер приложений (Linux) Виртуальная машина для удаленного доступа к Windows Не так критично (можно установить на старом оборудовании): Owncloud (100 ГБ в использовании) Сервер сборки Java. Прокси-репозиторий Maven (100 ГБ в использовании) Периоды обслуживания в выходные/ночное время — не большая проблема. Если, например, Samba ресурсы или почтовые серверы будут недоступны в течение часа (или даже получаса) дважды в год из-за сбоя, это не страшно. Но если произойдет неплановый простой на несколько часов или дней, это огромная проблема. Сейчас я думаю о двух этих машинах: Supermicro 1028R-WTNRT Или этой: Supermicro TwinPro 2028TP-DNCTR И собрать кластер Proxmox HA с одной из старых машин или небольшой дополнительной. Каждый узел с 32/64 ГБ оперативной памяти. Каждый узел с одним 6/8-ядерным процессором 2,4 ГГц. Каждый узел будет иметь SSD Intel NVMe объемом 1,2 ТБ (или 2 ТБ) для системы, виртуальных машин и быстрого хранения (например, данные приложений пользователей). Для хранения я планирую установить около 4 дисков на узел, 2 ТБ SAS3 Seagate Enterprise Capacity 2.5 (7200 об/мин). Узлы будут напрямую соединены через 10 Гбит/с для синхронизации хранения, и каждый будет подключен к сети через другой порт 10 Гбит/с. Для дополнительных сетей (DMZ, WLAN, Интернет) я планирую установить дополнительную 4-портовую 1 Гбит/с карту. Моя самая большая область неуверенности — это система хранения (и синхронизация). Первоначально я подумал использовать drbd поверх lvm поверх raid, но после изучения этого форума и некоторых других ресурсов я не уверен, что Proxmox и drbd будут хорошо работать вместе в будущем. Ceph кажется интересным (также чтобы больше узнать об этом), но я чувствую, что это чрезмерно для моих нужд, и мне потребуется еще один узел и коммутатор на 10 Гбит/с. И что я прочитал, так это то, что даже с 3 узлами у Ceph слишком много накладных расходов и он больше подходит для отдельных сетей хранения. Я начинаю читать о GlusterFS, но пока не знаю о нем много. Есть еще другие вопросы: Стоит ли использовать исключительно SSD? Станет ли это намного быстрее или просто будет стоить значительно дороже? Действительно ли хорошая идея запускать виртуальные машины брандмауэра, DMZ и основные сетевые виртуальные машины на одних и тех же хостах? Хорошо ли использовать контейнеры LXC для служб DMZ или лучше использовать KVM виртуальные машины? Следует ли заполнять все слоты для процессоров, или ядра просто будут без дела? Я упускаю что-то супер важное? Буду благодарен за любые советы и подсказки. Извините, я хотел вставить ссылки на аппаратные компоненты, но пока не могу этого сделать.
     
     
     
    Magneto
    Guest
    #2
    0
    06.08.2017 20:54:00
    /следую с интересом.
     
     
     
    tom
    Guest
    #3
    0
    06.08.2017 20:56:00
    Пожалуйста, прекратите заполнять форум бесполезными сообщениями без содержания.
     
     
     
    Magneto
    Guest
    #4
    0
    06.08.2017 21:57:00
    Это не бесполезно. Я на самом деле слежу за этим с интересом. Мой ответ просто поднял тему, так что надеюсь, кто-то сможет дать ответ.
     
     
     
    tom
    Guest
    #5
    0
    06.08.2017 22:12:00
    вы можете следить за темой, не публикуя ее снова и снова, пожалуйста, прекратите эти сообщения.
     
     
     
    Magneto
    Guest
    #6
    0
    06.08.2017 22:16:00
    ХОРОШО. Я остановлюсь. Эти посты останутся без ответа и будут скрыты.
     
     
     
    guletz
    Guest
    #7
    0
    07.08.2017 11:12:00
    Привет! Для высокой доступности (HA) тебе нужна кластерная файловая система (FS), и минимум 3 узла. Для FS ты можешь использовать NFS, gluster или ceph, как ты и упомянул. Нужно подумать, как твоя настройка будет масштабироваться в ближайшем будущем (1-2 года). DRDB - это вариант, но он сложный. Возможно, стоит попробовать NFS. В этом случае ты можешь рассмотреть такие варианты: 1. использовать glusterfs (в качестве зеркала между 2 узлами) - затем на glusterfs включить NFS-сервер 2. на каждом из твоих 2 микросерверов использовать AoE (ata over ethernet) - на одном из микросерверов создать зеркало. Это зеркало будет использоваться NFS. Затем тебе нужно будет использовать ucarp (кластерный IP), который будет обслуживать NFS-сервер и VIP для любого контейнера proxmox/kvm-гостя. Если основной узел ucarp выйдет из строя, VIP ucarp перейдет на второй микросервер, после чего он запустит NFS-сервер. Этот процесс займет около 2-6 секунд. Затем гости proxmox будут запущены на этом узле. Gluster легко настраивать, но он не такой быстрый. Второй вариант будет лучше с точки зрения производительности.
     
     
     
    hec
    Guest
    #8
    0
    07.08.2017 14:03:00
    Почему бы не купить подержанный NetApp? Тогда ты просто используешь NFS и получаешь высокую доступность без каких-либо проблем. Ты также сэкономишь место благодаря сжатию и дедупликации. Ты можешь запускать CIFS напрямую на NetApp.
     
     
     
    mac.linux.free
    Guest
    #9
    0
    07.08.2017 14:46:00
    Привет, у меня тоже похожая конфигурация с ArchiCAD и BIM4U на хосте Proxmox. Можешь сказать, какую службу индексирования файлов ты используешь? После этого я выложу аппаратную конфигурацию, которую использую для своего клиента. Спасибо, Мак.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры