Всем привет, обращаюсь за помощью к сообществу по поводу образовательного проекта, который я готовлю. Описание: я создаю учебный симулятор по кибербезопасности, это виртуальная среда, где студенты могут отрабатывать различные навыки безопасности, особенно интересно будет заниматься атакой и защитой. Короче говоря, мне нужно быстро запускать от 10 до 50 связанных клонов одновременно. Эти клоны имеют разные базовые шаблоны, либо Linux, либо Windows. Виртуальные машины обычно живут недолго, от нескольких часов до нескольких дней. Рассматриваемая мной конфигурация хоста выглядит следующим образом: Конфигурация хоста (3-5 хостов, в зависимости от цены, которую я получу от поставщика оборудования): - ЦП: 1 x AMD Epyc 7542 (32c/64t) - ОЗУ: 1TB - хранилище: - 2 x M2 RAID1 для ОС - 8-10 x 1 TB SSD SATA-3 дисков в JBOD/HBA/IT режиме для Ceph OSD - сеть: - 2 x 10/25 Gbps NIC для репликации Ceph - 2 x 10/25 Gbps NIC для трафика ВМ Что касается сетевого оборудования, я думаю использовать 2 x 10/25 Gbps коммутатора, вероятно, Cisco Nexus, но готов рассмотреть и других производителей. Теперь к вопросам: 1. Я подумываю создать гиперконвергентный кластер CEPH из всех этих коробок. По опыту других, это осуществимо? Учтите, что это не «продакшн» ВМ, поэтому небольшая потеря в производительности приемлема. 2. Поскольку бюджет всегда ограничен, я выступаю за большее количество узлов (с меньшим объемом ОЗУ и/или меньшим количеством SSD и/или меньшей емкостью SSD), чем за 3 больших, как с точки зрения CEPH, так и с учетом того, что нагрузка будет распределяться между несколькими узлами. Это хорошая идея? 3. Есть ли какие-то ограничения на количество ВМ, которые я могу запустить одновременно? Я проводил тестирование с маленьким 3-узловым кластером и иногда получал ошибку `TASK ERROR: clone failed: cfs-lock 'storage-vm-storage' error: got lock request timeout`, но, используя возможности повторной попытки Ansible, я смог это обойти. Тем не менее, мне бы хотелось узнать по опыту других, есть ли здесь ограничения. 4. На последних порах, когда я удаляю ВМ, их облачные диски cloud-init иногда остаются «незамеченными» на хранилище CEPH, но я заметил это только при удалении 20-30 ВМ сразу. Для обоих пунктов (3) и (4) я использую Proxmox VE 7.4-16. Заранее спасибо!
Proxmox небольшие/средние вопросы по гиперконвергентным кластерам, Proxmox Виртуальная Среда
|
19.07.2023 15:01:00
|
|
|
|
|
|
06.08.2023 11:42:00
@floh8, спасибо за отзыв, я обязательно буду держать всех в курсе своего прогресса, если кто-то подумает о похожем решении.
|
|
|
|
|
|
10.09.2023 18:20:00
Первоначально мы думали о кластерной модели смешанного использования. Также посмотрите мой комментарий о HDD для пулов и SSD для WAL и БД. Это будет хорошей идеей?
|
|
|
|
|
Читают тему
