Здравствуйте, мне нужно настроить кластер с высокой доступностью из 3 узлов на базе Proxmox. При этом планируется использовать локальные диски на каждом узле для кластера Ceph. Я собираюсь использовать VE 4.2. Вопрос у меня в основном по поводу предпочтительного способа организации сети для этого.
У меня есть коммутатор Cisco SG300-52 третьего уровня, и я хочу настроить несколько VLAN как для Proxmox/Ceph, так и для виртуальных машин.
Пока мои мысли таковы — мне нужны отдельные сети для Proxmox/Ceph:
1. Управление Proxmox (2 NIC)
2. Кластерная связь Proxmox (2 NIC)
3. Репликация Ceph (6 NIC)
4. Все остальные VLAN для виртуальных машин (4 NIC)
Судя по всему, есть два подхода, когда люди создают гипервизоры и кластеры.
Первый — объединить все сетевые карты (NIC) в один бонд и на коммутаторе, и в Proxmox, а уже внутри OpenvSwitch разделять трафик по VLAN. При этом использовать какую-то систему управления пропускной способностью, чтобы контролировать, сколько ресурсов получает каждый VLAN или группа VLAN внутри OpenvSwitch.
Второй — создать отдельные linux-bond’ы для трёх VLAN Proxmox/Ceph, указанных выше, а для VLAN виртуальных машин использовать отдельный bond с OpenvSwitch.
Очевидно, что первый вариант даёт большую отказоустойчивость: можно потерять много сетевых карт — и система всё равно будет работать, пусть и с пониженной производительностью. Ранее я делал так в Hyper-V, но в OpenvSwitch я новичок, а с Proxmox до этого имел дело только на одном сервере без VLAN.
Второй вариант обеспечивает отказоустойчивость для управления и кластерной связи, но если вы потеряете обе NIC в каждом bond-е — останетесь без связи.
Буду признателен за мнения. Если у кого есть ссылки на инструкции по этой теме — очень прошу поделиться.
Большое спасибо!
У меня есть коммутатор Cisco SG300-52 третьего уровня, и я хочу настроить несколько VLAN как для Proxmox/Ceph, так и для виртуальных машин.
Пока мои мысли таковы — мне нужны отдельные сети для Proxmox/Ceph:
1. Управление Proxmox (2 NIC)
2. Кластерная связь Proxmox (2 NIC)
3. Репликация Ceph (6 NIC)
4. Все остальные VLAN для виртуальных машин (4 NIC)
Судя по всему, есть два подхода, когда люди создают гипервизоры и кластеры.
Первый — объединить все сетевые карты (NIC) в один бонд и на коммутаторе, и в Proxmox, а уже внутри OpenvSwitch разделять трафик по VLAN. При этом использовать какую-то систему управления пропускной способностью, чтобы контролировать, сколько ресурсов получает каждый VLAN или группа VLAN внутри OpenvSwitch.
Второй — создать отдельные linux-bond’ы для трёх VLAN Proxmox/Ceph, указанных выше, а для VLAN виртуальных машин использовать отдельный bond с OpenvSwitch.
Очевидно, что первый вариант даёт большую отказоустойчивость: можно потерять много сетевых карт — и система всё равно будет работать, пусть и с пониженной производительностью. Ранее я делал так в Hyper-V, но в OpenvSwitch я новичок, а с Proxmox до этого имел дело только на одном сервере без VLAN.
Второй вариант обеспечивает отказоустойчивость для управления и кластерной связи, но если вы потеряете обе NIC в каждом bond-е — останетесь без связи.
Буду признателен за мнения. Если у кого есть ссылки на инструкции по этой теме — очень прошу поделиться.
Большое спасибо!
