Привет, у меня кластер Ceph на трех серверах Dell R330. Публичная сеть – 2x 1Gbps в агрегации (LACP), Ceph-сеть – 10Gbps SFP+. Сеть для vm/lxc/интернета – 10Gbps SFP+. Я настроил Ceph через графический интерфейс Proxmox, мой ceph.conf файл ниже:
```
[global]
auth_client_required = cephx
auth_cluster_required = cephx
auth_service_required = cephx
cluster_network = 10.41.41.41/24
fsid = 096444ae-b614-4430-8e12-01bbe4239a80
mon_allow_pool_delete = true
mon_host = 192.168.43.42 192.168.43.43 192.168.43.41
ms_bind_ipv4 = true
ms_bind_ipv6 = false
osd_pool_default_min_size = 2
osd_pool_default_size = 3
public_network = 192.168.43.41/24
[client]
keyring = /etc/pve/priv/$cluster.$name.keyring
[client.crash]
keyring = /etc/pve/ceph/$cluster.$name.keyring
[mon.pve01]
public_addr = 192.168.43.41
[mon.pve02]
public_addr = 192.168.43.42
[mon.pve03]
public_addr = 192.168.43.43
```
Интересно, правильно ли установлены `cluster_network` и `public_network`? Мне кажется, что для `cluster_network` должно быть 10.41.41.0/24, а для `public_network` – 192.168.43.0/24. А остальная конфигурация моего ceph.conf файла верна? Файл ceph.conf выглядит одинаково на каждом узле. Я также прилагаю файл с конфигурацией сетевых интерфейсов:
```
auto lo
iface lo inet loopback
iface enp2s0f0 inet manual
#Interface for vmbr0
auto eno1
iface eno1 inet manual
#Interface for bond0
auto eno2
iface eno2 inet manual
#Interface for bond0
auto enp2s0f1
iface enp2s0f1 inet static
address 10.41.41.41/24
#Interface для CEPH
auto bond0
iface bond0 inet static
address 192.168.43.41/24
bond-slaves eno1 eno2
bond-miimon 100
bond-mode 802.3ad
#bond0 для PUBLIC network
auto vmbr0
iface vmbr0 inet static
address 10.40.1.41/24
gateway 10.40.1.1
bridge-ports enp2s0f0
bridge-stp off
bridge-fd 0
#Main bridge
```
TIA!
```
[global]
auth_client_required = cephx
auth_cluster_required = cephx
auth_service_required = cephx
cluster_network = 10.41.41.41/24
fsid = 096444ae-b614-4430-8e12-01bbe4239a80
mon_allow_pool_delete = true
mon_host = 192.168.43.42 192.168.43.43 192.168.43.41
ms_bind_ipv4 = true
ms_bind_ipv6 = false
osd_pool_default_min_size = 2
osd_pool_default_size = 3
public_network = 192.168.43.41/24
[client]
keyring = /etc/pve/priv/$cluster.$name.keyring
[client.crash]
keyring = /etc/pve/ceph/$cluster.$name.keyring
[mon.pve01]
public_addr = 192.168.43.41
[mon.pve02]
public_addr = 192.168.43.42
[mon.pve03]
public_addr = 192.168.43.43
```
Интересно, правильно ли установлены `cluster_network` и `public_network`? Мне кажется, что для `cluster_network` должно быть 10.41.41.0/24, а для `public_network` – 192.168.43.0/24. А остальная конфигурация моего ceph.conf файла верна? Файл ceph.conf выглядит одинаково на каждом узле. Я также прилагаю файл с конфигурацией сетевых интерфейсов:
```
auto lo
iface lo inet loopback
iface enp2s0f0 inet manual
#Interface for vmbr0
auto eno1
iface eno1 inet manual
#Interface for bond0
auto eno2
iface eno2 inet manual
#Interface for bond0
auto enp2s0f1
iface enp2s0f1 inet static
address 10.41.41.41/24
#Interface для CEPH
auto bond0
iface bond0 inet static
address 192.168.43.41/24
bond-slaves eno1 eno2
bond-miimon 100
bond-mode 802.3ad
#bond0 для PUBLIC network
auto vmbr0
iface vmbr0 inet static
address 10.40.1.41/24
gateway 10.40.1.1
bridge-ports enp2s0f0
bridge-stp off
bridge-fd 0
#Main bridge
```
TIA!
