Я очень запутался, как это заставить работать. Я прочитал слишком много разных инструкций в интернете, вот что я сделал, я знаю, что где-то накосячил…
1. Установил ceph-common на клиенте.
2. Скопировал admin keyring с /etc/ceph на хосте pve в /etc/ceph на клиенте.
3. Скопировал ceph.conf с /etc/pve/ceph на хосте pve в /etc/ceph на клиенте.
4. Создал новый клиентский keyring на pve командой root@pve1:/etc/pve/ceph# ceph auth get-or-create client.docker01 mon 'allow r' osd 'allow rwx pool=docker' -o /etc/pve/ceph/ceph.client.docker01.keyring.
5. Скопировал это на клиент в /etc/ceph.
6. На клиенте выполнил sudo ceph -s (это должно проверять связь и конфигурацию). sudo ceph -s просто виснет (на самом деле любая команда кажется зависающей). Я еще не пробовал редактировать fstab, так как, как мне кажется, сначала нужно, чтобы ceph -s заработал.
В чем моя ошибка?
Вот мой ceph.conf, мой Ceph кластер в порядке, и да, клиент может пинговать mon по IPv6 (sudo ceph ping тоже не работает).
```
[global]
auth_client_required = cephx
auth_cluster_required = cephx
auth_service_required = cephx
cluster_network = fc00::/64
fsid = 5e55fd50-d135-413d-bffe-9d0fae0ef5fa
mon_allow_pool_delete = true
mon_host = fc00::83 fc00::82 fc00::81
ms_bind_ipv4 = false
ms_bind_ipv6 = true
osd_pool_default_min_size = 2
osd_pool_default_size = 3
public_network = fc00::/64
[mds.pve1]
host = pve1
mds_standby_for_name = pve
[mds.pve1-1]
host = pve1
mds_standby_for_name = pve
[mds.pve2]
host = pve2
mds_standby_for_name = pve
[mds.pve2-1]
host = pve2
mds_standby_for_name = pve
[mds.pve3]
host = pve3
mds_standby_for_name = pve
[mds.pve3-1]
host = pve3
mds_standby_for_name = pve
[mon.pve1-IPv6]
public_addr = fc00::81
[mon.pve2-IPv6]
public_addr = fc00::82
[mon.pve3-IPv6]
public_addr = fc00::83
```
1. Установил ceph-common на клиенте.
2. Скопировал admin keyring с /etc/ceph на хосте pve в /etc/ceph на клиенте.
3. Скопировал ceph.conf с /etc/pve/ceph на хосте pve в /etc/ceph на клиенте.
4. Создал новый клиентский keyring на pve командой root@pve1:/etc/pve/ceph# ceph auth get-or-create client.docker01 mon 'allow r' osd 'allow rwx pool=docker' -o /etc/pve/ceph/ceph.client.docker01.keyring.
5. Скопировал это на клиент в /etc/ceph.
6. На клиенте выполнил sudo ceph -s (это должно проверять связь и конфигурацию). sudo ceph -s просто виснет (на самом деле любая команда кажется зависающей). Я еще не пробовал редактировать fstab, так как, как мне кажется, сначала нужно, чтобы ceph -s заработал.
В чем моя ошибка?
Вот мой ceph.conf, мой Ceph кластер в порядке, и да, клиент может пинговать mon по IPv6 (sudo ceph ping тоже не работает).
```
[global]
auth_client_required = cephx
auth_cluster_required = cephx
auth_service_required = cephx
cluster_network = fc00::/64
fsid = 5e55fd50-d135-413d-bffe-9d0fae0ef5fa
mon_allow_pool_delete = true
mon_host = fc00::83 fc00::82 fc00::81
ms_bind_ipv4 = false
ms_bind_ipv6 = true
osd_pool_default_min_size = 2
osd_pool_default_size = 3
public_network = fc00::/64
[mds.pve1]
host = pve1
mds_standby_for_name = pve
[mds.pve1-1]
host = pve1
mds_standby_for_name = pve
[mds.pve2]
host = pve2
mds_standby_for_name = pve
[mds.pve2-1]
host = pve2
mds_standby_for_name = pve
[mds.pve3]
host = pve3
mds_standby_for_name = pve
[mds.pve3-1]
host = pve3
mds_standby_for_name = pve
[mon.pve1-IPv6]
public_addr = fc00::81
[mon.pve2-IPv6]
public_addr = fc00::82
[mon.pve3-IPv6]
public_addr = fc00::83
```
