Привет всем, расскажу, как у меня был настроен Proxmox, или, по крайней мере, как он был настроен. У меня было два нода в кластере, которые я назвал PMOX. Все работало отлично, пока у меня не возникли проблемы с домашним роутером – долгая история, пришлось его заменить из-за физического дефекта. После этого, новый роутер успешно получил сервис (WAN) по DHCP и оказался в VLAN 50, как и было ожидаемо. Я тогда решил перенести мои два Proxmox нода на подсеть .1, а роутер остался на VLAN 50. С тех пор я натворил кучу проблем в своей среде.
Proxmox нод 1 (pvecm сломан): Я не могу ни пинговать IP управления, ни получать доступ к GUI Proxmox. С нода 2 я могу зайти по SSH, вот содержимое `/network/interfaces`:
```
auto lo
iface lo inet loopback
auto eno1
iface eno1 inet manual
auto eno2
iface eno2 inet manual
auto vmbr0
iface vmbr0 inet static
address 192.168.50.191/24
gateway 192.168.50.1
bridge-ports eno1
bridge-stp off
bridge-fd 0
bridge-vlan-aware yes
bridge-vids 2-4094
```
А вот содержимое `/etc/hosts`:
```
127.0.0.1 localhost.localdomain localhost
192.168.50.191 host host
# The following lines are desirable for IPv6 capable hosts
::1 ip6-localhost
ip6-loopback
fe00::0
ip6-localnet
ff00::0
ip6-mcastprefix
ff02::1
ip6-allnodes
ff02::2
ip6-allrouters
ff02::3
ip6-allhosts
```
Содержимое `/etc/network/interfaces` на Proxmox ноде 2 (pvecm выглядит исправным):
```
auto lo
iface lo inet loopback
iface enp2s0 inet manual
auto enp1s0f0
iface enp1s0f0 inet manual
auto enp1s0f1
iface enp1s0f1 inet manual
auto enp1s0f2
iface enp1s0f2 inet manual
auto enp1s0f3
iface enp1s0f3 inet manual
auto vmbr0
iface vmbr0 inet static
address 192.168.50.192/24
gateway 192.168.50.1
bridge-ports enp2s0
bridge-stp off
bridge-fd 0
bridge-vlan-aware yes
bridge-vids 2-4094
```
Содержимое `/etc/hosts`:
```
127.0.0.1 localhost.localdomain localhost
192.168.50.192 optiplex optiplex
# The following lines are desirable for IPv6 capable hosts
::1 ip6-localhost
ip6-loopback
fe00::0
ip6-localnet
ff00::0
ip6-mcastprefix
ff02::1
ip6-allnodes
ff02::2
ip6-allrouters
ff02::3
ip6-allhosts
```
Вот статус PVECM:
```
PVECM status - Can I add proxmox node 1 back to this cluster
Cluster information -------------------
Name: pmox
Config Version: 2
Transport: knet
Secure auth: on
Quorum information ------------------
Date: Tue Mar 18 20:04:35 2025
Quorum provider: corosync_votequorum
Nodes: 1
Node ID: 0x00000002
Ring ID: 2.f6
Quorate: Yes
Votequorum information ----------------------
Expected votes: 1
Highest expected: 1
Total votes: 1
Quorum: 1
Flags: Quorate
Membership information ----------------------
Nodeid Votes Name
0x00000002 1 192.168.1.192 (local)
```
Признаюсь, вчера я поколдовал с pvecm на Proxmox ноде 1, следуя этой теме и конкретно этому посту: [ >)
```bash
systemctl stop pve-cluster
corosync
pmxcfs -l
rm -r /etc/corosync/*
rm /etc/pve/corosync.conf
killall pmxcfs
systemctl start pve-cluster
```
В общем, мне нужно, чтобы первый нод снова работал, так как на нем находятся мои основные ВМ. Второй нод ничего ценного на себе не имеет – он был экспериментом, но в конечном итоге станет коробкой pfSense, как только я решу текущие проблемы.
Proxmox нод 1 (pvecm сломан): Я не могу ни пинговать IP управления, ни получать доступ к GUI Proxmox. С нода 2 я могу зайти по SSH, вот содержимое `/network/interfaces`:
```
auto lo
iface lo inet loopback
auto eno1
iface eno1 inet manual
auto eno2
iface eno2 inet manual
auto vmbr0
iface vmbr0 inet static
address 192.168.50.191/24
gateway 192.168.50.1
bridge-ports eno1
bridge-stp off
bridge-fd 0
bridge-vlan-aware yes
bridge-vids 2-4094
```
А вот содержимое `/etc/hosts`:
```
127.0.0.1 localhost.localdomain localhost
192.168.50.191 host host
# The following lines are desirable for IPv6 capable hosts
::1 ip6-localhost
ip6-loopback
fe00::0
ip6-localnet
ff00::0
ip6-mcastprefix
ff02::1
ip6-allnodes
ff02::2
ip6-allrouters
ff02::3
ip6-allhosts
```
Содержимое `/etc/network/interfaces` на Proxmox ноде 2 (pvecm выглядит исправным):
```
auto lo
iface lo inet loopback
iface enp2s0 inet manual
auto enp1s0f0
iface enp1s0f0 inet manual
auto enp1s0f1
iface enp1s0f1 inet manual
auto enp1s0f2
iface enp1s0f2 inet manual
auto enp1s0f3
iface enp1s0f3 inet manual
auto vmbr0
iface vmbr0 inet static
address 192.168.50.192/24
gateway 192.168.50.1
bridge-ports enp2s0
bridge-stp off
bridge-fd 0
bridge-vlan-aware yes
bridge-vids 2-4094
```
Содержимое `/etc/hosts`:
```
127.0.0.1 localhost.localdomain localhost
192.168.50.192 optiplex optiplex
# The following lines are desirable for IPv6 capable hosts
::1 ip6-localhost
ip6-loopback
fe00::0
ip6-localnet
ff00::0
ip6-mcastprefix
ff02::1
ip6-allnodes
ff02::2
ip6-allrouters
ff02::3
ip6-allhosts
```
Вот статус PVECM:
```
PVECM status - Can I add proxmox node 1 back to this cluster
Cluster information -------------------
Name: pmox
Config Version: 2
Transport: knet
Secure auth: on
Quorum information ------------------
Date: Tue Mar 18 20:04:35 2025
Quorum provider: corosync_votequorum
Nodes: 1
Node ID: 0x00000002
Ring ID: 2.f6
Quorate: Yes
Votequorum information ----------------------
Expected votes: 1
Highest expected: 1
Total votes: 1
Quorum: 1
Flags: Quorate
Membership information ----------------------
Nodeid Votes Name
0x00000002 1 192.168.1.192 (local)
```
Признаюсь, вчера я поколдовал с pvecm на Proxmox ноде 1, следуя этой теме и конкретно этому посту: [ >)
```bash
systemctl stop pve-cluster
corosync
pmxcfs -l
rm -r /etc/corosync/*
rm /etc/pve/corosync.conf
killall pmxcfs
systemctl start pve-cluster
```
В общем, мне нужно, чтобы первый нод снова работал, так как на нем находятся мои основные ВМ. Второй нод ничего ценного на себе не имеет – он был экспериментом, но в конечном итоге станет коробкой pfSense, как только я решу текущие проблемы.
