Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Запустить VM без включения всех узлов.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Запустить VM без включения всех узлов., Proxmox Виртуальная Среда
     
    Dolait Lu
    Guest
    #1
    0
    20.05.2019 04:44:00
    Привет! Недавно развернул кластер Proxmox с 6 нодами для нашего офиса. Заметил, что чтобы запустить VM, приходится включать все 6 нод, иначе Proxmox начинает жаловаться на отсутствие кворума и VM не запустится. Вопрос простой: можно ли запустить VM на ноде 1, если остальные ноды выключены?
     
     
     
    carlosericel
    Guest
    #2
    0
    23.10.2022 18:22:00
    Запустил pvecm expected 1, а остальные ноды были без питания… Подскажите, есть ли таблица, в которой можно посмотреть, сколько нод должно быть в каждом случае? Спасибо.
     
     
     
    verulian
    Guest
    #3
    0
    19.11.2019 23:17:00
    Для тех из нас, кто использует Proxmox для dev-окружений и небольших офисов, не могли бы вы добавить возможность устанавливать кворум постоянно на 1 в конфигурации из двух серверов? Даже простой веб-интерфейс для этой настройки был бы полезен. Знание об этом сэкономило бы мне больше часа головной боли сегодня...
     
     
     
    dietmar
    Guest
    #4
    0
    20.11.2019 06:17:00
    Серверу можно отдать больше одного голоса. Так у вас всегда будет кворум, если сервер в сети.
     
     
     
    verulian
    Guest
    #5
    0
    20.11.2019 06:21:00
    О, правда? Интересно. Может быть, немного странно, но должно сработать. Как это делается?
     
     
     
    oguz
    Guest
    #6
    0
    21.11.2019 18:30:00
    Ты также можешь настроить схему с 2+1 узлом с qdevice[0] [0]: https://pve.proxmox.com/pve-docs/chapter-pvecm.html#_corosync_external_vote_support
     
     
     
    verulian
    Guest
    #7
    0
    05.12.2019 06:47:00
    @oguz, это то, о чем говорит @dietmar, или что-то другое? Как ты вроде бы намекаешь? Первый вариант кажется более простым или чистым решением…
     
     
     
    oguz
    Guest
    #8
    0
    09.12.2019 13:28:00
    Нет, другие конфигурации. @dietmar предложил просто дать одному из узлов дополнительный голос. Таким образом, если у вас 2 узла и онлайн узел с высоким голосом, то кворум кластера сохранится. Недостаток такой настройки в том, что при необходимости, например, для обслуживания узла с высоким голосом, вам придется вернуть голоса обратно, дать дополнительный голос другому узлу и тогда вы сможете его отключить. С настройкой qdevice вы добавляете третью машину в конфигурацию, но она не входит в сам кластер, а выступает в роли наблюдателя. Таким образом, у вас есть дополнительный голос, и вам не придется беспокоиться о том, чтобы давать узлам дополнительные голоса для поддержания кворума. Читайте ссылку, которую я отправил, для получения более подробной информации.
     
     
     
    bgabika
    Guest
    #9
    0
    16.11.2020 19:57:00
    Уважаемые участники, уважаемые сотрудники!

    Мне пришлось проверить процедуру восстановления после сбоя на кластере из 3 узлов (pve1, pve2, pve3) с Ceph (RBD storage). Все работает нормально, если выходит из строя один узел, кластер работает как ожидалось. Хотел протестировать запуск ВМ на отдельном узле без кластера. Вот мое решение:

    1.  Все узлы онлайн, ВМ работают на pve2.
    2.  Я отключаю сетевые кабели от pve2 и pve3, только pve1 доступен в сети.
    3.  pve1 автоматически перезагружается.
    4.  Я подключаюсь к pve1 через ssh и запускаю `pvecm expected 1`... основываясь на этой записи на форуме: "Можно временно уменьшить ожидаемое количество голосов: # pvecm expected <количество_узлов_онлайн> Но делайте это только в том случае, если уверены, что остальные узлы действительно отключены."
    5.  Я переношу файлы настроек ВМ из `/etc/pve/nodes/pve2/qemu-server` в `/etc/pve/nodes/pve1/qemu-server`.
    6.  ВМ видны в веб-интерфейсе на pve1, их статус – выключен.
    7.  Пытаюсь запустить ВМ с помощью кнопки «Запуск», но индикатор процесса просто вращается.

    Вот детали журнала:

    `journalctl -f`

    ```
    Nov 16 19:28:34 pve1 pvestatd[1543]: status update time (5.309 seconds)
    Nov 16 19:28:38 pve1 ceph-mon[1451]: 2020-11-16 19:28:38.333 7f6ff1591700 -1 mon.pve1@0(probing) e3 get_health_metrics reporting 2 slow ops, oldest is auth(proto 0 73 bytes epoch 0)
    Nov 16 19:28:39 pve1 pvedaemon[1564]: <root@pam> successful auth for user 'root@pam'
    Nov 16 19:28:43 pve1 pvestatd[1543]: got timeout
    Nov 16 19:28:43 pve1 ceph-mon[1451]: 2020-11-16 19:28:43.337 7f6ff1591700 -1 mon.pve1@0(probing) e3 get_health_metrics reporting 2 slow ops, oldest is auth(proto 0 73 bytes epoch 0)
    Nov 16 19:28:43 pve1 pvestatd[1543]: status update time (5.332 seconds)
    Nov 16 19:28:48 pve1 ceph-mon[1451]: 2020-11-16 19:28:48.337 7f6ff1591700 -1 mon.pve1@0(probing) e3 get_health_metrics reporting 2 slow ops, oldest is auth(proto 0 73 bytes epoch 0)
    Nov 16 19:28:53 pve1 ceph-mon[1451]: 2020-11-16 19:28:53.337 7f6ff1591700 -1 mon.pve1@0(probing) e3 get_health_metrics reporting 2 slow ops, oldest is auth(proto 0 73 bytes epoch 0)
    Nov 16 19:28:53 pve1 pvestatd[1543]: got timeout
    Nov 16 19:28:53 pve1 pvestatd[1543]: status update time (5.316 seconds)
    Nov 16 19:28:58 pve1 ceph-mon[1451]: 2020-11-16 19:28:58.337 7f6ff1591700 -1 mon.pve1@0(probing) e3 get_health_metrics reporting 2 slow ops, oldest is auth(proto 0 73 bytes epoch 0)
    Nov 16 19:29:00 pve1 systemd[1]: Starting Proxmox VE replication runner...
    Nov 16 19:29:00 pve1 systemd[1]: pvesr.service: Succeeded.
    Nov 16 19:29:00 pve1 systemd[1]: Started Proxmox VE replication runner.
    Nov 16 19:29:03 pve1 ceph-mon[1451]: 2020-11-16 19:29:03.337 7f6ff1591700 -1 mon.pve1@0(probing) e3 get_health_metrics reporting 2 slow ops, oldest is auth(proto 0 73 bytes epoch 0)
    Nov 16 19:29:04 pve1 pvestatd[1543]: got timeout
    Nov 16 19:29:04 pve1 pvestatd[1543]: status update time (5.321 seconds)
    Nov 16 19:29:08 pve1 ceph-mon[1451]: 2020-11-16 19:29:08.337 7f6ff1591700 -1 mon.pve1@0(probing) e3 get_health_metrics reporting 2 slow ops, oldest is auth(proto 0 73 bytes epoch 0)
    Nov 16 19:29:13 pve1 ceph-mon[1451]: 2020-11-16 19:29:13.337 7f6ff1591700 -1 mon.pve1@0(probing) e3 get_health_metrics reporting 2 slow ops, oldest is auth(proto 0 73 bytes epoch 0)
    ```

    Какой правильный способ запустить ВМ на отдельном узле?

    Спасибо!
     
     
     
    fiona
    Guest
    #10
    0
    24.10.2022 09:51:00
    Привет! Чтобы кворум был достигнут, кластеру нужно больше половины голосов, то есть ((#nodes + 1) / 2, округленное в большую сторону). По умолчанию каждый узел имеет один голос, и обычно это не стоит менять. Если у вас чётное количество узлов, использование QDevice для поддержки голосования имеет смысл. Пожалуйста, будьте осторожны с такими вещами, как pvecm expected 1 – это задумано как крайняя мера.
     
     
     
    Malvin
    Guest
    #11
    0
    08.04.2024 10:17:00
    Спасибо!
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры