Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    "Ожидание кворума" в Proxmox VE 4.0 Beta 2

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    "Ожидание кворума" в Proxmox VE 4.0 Beta 2, Proxmox Виртуальная Среда
     
    Nemesis11
    Guest
    #1
    0
    12.09.2015 03:13:00
    Привет. Я из небольшой компании в Португалии. Мы используем Proxmox VE 3.4 в продакшене с 3 сообщественными лицензиями, подключёнными к резервным NFS-серверам. Мы очень довольны proxmox. Сейчас думаем перейти на 4 разных сервера с Proxmox 4 и Ceph.

    У меня есть Windows-ПК с AMD-четырёхядерным процессором, 16 ГБ оперативной памяти и SSD для тестирования Proxmox 4 и Ceph. Использую Vmware Workstation 12.0 с вложенной виртуализацией. Тестировал Beta 1. Создал кластер, всё прошло отлично. Но в Beta 1 нет пакетов ceph, поэтому я дождался Beta 2.

    Сделал чистую установку Beta 2. Четыре ноды в vmware workstation, каждая с 2.5 ГБ ОЗУ, 2 загрузочных диска в ZFS Raid 1 и 6 дисков для Ceph. С точки зрения ПО сделал apt-get update && apt-get upgrade на всех четырёх узлах и установил open-vm-tools на все четыре ноды. Всё шло отлично, пока не попытался присоединить второй узел к кластеру.

    Чтобы создать кластер, на первом узле выполнил:  
    pvecm create cluster

    А на втором узле —  
    pvecm add 192.168.10.221

    Второй узел вечно ждёт «waiting for quorum».  
    Команда:  
    pvecm status  
    показывает «Quorum: 2 Activity blocked».

    Кто-нибудь может помочь с этой проблемой? Я знаю, что продукты vmware с вложенной виртуализацией не поддерживаются для тестирования кластера Proxmox, но с Beta 1 такой проблемы не было, а это единственный способ, который у меня есть для тестирования Proxmox.

    Спасибо и извините за мой плохой английский.
     
     
     
    Nemesis11
    Guest
    #2
    0
    30.09.2015 17:26:00
    Привет. Я проверил на ядре 4.2.1-1, проблема та же самая. Паники ядра нет, но работает только односторонняя рассылка. Мультикаст внутри Vmware Workstation не работает, и, возможно, в других продуктах Vmware тоже. Спасибо.
     
     
     
    tom
    Guest
    #3
    0
    30.09.2015 17:42:00
    Один из моих тестовых кластеров 4.0 beta2 внутри VMware Workstation 11.1.2 build-2780323 (на Win7) работает. Сеть использует режим моста. Как тестируете мультикаст? С помощью omping. А какую именно версию VMware вы используете?
     
     
     
    Nemesis11
    Guest
    #4
    0
    01.10.2015 00:48:00
    Привет. Спасибо за ответ. Я использую Vmware Workstation 12.0.0 build-2985596 на Windows 10. Сначала я тестировал мультикаст с кластеризацией proxmox между 4 виртуальными машинами. С beta 1 и beta 2 на ядре 4.1 кластеризация работала нормально, и omping запускался без потерь пакетов при мультикасте.

    С beta 2 и тремя версиями ядра 4.2 кластеризация не работает, и omping с мультикастом не запускается. Работает только уникаст. На версии ядра 4.2.0-13 мультикаст сначала запускался нормально, но после 5-6 мультикаст пакетов Виртуальная Машина 1 вылетала и перезагружалась. Думаю, это был kernel panic или что-то похожее. С тех пор мультикаст пакеты с omping не работают, включая ядро 4.2.1-1. Если я загружаюсь с ядром 4.1, то всё работает.

    Я также использую сетевой мост. Пробовал эмуляцию сетевых карт e1000, e1000e, vmxnet3 и vlance — без результата. Уже не знаю, что делать. Еще раз спасибо.
     
     
     
    stefws
    Guest
    #5
    0
    01.10.2015 08:45:00
    Не вижу этого на реальном железе с beta 2, похоже:  
    root@n2:/# uname -a  
    Linux n2 4.2.0-1-pve #1 SMP Mon Sep 21 10:49:08 CEST 2015 x86_64 GNU/Linux  

    n1: unicast, xmt/rcv/%loss = 301/301/0%, min/avg/max/std-dev = 0.085/0.130/0.258/0.028  
    n1: multicast, xmt/rcv/%loss = 301/301/0%, min/avg/max/std-dev = 0.091/0.138/0.251/0.030
     
     
     
    kyob
    Guest
    #6
    0
    02.10.2015 05:43:00
    У меня такая же проблема с ядром 4.2 — multicast перестаёт работать. Я сделал так: Code: service networking restart, и multicast начинает работать, но через несколько секунд снова перестаёт. Так что мой кластер отлично сломался. Проблема возникает с BRIDGE (VMBR), при этом на ETH или BOND никаких проблем с multicast не заметил.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры