Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Кластер над сетью с высокой задержкой?

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Кластер над сетью с высокой задержкой?, Proxmox Виртуальная Среда
     
    seteq
    Guest
    #1
    0
    15.12.2015 14:55:00
    Есть ли возможность добавить узлы promox из трех отдельных независимых дата-центров в один интерфейс веб-ги? Между дата-центрами только низкоскоростной высокозадерживающий ipsec-туннель. Нет необходимости делиться ресурсами или настраивать резервирование. Могу ли я использовать кластеризацию для этого или есть другой (лучший) способ? Спасибо.
     
     
     
    cot
    Guest
    #2
    0
    22.02.2016 05:18:00
    Интересная тема для обсуждения. Возможно ли настроить кластер через WAN — только для централизованного управления (один веб-интерфейс) и офлайн миграции виртуальных машин между узлами? Высокая доступность не требуется. В частности, поддерживает ли кластер Proxmox офлайн миграцию 'связанных клонов' между узлами, то есть перемещение связанных клона и базового образа с одного узла на другой, сохраняя при этом статус связанных клонов после миграции на новый узел?
     
     
     
    Q-wulf
    Guest
    #3
    0
    22.02.2016 12:03:00
    На работе у нас есть кластер с узлами в трех дата-центрах. У сети очень низкая задержка, так как это наш собственный оптоволоконный кабель и сетевое оборудование на всем протяжении. Дата-центры находятся на расстоянии меньше 10 км друг от друга. В 2013 году я запускал трехузловой кластер для проекта, используя серверы OVH. Один в Канаде, два во Франции, с резервным VPN-провайдером во Франкфурте. Время пинга через туннель составляло 120 мс. Это работало, но было медленно. Надеюсь, это поможет.
     
     
     
    cot
    Guest
    #4
    0
    22.02.2016 12:33:00
    Да, это помогает, спасибо. Если дело в высокой задержке, можно создать несколько наборов кластеров — по одному в каждом центре обработки данных для центрального управления? Есть идеи, поддерживает ли кластер миграцию связанных клонов в оффлайн-режиме?
     
     
     
    Stewart Flood
    Guest
    #5
    0
    21.08.2019 19:21:00
    Я несколько лет управляю кластером через L2TP/IPSEC VPN с интерфейсами управления/corosync в одной подсети по второму слою. Работало прекрасно — за исключением штормов или других сетевых сбоев между двумя площадками — до Proxmox v6. Кластер стал зависать, требуя перезапуска corosync на одном или нескольких узлах. Это происходит случайно. Иногда кластер работает целый день, иногда всего пять минут. Я проводил исследование, но так и не нашел рациональных инструкций, как уменьшить чувствительность по времени в corosync. Да, это должен быть кластер. Нет, я редко выполняю живую миграцию между площадками, но делал это. Площадка "A" находится на соединении 250Mb/250Mb, площадка "B" — на 1Gb/50Mb с другим провайдером. Время пинга обычно 35-40ms. В данный момент кластер состоит из трех хостов, всего 4 сокета/36 ядер, 256GB/48TB, работающих с 35-50 виртуальными машинами в зависимости от текущих задач. Я перезапускал corosync дважды, пока писал это сообщение. Время пинга сохранялось стабильным в течение всего времени. Единственное, что изменилось с начала проблемы — это обновление с версии 5 до 6.
     
     
     
    Progratron
    Guest
    #6
    0
    29.10.2019 17:04:00
    То же самое происходит и со мной с момента обновления до PVE 6. Иногда (хотя не так часто, как ты описываешь) я обнаруживаю, что мой кластер "сломался" из-за проблем с corosync. То, что я делаю на "отключённых" узлах, это просто: killall -9 corosync systemctl restart pve-cluster. После этого всё работает без сбоев. Похоже, что иногда сеть медленная или перегружена на (очень) короткий срок, и это ломает corosync, когда он работает через WAN-соединение. Что меня интересует, так это почему я должен перезагружать его, чтобы он снова синхронизировался? И да, есть ли параметры, которые мы можем изменить, чтобы сделать это менее чувствительным? У тебя есть опыт с того момента, как ты в последний раз об этом писал?
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры