Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Проблема с живой миграцией.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Проблема с живой миграцией., Proxmox Виртуальная Среда
     
    HonorQ
    Guest
    #1
    0
    23.02.2022 12:38:00
    Привет. У меня проблема с задержкой IO во время живой миграции. Два узла — это серверы Supermicro 2U, соединенные по 10G, и версия proxmox 7.1-10. Сейчас первый узел находится на этапе тестирования без виртуальных машин. Он состоит из 40 процессоров Intel® Xeon® Silver 4114 @ 2.20GHz (2 сокета) с 187.58 GiB оперативной памяти. Оба узла имеют одинаковое хранилище zfs. Для тестирования на целевом машине я использую SSD-пул (3 диска по 512 ГБ от Intel). Когда я начинаю миграцию ВМ (2 диска по 100 ГБ) на пустой узел, это занимает 1:10:35 со средней скоростью 514 MiB/s (безопасно): {
    "lightbox_close": "Закрыть",
    "lightbox_next": "Далее",
    "lightbox_previous": "Назад",
    "lightbox_error": "Запрашиваемый контент не может быть загружен. Пожалуйста, попробуйте позже.",
    "lightbox_start_slideshow": "Начать слайд-шоу",
    "lightbox_stop_slideshow": "Остановить слайд-шоу",
    "lightbox_full_screen": "На весь экран",
    "lightbox_thumbnails": "Миниатюры",
    "lightbox_download": "Скачать",
    "lightbox_share": "Поделиться",
    "lightbox_zoom": "Увеличить",
    "lightbox_new_window": "Новое окно",
    "lightbox_toggle_sidebar": "Переключить боковую панель"
    } https://forum.proxmox.com/attachments/1645613534450-png.34543/?hash=e3fdd5cb04d2f7203dca52423b7a5da8 Во время миграции целевой узел получает очень большую среднюю нагрузку (~50) и задержку IO около 30%. Htop на этой машине показывает ту же нагрузку, но использование ЦП/ДИСКА скачет — несколько секунд нормально, затем на несколько секунд до ~80%. С пустым узлом особых проблем нет (иногда некоторые задачи на ВМ нужно перезапустить), но становится хуже, когда я начинаю миграцию второй ВМ на этот узел (такой же пул). Задержка IO и средняя нагрузка достигают аналогичных значений. Использование ЦП/ДИСКА тоже скачет от: до: Проблема возникает с другими ВМ на целевом узле. Некоторые задачи перестают работать, и syslog показывает ошибки ядра. Htop на ВМ не показывает никаких проблем — отсутствует использование ЦП/ДИСКА и почти 0 средней нагрузки. Через некоторое время и после нескольких ошибок ядра ВМ зависает с сообщением в консоли "Перезагрузка через 5 секунд". Я не знаю, где искать причину. В конфигурации я отключил безопасную миграцию — это дало мне более быструю передачу. У вас есть идеи, что может быть не так? Спасибо заранее.
     
     
     
    HonorQ
    Guest
    #2
    0
    26.04.2022 15:14:00
    Привет, проблема все еще существует, и я нашел ту же проблему здесь: https://forum.proxmox.com/threads/v...m-thin-with-discard-results-in-high-i-o.97647 К сожалению, я не нашел там решения этой проблемы. Кто-нибудь знает, есть ли возможность начать живую миграцию на узле назначения с использованием ionice или чего-то подобного, что остановило бы вред другому виртуальному машинам?
     
     
     
    LnxBil
    Guest
    #3
    0
    27.04.2022 10:45:00
    Если вы мигрируете через ssh, то одним из вариантов может быть управление трафиком и, соответственно, ограничение объема передаваемых данных. Однако проблема в том, что это займет ОЧЕНЬ много времени, и с стороны источника может произойти больше изменений, чем вы сможете передать через ваш туннель, в итоге вы останетесь ни с чем. Если это действительно так, то это баг. ZFS на стороне источника и назначения не должен обнулять диск, зволы создаются с нулями повсюду.
     
     
     
    HonorQ
    Guest
    #4
    0
    27.04.2022 11:36:00
    Я попытался ограничить пропускную способность даже на уровне аппаратуры (настроил другой интерфейс для выполнения живой миграции с аппаратными портами 100 Мбит/с). Это не помогло, потому что при обнулении диска сетевой трафик был не слишком высоким. Пока диск обнуляется, htop показывает максимальную загрузку записи на диск, что и вызывает проблему. Без "discard=on" всё работает прекрасно (сетевойtransfer начинается мгновенно).
     
     
     
    LnxBil
    Guest
    #5
    0
    27.04.2022 11:40:00
    Да, ты это написал. ZFS не требует обнуления, поэтому это не нужно делать для вновь созданного zvol (для существующих это другая история).
     
     
     
    HonorQ
    Guest
    #6
    0
    27.04.2022 11:45:00
    Итак, ты предлагаешь протестировать это на новосозданном zvol?
     
     
     
    HonorQ
    Guest
    #7
    0
    29.04.2022 12:02:00
    Недавно созданный zvol не решает эту проблему. Думаю, это не проблема с zfs.
     
     
     
    LnxBil
    Guest
    #8
    0
    29.04.2022 20:11:00
    Нет, PVE не должен обнулять вновь созданный zvol, потому что он уже полностью заполнен нулями. Это должно быть учтено в исходном коде.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры