Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Включите MTU 9000 Jumbo Frames

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Включите MTU 9000 Jumbo Frames, Proxmox Виртуальная Среда
     
    Proxmoxgoogle
    Guest
    #1
    0
    08.05.2017 04:26:00
    Как включить джамбо-фреймы на интерфейсах Proxmox
     
     
     
    Percy
    Guest
    #2
    0
    04.02.2018 08:53:00
    Ничто из того, что здесь было опубликовано, не сработало для меня. Подозреваю, что причина в том, что ifconfig устарел в версии Debian, используемой в Proxmox VE5.1. Что сработало, так это добавление следующего в /etc/network/interface под мостом: ip link set dev eth0 mtu 9000 (eth0 — это название сетевого интерфейса, измените по необходимости).
     
     
     
    tjh
    Guest
    #3
    0
    15.02.2018 09:37:00
    @Percy: Можешь подтвердить, что полная команда на самом деле выглядит как pre-up ip link set dev eth0 mtu 9000? Спасибо!
     
     
     
    tjh
    Guest
    #4
    0
    15.02.2018 18:15:00
    Для устранения сомнений у всех, кто заинтересован в этой теме, вот полная команда, которую я использовал, выделенная синим. Обратите внимание, что я не использую команду "dev" в ip link, она кажется избыточной: iface vmbr1 inet manual bridge_ports enp1s0 bridge_stp off bridge_fd 0 pre-up ip link set <имя интерфейса> mtu 9000 Замените <имя интерфейса> на название вашего интерфейса. Для меня это enp1s0.
     
     
     
    ignaqui
    Guest
    #5
    0
    02.03.2018 19:27:00
    Мое мнение. Если у вас есть бонд (например, LACP) на верхнем уровне интерфейсов, вы можете использовать следующий синтаксис: pre-up ip link set eth0 mtu 9000 && ip link set eth1 mtu 9000 && ip link set bond0 mtu 9000 https://wiki.debian.org/NetworkConf...t1q.2C_802.1q.2C_trunk.29_.28Etch.2C_Lenny.29
     
     
     
    Percy
    Guest
    #6
    0
    16.09.2018 23:31:00
    Да, верно!
     
     
     
    Danesh Manoharan
    Guest
    #7
    0
    02.10.2018 16:14:00
    Сработало отлично. Спасибо.
     
     
     
    ejmerkel
    Guest
    #8
    0
    19.12.2019 22:59:00
    У меня есть следующая настройка LACP для объединения.
    auto bond2
    iface bond2 inet static
    address 172.16.4.252
    netmask 24
    bond-slaves enp130s0f0 enp130s0f1
    bond-miimon 100
    bond-mode 802.3ad
    pre-up ip link set enp130s0f0 mtu 9000 && ip link set enp130s0f1 mtu 9000 && ip link set bond2 mtu 9000

    # Настройка резервной сети
    Установка MTU согласно приведенному выше сообщению не работает, когда я использую pre-up, но работает, когда я использую post-up, как показано ниже. Есть ли какие-то проблемы с тем, чтобы делать это одним способом, а не другим?
    post-up ip link set enp130s0f0 mtu 9000 && ip link set enp130s0f1 mtu 9000 && ip link set bond2 mtu 9000

    Спасибо, Эрик
     
     
     
    spirit
    Guest
    #9
    0
    20.12.2019 16:13:00
    Привет, не понимаю, зачем пользователи хотят использовать pre-up, post-up... можно просто использовать Код: iface enp130s0f0 в ручном режиме
    ......
    mtu 9000

    iface bond2 inet static
        ....
    mtu 9000
     
     
     
    mls228
    Guest
    #10
    0
    02.12.2020 16:29:00
    Я поддерживаю это... Я использую mtu 9000 на каждом интерфейсе, и все отлично работает.
     
     
     
    robertut
    Guest
    #11
    0
    10.02.2023 13:29:00
    Просто быстрое замечание для тех, кто попал на эту страницу через поисковик. Включение jumbo frames действительно улучшает производительность, особенно в плане задержки и отзывчивости системы. В целом, использование управления интерфейсом и самих виртуальных машин становится более "шустрым" при настройке MTU на 9000. Моя конфигурация на момент написания: - кластер из 3 узлов с PVE 7.3-6, процессор i5-6600T и сетевые карты Intel I219-LM 1GBit - управляемый коммутатор TP-Link T2600G-28MPS, поддерживающий использование jumbo frames на выбранных портах - NAS Synology DS416play с включенными jumbo frames (MTU 9000) на 1GBit порту, участвующем в PVE сети (этот NAS предоставляет общий NFS-накопитель для узлов кластера) Конфигурация сети PVE для включения jumbo выглядит просто:
    iface eno1 inet manual
           mtu 9000

    auto vmbr0
    iface vmbr0 inet static
           mtu 9000
           ... Скорости живой миграции между узлами увеличились в среднем на 50% (разумеется, с "type=insecure" на этом классе процессоров)
     
     
     
    dlasher
    Guest
    #12
    0
    10.02.2023 22:45:00
    Согласен. Тем не менее, предварительная настройка может быть полезной, если нужно убедиться, что отдельные участники сделки загружены до того, как сделка будет, например.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры