Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Proxmox с хранилищем iSCSI Equallogic SAN

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Proxmox с хранилищем iSCSI Equallogic SAN, Proxmox Виртуальная Среда
     
    DANILO MONTAGNA
    Guest
    #1
    0
    30.06.2020 19:59:00
    Привет, я настроил окружение с Proxmox 6 и iSCSI Equallogic (DELL). Этот тип хранения требует некоторых модификаций TCP, чтобы правильно работать с мультипутевым доступом. Одна из необходимых функций для улучшения производительности iSCSI на этом хранилище — это "Отключить DelayACKs" на хостах, подключенных к хранилищу. Не могу найти в Proxmox, где именно можно отключить delay_acks в Linux (/proc/sys/net/ipv4/tcp_quickack) или (/proc/sys/net/ipv4/tcp_nodelay)... Без этого мы наблюдаем много "TCP повторных передач" в центре хранения с хостов Proxmox... Как я могу отключить задержки ack на сетевых интерфейсах iSCSI Proxmox?
     
     
     
    xPakrikx
    Guest
    #2
    0
    14.06.2021 15:26:00
    Привет! Как ты смог соединить Proxmox и EQL? Используешь мультипуть? Большое спасибо за помощь!
     
     
     
    DANILO MONTAGNA
    Guest
    #3
    0
    14.06.2021 16:43:00
    Да, с multipath.. Я использую multipath!!
     
     
     
    xPakrikx
    Guest
    #4
    0
    14.06.2021 17:12:00
    Но я предполагаю, что это только на стороне сервера. Значит, вы используете групповый IP для обоих путей? У меня только один интерфейс (LACP-связка из 2х10Gbit) на серверах... Но я действительно не понимаю, как работает переключение на EQL с групповым IP. Если я отключу один порт на EQL, что может произойти? Будет ли простое время? Документация Dell действительно плохая для продуктов EQL...
     
     
     
    DANILO MONTAGNA
    Guest
    #5
    0
    14.06.2021 18:22:00
    EQL работает как контроллер переключения активного/резервного канала, также в прошивке предусмотрена вертикальная функция переключения портов в случае отключения свитча... групповой IP-адрес iscsi является центральной точкой подключения для правильной настройки... не подключайтесь напрямую к IP-адресу порта контроллера. Я использую групповой IP для multipathd, на каждом интерфейсе iscsi вы используете групповой IP, пути распределяются по принципу кругового выбора с помощью multipathd, даже с одним групповым IP драйвер multipathd знает, как подключить каждый путь к разному порту iscsi iface, не переживайте об этом, конечно, если вы правильно настроили multipathd для этой конфигурации! Метод агрегации не является рекомендуемым способом, но он работает аналогично, однако вы будете видеть только один путь от EQL. Ваше переключение будет зависеть от сетевой карты, а не от пути EQL... Но при использовании этой конфигурации я бы не рекомендовал использовать LACP, это не поддерживается iscsi и может вызвать отрицательные эффекты... просто используйте агрегацию активный/резервный (режим 1) без LACP (802.1ad). Если вы отключите контроллер EQL, ничего не произойдет, ГРУППОВОЙ IP будет перенесён на нижний/верхний контроллер... и путь будет восстановлен, это прозрачно с точки зрения хоста, вам нужно только правильно подключить кабели как на стороне хоста, так и на стороне контроллера на основных свитчах!!! И всё, можете работать! С уважением,
     
     
     
    xPakrikx
    Guest
    #6
    0
    20.06.2021 16:03:00
    Еще один вопрос об оптимизации интерфейса. Вы отключили LRO/GRO только на физических интерфейсах или на linux-бриджах/vlan тоже? Я не знаю, можно ли унаследовать настройки. Моя сетевая топология на узлах proxmox для iSCSI — 2x10gbit<--->bond0<--->bond0.2 (то есть iSCSI находится в vlan 2 и подключен через bond0). Большое спасибо!
     
     
     
    DANILO MONTAGNA
    Guest
    #7
    0
    21.06.2021 14:25:00
    Мы отключили LRO/GRO только на интерфейсах iscsi!!! и используем MTU 9000 на этих интерфейсах!!! Мосты/vlan используют MTU по умолчанию. Чтобы проверить, наследуются ли опции, вы можете использовать ethtool для верификации!!
     
     
     
    xPakrikx
    Guest
    #8
    0
    21.06.2021 15:18:00
    Мы используем Jumbo-фреймы, но у нас нет возможности использовать отдельные физические NIC для iSCSI. Серверы находятся в блейд-шасси (Dell m1000e), так что у нас только 2x10Gbit на каждый сервер (коммутатор в m1000e — это 2x Dell MXL в конфигурации стека). Поэтому мы используем LACP-агрикацию. Для iSCSI выделен VLAN 2 поверх этого агрегации. Спасибо за помощь, я попробую оптимизировать порты на тестовом узле.
     
     
     
    DANILO MONTAGNA
    Guest
    #9
    0
    21.06.2021 15:38:00
    Не поддерживают ли ваши сетевые карты разделение на виртуальные ники? Проверьте это! Мы также используем M1000E, а наши сетевые карты — Qlogic 57810S, которые поддерживают разделение, вы можете выделить 8 виртуальных ников для хост-операционной системы вместо двух физических.
     
     
     
    xPakrikx
    Guest
    #10
    0
    21.06.2021 17:07:00
    У нас одинаковые сетевые карты Qlogic 57810S в 9 узлах и 2 узла с Intel 4P X710-k. Так что каждый порт на одном интерфейсе (4 виртуальных порта) подключен к одному 10Gbit порту на MXL, каждый виртуальный интерфейс имеет одинаковую конфигурацию VLAN со стороны коммутатора. Я предполагаю, что поддержки для агрегации, такой как LACP в конфигурации NPAR (для мостов ВМ), нет. Очень интересно. Я пытался сделать какую-то настройку DCBx, но у нас всего один EQL хранилище, так что думаю, что в этом нет необходимости. Но NPAR выглядит как неплохая функция, спасибо за совет.
     
     
     
    DANILO MONTAGNA
    Guest
    #11
    0
    21.06.2021 18:26:00
    57810S поддерживает NPAR, лучший вариант — использовать его в вашей среде. Вы сможете разделить iSCSI и LAN, используя виртуальные порты. Просто установите внутренние порты MXL для хостов в "trunk mode", задайте всем VLAN-ам, которые вы используете на этих портах, теги и используйте два виртуальных порта NPAR (по одному с каждой стороны MXL "A1 и A2"), чтобы создать интерфейсы iSCSI и LAN, используя VLAN dot1q на хостах, и все будет хорошо!
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры