Перейти к основному содержимому
  • Простое и быстрое размещение заказов
  • Просмотр заказов и отслеживание состояния доставки
  • Создание списка продуктов и доступ к нему
  • Управление узлами, продуктами и контактами уровня продуктов Dell EMC с помощью Company Administration.

Настройка сопряжения сетевых плат на серверах PowerEdge

Сводка: Создание сопряжений сетевых плат на сервере Dell PowerEdge в среде VMware, Windows или с помощью Linux.

Возможно, эта статья была переведена автоматически. Если вы хотите поделиться своим мнением о ее качестве, используйте форму обратной связи в нижней части страницы.

Содержание статьи


Инструкции

В следующей статье представлена информация о сопряжении сетевых карт в Windows, VMware и Linux.

 

 

Что такое сопряжение сетевых адаптеров (связывание)?

Группирование сетевых адаптеров — это термин, который используется для описания различных методов объединения нескольких сетевых подключений для повышения пропускной способности или обеспечения резервирования. Сопряжение сетевых плат (NIC) и LAN на системной плате (LOM). Может предоставить организациям экономичный метод быстрого и простого повышения надежности и пропускной способности сети.
Сопряжение сетевых плат (NIC) — один из методов обеспечения высокой доступности и отказоустойчивости серверов.

Ниже приведен пример веб-сервера с двумя сетевыми картами с одним восходящим каналом связи и одним нисходящим каналом связи.
Одна из двух сетевых плат вышла из строя или отсоединена, но подключение клиента к компьютеру остается подключенным.
2 Сбой сопряжения сетевых плат
Рис 1: Происходит сбой объединения двух сетевых плат, но подключение к Интернету остается.

 

Существует четыре основных типа объединения (сетевых групп):

 

Интеллектуальная балансировка нагрузки (SLB) и переключение при отказе: При таком типе группы выполняется балансировка сетевого трафика между всеми основными адаптерами. В случае отказа одного из основных адаптеров остальные основные адаптеры продолжают балансировать нагрузку. В случае отказа всех основных адаптеров непрерывный поток трафика обеспечивается благодаря резервному адаптеру. После того как основной адаптер снова включается в оперативный режим, трафик через него возобновляется.

SLB с отключением автоматического отката: Этот тип группы функционирует так же, как и выше, но трафик не возвращается автоматически к основному адаптеру после возврата в онлайн-режим.

Динамическое агрегирование каналов связи IEEE 802.3ad: Также называется протоколом управления агрегированием каналов (LACP) или IEEE 802.1ax. Этот тип группы обеспечивает повышенную пропускную способность за счет объединения нескольких физических каналов в один логический канал, эффективная пропускная способность которого равна сумме пропускной способности физических каналов. Для такого типа группы необходимо, чтобы питание на другом конце соединения поддерживало LACP. Для правильной работы группы необходимо правильно настроить коммутатор.

Generic Trunking. Этот тип групп, также известный как статическое агрегирование каналов связи, предоставляет те же функции объединения, что и IEEE 802.3ad/802.1ax, но не использует LACP. Коммутатор не должен поддерживать LACP, но должен быть правильно настроен для работы такой группы.

ПРИМЕЧАНИЕ. Такие группы поддерживаются сетевыми адаптерами Broadcom. Сетевые адаптеры Intel предоставляют аналогичные функциональные возможности, но для обозначения типов групп используется другая терминология. Некоторые операционные системы, такие как Windows Server 2012, также предоставляют функциональность сопряжения сетевых карт и, вероятно, используют другую терминологию.

 

Сценарии, в которых невозможно настроить группирование сетевых карт.
  • Если сетевая плата используется в качестве общего LOM для iDRAC
  • Если для загрузки по сети используется сетевая карта.
  • Если сетевая плата используется для сетевого адаптера отладки ядра (KDNIC).
  • Сетевые платы, использующие технологии, отличные от Ethernet, такие как WWAN, WLAN/Wi-Fi, Bluetooth и InfiniBand, включая сетевые платы IPoIB (Internet Protocol over InfiniBand).
  • Мы также рекомендуем, чтобы сетевые платы имели одинаковую скорость.

 

Сопряжение сетевых карт Windows Настройка сопряжения сетевых плат для Windows Server 2008/2012/2012 R2/2016/2019

Чтобы создать группу сетевых карт, выполните следующие действия.

  1. В Диспетчере серверов нажмите «Локальный сервер».

  2. На панели Properties найдите NIC Teaming и нажмите ссылку Disabled справа. Откроется диалоговое окно Объединение сетевых карт.

  3. Диалоговое окно
    Диалоговое окно «Сопряжение сетевых карт Windows»
    объединения сетевых картРис. 2. Диалоговое окно «Сопряжение сетевых карт Windows»

  4. В разделе «Адаптеры и интерфейсы» выберите сетевые адаптеры, которые необходимо добавить в объединение сетевых карт.

  5. Нажмите ЗАДАЧИ, а затем нажмите Добавить в новую команду.
    Добавление адаптеров и интерфейсов Windows в новую группу
    Рис. 3. Адаптеры и интерфейсы Windows добавляются в новую команду.

  6. Откроется диалоговое окно Новая команда, в котором отображаются сетевые адаптеры и члены команды. В поле «Имя объединения» введите имя нового объединения сетевых карт.
    Создайте сетевую плату, выбрав адаптеры, и создайте имя группы
    Рис 4: Windows — создайте сетевую плату, выбрав адаптеры, и создайте имя группы.

  7. При необходимости разверните раздел Дополнительные свойства, выберите значения для параметров Режим сопряжения, Режим балансировки нагрузки и Резервный адаптер. Обычно режим балансировки нагрузки с максимальной производительностью — динамическая.
    Свойства добавления группы сетевых карт Windows
    Рис 5: Свойства добавления группы сетевых карт Windows

  8. Если вы хотите настроить или назначить номер VLAN группе сетевой платы, щелкните ссылку справа от интерфейса основной группы. Откроется диалоговое окно Новый интерфейс команды.
    Членство в VLAN Windows по умолчанию
    Рис 6: Членство в VLAN Windows по умолчанию

  9. Чтобы настроить участие в сети VLAN, нажмите Определенная VLAN. Введите информацию о виртуальной локальной сети в первом разделе диалогового окна.
    Членство в VLAN для Windows
    Рис 7: Членство в VLAN для Windows

  10. Нажмите OK.

 

Объединение сетевых карт на хосте Hyper-V

Если необходимо настроить сопряжение сетевых карт на хосте Hyper-V, см. статью Microsoft Создание новой группы сетевых карт на хост-компьютереЭта гиперссылка позволяет перейти на сайт за пределами Dell Technologies.

 

Инструкции по использованию PowerShell

В операционных системах Microsoft объединение рекомендуется использовать начиная с версии 2012.

 

Создание сетевой группы с помощью PowerShell

  1. Откройте командную строку PowerShell с повышенными привилегиями. В поле поиска на панели задач Windows® 10 введите PowerShell. Нажмите клавиши W и S , чтобы открыть Поиск.

  2. Теперь в верхней части экрана должен отображаться результат Windows PowerShell . Нажмите правой кнопкой мыши на Windows PowerShell и выберите пункт Запуск от имени администратора.
    Меню «Пуск» Windows PowerShell Запуск от имени администратора
    Рис 8: Меню «Пуск» Windows PowerShell Запуск от имени администратора

  3. При появлении запроса «Контроль учетных записей » нажмите кнопку Да.

  4. Введите команду new-NetLBFOTeam [TEAMNAME] "[NIC1]", "[NIC2]" и нажмите клавишу Enter .

    • [TEAMNAME] - имя, которое вы хотите присвоить команде сетевых адаптеров
    • [NIC1] - имя первого сетевого адаптера, найденного сверху
    • [NIC2] - имя второго сетевого адаптера, найденного сверху

    Команда PowerShell
    Рис 8: Команда PowerShell

    Пример

    new-NetLBFOTeam NIC-Team "NIC1" , "NIC2"

    Откройте окно Сетевые подключения, перейдя в панель управления Сеть > и Подключение к сети Интернет > .

 

Объединение сетевых карт VMware

VMware vSphere
Группа сетевой платы может совместно использовать трафик между физической и виртуальной сетями. Среди некоторых или всех его членов, а также обеспечить пассивное переключение при отказе в случае сбоя оборудования или сбоя сети.

Подробные инструкции по настройке сопряжения сетевых карт в VMware, выбрав версию ESXi в правом верхнем углу, см. в статье базы знаний VMware.
Настройка объединения, переключения при отказе и балансировки нагрузки сетевых плат на коммутаторе vSphere Standard или в группе портов Standard.

См.: Объединение сетевых карт в ESXi и ESX (1004088)

 

Интерфейсы объединения каналов в Linux

Linux позволяет администраторам связывать несколько сетевых интерфейсов в единый канал с помощью модуля ядра связывания и специального сетевого интерфейса, который называется интерфейсом связывания каналов. Объединение каналов позволяет двум или нескольким сетевым интерфейсам действовать как один, одновременно увеличивая полосу пропускания и обеспечивая резервирование. Предупреждение. Объединение не поддерживается при использовании прямых кабельных соединений без сетевых коммутаторов. Описанные здесь механизмы переключения при отказе не будут работать должным образом без сетевых коммутаторов.

 

Перемычка не поддерживается при прямом соединении с помощью перекрестных кабелей.

 

Режимы «active-backup», «balance-TLB» и «balance-alb» не требуют какой-либо особой настройки коммутатора. При использовании других режимов объединения необходимо настроить коммутатор для агрегирования каналов. Например, для режимов 0, 2 и 3 на коммутаторе Cisco требуется EtherChannel, а для режима 4 требуются LACP и EtherChannel. См. документацию, поставляемую с коммутатором, и файл bonding.txt в пакете kernel-doc.

 

Проверьте, установлен ли модуль ядра связывания.
В Red Hat Enterprise Linux 6 модуль связывания по умолчанию не загружается. Этот модуль можно загрузить, выполнив следующую команду от имени администратора (root):

~]# modprobe --first-time bonding

 

Отсутствие визуального вывода указывает на то, что модуль не запущен и теперь загружен. Эта активация не сохраняется после перезапуска системы. За объяснением загрузки постоянных модулей обратитесь к Раздел 31.7, «Загрузка постоянных модулей». При наличии правильного конфигурационного файла с использованием директивы BONDING_OPTS модуль склеивания загружается в соответствии с требованиями, и поэтому его не нужно загружать отдельно. Для отображения информации о модуле введите следующую команду:

~]$ modinfo bonding

 

Работа с модулями ядра для получения информации о загрузке и выгрузке модулей. Создание интерфейса связывания каналов Для создания интерфейса
связывания каналов создайте файл в /etc/sysconfig/network-scripts/ с именем ifcfg-bondN, заменив N номером интерфейса, например 0.
Содержимое файла может быть идентично содержимому любого связываемого интерфейса, например интерфейса Ethernet. Единственное отличие заключается в том, что в качестве директивы DEVICE используется bondN, где «N» заменяется номером интерфейса. Директиву NM_CONTROLLED можно добавить, чтобы NetworkManager не мог настроить это устройство.
Пример файла конфигурации интерфейса ifcfg-bond0

Ниже приведен пример файла конфигурации интерфейса объединения каналов:

DEVICE=bond0
IPADDR=192.168.1.1
NETMASK=255.255.255.0
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
NM_CONTROLLED=no
BONDING_OPTS="bonding parameters separated by spaces"

 

MAC-адрес связки берется из первого интерфейса, добавляемого в сеть. При необходимости его можно указать с помощью директивы HWADDR. Если вы хотите, чтобы NetworkManager управлял этим интерфейсом, удалите директиву NM_CONTROLLED=no или установите для нее значение yes, добавив TYPE=Bond и BONDING_MASTER=yes.
После создания интерфейса связывания каналов необходимо настроить связанные друг с другом сетевые интерфейсы, добавив директивы MASTER и SLAVE в их конфигурационные файлы. Конфигурационные файлы для каждого из интерфейсов, связанных с каналами, могут быть практически идентичными.
Пример файла конфигурации связанного интерфейса ifcfg-ethX

Если два интерфейса Ethernet объединены, то eth0 и eth1 могут быть следующими:

DEVICE=ethX
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no
NM_CONTROLLED=no

 

В данном примере замените «X» на числовое значение для интерфейса.

 

После настройки интерфейсов перезапустите сетевую службу, чтобы активировать объединение. Введите следующую команду от имени администратора (root):

~]# service network restart

 

Чтобы проверить состояние объединения, откройте файл /proc/, выполнив команду в следующем формате:

cat /proc/net/bonding/bondN

 

Пример.

~]$ cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009)

Bonding Mode: load balancing (round-robin)
MII Status: down
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0

 

Важно! В Red Hat Enterprise Linux 6 параметры интерфейса для связующего модуля ядра должны быть указаны в виде разделенного пробелами списка в директиве BONDING_OPTS="bonding parameters" в файле интерфейса ifcfg-bondN. Не указывайте параметры, относящиеся к связке, в /etc/modprobe.d/bonding.confили в устаревшем файле /etc/modprobe.conf. Параметр max_bonds не является специфичным для интерфейса и при необходимости указывается в файле /etc/modprobe.d/bonding.conf следующим образом:

options bonding max_bonds=1

 

Однако параметр max_bonds не следует задавать при использовании файлов ifcfg-bondN с директивой BONDING_OPTS, так как эта директива приводит к тому, что сетевые сценарии создают интерфейсы связки по мере необходимости.
Любые изменения в /etc/modprobe.d/bonding.conf вступают в силу только после следующей загрузки модуля. Сначала необходимо выгрузить запущенный модуль.

 

Создание нескольких связок
В Red Hat Enterprise Linux 6 для каждой связки создается интерфейс связывания каналов, включающий директиву BONDING_OPTS. Этот метод настройки позволяет нескольким объединяемым устройствам иметь разные конфигурации. Чтобы создать несколько интерфейсов связывания каналов, выполните следующие действия:
Создайте несколько файлов ifcfg-bondN с помощью директивы BONDING_OPTS; эта директива заставляет сетевые сценарии создавать интерфейсы связки по мере необходимости.
Создайте или отредактируйте существующие конфигурационные файлы интерфейса, которые будут связаны и включают директиву SLAVE.
Назначьте интерфейсы, которые должны быть связаны, ведомые интерфейсы, интерфейсам связывания каналов с помощью директивы MASTER.
Пример нескольких файлов
конфигурации интерфейса ifcfg-bondN Ниже приведен пример файла конфигурации интерфейса связывания каналов.

DEVICE=bond
N IPADDR=192.168.1.1
NETMASK=255.255.255.0
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
NM_CONTROLLED=no
vBONDING_OPTS="bonding parameters separated by spaces"

 

В данном примере замените «N» на номер интерфейса объединения. Например, для создания двух связок создайте два файла конфигурации: ifcfg-bond0 и ifcfg-bond1.
Создайте интерфейсы для связывания, как описано в примере — файл конфигурации связанного интерфейса ifcfg-ethX, и назначьте их соответствующим интерфейсам связки с помощью директивы MASTER=bondN. На основе приведенного выше примера можно сделать следующий вывод: если в одном объединении должно быть два интерфейса, то для двух объединений необходимо создать четыре файла конфигурации интерфейсов и назначить первые два с помощью директивы MASTER=bond0, а следующие два — с помощью директивы MASTER=bond1.

 

См.: Интерфейсы связывания каналов продаж в Linux

 

Свойства статьи


Затронутый продукт

Servers, PowerEdge, PowerEdge R720

Дата последней публикации

19 Feb 2024

Версия

6

Тип статьи

How To