Zu den Hauptinhalten
  • Bestellungen schnell und einfach aufgeben
  • Bestellungen anzeigen und den Versandstatus verfolgen
  • Erstellen Sie eine Liste Ihrer Produkte, auf die Sie jederzeit zugreifen können.
  • Verwalten Sie mit der Unternehmensverwaltung Ihre Dell EMC Seiten, Produkte und produktspezifischen Kontakte.

Anleitung zum Einrichten von NIC-Teamings auf PowerEdge-Servern

Zusammenfassung: So erstellen Sie NIC-Teamings auf einem Dell PowerEdge-Server unter VMware, Windows oder Linux.

Dieser Artikel wurde möglicherweise automatisch übersetzt. Wenn Sie eine Rückmeldung bezüglich dessen Qualität geben möchten, teilen Sie uns diese über das Formular unten auf dieser Seite mit.

Artikelinhalt


Weisungen

Der folgende Artikel enthält Informationen zum NIC-Teaming in Windows, VMware und Linux.

 

 

Was ist Netzwerkadapter-Teaming (Bonding)?

Netzwerkadapter-Teaming ist ein Begriff, der verwendet wird, um verschiedene Methoden zum Kombinieren mehrerer Netzwerkverbindungen zu beschreiben, um den Durchsatz zu erhöhen oder Redundanz bereitzustellen. NIC-Teaming (Network Interface Card) und LOM-Teaming (LAN on Motherboard). Kann Unternehmen eine kostengünstige Methode zur schnellen und einfachen Verbesserung der Netzwerkzuverlässigkeit und des Netzwerkdurchsatzes bieten.
Das Teaming von Netzwerkschnittstellenkarten (NIC) ist eine Methode zur Bereitstellung von hoher Verfügbarkeit und Fehlertoleranz in Servern.

Nachfolgend finden Sie ein Beispiel für einen Webserver mit zwei NICs mit jeweils einer Uplink- und einer Downlink-Verbindung.
Eine der beiden Netzwerkkarten fällt aus oder wird getrennt, aber die Computerverbindung des Clients bleibt bestehen.
2 NIC-Teaming-Netzwerkkarte fällt aus
Abb. 1: Zwei NIC-Teaming-Netzwerkkarten fallen aus, aber die Internetverbindung bleibt bestehen.

 

Die vier Haupttypen von Netzwerkteams sind wie folgt:

 

Smart Load Balancing (SLB) und Failover: Diese Art von Team gleicht den Netzwerkverkehr über alle primären Adapter aus. Wenn ein primärer Adapter ausfällt, gleichen die verbleibenden primären Adapter weiterhin die Last aus. Wenn alle primären Adapter ausfallen, wird der Datenverkehr mit dem Standby-Adapter ohne Unterbrechung fortgesetzt. Sobald ein primärer Adapter wieder online geschaltet wurde, fließt der Datenverkehr wieder durch ihn.

SLB mit automatischer Fallback-Deaktivierung: Diese Art von Team funktioniert wie oben, aber der Datenverkehr wird nicht automatisch zum primären Adapter zurückgeleitet, sobald er wieder online ist.

IEEE 802.3ad Dynamische Link-Aggregation: Auch bekannt als Link Aggregation Control Protocol (LACP) oder IEEE 802.1ax. Diese Art von Team erhöht den Durchsatz, indem mehrere physische Verbindungen zu einer logischen Verbindung zusammengefasst werden, deren effektive Bandbreite der Summe der physischen Verbindungen entspricht. Für diese Art von Team muss die Stromversorgung am anderen Ende der Verbindung LACP unterstützen. Der Switch muss ordnungsgemäß konfiguriert sein, damit das Team ordnungsgemäß funktioniert.

Generisches Trunking: Diese Art von Team, die auch als statische Link-Aggregation bezeichnet wird, bietet die gleiche Art von Bündelungsfunktionalität wie IEEE 802.3ad/802.1ax, verwendet jedoch nicht LACP. Der Switch muss LACP nicht unterstützen, muss aber für diese Art von Team ordnungsgemäß konfiguriert sein.

HINWEIS: Diese Arten von Teams werden von Broadcom-Netzwerkadaptern unterstützt. Intel Netzwerkadapter verfügen über eine ähnliche Funktionalität, verwenden jedoch eine andere Terminologie, um die Teamtypen zu beschreiben. Einige Betriebssysteme, wie z. B. Windows Server 2012, bieten auch NIC-Teaming-Funktionen und verwenden wahrscheinlich eine andere Terminologie.

 

Szenarien, in denen NIC-Teamings nicht eingerichtet werden können.
  • Wenn die Netzwerkkarte als gemeinsam genutztes LOM für den iDRAC verwendet wird
  • Wenn die Netzwerkkarte für den Netzwerkstart verwendet wird.
  • Wenn die Netzwerkkarte für einen Kernel-Debug-Netzwerkadapter (KDNIC) verwendet wird.
  • NICs, die andere Technologien als Ethernet verwenden, z. B. WWAN, WLAN/WLAN, Bluetooth und InfiniBand, einschließlich IPoIB-NICs (Internet Protocol over InfiniBand).
  • Wir empfehlen außerdem, dass Netzwerkkarten die gleiche Geschwindigkeit aufweisen müssen.

 

Windows NIC-Teaming Einrichten von NIC-Teaming für Windows Server 2008/2012/2012 R2/2016/2019

So erstellen Sie ein NIC-Team:

  1. Klicken Sie im Server-Manager auf „Lokaler Server“.

  2. Suchen Sie im Bereich Properties nach NIC Teaming und klicken Sie dann rechts auf den Link Deaktiviert. Das Dialogfeld NIC-Teamvorgang wird geöffnet.

  3. Dialogfeld "NIC-Teaming"
    Dialogfeld
    Abb. 2: Dialogfeld "Windows-NIC-Teaming"

  4. Wählen Sie unter „Adapter und Schnittstellen“ die Netzwerkadapter aus, die Sie einem NIC-Team hinzufügen möchten.

  5. Klicken Sie auf Aufgaben und dann auf Zu neuem Team hinzufügen.
    Windows-Adapter und -Schnittstellen fügen einem neuen Team hinzu
    Abb. 3: Windows-Adapter und -Schnittstellen fügen ein neues Team hinzu.

  6. Das Dialogfeld Neues Team wird geöffnet, in dem Netzwerkadapter und Teammitglieder angezeigt werden. Geben Sie in das Feld „Teamname“ einen Namen für das neue NIC-Team ein.
    Erstellen Sie eine NIC, indem Sie Adapter auswählen und einen Teamnamen erstellen.
    Abb. 4: Windows: Erstellen Sie eine NIC, indem Sie Adapter auswählen und einen Teamnamen erstellen.

  7. Erweitern Sie bei Bedarf Zusätzliche Eigenschaften, und wählen Sie Werte für Teaming-Modus, Lastenausgleichsmodus und Stand-by-Adapter aus. In der Regel ist der leistungsstärkste Lastenausgleichsmodus "Dynamisch".
    Eigenschaften für das Hinzufügen von Windows-NIC-Teams
    Abb. 5: Eigenschaften für das Hinzufügen von Windows-NIC-Teams

  8. Wenn Sie eine VLAN-Nummer konfigurieren oder dem NIC-Team zuweisen möchten, klicken Sie auf den Link rechts neben der Benutzeroberfläche des primären Teams. Das Dialogfeld New team interface wird geöffnet.
    Standardmäßige VLAN-Mitgliedschaft unter Windows
    Abb. 6: Standardmäßige VLAN-Mitgliedschaft unter Windows

  9. Klicken Sie zum Konfigurieren der VLAN-Mitgliedschaft auf Spezifisches VLAN. Geben Sie die VLAN-Informationen in den ersten Abschnitt des Dialogfelds ein.
    Windows-spezifische VLAN-Mitgliedschaft
    Abb. 7: Windows-spezifische VLAN-Mitgliedschaft

  10. Klicken Sie auf OK.

 

NIC-Teaming auf einem Hyper-V-Host

Wenn Sie NIC-Teaming auf einem Hyper-V-Host einrichten müssen, lesen Sie den Microsoft-Artikel Erstellen eines neuen NIC-Teams auf einem Hostcomputer.Dieser Hyperlink führt Sie zu einer Website außerhalb von Dell Technologies.

 

PowerShell-Anweisung

Wir empfehlen die Verwendung von Microsoft Teamvorgang auf Betriebssystemen 2012 und höher.

 

Erstellen des Netzwerkteams mithilfe von PowerShell

  1. Öffnen Sie eine PowerShell-Eingabeaufforderung mit erhöhten Rechten. Geben Sie in der Windows® 10-Taskleiste PowerShell ein. Drücken Sie die Tasten W und S , um die Suche zu öffnen.

  2. Das Ergebnis von Windows PowerShell sollte nun oben angezeigt werden. Klicken Sie mit der rechten Maustaste auf Windows PowerShell und wählen Sie Als Administrator ausführen aus.
    Windows Startmenü PowerShell Als Administrator ausführen
    Abb. 8: Windows Startmenü PowerShell Als Administrator ausführen

  3. Wenn die Eingabeaufforderung zur Nutzerkontensteuerung angezeigt wird, klicken Sie auf Ja.

  4. Geben Sie den folgenden Befehl ein: new-NetLBFOTeam [TEAMNAME] "[NIC1]", "[NIC2]" und drücken Sie die Eingabetaste .

    • [TEAMNAME] – der Name, den Sie dem Team von Netzwerkadaptern geben möchten
    • [NIC1] - der Name des ersten Netzwerkadapters, der von oben gefunden wurde
    • [NIC2] - der Name des zweiten Netzwerkadapters, der von oben gefunden wurde

    PowerShell-Befehl
    Abb. 8: PowerShell-Befehl

    Beispiel

    new-NetLBFOTeam NIC-Team "NIC1" , "NIC2"

    Öffnen Sie die Netzwerkverbindungen, indem Sie in der Systemsteuerung > Netzwerk und Internetnetzwerkverbindungen > navigieren.

 

VMware NIC-Teaming

VMware vSphere
Ein NIC-Team kann eine Menge Datenverkehr zwischen physischen und virtuellen Netzwerken gemeinsam nutzen. Zwischen einigen oder allen Mitgliedern und bietet ein passives Failover im Falle eines Hardwarefehlers oder Netzwerkausfalls.

Detaillierte Schritte zum Konfigurieren von NIC-Teaming auf VMware finden Sie in der VMware-Wissensdatenbank, indem Sie oben rechts Ihre ESXi-Version auswählen.
Konfigurieren von NIC-Teaming, Failover und Lastenausgleich auf einem vSphere-Standardswitch oder einer Standardportgruppe

Referenz: NIC-Teaming in ESXi und ESX (1004088)

 

Linux-Kanalbündelungsschnittstellen

Linux ermöglicht es Administratoren, mehrere Netzwerkschnittstellen mithilfe des Bonding-Kernel-Moduls und einer speziellen Netzwerkschnittstelle, die als Channel-Bonding-Schnittstelle bezeichnet wird, in einem einzigen Kanal zu verbinden. Die Kanalbündelung ermöglicht es, dass zwei oder mehr Netzwerkschnittstellen als eine genutzt werden, was gleichzeitig die Bandbreite erhöht und Redundanz bereitstellt. Warnung: Die Verwendung von direkten Kabelverbindungen ohne Netzwerk-Switches wird für die Bündelung nicht unterstützt. Die hier beschriebenen Failover-Mechanismen funktionieren ohne das Vorhandensein von Netzwerkswitches nicht wie erwartet.

 

Bonding wird bei einer direkten Verbindung über Crossover-Kabel nicht unterstützt.

 

Für die Modi "Active-Backup", "Balance-TLB" und "Balance-Alb" ist keine spezielle Konfiguration des Switches erforderlich. Andere Bündelungsmodi müssen zum Aggregieren der Verbindungen konfiguriert werden. Zum Beispiel erfordert ein Cisco-Switch EtherChannel für die Modi 0, 2 und 3, aber für Modus 4 sind LACP und EtherChannel erforderlich. Weitere Informationen finden Sie in der Dokumentation zum Switch und in der bonding.txt Datei im Paket kernel-doc.

 

Überprüfen Sie, ob das Bonding-Kernel-Modul installiert ist.
In Red Hat Enterprise Linux 6 wird das Bonding-Modul nicht standardmäßig geladen. Sie können das Modul laden, indem Sie den folgenden Befehl als root ausgeben:

~]# modprobe --first-time bonding

 

Keine visuelle Ausgabe weist darauf hin, dass das Modul nicht ausgeführt wurde und jetzt geladen wurde. Diese Aktivierung bleibt bei Systemneustarts nicht bestehen. In Abschnitt 31.7, "Laden persistenter Module" finden Sie eine Erläuterung des persistenten Ladens von Modulen. Bei einer korrekten Konfigurationsdatei mithilfe der Direktive BONDING_OPTS wird das Bonding-Modul wie erforderlich geladen und muss daher nicht separat geladen werden. Geben Sie den folgenden Befehl aus, um Informationen über das Modul anzuzeigen:

~]$ modinfo bonding

 

Arbeiten mit Kernel-Modulen für Informationen zum Laden und Entladen von Modulen. Erstellen einer Kanalbündelungsschnittstelle Um eine Kanalbündelungsschnittstelle
zu erstellen, erstellen Sie eine Datei im /etc/sysconfig/network-scripts/ Verzeichnis mit dem Namen ifcfg-bondN, wobei N durch die Nummer für die Schnittstelle, z. B. 0, ersetzt wird.
Der Inhalt der Datei kann mit dem Typ der zu verbindenden Schnittstelle identisch sein, z. B. einer Ethernet-Schnittstelle. Der einzige Unterschied besteht darin, dass die DEVICE-Direktive bondN ist, wobei N durch die Nummer für die Schnittstelle ersetzt wird. Die NM_CONTROLLED Direktive kann hinzugefügt werden, um zu verhindern, dass NetworkManager dieses Gerät konfiguriert.
Beispiel für eine ifcfg-bond0-Schnittstellenkonfigurationsdatei

Nachfolgend finden Sie ein Beispiel für eine Konfigurationsdatei für die Kanalbündelungsschnittstelle:

DEVICE=bond0
IPADDR=192.168.1.1
NETMASK=255.255.255.0
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
NM_CONTROLLED=no
BONDING_OPTS="bonding parameters separated by spaces"

 

Die MAC-Adresse der Bündelung wird von der ersten Schnittstelle übernommen, die dem Netzwerk hinzugefügt werden soll. Sie kann bei Bedarf auch mithilfe der HWADDR-Direktive angegeben werden. Wenn NetworkManager diese Schnittstelle steuern soll, entfernen Sie die Direktive NM_CONTROLLED=no oder legen Sie sie auf yes fest, und fügen Sie TYPE=Bond und BONDING_MASTER=yes hinzu.
Nachdem die Kanalbündelungsschnittstelle erstellt wurde, müssen die miteinander verbundenen Netzwerkschnittstellen konfiguriert werden, indem die MASTER- und SLAVE-Richtlinien zu ihren Konfigurationsdateien hinzugefügt werden. Die Konfigurationsdateien für jede der kanalgebundenen Schnittstellen können nahezu identisch sein.
Beispiel für eine Konfigurationsdatei für die gebundene ifcfg-ethX-Schnittstelle

Wenn zwei Ethernetschnittstellen kanalisiert werden, der gebunden ist, können sowohl eth0 als auch eth1 wie folgt lauten:

DEVICE=ethX
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no
NM_CONTROLLED=no

 

Ersetzen Sie in diesem Beispiel das X durch den nummerischen Wert für die Schnittstelle.

 

Sobald die Schnittstellen konfiguriert wurden, starten Sie den Netzwerkdienst neu, um die Bündelung herzustellen. Geben Sie den folgenden Befehl als root ein:

~]# service network restart

 

Um den Status einer Bündelung anzuzeigen, zeigen Sie die Datei /proc/ durch Ausgabe eines Befehls in folgendem Format an:

cat /proc/net/bonding/bondN

 

Zum Beispiel:

~]$ cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009)

Bonding Mode: load balancing (round-robin)
MII Status: down
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0

 

Wichtig: In Red Hat Enterprise Linux 6 müssen schnittstellenspezifische Parameter für das Bonding-Kernel-Modul als eine durch Leerzeichen getrennte Liste in der Direktive BONDING_OPTS="bonding parameters" in der Schnittstellendatei ifcfg-bondN angegeben werden. Geben Sie keine Optionen an, die für eine Bündelung in /etc/modprobe.d/bonding.confoder in der veralteten Datei /etc/modprobe.conf. Der Parameter max_bonds ist nicht schnittstellenspezifisch und sollte daher bei Bedarf in /etc/modprobe.d/bonding.conf wie folgt:

options bonding max_bonds=1

 

Der Parameter max_bonds sollte jedoch nicht gesetzt werden, wenn ifcfg-bondN-Dateien mit der Direktive BONDING_OPTS verwendet werden, da diese Direktive bewirkt, dass die Netzwerkskripte die Bond-Schnittstellen nach Bedarf erstellen.
Änderungen an /etc/modprobe.d/bonding.conf werden erst wirksam, wenn das Modul das nächste Mal geladen wird. Ein laufendes Modul muss zuerst entladen werden.

 

Erstellen mehrerer Bündelungen In Red Hat Enterprise Linux 6 wird für jede Bündelung
eine Kanalbündelungsschnittstelle einschließlich der BONDING_OPTS Direktive erstellt. Diese Konfigurationsmethode wird verwendet, damit mehrere Bündelungsgeräte verschiedene Konfigurationen haben können. Um mehrere Kanal-Bonding-Schnittstellen zu erstellen, gehen Sie wie folgt vor:
Erstellen Sie mehrere ifcfg-bondN-Dateien mit der Direktive BONDING_OPTS; diese Direktive veranlasst die Netzwerk-Skripte, die Bond-Schnittstellen nach Bedarf zu erstellen.
Erstellen oder bearbeiten Sie vorhandene Schnittstellenkonfigurationsdateien, die gebunden werden sollen, und schließen Sie die SLAVE-Direktive ein.
Ordnen Sie die zu bondenden Interfaces, die Slave-Interfaces, über die MASTER-Direktive den Kanalbonding-Interfaces zu.
Beispiel für mehrere ifcfg-bondN-Schnittstellenkonfigurationsdateien
Im Folgenden finden Sie ein Beispiel für eine Konfigurationsdatei für die Kanalbündelungsschnittstelle:

DEVICE=bond
N IPADDR=192.168.1.1
NETMASK=255.255.255.0
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
NM_CONTROLLED=no
vBONDING_OPTS="bonding parameters separated by spaces"

 

Ersetzen Sie in diesem Beispiel N durch die Nummer für die Bündelungsschnittstelle. Um beispielsweise zwei Bündelungen zu erstellen, erstellen Sie zwei Konfigurationsdateien, ifcfg-bond0 und ifcfg-bond1.
Erstellen Sie die zu bondenden Schnittstellen gemäß der Beispielkonfigurationsdatei ifcfg-ethX bonded interface und weisen Sie sie bei Bedarf mit der Direktive MASTER=bondN den Bond-Schnittstellen zu. Beispiel: Wenn ausgehend vom obigen Beispiel zwei Schnittstellen pro Bündelung erforderlich sind, erstellen Sie für zwei Bündelungen vier Schnittstellenkonfigurationsdateien und weisen die ersten beiden mithilfe von MASTER=bond0 und die nächsten beiden mithilfe von MASTER=bond1 zu.

 

Referenz: Linux Channel-Bündelungsschnittstellen

 

Artikeleigenschaften


Betroffenes Produkt

Servers, PowerEdge, PowerEdge R720

Letztes Veröffentlichungsdatum

19 Feb. 2024

Version

6

Artikeltyp

How To