Przejdź do głównej zawartości
  • Szybkie i łatwe składanie zamówień
  • Wyświetlanie zamówień i śledzenie stanu wysyłki
  • Tworzenie i dostęp do listy produktów
  • Na firmowej stronie administracji możesz zarządzać witrynami, produktami i danymi kontaktowymi firmy Dell EMC.

Slik konfigurerer du NIC-teaminger på PowerEdge-servere

Podsumowanie: Slik oppretter du NIC-teaminger på en Dell PowerEdge-server i VMware, Windows eller ved hjelp av Linux.

Ten artykuł mógł zostać automatycznie przetłumaczony. Jeśli masz uwagi na temat jego jakości, przekaż je nam, korzystając z formularza u dołu tej strony.

Treść artykułu


Instrukcje

Følgende artikkel inneholder informasjon om NIC-teaming i Windows, VMware og Linux.

 

 

Hva er Network Adapter Teaming (Bonding)?

Network adapter teaming er et begrep som brukes til å beskrive ulike metoder for å kombinere flere nettverkstilkoblinger for å øke gjennomstrømningen eller gi redundans. Teaming for nettverkskort (NIC) og LAN på hovedkort (LOM) teaming. Kan gi organisasjoner en kostnadseffektiv metode for raskt og enkelt å forbedre nettverkets pålitelighet og gjennomstrømning.
Network Interface Card (NIC)-teaming er én metode for å gi høy tilgjengelighet og feiltoleranse i servere.

Nedenfor er et eksempel på en webserver med to nettverkskort hver med en uplink og en downlink-tilkobling.
Ett av de to nettverkskortene mislykkes eller kobles fra, men klientens datamaskintilkobling forblir tilkoblet.
2 nettverkskort for nettverkskortdeling mislykkes
Fig. 1: To nettverkskort for nettverkskortdeling mislykkes, men Internett-tilkoblingen forblir oppe.

 

De fire hovedtypene av nettverksgrupper er som følger:

 

Smart lastbalansering (SLB) og failover: Denne typen team balanserer nettverkstrafikk på tvers av alle primære adaptere. Hvis et primært kort mislykkes, vil de gjenværende primære kortene fortsette å balansere belastningen. Hvis alle primære kort mislykkes, flyter trafikken uten avbrudd ved hjelp av et reservekort. Når en primæradapter er koblet til igjen, fortsetter trafikken å strømme gjennom den.

SLB med automatisk reserveløsning deaktivert: Denne typen team fungerer som ovenfor, men trafikken går ikke automatisk tilbake til primæradapteren når den kommer tilbake på nettet.

IEEE 802.3ad Dynamisk koblingsaggregering: Også kjent som Link Aggregation Control Protocol (LACP) eller IEEE 802.1ax. Denne typen team gir økt gjennomstrømning ved å samle flere fysiske lenker i en logisk kobling hvis effektive båndbredde er summen av de fysiske koblingene. Denne typen team krever at strømmen i den andre enden av forbindelsen støtter LACP. Svitsjen må være riktig konfigurert for at teamet skal fungere skikkelig.

Generisk trunking: Denne typen team, også kjent som aggregering av statiske koblinger, gir samme type kombinasjonsfunksjonalitet som IEEE 802.3ad/802.1ax, men bruker ikke LACP. Svitsjen trenger ikke å støtte LACP, men må være riktig konfigurert for at denne gruppetypen skal fungere.

MERK: Denne typen team støttes av Broadcom-nettverkskort. Intel-nettverkskort gir samme funksjonalitet, men bruker forskjellig terminologi til å beskrive gruppetypene. Noen operativsystemer, for eksempel Windows Server 2012, har også NIC-teaming-funksjonalitet og bruker sannsynligvis en annen terminologi.

 

Scenarier der NIC-teaminger ikke kan konfigureres.
  • Hvis nettverkskortet brukes som en delt LOM for iDRAC
  • Hvis nettverkskortet brukes til nettverksoppstart.
  • Hvis nettverkskortet brukes til et nettverkskort for kjernefeilsøking (KDNIC).
  • NIC som bruker andre teknologier enn Ethernet, for eksempel WWAN, WLAN/Wi-Fi, Bluetooth og InfiniBand, inkludert Internet Protocol over InfiniBand (IPoIB) NIC-er.
  • Vi anbefaler også at nettverkskort må ha samme hastighet.

 

Windows NIC Teaming Sette opp NIC Teaming for Windows Server 2008/2012/2012 R2/2016/2019

Slik oppretter du en NIC-gruppe:

  1. Klikk på Lokal server i Serveradministrasjon.

  2. Finn NIC-teaming i Egenskaper-ruten, og klikk deretter koblingen Deaktivert til høyre. Dialogboksen NIC-teaming åpnes.

  3. Dialogboksen NIC-teaming Fig
    Dialogboksen Windows NIC-teaming
    . 2: Dialogboksen Windows NIC-teaming

  4. I Kort og grensesnitt velger du nettverkskortene du vil legge til i en NIC-gruppe.

  5. Klikk OPPGAVER, og klikk deretter Legg til i nytt team.
    Windows-adaptere og -grensesnitt legges til i et nytt team
    Fig. 3: Windows-adaptere og -grensesnitt legger til et nytt team.

  6. Dialogboksen Nytt team åpnes og viser nettverkskort og gruppemedlemmer. I Gruppenavn skriver du inn et navn på den nye NIC-gruppen.
    Opprett NIC ved å velge adaptere og opprette et teamnavn
    Fig. 4: Windows - Opprett NIC ved å velge adaptere og opprette et teamnavn.

  7. Utvid om nødvendig Flere egenskaper, velg verdier for Teaming-modus, Lastbalanseringsmodus og Ventemodus-adapter. Vanligvis er den mest effektive lastbalanseringsmodusen dynamisk.
    Egenskaper for Windows NIC-teamtillegg
    Fig. 5: Egenskaper for Windows NIC-teamtillegg

  8. Hvis du vil konfigurere eller tilordne et VLAN-nummer til NIC-teamet, klikker du på koblingen til høyre for grensesnittet for primærteamet. Dialogboksen Nytt teamgrensesnitt åpnes.
    Windows standard VLAN-medlemskap
    Fig. 6: Windows standard VLAN-medlemskap

  9. Hvis du vil konfigurere VLAN-medlemskap, klikker du på Spesifikt VLAN. Skriv inn VLAN-informasjonen i den første delen av dialogboksen.
    Windows-spesifikt VLAN-medlemskap
    Fig. 7: Windows-spesifikt VLAN-medlemskap

  10. Klikk på OK.

 

NIC-gruppering på en Hyper-V-vert

Hvis du må konfigurere NIC-teaming på en Hyper-V-vert, kan du se Microsoft-artikkelen Opprette et nytt NIC-team på en vertsdatamaskinDenne hyperkoblingen tar deg til et nettsted utenfor Dell Technologies.

 

PowerShell-instruksjon

Vi anbefaler bruk av Microsoft-gruppering på operativsystemer 2012 og senere.

 

Opprette nettverksgruppen ved hjelp av PowerShell

  1. Åpne en hevet PowerShell-ledetekst. Skriv inn PowerShell i søket på oppgavelinjen i Windows® 10. Trykk W- og S-tasten for å åpne Søk.

  2. Du skal nå se resultatet av Windows PowerShell øverst. Høyreklikk Windows PowerShell, og velg Kjør som administrator.
    Start-menyen i Windows PowerShell Kjør som administrator
    Fig. 8: Start-menyen i Windows PowerShell Kjør som administrator

  3. Hvis du blir bedt om brukerkontokontroll , klikker du Ja.

  4. Skriv inn kommandoen new-NetLBFOTeam [TEAMNAME] "[NIC1]", "[NIC2]" og trykk Enter-tasten .

    • [TEAMNAME] - navnet du vil gi til teamet med nettverkskort
    • [NIC1] - navnet på det første nettverkskortet funnet ovenfra
    • [NIC2] - navnet på det andre nettverkskortet funnet ovenfra

    PowerShell, kommando
    Fig. 8: PowerShell, kommando

    Eksempel

    new-NetLBFOTeam NIC-Team "NIC1" , "NIC2"

    Åpne nettverkstilkoblingene ved å gå til Kontrollpanel Nettverk > og Internett-nettverkstilkoblinger > .

 

VMware NIC Teaming

VMware vSphere
: Et NIC-team kan dele en mengde trafikk mellom fysiske og virtuelle nettverk. Blant noen av eller alle medlemmene, og sørge for en passiv failover i tilfelle maskinvarefeil eller nettverksbrudd.

Se VMware KB for detaljerte trinn om hvordan du konfigurerer NIC Teaming på VMware ved å velge ESXi-versjonen øverst til høyre.
Konfigurere NIC-teaming, failover og belastningsfordeling på en vSphere Standard-svitsj eller standard portgruppe.

Referanse: NIC-gruppering i ESXi og ESX (1004088)

 

Grensesnitt for tilknytning av Linux-kanal

Linux gjør det mulig for administratorer å binde flere nettverksgrensesnitt sammen til en enkelt kanal ved hjelp av bindingskjernemodulen og et spesielt nettverksgrensesnitt som kalles et kanalbindingsgrensesnitt. Med kanaltilknytning kan to eller flere nettverksgrensesnitt fungere som ett, og samtidig øke båndbredden og sørge for redundans. Advarsel: Bruken av direkte kabeltilkoblinger uten nettverkssvitsjer støttes ikke for tilknytning. Failover-mekanismene som beskrives her, fungerer ikke som forventet uten at det finnes nettverkssvitsjer.

 

Jording støttes ikke med en direkte tilkobling ved hjelp av kryssede kabler.

 

Modusene active-backup, balance-TLB og balance-alb krever ingen spesifikk konfigurasjon av svitsjen. Andre tilknytningsmoduser krever at svitsjen konfigureres for å aggregere koblingene. En Cisco-svitsj krever for eksempel EtherChannel for modus 0, 2 og 3, mens modus 4 krever LACP og EtherChannel. Se dokumentasjonen som fulgte med svitsjen og bonding.txt filen i kjernedokpakken.

 

Kontroller om jordingskjernemodulen er installert.
I Red Hat Enterprise Linux 6 er ikke bindingsmodulen lastet inn som standard. Du kan laste inn modulen ved å utstede følgende kommando som rot:

~]# modprobe --first-time bonding

 

Ingen visuell utdata indikerer at modulen ikke kjørte og nå er lastet. Denne aktiveringen vedvarer ikke på tvers av omstarter av systemet. Se Seksjon 31.7, «Vedvarende modulbelastning» for en forklaring på vedvarende modulbelastning. Gitt en korrekt konfigurasjonsfil ved hjelp av BONDING_OPTS-direktivet, lastes bindingsmodulen etter behov og trenger derfor ikke lastes separat. Hvis du vil vise informasjon om modulen, kan du utstede følgende kommando:

~]$ modinfo bonding

 

Arbeide med kjernemoduler for informasjon om lasting og lossing av moduler. Opprette et grensesnitt for kanaltilknytning Hvis du vil opprette et grensesnitt
for kanalbinding, oppretter du en fil i /etc/sysconfig/network-scripts/ katalog kalt ifcfg-bondN, erstatter N med tallet for grensesnittet, for eksempel 0.
Innholdet i filen kan være identisk med hvilken type grensesnitt som blir bundet, for eksempel et Ethernet-grensesnitt. Den eneste forskjellen er at DEVICE-direktivet er bondN, og erstatter N med nummeret for grensesnittet. NM_CONTROLLED direktivet kan legges til for å hindre at NetworkManager konfigurerer denne enheten.
Eksempel på ifcfg-bond0-grensesnittkonfigurasjonsfil

Følgende er et eksempel på en konfigurasjonsfil for grensesnitt for kanaltilknytning:

DEVICE=bond0
IPADDR=192.168.1.1
NETMASK=255.255.255.0
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
NM_CONTROLLED=no
BONDING_OPTS="bonding parameters separated by spaces"

 

MAC-adressen til obligasjonen er hentet fra det første grensesnittet som skal legges til nettverket. Om nødvendig kan den også angis ved hjelp av HWADDR-direktivet. Hvis du vil at NetworkManager skal kontrollere dette grensesnittet, fjerner du NM_CONTROLLED=nei-direktivet, eller setter det til ja, og legger til TYPE=Bond og BONDING_MASTER=yes.
Når kanalbindingsgrensesnittet er opprettet, må nettverksgrensesnittene som skal bindes sammen, konfigureres ved å legge til MASTER- og SLAVAV-direktivene i konfigurasjonsfilene. Konfigurasjonsfilene for hvert av de kanalbundne grensesnittene kan være nesten identiske.
Eksempel på ifcfg-ethX-bundet grensesnittkonfigurasjonsfil

Hvis to Ethernet-grensesnitt blir kanal som er bundet, kan både eth0 og eth1 være som følger:

DEVICE=ethX
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no
NM_CONTROLLED=no

 

I dette eksemplet erstatter du X med den numeriske verdien for grensesnittet.

 

Når grensesnittene er konfigurert, starter du nettverkstjenesten på nytt for å aktivere tilknytningen. I roten gir du følgende kommando:

~]# service network restart

 

For å se på statusen til en tilknytning kan du se /proc/-filen ved å gi en kommando i følgende format:

cat /proc/net/bonding/bondN

 

Eksempel:

~]$ cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009)

Bonding Mode: load balancing (round-robin)
MII Status: down
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0

 

Viktig: I Red Hat Enterprise Linux 6 må grensesnittspesifikke parametere for kjernemodulen for tilknytning være angitt som en mellomromsdelt liste i BONDING_OPTS="bonding parameters"-direktivet i grensesnittsfilen ifcfg-bondN. Ikke angi opsjoner som er spesifikke for en binding i /etc/modprobe.d/bonding.conf, eller i den utdaterte /etc/modprobe.conf-filen. max_bonds-parameteren er ikke grensesnittspesifikk, og bør om nødvendig angis i /etc/modprobe.d/bonding.conf som følger:

options bonding max_bonds=1

 

Parameteren max_bonds bør imidlertid ikke angis ved bruk av ifcfg-bondN-filer med BONDING_OPTS-direktivet, da dette direktivet fører til at nettverksskriptene oppretter obligasjonsgrensesnittene etter behov.
Eventuelle endringer i /etc/modprobe.d/bonding.conf trer ikke i kraft før modulen er lastet inn neste gang. En kjørende modul må først lastes ut.

 

Opprette flere bindinger
I Red Hat Enterprise Linux 6, for hver obligasjon, opprettes et kanalbindingsgrensesnitt inkludert BONDING_OPTS-direktivet. Denne konfigurasjonsmetoden brukes slik at flere tilknytningsenheter kan ha forskjellige konfigurasjoner. For å opprette grensesnitt for flerkanalsbinding, gjør du følgende:
Opprett flere ifcfg-bondN-filer med BONDING_OPTS-direktivet; dette direktivet fører til at nettverksskriptene oppretter obligasjonsgrensesnittene etter behov.
Opprett eller rediger eksisterende grensesnittkonfigurasjonsfiler som skal bindes og inkluder SLAVE-direktivet.
Tilordne grensesnittene som skal bindes, slavegrensesnittene, til kanalbindingsgrensesnittene ved hjelp av MASTER-direktivet.
Eksempel på flere ifcfg-bondN-grensesnittkonfigurasjonsfiler Følgende er et eksempel på en konfigurasjonsfil
for kanalbindingsgrensesnitt:

DEVICE=bond
N IPADDR=192.168.1.1
NETMASK=255.255.255.0
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
NM_CONTROLLED=no
vBONDING_OPTS="bonding parameters separated by spaces"

 

I dette eksemplet skal du erstatte N med tallet for tilknytningsgrensesnittet. Hvis du for eksempel vil opprette to bindinger, oppretter du to konfigurasjonsfiler, ifcfg-bond0 og ifcfg-bond1.
Opprett grensesnittene som skal bindes i henhold til eksempelkonfigurasjonsfilen ifcfg-ethX bonded interface, og tilordne dem til obligasjonsgrensesnittene etter behov ved hjelp av MASTER=bondN-direktivet. Hvis to grensesnitt per tilknytning er nødvendig, oppretter du fire grensesnittskonfigurasjonsfiler for to filer og tilordner de to første ved hjelp av MASTER= bond0 og de neste to ved hjelp av MASTER=bond1.

 

Referanse: Grensesnitt for Linux-kanalbinding

 

Właściwości artykułu


Produkt, którego dotyczy problem

Servers, PowerEdge, PowerEdge R720

Data ostatniej publikacji

19 lut 2024

Wersja

6

Typ artykułu

How To