Skip to main content
  • Place orders quickly and easily
  • View orders and track your shipping status
  • Create and access a list of your products
  • Manage your Dell EMC sites, products, and product-level contacts using Company Administration.

Slik konfigurerer du gjeste-RDMA på Windows Server 2019

Summary: Denne artikkelen forklarer hvordan du konfigurerer gjeste-RDMA på Windows Server 2019.

This article may have been automatically translated. If you have any feedback regarding its quality, please let us know using the form at the bottom of this page.

Article Content


Instructions

Innholdsfortegnelse

  1. Introduksjon av RDMA (direkte minnetilgang via fjerntilkobling)

  2. Laboratoriemiljø

  3. Maskinvarekonfigurasjon

  4. Konfigurere gjeste-RDMA

  5. PowerShell-cmdleter

  6. Nedlastingskoblinger


1. Introduksjon av RDMA (direkte minnetilgang via fjerntilkobling)

RDMA (Remote Direct Memory Access) er en flott teknologi som gjør det mulig for datamaskiner å overføre data over nettverket uten å involvere CPU- eller operativsystemressurser for de involverte vertene (Databehandling/lagring), noe som forbedrer gjennomstrømming og ytelse, noe som reduserer ventetiden og CPU-forbruket.

Det finnes to populære RDMA-implementeringer i dag:

RoCE
– transport: UDP/IP (RoCE v2)
– stol på DCB (Data Center Bridging)

iWarp
– underliggende nettverk: TCP/IP
– TCP gir administrasjon av flytkontroll og overbelastning


RoCE er avhengig av DCB-konfigurasjon, for eksempel ETS (Enhanced Transmission Service) og PFC (Priority Flow Control), som kan bli et problem hvis nettverkssvitsjene ikke er riktig konfigurert. iWARP krever ingen svitsjkonfigurasjon.

Microsoft begynte å støtte RDMA på Windows Server 2012 og la til nye funksjoner i de senere Windows Server-operativsystemene. Én funksjon som er tilgjengelig på Microsofts nyeste operativsystem, Windows Server 2019, er muligheten for å presentere RDMA for gjesteoperativsystemet (virtuell maskin). Dette gjør at gjesten kan ha samme tilgang med kort ventetid til nettverkslagring som den opprinnelige verten, noe som reduserer CPU-forbruket og forbedrer gjennomstrømming/ytelse direkte i den virtuelle maskinen.


Dell EMC gir gode alternativer for 25 Gbps RDMA, for eksempel Cavium QLogic FastLinQ 41262 Dual Port 25 GbE SFP28 (iWarp/RoCE) og Mellanox ConnectX-4 Lx 25Gbps RDMA (RoCE). Dette eksemplet bruker Mellanox ConnectX-4 Lx RDMA (RoCEv2-modus) for å demonstrere funksjonen for gjeste-RDMA.

2.Laboratoriemiljø

Servere: 2 x Dell EMC R7425 (AMD Epyc 7551 32-core prosessor), 256 GB minne, Mellanox ConnectX-4 Lx fullstendig oppdatert (BIOS, fastvare, drivere og OS)
roller/funksjoner installert: Hyper-V, DCB, Failover Clustering,
S2D-svitsj: Dell EMC S5048F-ON – MGMT VLAN 2, SMB VLAN 15
 
Dell EMC anbefaler at du oppdaterer BIOS, fastvare, drivere og operativsystem som en del av den planlagte oppdateringssyklusen. Oppdateringer av BIOS, fastvare, drivere og operativsystem er ment å forbedre systemets pålitelighet, stabilitet og sikkerhet.

3. Maskinvarekonfigurasjon

1. Start serverne på nytt, og gå til systemoppsettet (Trykk på F2 under POST).

2. Velg Device Settings (Enhetsinnstillinger).


HOW16693_en_US__1Fig1 – BiosDevSet
Figur 1 – BIOS-enhetsinnstillinger

3. Velg NIC i spor 1 port 1 – Mellanox

HOW16693_en_US__2Fig2 – BiosDevSetMellanox
figur 2 – Mellanox spor 1 port 1 Enhetsinnstillinger

4. Gå til Konfigurasjon på enhetsnivå

HOW16693_en_US__3Fig3 – BiosDevLevConf
figur 3 – Konfigurasjon på enhetsnivå

5. Velg SR-IOV i virtualiseringsmodus.

HOW16693_en_US__4Fig4 – BiosDevSriov
Figur 4 – SR-IOV-innstilling

6. Gjenta trinnene ovenfor på NIC i spor 1 port 2 – Mellanox.

HOW16693_en_US__5Fig5 – BiosDevSetMellanox2
Figur 5 – Enhetsinnstillinger for Mellanox spor 1 port

2 7. Gå tilbake til System Setup Main Menu (Hovedmeny for systemoppsett), og velg system-BIOS.

HOW16693_en_US__6Fig6 – SystemBios
Figur 6 – System BIOS

8. Velg Integrated Devices (Integrerte enheter).

HOW16693_en_US__7Fig7 – IntegratedDev
Figur 7 – INTEGRERTe BIOS-enheter

9. Aktiver alternativet SR-IOV Global Enable.

HOW16693_en_US__8Fig8 – SriovGlobal
Figur 8 – SR-IOV Global

10. Lagre konfigurasjonen, og start serveren på nytt.
 

4. Konfigurere gjeste-RDMA


1. Installer Windows Server 2019
2. Installer Hyper-V-rollen og DCB-funksjonen (Data Center Bridging).
3. Konfigurer QoS (Quality-of-Service), DCB, PFC, ETS. Kontroller at server-NIC- og QoS-konfigurasjonen samsvarer med svitsjkonfigurasjonen.
4. Konfigurere Hyper-V SET (Switch Embedded Team).

HOW16693_en_US__9Fig9 – vSwitch
Figur 9 – vSwitch-konfigurasjon

5. Test RDMA-kommunikasjonen mellom de fysiske serverne før du konfigurerer de virtuelle maskinene. Last ned Microsoft Diskspd- og Microsoft Test-RDMA PowerShell-skriptet. Fortsett bare med trinnene nedenfor hvis kommunikasjonen fungerer som den skal. Ellers kontrollerer du svitsjkonfigurasjonen og/eller DCB-innstillingene på verten.

HOW16693_en_US__10Fig10 – Test-RDMA1
Figur 10 – Test-Rdma Physical Hosts

6. Kontroller om SR-IOV er aktivert på RDMA-adapterne på begge serverne.

HOW16693_en_US__11Fig11 – SRIOVEnab
Figur 11 – SR-IOV aktivert

7. Opprett to virtuelle Gen 2-maskiner (gjesteoperativsystem), én på hver server, og installer deretter Windows Server 2019. I dette scenariet opprettes et gjesteoperativsystemer med to vNIC-er, én for MGMT-trafikk (VLAN 2) og én for SMB-trafikk (VLAN 15).

HOW16693_en_US__12Fig12 – VMNetConfig
Figur 12 – Vert for nettverkskonfigurasjon for gjesteoperativsystemer R7425-01

HOW16693_en_US__13Fig13 – VMNetConfig2
Figur 13 – Vert for nettverkskonfigurasjon av virtuell maskin R7425-02

8. Slå av de virtuelle maskinene.
9. Aktiver SR-IOV og RDMA på gjesteoperativsystemet.

HOW16693_en_US__14Fig14 – EnableSriovRdmaColost
Figur 14 – Aktiver SR-IOV/RDMA på gjesteoperativsystemer

10. Start de virtuelle maskinene, og åpne deretter Device Manager (Enhetsadministrator). Den virtuelle Mellanox-funksjonen (VF) skal være oppført under Nettverkskort. VF vises ikke som et vanlig nettverkskort i Network Connections (Nettverkstilkoblinger), som vist i figur 15. 

HOW16693_en_US__15Fig16 – VMDevManager
Figur 15 – Device Manager (Enhetsadministrator) og Network Connections (Nettverkstilkoblinger) i gjesteoperativsystem
 
MERK: Det kan hende at en NIC-driver må installeres for å aktivere RDMA i gjesteoperativsystemet.
11. Aktiver RDMA på SMB vNIC. RDMA-funksjonalitet er allerede aktivert på Mellanox VF (Ethernet4 – figur 16).

HOW16693_en_US__16Fig15 – VMRdmaEnab
Figur 16 – Aktiver RDMA på SMB vNIC

12. Test gjeste-RDMA. 
HOW16693_en_US__17icon Merk: Det er viktig å angi IfIndex (vNIC Interface Index) og VfIndex (Mellanox VF Interface Index).

HOW16693_en_US__18Fig17 – Test-RdmaVM
Figur 17 – Test-RDMA Guest OS
 

5. PowerShell-cmdleter


#Create ny virtuell svitsj med
SRIOV-alternativet aktivert New-VMSwitch -Name xxxx -NetadapterName xxxx,xxxx -AllowManagementOS $true -EnableEmbeddedTeaming $true -EnableIov $true

#Verify hvis SRIOV er aktivert på fysisk adapter
Get-NetAdapterSriov -Name xxxx

#Get VM network configuration
Get-VM -Name xxxx| Get-VMNetworkAdapter

#Get VM-nettverk VLAN-konfigurasjon
Get-VM -Name | Get-VMNetworkAdapterVlan

#Set VM SRIO og RDMA på virtuell maskin (gjesteoperativsystemer) vNIC
Get-VM -Name xxxx | Set-VMNetworkAdapter -Name xxx -Iov Xxx 100 -IoVQueuePairsRequested 2
Get-VM -Name xxxx | Set-VMNetworkAdapterRdma -Name xxx -RdmaPlus 100

#Enable RDMA on NetAdapter
Enable-NetAdapterRdma -Name xxxx

#Test-Rdma Physical Host
.\Test-Rdma.ps1 -IfIndex xx -IsRoCE $true -RemoteIpAddress xxx.xxx.xxx.xxx -PathToDiskspd xxxxx

#Test-Rdma Virtual Machine (Guest OS)
.\Test-Rdma.ps1 -IfIndex xx -IsRoCE $true -RemoteIpAddress xxx.xxx.xxx.xxx -PathToDiskspd xxxxx -VfIndex xx
 

6. Nedlastingskoblinger


Microsoft Diskspd
• Microsoft Test-RDMA ScriptHar du


kommentarer, spørsmål eller forslag? Kontakt oss på WinServerBlogs@dell.com
 

Article Properties


Affected Product

PowerEdge, Microsoft Windows Server 2019

Last Published Date

15 Sept 2021

Version

7

Article Type

How To