Skip to main content
  • Place orders quickly and easily
  • View orders and track your shipping status
  • Enjoy members-only rewards and discounts
  • Create and access a list of your products
  • Manage your Dell EMC sites, products, and product-level contacts using Company Administration.

Dell EMC Ready Solutions per HPC nello storage ad alte prestazioni BeeGFS

Summary: PowerEdge R740xd, PowerEdge R640, PowerSwitch S3048-ON, Mellanox SB7890, BeeGFS v7.1.3, HPC and AI Innovation Lab, HPC, soluzione di storage a prestazioni elevate BeeGFS, IOzone, prestazioni sequenziali di lettura e scrittura, prestazioni di lettura e scrittura casuali ...

This article may have been automatically translated. If you have any feedback regarding its quality, please let us know using the form at the bottom of this page.

Article Content


Symptoms

Articolo scritto da Nirmala Sundararajan di Dell EMC HPC e AI Innovation Lab nel mese di novembre 2019

Cause

Dell EMC Ready Solutions per HPC nello storage ad alte prestazioni BeeGFS

Resolution

Sommario

  1. Introduzione
  2. Architettura di riferimento della soluzione
  3. Configurazione hardware e software
  4. Dettagli della configurazione della soluzione
  5. R740xd, 24 unità NVMe, dettagli sulla mappatura della CPU
  6. Caratterizzazione delle prestazioni
  7. Conclusioni e lavoro futuro
     

Introduzione

Il team HPC di Dell EMC annuncia il rilascio di "Dell EMC Ready Solutions for HPC BeeGFS Storage", l'ultima aggiunta al portafoglio di storage HPC. Questa soluzione utilizza server R740xd, ciascuno con 24 intel P4600 da 1,6 TB NVMe, unità Express Flash per utilizzo misto e due adattatori EDR Mellanox ConnectX-5 InfiniBand. In questa configurazione con 24 unità NVMe, 12 SSD NVMe si connettono a uno switch PCIe e ogni switch è collegato a una CPU tramite una scheda estensore PCIe x16. Inoltre, ogni interfaccia IB è collegata a una CPU. Tale configurazione bilanciata con ogni CPU collegata a un adattatore InfiniBand e la gestione di 12 SSD NVMe fornisce le massime prestazioni garantendo che i processori siano ugualmente occupati nella gestione delle richieste di I/O da e verso le unità NVMe.

L'obiettivo della soluzione è l'I/O a prestazioni elevate ed è stato progettato come soluzione scratch ad alta velocità.  Al centro della soluzione vi è l'utilizzo di SSD NVMe ad alta velocità che offrono larghezza di banda molto elevata e bassa latenza rimuovendo l'utilità di pianificazione e accodando i colli di bottiglia dal livello di blocco. Il file system BeeGFS supporta inoltre un elevato throughput I/O aggregato

Architettura di riferimento della soluzione

La Figura 1 mostra l'architettura di riferimento della soluzione. Il server di gestione è connesso solo tramite Ethernet ai metadati e agli storage server. Ogni server di metadati e storage dispone di due link InfiniBand ed è connesso alla rete privata tramite Ethernet. I client dispongono di un link InfiniBand e sono connessi all'interfaccia privata tramite Ethernet.
Dell EMC Ready Solutions for HPC BeeGFS Storage - Architettura di riferimento
Figura 1:  Dell EMC Ready Solutions for HPC BeeGFS Storage - Architettura di riferimento

Configurazione hardware e software

Le tabelle 1 e 2 descrivono rispettivamente le specifiche hardware del server di gestione e dei metadati/storage server. La Tabella 3 descrive le versioni software utilizzate per la soluzione.

 

Tabella 1 Configurazione di PowerEdge R640 (server di gestione)
Server Dell EMC PowerEdge R640
Processore 2 Intel Xeon Gold 5218 da 2,3 GHz, 16 core
Memoria 12 DIMM DDR4 da 8 GB a 2.666 MT/s - 96 GB
Dischi locali 6 HDD SAS da 300 GB e 15.000 rpm da 2,5"
Controller RAID Controller RAID PERC H740P integrato
Gestione fuori banda iDRAC9 Enterprise con Lifecycle Controller
Alimentatori Due alimentatori da 1.100 W
Versione del BIOS 2.2.11
Sistema operativo CentOS™ 7.6
Versione del kernel 3.10.0-957.27.2.el7.x86_64

 

Tabella 2 Configurazione di PowerEdge R740xd (server metadati e storage)
Server Dell EMC PowerEdge R740xd
Processore 2 CPU Intel Xeon Platinum 8268 da 2,90 GHz, 24 core
Memoria 12 DIMM DDR4 da 32 GB a 2.933 MT/s - 384 GB
Scheda BOSS 2 SSD SATA M.2 da 240 GB in RAID 1 per il sistema operativo
Unità locali 24x Dell Express Flash NVMe P4600 1,6 TB 2,5" U.2
Scheda EDR Mellanox 2 schede EDR Mellanox ConnectX-5 (slot 1 e 8)
Gestione fuori banda iDRAC9 Enterprise con Lifecycle Controller
Alimentatori Due alimentatori da 2000 W

 

Tabella 3 Configurazione software (server metadati e storage)
BIOS 2.2.11
CPLD 1.1.3
Sistema operativo CentOS™ 7.6
Versione del kernel 3.10.0-957.el7.x86_64
iDRAC 3.34.34.34
Strumento di gestione dei sistemi OpenManage Server Administrator 9.3.0-3407_A00
Mellanox OFED 4.5-1.0.1.0
SSD NVMe QDV1DP13
*Intel ® Data Center Tool  3.0.19
BeeGFS 7.1.3
Grafana 6.3.2
InfluxDB 1.7.7
IOzone Benchmark 3,487
*Per l'aggiornamento del firmware e della gestione delle unità SSD Intel P4600NVMe

Dettagli della configurazione della soluzione

L'architettura BeeGFS è costituita da quattro servizi principali:
  • Servizio di gestione
  • Servizio metadati
  • Storage Services
  • Client Services
Fatta eccezione per il servizio client che è un modulo kernel, i servizi di gestione, metadati e storage sono processi di spazio utente. Nella Figura 2 viene illustrato come l'architettura di riferimento di Dell EMC Ready Solutions for HPC BeeGFS Storage si associa all'architettura generale del file system BeeGFS.
File system BeeGFS su PowerEdge R740xd con SSD NVMe
Figura 2:  File system BeeGFS su PowerEdge R740xd con SSD NVMe

Servizio di gestione

Ogni file system o namespace BeeGFS dispone di un solo servizio di gestione. Il servizio di gestione è il primo servizio che deve essere configurato perché quando configuriamo tutti gli altri servizi, devono registrarsi al servizio di gestione.  Viene utilizzato un Server di gestione PowerEdge R640. Oltre a ospitare il servizio di gestione (beegfs-mgmtd.service), ospita anche il servizio di monitoraggio (beegfs-mon.service) che raccoglie statistiche dal sistema e le fornisce all'utente, utilizzando il Database InfluxDB della serie temporale. Per la visualizzazione dei dati, beegfs-mon fornisce riquadri Grafana predefiniti che possono essere utilizzati out-of-the-box. Il server di gestione dispone di 6 unità HDD da 300 GB configurate in RAID 10 per il sistema operativo e InfluxDB.

Servizio metadati

Il servizio di metadati è un servizio scale-out, il che significa che possono essere presenti molti servizi di metadati in un file system BeeGFS. Tuttavia, ogni servizio di metadati ha esattamente una destinazione di metadati per archiviare i metadati.  Nella destinazione dei metadati, BeeGFS crea un file di metadati per ogni file creato dall'utente. I metadati BeeGFS vengono distribuiti in base alla directory. Il servizio di metadati fornisce le informazioni di striping dei dati ai client e non è coinvolto nell'accesso ai dati tra file aperto/chiuso.

Un Server PowerEdge R740xd con 24 unità Intel P4600 da 1,6 TB NVMe viene utilizzato per lo storage dei metadati. Poiché i requisiti di capacità di storage per i metadati BeeGFS sono molto ridotti, invece di utilizzare un server di metadati dedicato, sono state utilizzate solo le 12 unità sulla zona NUMA 0 per ospitare i MetaData Targets (MDTs), mentre le restanti 12 unità sulll'host della zona NUMA Storage Targets (STs).

La Figura 3 mostra il server metadati. Le 12 unità racchiuse nel rettangolo giallo sono I MDT nella zona NUMA 0, mentre le 12 unità racchiuse nel rettangolo verde sono le ST nella zona NUMA 1. Questa configurazione non solo evita i problemi NUMA, ma fornisce anche uno storage dei metadati sufficiente per facilitare il dimensionamento della capacità e delle prestazioni in base alle esigenze.

Server metadati

Figura 3.  Server metadati

La Figura 4 mostra la configurazione RAID del server di metadati. Evidenzia il modo in cui nel server di metadati, le unità nella zona NUMA 0 ospitano gli MPT e quelle nella zona 1 NUMA ospitano i dati di storage, mentre gli storage server ospitano le ST in entrambe le zone NUMA.

Configurazione delle unità nel server di metadati

Figura 4.  Configurazione delle unità nel server Metadati

Le 12 unità utilizzate per i metadati sono configurate come 6 gruppi di dischi RAID 1 di 2 unità, ciascuna delle quali funge da MDT. Esistono 6 servizi di metadati e ciascuno di essi che gestisce un MDT. Le restanti 12 unità di storage sono configurate in 3 gruppi di dischi RAID 0 di 4 unità ciascuno. Esistono tre servizi di storage in esecuzione nella zona NUMA 1, un servizio per ogni ST. Quindi, il server che co-ospita i metadati e le destinazioni di storage ha 6 MPT e 3 ST. Esegue inoltre 6 servizi di metadati e tre servizi di storage. Ogni MDT è un file system ext4 basato su una configurazione RAID 1. Gli ST si basano su un file system XFS configurato in RAID 0.
 

Storage Services

Come il servizio di metadati, anche il servizio di storage è un servizio scale-out. Possono essere presenti molte istanze del servizio di storage in un file system BeeGFS. Tuttavia, a differenza del servizio di metadati, possono esserci diverse destinazioni di storage per servizio di storage.  Il servizio di storage archivia il contenuto dei file utente con striping, noti anche come file di blocchi di dati
La Figura 5 mostra i 5 server PowerEdge R740xd utilizzati come storage server.
Storage server dedicati

Figura 5:  Server di storage dedicati

Ogni storage server è configurato con 6 gruppi RAID 0, ciascuna delle 4 unità, in modo da ospitare 6 TB per server (3 per zona NUMA), come illustrato nella Figura 6 riportata di seguito:

Configurazione delle unità negli storage serverFigura 6:  Configurazione delle unità nei server di storage

In totale, la configurazione dell'architettura di riferimento di base ospita 6 MDT e 33 ST. Disporre di cinque storage server dedicati fornisce una capacità raw di 211 TB e una capacità utilizzabile di 190 TiB. La capacità utilizzabile stimata in TiB = numero di unità x capacità per unità in TB x 0,99 (overhead del file system) x (10^12/2^40). Si tratta di una soluzione scratch midrange con storage dei metadati sufficiente per facilitare l'aggiunta di più storage server man mano che aumentano i requisiti di capacità.

In considerazione dei seguenti fattori, è stata scelta una configurazione RAID 0 per le destinazioni di storage rispetto alla configurazione RAID 10.
  1. Le prestazioni di scrittura sono state misurate utilizzando il comando dd creando un file da 10 GiB con dimensione block di 1MiB e I/O diretto per i dati, per i dispositivi RAID 0 la media era di circa 5,1 GB/s per ogni dispositivo, mentre per i dispositivi RAID 10 la media era di 3,4 GB/s per ogni dispositivo.
  2. I test di benchmark StorageBench hanno mostrato un throughput massimo di 5,5 GB/s per la configurazione RAID 0, mentre è di 3,4 GB/s per una configurazione RAID 10. Questi risultati sono simili a quanto ottenuto utilizzando i comandi dd.
  3. RAID 10 fornisce un utilizzo del 50% della capacità del disco e una riduzione simile del 50% delle prestazioni di scrittura. L'utilizzo di RAID 10 è un modo costoso per ottenere la ridondanza dello storage.
  4. Le unità NVMe sono costose e offrono velocità che vengono utilizzate al meglio in una configurazione RAID 0
 

Client Services

Il modulo client BeeGFS deve essere caricato su tutti gli host che devono accedere al file system BeeGFSs. Quando beegfs-client viene caricato, verrà eseguito il mount dei file system definiti nel file/etc/beegfs/beegfs-mounts.conf anziché il consueto approccio basato su /etc/fstab.  L'adozione di questo approccio avvia il beegfs-client come qualsiasi altro servizio Linux tramite lo script di avvio del servizio. Consente inoltre la ricompilazione automatica del modulo client BeeGFS dopo gli aggiornamenti del sistema. 

Quando il modulo client viene caricato, verrà eseguito il mount dei file system definiti in beegfs-mounts.conf. È possibile eseguire il mounting di più istanze beegfs sullo stesso client come illustrato di seguito:

$ cat /etc/beegfs/beegfs-mounts.conf
/mnt/beegfs-medium /etc/beegfs/beegfs-client-medium.conf
/mnt/beegfs-small /etc/beegfs/beegfs-client-small.conf

L'esempio precedente mostra due file system diversi montati sullo stesso client. Ai fini di questo test, sono stati utilizzati come client 32 nodi C6420.

R740xd, 24 unità NVMe, dettagli sulla mappatura della CPU


Nella configurazione 24xNVMe del server PowerEdge R740xd, ci sono due schede bridge NVMe x16 che collegano lo switch PCIe sul backplane che eseguono le ventole e alimentano le unità (le unità sono x4) nella parte anteriore, come illustrato nella Figura 7 riportata di seguito:


R740xd, 24x NVMe Dettagli sul mapping della CPUFigura 7:  R740xd, 24x NVMe Details on CPU Mapping

In Non-Uniform Memory Access (NUMA), la memoria di sistema è suddivisa in zone denominate nodi, che vengono allocate a CPU o socket. L'accesso alla memoria locale su una CPU è più veloce della memoria collegata alle CPU remote sul sistema. Un'applicazione con thread in genere offre prestazioni ottimali quando i thread accedono alla memoria sullo stesso nodo NUMA. L'impatto sulle prestazioni di NUMA è significativo, in genere a partire da un calo delle prestazioni del 10% o superiore. Per migliorare le prestazioni, i servizi sono configurati per utilizzare zone NUMA specifiche per evitare l'utilizzo non necessario dei link cross-socket UPI, riducendo così la latenza. Ogni zona NUMA gestisce 12 unità e utilizza una delle due interfacce EDR InfiniBand sui server. Questa separazione NUMA si ottiene configurando manualmente il bilanciamento NUMA creando file di unità personalizzate di sistema e configurando multihoming. Di conseguenza, il bilanciamento automatico NUMA è disabilitato, come illustrato di seguito:

# cat /proc/sys/kernel/numa_balancing
0

La Figura 8 mostra il testbed in cui vengono evidenziate le connessioni InfiniBand alla zona NUMA.  Ogni server dispone di due link IP e il traffico attraverso la zona NUMA 0 viene gestito dall'interfaccia IB0 mentre il traffico attraverso la zona NUMA 1 è gestito dall'interfaccia IB1.
Configurazione del banco di prova
Figura 8:  Configurazione del banco di prova
 

Caratterizzazione delle prestazioni

In questa sezione viene presentata la valutazione delle prestazioni che aiuta a caratterizzare la soluzione di storage a prestazioni elevate Dell EMC Ready Solution for HPC BeeGFS. Per ulteriori dettagli e aggiornamenti, cerca un white paper che verrà pubblicato in seguito. Le prestazioni del sistema sono state valutate utilizzando il benchmark IOzone. La soluzione è testata per il throughput di lettura e scrittura sequenziale e per ioPS di lettura e scrittura casuali. La tabella 4 descrive la configurazione dei server C6420 utilizzati come client BeeGFS per gli studi sulle prestazioni presentati in questo blog.
 
Tabella 4 Configurazione client
Client 32 nodi di calcolo Dell EMC PowerEdge C6420
BIOS 2.2.9
Processore 2 CPU Intel Xeon Gold 6148 a 2,40GHz con 20 core per processore
Memoria  12 DIMM DDR4 da 16 GB a 2.666 MT/s - 192 GB
Scheda BOSS 2 unità di avvio M.2 da 120 GB in RAID 1 per il sistema operativo
Sistema operativo Red Hat Enterprise Linux Server versione 7.6
Versione del kernel 3.10.0-957.el7.x86_64
Interconnessione 1 scheda EDR Mellanox ConnectX-4
Versione di OFED 4.5-1.0.1.0

Scritture e letture sequenziali N-N

Per valutare le letture e scritture sequenziali, il benchmark IOzone, è stato utilizzato nella modalità di lettura e scrittura sequenziale. Questi test sono stati condotti su un numero di thread a partire da 1 in potenza di 2, fino a 1024 thread. In ciascun thread è stato generato un numero uguale di file, poiché questo test funziona su un file per thread o su un caso N-N. I processi sono stati distribuiti su 32 nodi client fisici in modo round robin o ciclico in modo tale che le richieste siano equamente distribuite e vi sia bilanciamento del carico. È stata selezionata una dimensione di file aggregata pari a 8 TB, divisa equamente tra il numero di thread all'interno di un determinato test. La dimensione del file aggregato è stata scelta in modo sufficientemente grande da ridurre al minimo gli effetti della memorizzazione nella cache dai server e dai client BeeGFS. IOzone è stato eseguito in modalità combinata di scrittura e lettura (-i 0, -i 1) per consentire di coordinare i limiti tra le operazioni. Per questo test e i risultati, abbiamo utilizzato una dimensione record di 1MiB per ogni esecuzione. Di seguito sono riportati i comandi utilizzati per i test N-N sequenziali:

Scritture e letture sequenziali: iozone -i 0 -i 1 -c -e -w -r 1m -I -s $Size -t $Thread -+n -+m /path/to/threadlist

Le cache del sistema operativo sono state eliminate o pulite sui nodi client tra le iterazioni e tra i test di scrittura e lettura eseguendo il comando:

# sync & echo 3 > /proc/sys/vm/drop_caches

Il numero di stripe predefinito per Beegfs è 4. Tuttavia, le dimensioni del blocco e il numero di destinazioni per file possono essere configurate in base alla directory. Per tutti questi test, è stata scelta la dimensione di stripe BeeGFS da 2 MB e il conteggio degli stripe è stato scelto come 3 in quanto abbiamo tre destinazioni per zona NUMA, come mostrato di seguito:

$ beegfs-ctl --getentryinfo --mount=/mnt/beegfs /mnt/beegfs/benchmark --verbose
EntryID: 0-5D9BA1BC-1
ParentID: root
Metadata node: node001-numa0-4 [ID: 4]
Stripe pattern details:
+ Type: RAID0
+ Chunksize: 2M
+ Number of storage targets: desired: 3

+ Storage Pool: 1 (Default)
Inode hash path: 7/5E/0-5D9BA1BC-1

Le enormi pagine trasparenti sono state disabilitate e sono disponibili le seguenti opzioni di tuning sui metadati e sugli storage server:

  • vm.dirty_background_ratio = 5 
  • vm.dirty_ratio = 20 
  • vm.min_free_kbytes = 262144 
  • vm.vfs_cache_pressure = 50
  • vm.zone_reclaim_mode = 2 
  • kernel.numa_balancing = 0

Oltre a quanto sopra, sono state utilizzate le seguenti opzioni di tuning BeeGFS: 

  • il parametro tuneTargetChooser è stato impostato su "roundrobin" nel file di configurazione dei metadati 
  • il parametro tuneNumWorkers è stato impostato su 24 per i metadati e 32 per lo storage 
  • Il parametro connMaxInternodeNum è stato impostato su 32 per i metadati e 12 per lo storage e 24 per i client

Dimensione aggregata file iOzone sequenziale da 8 TB
Figura 9.  Dimensione aggregata file iOzone sequenziale da 8 TB


Nella Figura 9, vediamo che il picco delle prestazioni di lettura è 132 GB/s a 1024 thread e il picco di scrittura è 121 GB/s a 256 thread. Ogni unità può fornire prestazioni di lettura di picco di 3,2 GB/s e prestazioni di scrittura di picco di 1,3 GB/s, che consentono un picco teorico di 422 GB/s per le letture e 172 GB/s per le scritture. Tuttavia, qui la rete è il fattore limitante. Abbiamo un totale di 11 link EDR InfiniBand per gli storage server nella configurazione. Ogni link può fornire prestazioni di picco teoriche di 12,4 GB/s che consente un picco teorico delle prestazioni di 136,4 GB/s. Il picco di prestazioni di lettura e scrittura raggiunto è rispettivamente del 97% e dell'89% delle prestazioni di picco teoriche.

Si osserva che le prestazioni di scrittura a thread singolo sono di circa 3 GB/s e di lettura a circa 3 GB/s. Si osserva che le prestazioni di scrittura sono scalabili in modo lineare, picchi di 256 thread e poi inizia a diminuire. Con un numero inferiore di thread, le prestazioni di lettura e scrittura sono le stesse. Perché fino a 8 thread, abbiamo 8 client che scrivono 8 file su 24 destinazioni, il che significa che non tutte le destinazioni di storage vengono completamente utilizzate. Abbiamo 33 destinazioni di storage nel sistema e quindi sono necessari almeno 11 thread per utilizzare completamente tutti i server. Le prestazioni di lettura registrano un costante aumento lineare con l'aumento del numero di thread simultanei e osserviamo prestazioni quasi simili a 512 e 1024 thread.

Si osserva inoltre che le prestazioni di lettura sono inferiori alle scritture per i conteggi di thread da 16 a 128 e quindi le prestazioni di lettura iniziano a scalare. Ciò è dovuto al fatto che, mentre un'operazione di lettura PCIe è un'operazione non pubblicata, che richiede sia una richiesta che un completamento, un'operazione di scrittura PCIe è un'operazione fire and forget. Una volta che Transaction Layer Packet viene consegnato al livello di collegamento dati, l'operazione viene completata. Un'operazione di scrittura è un'operazione "Posted" costituita solo da una richiesta.

Il throughput di lettura è in genere inferiore rispetto al throughput in scrittura perché le letture richiedono due transazioni anziché una singola scrittura per la stessa quantità di dati. PCI Express utilizza un modello di transazione suddivisa per le letture. La transazione di lettura include i seguenti passaggi:

  • Il richiedente invia una memory read request (MRR).
  • Il completer invia la conferma all'MRR.
  • Il completamento restituisce un completamento con i dati.

Il throughput di lettura dipende dal ritardo tra il tempo di emissione della richiesta di lettura e il tempo impiegato dal completer per restituire i dati. Tuttavia, quando l'applicazione genera un numero sufficiente di richieste di lettura per coprire questo ritardo, il throughput viene ottimizzato. Questo è il motivo per cui, sebbene le prestazioni di lettura siano inferiori a quelle delle scritture da 16 thread a 128 thread, valutiamo un aumento del throughput quando aumenta il numero di richieste.  Un throughput inferiore viene misurato quando il richiedente attende il completamento prima di emettere richieste successive. Viene registrato un throughput più elevato quando vengono inviate più richieste per ritardare il ritardo dopo la restituzione dei primi dati.


Scritture e letture casuali N-N

Per valutare le prestazioni I/O casuali, IOzone è stato utilizzato in modalità casuale. I test sono stati condotti su conteggi di thread a partire da 4 a un massimo di 1024 thread. L'opzione I/O diretta (-I) è stata utilizzata per eseguire IOzone in modo che tutte le operazioni bypassano la cache del buffer e passano direttamente al disco. È stato utilizzato il numero di stripe BeeGFS di 3 e la dimensione del blocco di 2 MB. Una dimensione della richiesta da 4 KiB viene utilizzata su IOzone. Le prestazioni sono misurate in operazioni di I/O al secondo (IOPS). Le cache del sistema operativo sono state eliminate tra le esecuzioni sui server BeeGFS e sui client BeeGFS. Il comando utilizzato per l'esecuzione di scritture e letture casuali è indicato di seguito:

Letture e scritture casuali: iozone -i 2 -w -c -O -I -r 4K -s $Size -t $Thread -+n -+m /path/to/threadlist


Prestazioni di lettura e scrittura casuali con IOzone con dimensione file aggregata di 8 TB
Figura 10.  Prestazioni di lettura e scrittura casuali utilizzando IOzone con dimensioni di file aggregate di8 TB

Il picco di scritture casuali a ~3,6 milioni di IOPS a 512 thread e il picco di letture casuali a ~3,5 milioni di IOPS a 1024 thread, come illustrato nella Figura 10. Sia le prestazioni di scrittura che di lettura mostrano prestazioni più elevate in caso di un numero più elevato di richieste I/O. Ciò è dovuto al fatto che lo standard NVMe supporta fino a 64.000 code di I/O e fino a 64.000 comandi per coda. Questo ampio pool di code NVMe fornisce livelli più elevati di parallelismo I/O e quindi osserviamo IOPS superiori a 3 milioni.


Conclusioni e lavoro futuro

Questo blog annuncia il rilascio della soluzione di storage Dell EMC High Performance BeeGFS e ne evidenzia le caratteristiche prestazionali. La soluzione offre prestazioni di lettura e scrittura sequenziali di picco rispettivamente di circa 132 GB/s e ~121 GB/s e il picco di scritture casuali a ~3,6 milioni di IOPS e letture casuali a ~3,5 milioni di IOPS.

Questo blog fa parte di "BeeGFS Storage Solution", progettata con particolare attenzione allo spazio scratch con prestazioni elevate. Restate sintonizzati per la seconda parte della serie di blog che descriverà in che modo la soluzione può essere dimensionata incrementando il numero di server per aumentare le prestazioni e la capacità. Nella parte 3 della serie di blog verranno illustrate le funzionalità aggiuntive di BeeGFS e verrà evidenziato l'utilizzo di "StorageBench", il benchmark degli obiettivi di storage integrato di BeeGFS.

Come parte dei passaggi successivi, pubblicheremo un white paper più tardi con le prestazioni dei metadati e i thread N a 1 file IOR e con ulteriori dettagli sulle considerazioni di progettazione, sul tuning e sulla configurazione.


Riferimenti

[1] Documentazione di BeeGFS:  https://www.beegfs.io/wiki/
[2] How to connect two interfaces on the same subnet:  https://access.redhat.com/solutions/30564

Article Properties


Affected Product

PowerSwitch S3048-ON, Mellanox SB7800 Series, PowerEdge R640, PowerEdge R740XD

Last Published Date

25 Mar 2024

Version

7

Article Type

Solution