Transformieren Sie jedes Unternehmen mit NVIDIA AI, einer fortschrittlichen Plattform mit Full-Stack-Innovationen über eine beschleunigte Infrastruktur, Software der Enterprise-Klasse und KI-Modelle. Durch die Beschleunigung des gesamten KI-Workflows erreichen Projekte schneller, mit höherer Genauigkeit, Effizienz und Leistung die Produktion – und das bei geringeren Gesamtkosten.
Modell |
Workload |
Arbeitsspeicher |
Grafikbus/ Systemschnittstelle |
Steckplatzbreite
|
Max. Stromverbrauch |
Serversupport |
---|---|---|---|---|---|---|
H200 | KI/HPC | 141 GB | SXM/NVLink | – | 700 W | XE9680 |
H100 | HPC/KI/Datenbankanalysen | 80 GB | SXM/NVLink | – | 700 W (80 GB) | XE9680, XE9640, XE8640 |
H100 NVL | KI/HPC | 94 GB | PCIe Gen 5 x16 | DW | 350–400 W | R760xa |
L40S | KI-Inferencing, Performancegrafiken | 48 GB | PCIe Gen4 x16 | Doppelte Breite | 350 W | R760xa, R760, R7625, R7615, R750xa |
L4 | Inferencing/Edge/VDI | 24 GB | PCIe Gen 4 x16 | Einfache Breite | 72 W | R750, R7525, R650 |