• Dell Lösungen für künstliche Intelligenz

    Dell KI-Lösungen

    Entdecken Sie die zahlreichen Vorteile des größten Portfolios für generative KI.1

    Intel® Innovativ bis ins Detail
    • KI für Ihre Daten

      Dell Technologies beschleunigt Ihren Weg vom Möglichen zum Bewährten durch den Einsatz innovativer Technologien, einer umfassenden Palette von Dienstleistungen und eines umfangreichen Partnernetzwerks.

    • KI-fähiges Portfolio

      Bieten Sie die beste KI-Performance2 und vereinfachen Sie die Beschaffung, die Bereitstellung und das Management der KI-Infrastruktur mit hochmoderner Technologie, die für das Zeitalter der generativen KI entwickelt wurde.

    • PowerEdge-Server für KI

      Mit generativer KI können Sie mit unseren KI-optimierten PowerEdge-Servern mit effizienter Energie- und Kühltechnologie Ideen schneller in die Tat umsetzen.

      • PowerEdge XE-Server bieten hervorragende Beschleunigung und vielfältige GPU-Optionen.
      • Der PowerEdge R760xa verfügt über eine hohe PCIe-Kartendichte.
    • Storage für KI

      Schützen Sie Ihre Daten und verarbeiten Sie große Mengen unstrukturierter Daten mit einer flexiblen und skalierbaren Storage-Lösung.

      • Speziell entwickelt, um große Datenmengen mit außergewöhnlicher Leistung zu verarbeiten.
      • Optimieren Sie Ihre KI-Grundlage mit einer skalierbaren Datenplattform.
      • Realisieren Sie den ROI für Investitionen in KI und generative KI.
    • Datenmanagement für KI

      Erschließen Sie Ihre Daten vom Edge über den Core bis zur Multi-Cloud, um Ihre Analyse-, KI- und generativen KI-Workloads voranzutreiben.

      • Vereinfachen Sie die Suche nach, den Zugriff auf und die Verarbeitung von Daten über Umgebungen hinweg.
      • Ermöglichen Sie einen schnelleren Zugriff auf Daten, um die Modelloptimierung und die Geschäftsergebnisse zu beschleunigen.
      • Nutzen Sie eine gebrauchsfertige Lösung, die den Kauf, die Bereitstellung und das Lebenszyklusmanagement vereinfacht.
    • PCs und Workstations für KI

      Nutzen Sie das Potenzial von KI mit einer neuen PC-Architektur.

      • Erleben Sie KI-beschleunigte Inhaltserstellung, Fotoverbesserung, Videobearbeitung und mehr.  
      • Vereinfachen Sie die KI-Entwicklung, von der Prototypentwicklung über die Feinabstimmung bis zur Bereitstellung von generativen KI-Workloads mit Precision-Workstations.
    • APEX für generative KI

      Erschließen Sie nahtlos die Funktionen des Multi-Cloud-Designs und der KI mit dem Komfort kundenspezifischer Abonnements und As a Service-Lösungen auf Basis von Dell APEX.

      • Abonnieren Sie die Produkte, die Sie benötigen, einfacher, flexibler und mit mehr Kontrolle.
      • Wählen Sie Ihr bevorzugtes generatives KI-Produkt aus, konfigurieren Sie einfach dessen Funktionen und legen Sie die benötigten Services fest.
    • Dienstleistungen für KI

      Beschleunigen Sie die Leistungsfähigkeit von KI für Ihre Daten.

      • Erstellen und validieren Sie Ihre Roadmap für generative KI und stellen Sie gleichzeitig Innovationen mit einer etablierten Plattform für generative KI bereit.
      • Beschleunigen Sie die Time-to-Value für priorisierte Geschäftsanforderungen.
      • Fördern Sie generative KI-Fähigkeiten in Ihrem gesamten Unternehmen.

      • Ein offenes Partnernetzwerk

        Nutzen Sie umfassendere Toolsets und Datenquellen für Ihre KI-Workflows.

      • Generative KI für Ihr Unternehmen

        Erfahren Sie, wie Ihr Unternehmen das Potenzial von generativer KI durch die Erkenntnisse, Lösungen und Strategien von Dell zur Nutzung seiner transformativen Funktionen nutzen kann.

      • Dell Lösungen für generative KI

        Die KI-Lösungen von Dell für das Inferencing großer Sprachmodelle (LLMs) in On-Premise-Umgebungen können bis zu 75 % kosteneffizienter sein als die Public Cloud.3

      • Verwenden von Inferencing mit einem vorab trainierten Modell für schnellere Ergebnisse

        Beim Inferencing werden vorab trainierte KI-Modelle verwendet, um auf der Grundlage von Eingabedaten Vorhersagen und Entscheidungen zu treffen oder Ausgaben zu generieren. Dieser Prozess ist für die praktische Umsetzung von generativer KI unerlässlich und ermöglicht die Generierung von Inhalten und Antworten in Echtzeit.

        Generative KI: Inferencing (mit NVIDIA)

        Bewältigt Inferencing-Herausforderungen wie Latenz, Reaktionsgeschwindigkeit und Rechenanforderungen und bietet Unterstützung bei der Transformation von Unternehmensdaten in hochwertige, intelligentere Ergebnisse. 

      • Anpassen eines vorab trainierten Modells

        Die Feinabstimmung ist der Prozess, bei dem Unternehmen domänenspezifische Daten aus ihrer Branche zu einem bereits vorhandenen großen Sprachmodell (LLM) hinzufügen können, damit dieses tiefer in die für das Unternehmen relevanten Informationen eintauchen kann.

        Generative KI: Modellanpassung und -optimierung (mit NVIDIA)

        Senkt die Kosten für die Optimierung mit bewährten Anleitungen für das erneute Training bestehender generativer KI-Modelle für Ihre Anwendungsfälle und Beispielen für Standardanpassungstechniken wie Transfer Learning und Prompt Tuning.

      • Trainieren eines Modells von Grund auf

        Ein Modell von Grund auf zu trainieren ist die beste Wahl, wenn Ihre Branche hochspezialisiert ist und über ein sehr einzigartiges Vokabular verfügt – wie z. B. im juristischen, medizinischen oder wissenschaftlichen Bereich – oder Ihr Unternehmen ein hohes Maß an Datenschutz erfordert, bei dem die Vermischung von Daten aus öffentlichen und privaten Quellen verboten ist.

        Generative KI: Modelltraining (mit NVIDIA)

        Bietet Anleitungen zum Erstellen eines Sprachmodells basierend auf Ihren eigenen Daten, das für Ihre spezifische Branche relevante Inhalte versteht und generieren kann.

      • Retrieval-Augmented Generation (RAG) zur Verbesserung der Modellausgabe

        Große Sprachmodelle (LLMs) können menschenähnliche Antworten liefern, benötigen jedoch genaue Informationen, auf die sie ihre Antworten stützen können. RAG ist eine Technik zur Aufnahme von Informationen sowie zur Bereitstellung präziserer und vertrauenswürdigerer Antworten für LLMs mit Fakten aus externen Quellen.

        Generative KI: Retrieval-Augmented Generation (mit NVIDIA)

        Vereinfacht die Bereitstellung einer Full-Stack-Architektur mit NVIDIA-Microservices und einem skalierbaren Framework für die Einbettung und den Abruf von Informationen für Sprachmodelle.


      • Kunden-Fallbeispiel

      • NATIONALE UND REGIONALE BEHÖRDEN

        Stadt Amarillo

        Die Stadt Amarillo arbeitet mit Dell Professional Services zusammen, um kommunale Services mit einer mehrsprachigen digitalen Assistentin zugänglicher zu machen.

      • TRANSPORTWESEN

        Duos Technologies

        Duos Technologies verbessert die Sicherheit im Bahnverkehr durch die Ausführung von KI-Algorithmen am Edge auf PowerEdge-Servern.

      • MEDIEN UND UNTERHALTUNG

        CyberAgent

        CyberAgent entwickelt japanische generative KI, um digitale Werbeservice zu transformieren. 

      • MEDIEN UND UNTERHALTUNG

        Taboola

        Nutzung von KI zur Bereitstellung relevanter und zielgerichteter Inhalte.

      • WISSENSCHAFTLICHE FORSCHUNG

        KeyGene

        KeyGene schafft eine sicherere, nachhaltigere Zukunft für die Landwirtschaft.

      • HOCHSCHULEN

        Cambridge University

        Dell Technologies und Intel unterstützen den schnellsten KI-Supercomputer des Vereinigten Königreichs.


    • Validierte Designs für KI

      Die Dell Technologies Validated Designs sind getestete und bewährte Konfigurationen, die von Anfang an so konzipiert wurden, dass sie sich dynamisch an die Anforderungen bestimmter Anwendungsfälle anpassen. 

    • Lösung Zweck Vorteile Anwendungsfälle    

      KI für virtualisierte Umgebungen

      Lösungsübersicht

      Validiertes Design

      Vereinfachen Sie die Ausführung von KI neben herkömmlichen Workloads mit einer gemeinsamen Lösung von NVIDIA und VMware, die GPUs mit mehreren Instanzen verwendet.
      • Nahtlose Integration beschleunigter KI-Workloads in vorhandene Unternehmensanwendungen
      • Vermeiden der Erstellung separater KI-spezifischer Systeme
      Softwarebasierte Workloads, dichte Virtualisierungs- und KI-Workloads, HPC- und Performance-Workloads, Private-Cloud-Umgebungen

      AI MLOps mit cnvrg.io

      Lösungsübersicht

      Validiertes Design

      Standardisieren Sie ML-Pipelines für einen nahtlosen Übergang von der Forschung zur Produktion mit dem Dell Validated Design for AI, das in Zusammenarbeit mit cnvrg.io entwickelt wurde.
      • Schnelle Bereitstellung optimierter Hardware- und Software-Stacks
      • Optimierung von ML-Pipelines für eine schnellere Entwicklung und reibungslosere Produktionsübergänge
      • Sichere Bereitstellung einer technisch getesteten MLOps-Lösung (Machine Learning Operations)
      KI-Workloads mit Fokus auf maschinellem Lernen, KI-Vorgängen und Data Analytics

      Automatisches maschinelles Lernen

      Lösungsübersicht

      Validiertes Design

      Automatisieren Sie das Training von KI-Modellen mit Dell Validated Design for AI – automatisches maschinelles Lernen (AutoML), um die Auswahl von Algorithmen, die Generierung von Funktionen, das Tuning von Hyperparametern, die iterative Modellierung und die Modellbewertung zu optimieren.
      • Vereinfachung des Training von KI-Modellen für Data Scientists
      • Beschleunigung des Übergangs von KI in die Produktion mit optimiertem MLOps
      • Sichere Bereitstellung einer technisch getesteten MLOps-Lösung
      KI-Workloads mit Fokus auf maschinellem Lernen, KI-Vorgängen und Data Analytics

      Dialogorientierte KI

      Lösungsübersicht

      Validiertes Design

      Vereinfachen und beschleunigen Sie die Einführung fortschrittlicher virtueller Assistenten mit Dell Validated Design for AI – dialogorientierte KI, die für eine nahtlose Interaktion zwischen Computern und Menschen durch Dialoge optimiert wurde. 
      • Einfache Erstellung dialogorientierter Benutzeroberflächen und virtueller Assistenten
      • Nutzung vorab trainierter virtueller Assistenten für dialogorientierte KI-Anwendungsfälle
      • Ermöglichung der Entwicklung von KI-Assistenten durch GeschäftsnutzerInnen und Nicht-EntwicklerInnen ohne Programmierkenntnisse
      Dialogorientierte und Support-Anwendungsfälle: (Personalwesen, Mitarbeiterarbeitsplätze, Bankwesen, Gesundheitswesen, Suchunterstützung usw.)

      Generative KI: Inferencing (mit NVIDIA)

      Lösungsübersicht

      Validiertes Design

      Vereinfachen Sie das Inferencing großer Sprachmodelle (LLM) mit einer skalierbaren und modularen Architektur zur Unterstützung verschiedener Anwendungsfälle.
      • Schnelle Implementierung vorab trainierter generativer KI-Modelle
      • Generierung von Ergebnissen und Werten mit einer gemeinsamen Architektur von Dell und NVIDIA
      Inhaltserstellung, Supportassistenten, Suche in natürlicher Sprache, Prozessautomatisierung und mehr

      Generative KI: Modellanpassung und -optimierung (mit NVIDIA)

      Lösungsübersicht

      Validiertes Design

      Erfahren Sie, wie Sie vorhandene (vorab trainierte) generative KI-Modelle für bestimmte Anwendungsfälle neu trainieren können.
      • Verbesserung der Leistung des generativen KI-Modells durch Anpassung und Feinabstimmung an Ihre Daten und Anwendungsfälle
      • Implementierung einer gemeinsamen Architektur von Dell und NVIDIA
      Inhaltserstellung, Supportassistenten, Suche in natürlicher Sprache, Prozessautomatisierung und mehr

      Red Hat OpenShift AI auf APEX Cloud Platform for Red Hat OpenShift

      Lösungsübersicht

      Validiertes Design

      Optimieren und erweitern Sie On-Premise-OpenShift-Bereitstellungen auf der Dell APEX Cloud Platform mithilfe dieser mit Red Hat entwickelten DVD.
      • Bereitstellung digitaler Assistenten mit großen Sprachmodellen (LLM) und einem RAG-Framework (Retrieval-Augmented Generation)
      • Beschleunigung der Time-to-Value mit umfassenden Integrationen und intelligenter Automatisierung
      • Bieten von Leistung, Sicherheit und linearer Skalierbarkeit mit einer Bare-Metal-Architektur
      KI-Workloads mit Fokus auf generativer KI, maschinellem Lernen, KI-Vorgängen und Data Analytics; Private Cloud und On-Premise-Umgebungen, dichte Rechen- und KI-Workloads, HPC, Rechenzentren

    • Häufig gestellte Fragen (FAQs)

    • Was ist der Unterschied zwischen künstlicher Intelligenz und generativer KI?

      Künstliche Intelligenz wendet erweiterte Analyse- und logikbasierte Techniken an, um Ereignisse zu interpretieren und Entscheidungen zu automatisieren. Generative KI hingegen schafft mehr Wert für Unternehmen, indem sie große Datensätze nutzt, um neue Inhalte wie Text, Bilder, Audio, Video, synthetische Daten und Softwarecode zu generieren. 

    • Warum sind Daten für künstliche Intelligenz und generative KI wichtig?

      Daten sind die Grundlage für künstliche Intelligenz und generative KI und ihre Quantität und Qualität wirken sich direkt auf die erzielten Ergebnisse aus. 

    • Wie können Unternehmen vom Einsatz generativer KI profitieren?

      Generative KI hat das Potenzial, die Arbeitsweise von Unternehmen zu verändern und sie auf eine Art und Weise zu transformieren, die wir uns gerade erst vorstellen können. Unternehmens- und IT-Führungskräfte nutzen nach und nach die vielen Vorteile, darunter höhere Produktivität, Kostensenkung, Innovationen und Kundenzufriedenheit.

  • Fragen?
    Wir helfen Ihnen gerne.
    Wir bieten Ihnen Beratung durch Experten und unterstützen Sie bei der Lösung komplexer Probleme.
    • 1 Basierend auf einer Analyse von Dell, August 2023.  Dell Technologies bietet Lösungen für KI-Workloads in 12 Produkt- und Servicekategorien.

      2Basierend auf einer Dell Analyse öffentlich verfügbarer Performanceergebnisse für die KI-Bildklassifizierung auf vergleichbaren 8-Wege-GPU-Servern, abgerufen unter www.mlperf.org am 27. Juni 2023. Der Dell PowerEdge XE9680 mit NVIDIA® H100 Tensor Core-GPUs erzielte beim MLPerf™ v3.0-Training für den Benchmark zur KI-Bildklassifizierung in der Kategorie „Verfügbar on-premise“ von Closed Division ein Ergebnis von 13,466 und ist damit schneller als die Ergebnisse des GIGABYTE G593-SD0-Servers: 13,500; des Supermicro AS-8125GS-TNHR- und SYS-821GE-TNHR-Servers: 13,603 bzw. 13,501; und des NVIDIA dgxh100_ngc23.04: 13,601; und die Ergebnisse in der Kategorie „Vorschau“ für den Quanta_Cloud_Technology D74H-7U_preview-Server: 13,721; Azure ND_H100_v5-Server: 13,819. Das Ergebnis wurde von der MLCommons Association verifiziert. Der Name MLPerf™ und das Logo sind Marken der MLCommons Association in den USA und anderen Ländern. Alle Rechte vorbehalten. Unerlaubte Nutzung ist strengstens untersagt. Weitere Informationen finden Sie unter www.mlcommons.org

      * Der Dell PowerEdge XE9680 übertrifft die Leistung des Supermicro SuperServer SYS-821GE-TNHR in vier der sechs wichtigsten Benchmarks für KI-Anwendungen.

           Basierend auf einer Dell Analyse öffentlich verfügbarer Performanceergebnisse für die KI-Bildklassifizierung auf vergleichbaren 8-Wege-GPU-Servern, abgerufen unter www.mlperf.org am 27. Juni 2023. Der Dell PowerEdge XE9680 mit NVIDIA® H100 Tensor Core-GPUs erzielte beim MLPerf™ v3.0-Training für den Benchmark zur KI-Bildklassifizierung in der Kategorie „Verfügbar on-premise“ von Closed Division ein Ergebnis von 13,466 und ist damit schneller als die Ergebnisse des GIGABYTE G593-SD0-Servers: 13,500; des Supermicro AS-8125GS-TNHR- und SYS-821GE-TNHR-Servers: 13,603 bzw. 13,501; und des NVIDIA dgxh100_ngc23.04: 13,601; und die Ergebnisse in der Kategorie „Vorschau“ für den Quanta_Cloud_Technology D74H-7U_preview-Server: 13,721; Azure ND_H100_v5-Server: 13,819.  Das Ergebnis wurde von der MLCommons Association verifiziert. Der Name MLPerf™ und das Logo sind Marken der MLCommons Association in den USA und anderen Ländern. Alle Rechte vorbehalten. Unerlaubte Nutzung ist strengstens untersagt. Weitere Informationen finden Sie unter www.mlcommons.org

      ** Dell PowerEdge XE9680 übertraf Supermicro SuperServer SYS-821GE-TNHR und AS-8125GS-TNHR beim Training von KI-Modellen für die Verarbeitung natürlicher Sprache.

          Basierend auf einer Dell Analyse öffentlich verfügbarer Performanceergebnisse, die am 27. Juni 2023 unter www.mlperf.org abgerufen wurden, erzielte der Dell PowerEdge XE9680 mit NVIDIA® H100 Tensor Core-GPUs ein Ergebnis von 13,466 beim MLPerf™ v3.0-Training für die Bildklassifizierung; 16,846 bei der Spracherkennung; 19,985 bei der Objekterkennung, Heavy-Weight; und 5,363 bei den NLP-Benchmarks in der Kategorie „Verfügbar on-premise“ von Closed Division, was schneller ist als die vom Supermicro SYS-821GE-TNHR-Server erzielten Ergebnisse: 13,501 bei der Bildklassifizierung; 17,919 bei der Spracherkennung; 21,493 bei der Objekterkennung, Heavy-Weight; und 5,383 bei NLP. Das Ergebnis wurde von der MLCommons Association verifiziert. Der Name MLPerf™ und das Logo sind Marken der MLCommons Association in den USA und anderen Ländern. Alle Rechte vorbehalten. Unerlaubte Nutzung ist strengstens untersagt. Weitere Informationen finden Sie unter www.mlcommons.org

      *** Der Dell PowerEdge XE9680 übertraf den Supermicro SuperServer AS-8125GS-TNHR in sechs Kategorien beim Vergleich der Trainingsläufe des Modells für maschinelles Lernen mit einem einzelnen Node.

            Basierend auf einer Dell Analyse öffentlich verfügbarer Performanceergebnisse, die am 27. Juni 2023 unter www.mlperf.org für den Dell PowerEdge XE9680 mit NVIDIA® H100 Tensor Core-GPUs abgerufen wurden, die ein Ergebnis von 13,466 beim MLPerf™ v3.0-Training für die Bildklassifizierung, 16,846 bei der Spracherkennung und 5,363 bei NLP-Benchmarks in der Kategorie „Verfügbar on-premise“ von Closed Division erreichten, was schneller ist als die von Supermicro AS-8125GS-TNHR- und SYS-821GE-TNHR-Servern erzielten Ergebnisse: 13,603 und 13,501 bei der Bildklassifizierung, 19,235 und 17,919 bei der Spracherkennung und 5,389 und 5,383 bei NLP. Das Ergebnis wurde von der MLCommons Association verifiziert. Der Name MLPerf™ und das Logo sind Marken der MLCommons Association in den USA und anderen Ländern. Alle Rechte vorbehalten. Unerlaubte Nutzung ist strengstens untersagt. Weitere Informationen finden Sie unter www.mlcommons.org