• Generative KI

    Die generative KI ist bereit.
    Sind Sie es auch?

    Intel® Innovativ bis ins Detail
      • Ausgangspunkt

        Ein neues Zeitalter generativer KI

        Generative KI (GenAI) wird von Unternehmen und Einzelpersonen in großem Umfang genutzt und führt so zu erheblichen gesellschaftlichen Auswirkungen. KI für den Privatgebrauch wie ChatGPT und DALL-E begeistert mit der Fähigkeit zur Generierung von Inhalten. Unternehmen können sich von generativer KI jedoch noch mehr versprechen, z. B. gesteigerte Produktivität, Kostensenkung und eine Transformation der Arbeitsweise.

      • 76 %

        der IT-Führungskräfte sind davon überzeugt, dass generative KI für ihr Unternehmen von großer, wenn nicht sogar transformativer Bedeutung sein wird.

        Unternehmenstransformation durch generative KI

        Generative KI bringt zwar Vorteile, aber auch neue Herausforderungen und Risiken mit sich. In ihren Bemühungen um die Vorreiterrolle in generativer KI können Unternehmen das Vertrauen ihrer KundInnen und wertvolle Daten nicht aufs Spiel setzen.

        76 %

        der IT-Führungskräfte sind davon überzeugt, dass generative KI für ihr Unternehmen von großer, wenn nicht sogar transformativer Bedeutung sein wird.
      • Die richtigen Daten für Ihren Anwendungsfall

        Um die Leistungsfähigkeit von generativer KI effektiv nutzen zu können, müssen Unternehmen umfassende, qualitativ hochwertige Daten strategisch nutzen. Die besten Anwendungsfälle beruhen auf diesen Daten und erfordern eine ausgewogene Mischung aus Kompetenzen, Budgets und Ressourcen und unterstreichen damit, wie wichtig die Zusammenarbeit zwischen Geschäfts- und IT-Teams beim Festlegen von Prioritäten ist.

        • Erstellen von Inhalten

        • Suche in natürlicher Sprache

        • Codegenerierung

        • Digitale Assistenz

        • Design und Datenerstellung

        • Dokumentautomatisierung

      • Zum Erfolg mit generativer KI

        Auch wenn bereits Hunderte von Anwendungsfällen in allen möglichen vertikalen Märkten zutage gefördert wurden, können Sie mit den passenden Anwendungsfällen für Ihr Unternehmen schneller Erfolge erzielen.


      • MitarbeiterInnen und Teams

        Bereiten Sie Ihr Unternehmen darauf vor, die Möglichkeiten generativer KI wahrzunehmen, wobei sich die IT-Abteilung nach innen und das Geschäft nach außen richten.

      • Prozesse und Richtlinien

        Definieren und kommunizieren Sie, wie Ihr Unternehmen KI nutzen wird, und beziehen Sie dabei die MitarbeiterInnen fest mit ein.

      • Technologie

        Stellen Sie sicheren Zugriff auf generative KI in Ihrem gesamten Unternehmen bereit und vermeiden Sie den Einsatz von Schatten-KI. So sorgen Sie für Datenintegrität und Compliance.

      • Strategie

        Erfassen Sie den aktuellen Zustand Ihrer Umgebung im Hinblick auf Ihre strategische Vision und Leitprinzipien für zukünftige Initiativen in generativer KI.

      • Die entscheidende Rolle Ihrer Daten für generative KI

        Daten und Risiken gehen Hand in Hand. Daten treiben Ihre Initiativen in generativer KI voran. Andererseits müssen Sie auch die potenziellen Risiken des Hostings von generativen KI-Modellen in Public Clouds berücksichtigen, unter anderem den Verlust und die Verletzung geistigen Eigentums sowie Datenlecks, Datenschutzprobleme, Verstöße gegen die Compliance, Glaubwürdigkeits- und Integritätsverlust und Voreingenommenheit.

        • Risikomanagement und Nutzensteigerung

          Zu Beginn müssen Investitionen in Technologie und Schulung aufeinander abgestimmt werden, um den betrieblichen Reifegrad zu steigern, Risiken zu senken, die Kontrolle zu verbessern und den Nutzen für Ihr Unternehmen zu maximieren. Mit unternehmenstauglicher generativer KI haben Sie die Kontrolle darüber, wer auf Ihre Daten zugreift.

      • Unternehmenstaugliche generative KI Unausgereifte generative KI Betriebliche Reife Risiko
        Das Diagramm zeigt, dass das Risiko (y-Achse) im Laufe der Zeit abnimmt, wenn Sie die betriebliche Reife (x-Achse) bei der Datenverarbeitung erreichen. Der Anfang der Kurve im Diagramm zeigt eine unausgereifte generative KI mit hohem Risiko und geringer betrieblicher Reife. Der Abwärtstrend im Diagramm deutet darauf hin, dass betriebstaugliche KI für Unternehmen das Risiko verringert, und steht für einen hohen betrieblichen Reifegrad.
      • KI IN KOMBINATION MIT IHREN DATEN

        Modelle generativer KI basierend auf Ihren Daten

        • Das Bewusstsein für die Risiken und Vorteile verschiedener Bereitstellungsoptionen ist entscheidend für Ihr Unternehmen beim Ermitteln der optimalen Workload-Platzierung der generativen KI. Im Hinblick auf den Einsatz von KI für Ihre Daten bieten private Instanzen großer Sprachmodelle (LLMs) mit generativer KI wie Llama 2 oder Falcon zwar Vorteile bei Geschwindigkeit, sie können aber auch höhere Kosten und andere Nachteile mit sich bringen. In jedem Fall wird die interne generative KI wahrscheinlich den größten Nutzen für Ihre frühen Bemühungen bieten.

          In Bezug auf die Workload-Platzierung unterscheidet sich generative KI nicht von anderen Workloads. Um die besten Ergebnisse zu erzielen, sollten Sie sie in der Umgebung einsetzen, die für Ihre geschäftlichen und technischen Anforderungen am sinnvollsten ist.

          Das folgende Diagramm vermittelt Konzepte und Frameworks der Workload-Platzierung für generative KI.

      • Datenresidenz Kosten Schnellere Wertschöpfung Genauigkeit und Anpassung Allgemeine Anwendungsfälle Sicherer Zugriff Public Cloud Private Cloud
        Das Diagramm zeigt sechs Faktoren, die bei der Wahl zwischen Private Cloud und Public Cloud für die Workload-Platzierung der generativen KI zu berücksichtigen sind. „Datenresidenz“ und „Sicherer Zugriff“ tendieren stark zur Private Cloud. „Kosten“ tendiert moderat zur Private Cloud, „Genauigkeit und Anpassung“ leicht zur Private Cloud. „Kürzere Time-to-Value“ tendiert leicht zur Public Cloud. „Allgemeine Anwendungsfälle“ tendiert stark zur Public Cloud.
        • Datenmanagement für generative KI

          Die meisten Unternehmen verfolgen bei ihrer Strategie der generativen KI einen zweistufigen Ansatz. Sie experimentieren mit taktischen Bereitstellungen, um zu lernen und nicht abgehängt zu werden, und entwickeln gleichzeitig eine langfristige Strategie für die vielen Anwendungsfälle, die sich im Laufe der Zeit herauskristallisieren werden. Dieser Ansatz erfordert daher eine zweistufige Datenmanagementstrategie.

        DATENVORBEREITUNG
        DATENTECHNIK
        • Datenvorbereitung

        • Datenermittlung

          Identifizieren von Datenvolumen und Festlegen von Datenanforderungen

        • Datenexploration und -anreicherung

          Design und Implementierung von Datenpipelines zur Markierung, Bereinigung, Kennzeichnung und Anonymisierung von Daten


        • Kurzfristig: Datenvorbereitung

          Die Datenvorbereitung umfasst das Identifizieren von Datenvolumen und das Festlegen von Datenanforderungen, gefolgt von der Bereinigung, Kennzeichnung und Anonymisierung der Daten und dann deren Normalisierung über Datenquellen hinweg. Darüber hinaus müssen Datenpipelines erstellt werden, um die Daten in ein Modell zu integrieren.

        • Datentechnik

        • Datenaufnahme

          Integrieren von Unternehmensdaten in große Sprachmodelle

        • Beobachtbarkeit und Performance

          Überprüfen, ob die transformierten Daten die Ziele erfüllen


        • Langfristig: Datentechnik

          Unternehmen benötigen ein gut strukturiertes Datenrepository, z. B. einen Data Lake oder ein Data Lakehouse, um ihre Daten in Modelle generativer KI zu integrieren. Durch den iterativen Aufbau des Data Lake erweitern Sie schrittweise die Funktionen des Datenrepositorys für generative KI, während das Team seine Kompetenzen in Datenmanagement und generativer KI ausbaut.


        • „Durch die Zusammenarbeit [mit Dell Technologies] können Unternehmen ihre eigenen KI-Systeme aufbauen, indem sie die tollen Innovationen der Open-Source-Community nutzen und gleichzeitig von der Sicherheit, Compliance und Performance von Dell Systemen profitieren.“

          Jeff Boudier, Head of Product and Growth, Hugging Face
      • KI DER RICHTIGEN GRÖẞE

        Festlegen der Infrastruktur und richtigen KI-Größe

      • 75 %

        Die KI-Lösungen von Dell für das Inferencing großer Sprachmodelle (LLMs) in On-Premise-Umgebungen können bis zu 75 % kosteneffizienter sein als die Public Cloud.1

        Basierend auf Ihren eindeutigen Daten können Sie bereichs- und unternehmensspezifische Anwendungsfälle verwenden. Durch Aufgaben oder Funktionen, für die nur Sie die Daten haben, schaffen Sie so einen Nutzen für die Branche. Die verschiedenen Arten generativer KI erfordern entsprechende Einstiegspunkte und Investitionen für den Erfolg. LLMs, die mit riesigen Textmengen trainiert wurden, sind wie Enzyklopädien: Sie sind zwar hilfreich für den allgemeinen Gebrauch, eignen sich jedoch möglicherweise nicht zum Beantworten spezifischer Fragen zu Ihren Unternehmensdaten.

        75 %

        Die KI-Lösungen von Dell für das Inferencing großer Sprachmodelle (LLMs) in On-Premise-Umgebungen können bis zu 75 % kosteneffizienter sein als die Public Cloud.1
      •  


         
      • Ihre Daten verbessern die Effizienz und den Nutzen generativer KI erheblich

      • Begrenzte Funktionen Am kleinsten/kostengünstigsten Bereichsspezifität Höchste Genauigkeit Kleinere Größe Höhere Genauigkeit Mehr Halluzinationen Kostspielig und energieintensiv Breites Spektrum an Anwendungsfällen Allgemeine Zwecke Unternehmensspezifisch Bereichsspezifisch Große Sprachmodelle Wert
        Die Grafik zeigt die relativen Datenmengen, die für die drei Arten von KI-Modellen erforderlich sind, sowie den geschäftlichen Nutzen. Große Sprachmodelle (Large Language Models, LLMs) sind für allgemeine Anwendungsfälle vorgesehen und verbrauchen die größte Datenmenge. Sie können kostspielig und energieintensiv sein und sind anfälliger für Halluzinationen. Bereichsspezifische KI verwendet weniger, dafür aber spezifischere Daten. Sie verfügt über eingeschränkte Funktionen, ist aber für Ihr Unternehmen relevanter und bietet einen größeren Nutzen. Unternehmensspezifische KI benötigt noch weniger Daten, ist aber am spezifischsten und genauesten. Sie bietet den größten Nutzen für Ihr Unternehmen.
      • KI-Bereitstellungsmodelle: Bewerten des Kosten-Nutzen-Verhältnisses

        Die ersten drei Bereitstellungsmodelle unten werden von Unternehmen derzeit am häufigsten implementiert: Diese fangen mit der „Modellaugmentierung“ an und entscheiden sich letztendlich für die „Feinabstimmung von Modellen“. Für welches KI-Modell Sie sich entscheiden, hängt vom Grad der Data-Science-Bereitschaft Ihres Unternehmens, den Bereitstellungsmustern und den damit verbundenen Implikationen ab.

      • Vorab trainiertes Modell

        Dieser Ansatz wird als „Prompt Engineering“ bezeichnet. Dabei wird dem vorab trainierten Modell eine Frage gestellt und ein Ergebnis erhalten.
        Beispiel: ChatGPT

        Modellaugmentierung

        Optimieren Sie Ihr Modell generativer KI, indem Sie Ihre Daten hinzufügen und somit zusätzlichen Kontext für die Antworten bereitstellen. Dies geschieht z. B. durch Inferencing, das Anwendungsfälle wie Retrieval-Augmented Generation (RAG) umfasst.

        Feinabstimmung von Modellen

        Dazu gehören die Anpassung der Modellgewichtung und die Integration Ihrer Daten. Dies führt zwar zu verbesserten Ergebnissen, erfordert aber auch einen höheren Aufwand während der Einrichtung.

        Modelltraining

        Dafür wird ein spezifisches Modell entwickelt und mit einem Datenvolumen trainiert. Dies erfordert in der Regel die meiste Arbeit und die meisten Ressourcen und wird häufig nur für die Lösung komplexer Probleme verwendet.

        Aufwand Aufwand gering Aufwand mittel Aufwand hoch Aufwand erheblich
        Kosten Kosten gering Kosten mittel Kosten hoch Kosten erheblich
        Nutzen und
        Differenzierung
        Nutzen und Differenzierung minimal Nutzen und Differenzierung mittel Nutzen und Differenzierung hoch Nutzen und Differenzierung erheblich
        Datenintegration Keine Datenintegration Datenintegration hoch Datenintegration hoch Datenintegration erheblich
        Infrastruktur Client – Server Client – Server GPU-optimiert Große GPU-Bereitstellung
        Kompetenzen IT-Betrieb EntwicklerIn Data Scientist(s) Data Scientist(s)
        Weitere Informationen zur vereinfachten Bereitstellung Validiertes Design Referenzdesign Validiertes Design Referenzdesign
      • Auswahl der richtigen Infrastruktur für Ihr Modell

        Die Infrastruktur für die Bereitstellung der generativen KI hängt größtenteils von den Rechenanforderungen ab, die von Modelltyp, Modellgröße und Anzahl der NutzerInnen beeinflusst werden. Darüber hinaus muss die erforderliche Storage-Kapazität für Daten berücksichtigt werden, die für Bereitstellung, Training und Modellverfeinerung verwendet werden.

      • ALLGEMEINES COMPUTING (CPU-orientiert) KI-OPTIMIERT (GPU-intensiv) Dell Laptops Dell Precision-Workstations PowerEdge-Rack-Server PowerEdge XE-Server ObjectScale-Storage PowerScale-Storage PowerFlex-Storage PowerSwitch-Switches der Z-Serie Modelltraining Feinabstimmung des Modells Modellaugmentierung Vorab trainiertes Modell Millionen von Parametern Milliarden von Parametern Billionen von Parametern Geringe Anzahl von NutzerInnen Hohe Anzahl von NutzerInnen
        Das Diagramm zeigt drei Anforderungen an die generative KI und deren Zuordnung zu den entsprechenden Dell Hardwarelösungen. Die Hardwarelösungen reichen von allgemeinen, CPU-orientierten Computingoptionen bis hin zu KI-optimierten, GPU-intensiven Optionen. Die spezifischen Optionen beginnen bei Dell Laptops für das allgemeine Computing am einen Ende und reichen über Precision-Workstations und PowerEdge-Server bis hin zu PowerEdge XE-Servern am Ende der KI-optimierten Lösungen. Dell Storage und Netzwerkhardware können für das gesamte Sortiment verwendet werden. Diesen Lösungen werden drei Infrastrukturattribute der generativen KI in einem Vorgang zugeordnet, der eine immer höhere Verarbeitungsgeschwindigkeit erfordert. Die Komplexität des Modells reicht von der Verwendung vortrainierter Modelle über die Erweiterung oder Feinabstimmung von Modellen bis hin zum Trainieren neuer Modelle. Die Anzahl der Parameter reicht von Millionen über Milliarden bis hin zu Billionen.
      • Schnelleres Umsetzen der KI-Strategie

        Frühzeitige Erfolge

        RAG (Retrieval-Augmented Generation) ist ein idealer Einstiegsanwendungsfall für viele Unternehmen, da auf zusätzliche Ressourcen wie die eigenen Daten zugegriffen wird, um ein Modell ohne erneutes Training zu erweitern. Erfahren Sie mehr zur Einrichtung von RAG-Anwendungsfällen zur Verbesserung Ihres Unternehmens und Ihrer Daten.

      • RAG-Anwendungsfall

        Anwenden von RAG auf ein benutzerdefiniertes PDF-Datenvolumen

      • DELL VALIDATED DESIGN FÜR RAG

        Bereitstellen eines digitalen Assistenten auf der Dell APEX Cloud Platform for Red Hat OpenShift

    • Schnellere Umsetzung mit Dell

      Dell unterstützt Sie mit einem ganzheitlichen End-to-End-Ansatz vom Schreibtisch bis zum Rechenzentrum dabei, Barrieren aus dem Weg zu räumen und Strategien generativer KI unternehmensweit einzuführen.

    • PowerEdge-Server für KI

    • Storage für KI

    • Datenmanagement für KI

    • Dell Precision-Workstations

    • KI-fähige Laptops

    • Dienstleistungen für KI

    • 1 Basierend auf einer von Dell in Auftrag gegebenen Studie „Maximizing AI ROI: Inferencing On-Premises With Dell Technologies Can Be 75 % More Cost-Effective Than Public Cloud“ der Enterprise Strategy Group, in der die Dell Infrastruktur in einer On-Premise-Umgebung mit nativer Public-Cloud-Infrastruktur as a Service und tokenbasierten APIs verglichen wurden, April 2024. Die erwarteten Kosten wurden unter Verwendung von RAG für die kleine (5.000 NutzerInnen), mittlere (10.000 NutzerInnen) und große Größe (50.000 NutzerInnen) sowie von zwei LLMs (7B- und 70B-Parameter) über drei Jahre modelliert. Die tatsächlichen Ergebnisse können abweichen. Wirtschaftliche Zusammenfassung