Fünf Erkenntnisse für eine intelligentere Einführung von KI in Unternehmen

Erfahren Sie, wie Unternehmen KI-Herausforderungen bewältigen, intelligentere Lösungen skalieren und Erkenntnisse gewinnen, um ihre Geschäftsstrategien und Ergebnisse zu transformieren.

Künstliche Intelligenz ist kein futuristisches Konzept oder Tool mehr, das nur den fortschrittlichsten Unternehmen vorbehalten ist. Für Unternehmen weltweit wird KI zu einem zentralen Bestandteil der Geschäftstransformation, da sie intelligentere Entscheidungen, höhere Effizienz und Wettbewerbsvorteile ermöglicht. Wie setzen Unternehmen KI ein und welche Herausforderungen müssen sie bei der effektiven Skalierung von KI-Lösungen bewältigen? 

Um diese Fragen zu beantworten, haben wir die Umfrage zur Einführung von KI in Unternehmen von Dell Technologies durchgeführt, an der 3.800 IT-EntscheidungsträgerInnen (ITDMs) und KI-ExpertInnen aus fünf Ländern teilnahmen. Unsere Ergebnisse geben Aufschluss über den aktuellen Stand der weltweiten KI-Nutzung und die Faktoren, die Unternehmen dabei unterstützen, ihre KI-Geschäftsziele zu erreichen und einen Mehrwert zu erzielen. Lesen Sie weiter, um mehr über die fünf wichtigsten Erkenntnisse aus unserer Studie zu erfahren. 

1. Daten sind der Schlüssel zur Optimierung Ihrer KI-Lösung

KI ist nur so gut wie die Daten, mit denen sie arbeitet, und Unternehmen haben Schwierigkeiten, ihre Daten effektiv zu verwalten und zu nutzen. Unternehmen nannten Datenqualität, -verfügbarkeit, -verwaltung und -sicherheit als die größten technischen Hürden für die Implementierung von KI. 

Ohne saubere, gut organisierte und zugängliche Daten können selbst fortschrittliche KI-Modelle ihre Leistung nicht entfalten. Diese Herausforderungen legen nahe, dass Unternehmen sich auf die Entwicklung von Strategien konzentrieren sollten, die eine nahtlose Datenintegration, verbesserte Sicherheitsmaßnahmen und skalierbare Lösungen für große Datensätze priorisieren. 

2. Flexibilität ist ein Muss für die Platzierung von KI-Workloads 

Unsere Studie zeigt, dass ein Multi-Cloud-Ansatz eine attraktive Option für Unternehmen ist, die ihre KI-Workloads ausführen möchten: 

  • 79 %der KI-Anwendungsfälle in der Produktion werden außerhalb der Public Cloud ausgeführt. 98 % der Unternehmen haben die Gesamtbetriebskosten für KI-Anwendungsfälle in der Public Cloud berechnet. 

                                                           KI-Workloads mit den größten Auswirkungen sind oft mit Daten verbunden, die sich noch lokal in Ihrem Unternehmen befinden.  Die Public Cloud bietet praktische Vorteile für Experimente, ist jedoch mit hohen Kosten verbunden: Eine ESG-Analyse aus dem Jahr 2024 ergab, dass eine On-Premise-Inferenzierung bis zu 75 % kostengünstiger sein kann als die Public Cloud. Für skalierbare langfristige KI-Investitionen ermöglichen On-Premise-Lösungen oft einen besseren ROI, was die meisten Unternehmen nach der Berechnung ihrer Gesamtbetriebskosten festgestellt haben. Aber es geht nicht nur um Geld: On-Premise-Bereitstellungen bieten auch mehr Sicherheit und Governance, was besonders für Branchen mit strengen Compliance-Anforderungen wie das Finanzwesen und das Gesundheitswesen von Vorteil ist. Dies unterstreicht die Notwendigkeit, die Gesamtbetriebskosten für verschiedene Anwendungsfälle sorgfältig zu prüfen und KI-Workloads mit der richtigen Balance zwischen Leistung, Sicherheit und Skalierbarkeit zu platzieren. 

3. Steigern Sie die Effizienz Ihres Rechenzentrums durch Nutzung der verfügbaren Leistung 

Trotz der zunehmenden Diskussion über Stromversorgung und Kühlung als Engpässe für die Einführung von KI hat unsere Umfrage ergeben, dass Unternehmen möglicherweise ungenutzte Leistung und verfügbare Lösungen übersehen: 

  • 39 % der Rechenzentrumsleistung werden nicht genutzt. 
  • 67 % der GPU-Server werden in den nächsten drei Jahren Direct-to-Chip-Flüssigkeitskühlung verwenden. 

Während sich Rechenzentrumsbetreiber über den Energiebedarf für die Skalierung von KI Gedanken machen, lassen sie viel Leistung ungenutzt. Unternehmen sollten die vorhandene Leistungskapazität ihrer Rechenzentren maximieren, bevor sie in kostspielige Nachrüstungen oder Neubauten investieren. Zusätzliche ungenutzte Leistung kann auch durch die Aufrüstung der bestehenden Infrastruktur von 14G- auf 16/17G-Rack-Server freigesetzt werden. 

Mit Blick auf die Zukunft wird die zunehmende Einführung von Innovationen wie Direct-to-Chip-Flüssigkeitskühlung ein entscheidender Faktor sein, um die Energiebedarf- und Leistungsbeschränkungen von GPUs zu überwinden und gleichzeitig die Kühlkosten in Rechenzentren zu senken und die Skalierbarkeit für KI-Implementierungen in Unternehmen zu erhöhen. 

4. Tendenz zu Open Source und Bedarf an Unterstützung bei der On-Premise-Bereitstellung von KI-Workloads 

Unternehmen streben nach mehr Transparenz und Flexibilität in ihren KI-Ökosystemen sowie nach Anbietern, die alles aus einer Hand liefern: 

  • Es wird erwartet, dass 63 % der KI-Anwendungsfälle in den nächsten 12 Monaten Open-Source-Modelle verwenden werden. 
  • 77 % der Unternehmen möchten, dass ihre Infrastrukturanbieter Funktionen für alle Aspekte der KI-Einführung bereitstellen. 
  • 83 % der Unternehmen möchten, dass ihre AI PC-Anbieter Funktionen für alle Aspekte der KI-Einführung bereitstellen. 

Diese Verlagerung hin zu Open-Source-Frameworks unterstreicht die Nachfrage nach anpassbaren, transparenten und kosteneffizienten Lösungen. Offene Ökosysteme ermöglichen umfassende Funktionen, die über das Angebot eines einzelnen Anbieters hinausgehen. Um ihre spezifischen Anforderungen zu erfüllen, suchen IT-EntscheidungsträgerInnen nach Anbietern mit End-to-End-KI-Lösungen, mit denen sie KI vollständig in ihre gesamte IT-Umgebung integrieren können. 

5. Kleine Modelle, die auf dem Gerät ausgeführt werden, eröffnen ein neues Maß an Flexibilität für KI-Anwendungsfälle 

AI PCs sind eine attraktive Option für die Demokratisierung des Zugangs zu KI, insbesondere durch die Nutzung kleiner Sprachmodelle (Small Language Models, SLMs): 

  • 35 % der Unternehmen planen, SLMs (kleine Sprachmodelle) in den nächsten 12 Monaten auf AI PCs zu testen. 

Im Gegensatz zu ihren größeren Pendants sind SLMs kostengünstiger und energieeffizienter, benötigen weniger Rechenleistung und sind dennoch für viele Anwendungen wie Softwareentwicklungsassistenten ausreichend. 

Was könnte das für Unternehmen bedeuten? SLMs ermöglichen die KI-Verarbeitung in Echtzeit auf dem Gerät, was nicht nur die Latenz reduziert, sondern auch die Produktivität verbessert und die Umweltbelastung minimiert. Die Einführung von AI PCs in Unternehmen könnte die Zugänglichkeit von KI-Lösungen für Teams jeder Größe weiter verbessern und den MitarbeiterInnen leistungsstarke Tools für Zusammenarbeit und Automatisierung an die Hand geben. 

Starten Sie Ihre KI-Reise mit Zuversicht 

Was bedeutet das für Unternehmen heute? Basierend auf unseren Erkenntnissen sind die wichtigsten Faktoren für die Beschleunigung der KI-Einführung: 

  • Bewertung der Gesamtbetriebskosten zur Optimierung der Mischung aus Cloud-, On-Premise- und Edge-Bereitstellung basierend auf dem Anwendungsfall 
  • Verbesserung der Datenqualität, des Datenzugriffs und der Datenverwaltung 
  • Bessere Nutzung der vorhandenen Leistungskapazität von Rechenzentren für KI-Workloads 
  • Nutzung von Open-Source-Modellen und -Frameworks für Zusammenarbeit und Innovation 
  • Ausführung von SLMs auf AI PCs zur Förderung der Effizienz und Zugänglichkeit 

KI ist für die Steigerung der Wettbewerbsfähigkeit und der operativen Exzellenz in der heutigen Geschäftswelt unverzichtbar geworden. Obwohl KI das Potenzial hat, umfassende Effizienzsteigerungen und bahnbrechende Innovationen voranzutreiben, wird der Erfolg eines Unternehmens von den Entscheidungen abhängen, die es jetzt trifft. 

Sind Sie bereit für den nächsten Schritt? Dell Technologies unterstützt Sie gerne bei der Entwicklung einer KI-Strategie, die zu Ihrem Unternehmen passt. Kontaktieren Sie uns, um mehr über unsere KI-Lösungen zu erfahren und zu besprechen, wie Ihr Team damit mehr erreichen kann. 

About the Author: Mindy Cancila