

Innovation
Wie ein partnerschaftlicher Ansatz mit KI verhindert, dass Sie den Überblick verlieren
Intern entwickelte Anwendungen werden bei jedem KI-Journey eine entscheidende Rolle spielen. Sie unterstützen Anpassungen an die Anforderungen Ihres Unternehmens und verschaffen Ihnen so einen erheblichen Vorteil gegenüber Mitbewerbern, die Standardwerkzeuge verwenden. Sie lösen auch die Abhängigkeit von Drittanbieter-Anwendungen, was die Integration erleichtert und das Risiko von Verstößen verringert. Allerdings bringen sie auch Herausforderungen bei der Entwicklung der Sandbox-Infrastrukturen für Ihre KI-Anwendungsentwicklungs-, Test- und Versuchsphasen mit sich.
Unternehmen entwickeln firmeneigene KI-Anwendungen, die sich auf die Datenanalyse konzentrieren, und Generative-AI-Anwendungen (GenAI), die ihren Fokus auf die Erstellung neuer Inhalte legen. In diesem zweiten Blogbeitrag unserer Reihe beschreiben wir, was Sie für die Erstellung Ihrer Anwendungen benötigen und welche Architekturen am besten geeignet sind, um den Mehrwert Ihrer KI-Investition zu erschließen.
Die Sandbox-Herausforderung
Um Ihre KI- und GenAI-Anwendungen effizient zu entwickeln, benötigen Sie hochwertige KI-Sandbox-Infrastrukturen mit unterschiedlichen Verarbeitungs- und Speicherressourcen, die es Ihnen ermöglichen, Ihre Anwendungen zu testen, zu erlernen, zu modifizieren und zu verfeinern. Ihre GenAI-Sandbox benötigt große Sprachmodelle, während Ihre KI-Sandbox eine breitere Palette von KI-Modellen und -Technologien unterstützen muss. Dennoch müssen Sie erhebliche Ressourcen für den Aufbau und die Verwaltung der Sandboxen bereitstellen. Und Sie werden wahrscheinlich feststellen, dass die Handhabung dieser Sandboxen sowohl komplex als auch ressourcenintensiv ist. Denn die Entwickler nutzen verschiedene Tools, Softwarebibliotheken und Schnittstellen, die sie unterstützen müssen.
Mit einem partnerschaftlichen Ansatz zum Erfolg
Immer mehr Unternehmen entscheiden sich für einen kooperativen Ansatz in Bezug auf KI, einschließlich der Entwicklung eigener Sandbox-Infrastrukturen. Nach Angaben von Gartner werden bis 2025 50 % der KI-Projekte eine hybride Belegschaft mit ausgelagerten Ressourcen umfassen. In Zusammenarbeit mit Lösungsanbietern, die über KI-Plattformen, Fachwissen und Partnerschaften verfügen, um Sie auf Ihrem Weg zur KI zu unterstützen – einschließlich der Entwicklung – können Sie Ihr Unternehmen mit KI schneller und kostengünstiger transformieren.
Denn hier liegen enorme Einsparpotenziale. Sie vermeiden Investitionen in Hardware, Betriebskosten für die Wartung der Infrastruktur und mögliche Probleme aufgrund mangelnder Praxiserfahrung. Darüber hinaus erhalten Sie die Flexibilität, Ihre Sandbox-Infrastruktur schnell und kostengünstig nach oben oder unten zu skalieren, wenn sich Ihre Anforderungen ändern, und können so Ihren Erfolg beschleunigen. Im Vereinigten Königreich beispielsweise konnte das Universitätsklinikum Essen die Wertschöpfung für seinen generativen KI-Chatbot beschleunigen, der durch die Zusammenarbeit mit Dell Technologies und NVIDIA eine 50-prozentige Reduzierung der Inferenzzeit erreichte.
Bringen Sie KI in Ihre Daten ein – mit branchenführenden Lösungen
Unser Ziel bei Dell Technologies ist es, Sie auf Ihrem Weg zur KI umfassend zu unterstützen. Beschleunigen Sie mit uns die Entwicklung Ihrer KI-Anwendungen, die die Performance Ihres Unternehmens transformieren werden. Unsere Dell AI Factory mit NVIDIA bringt KI in Ihre Daten, einschließlich der Sandbox-Infrastrukturen, die Sie zum Testen, Lernen, Modifizieren und Verfeinern der KI-Lösungen benötigen, die Ihnen heute den entscheidenden Vorteil verschaffen können.
Nutzen Sie die Dell AI Factory mit NVIDIA und erhalten Sie Zugang zu vereinfachten, maßgeschneiderten und vertrauenswürdigen schlüsselfertigen Plattformen mit Expertenservices, um schneller Erfolge mit KI zu erzielen. Es unterstützt Sie dabei, Ihren KI-Journey zu optimieren und zu beschleunigen, bessere Ergebnisse für Ihr Unternehmen zu erzielen und Ihren Erfolg mithilfe von Kontrollen zum Schutz und zur Steigerung Ihrer Sicherheit und Effizienz zu sichern und zu erhalten.
Wenden Sie KI auf Ihre wertvollsten Daten an – mit Dell AI Factory mit NVIDIA, basierend auf dem breiten Portfolio an KI-Infrastruktur von Dell Technologies mit den branchenführenden Hochleistungs-Computing-Prozessoren. Es bietet das weltweit umfassendste GenAI-Lösungsportfolio von Desktop über Rechenzentrum bis hin zur Cloud, alles an einem Ort. Inferenzierung – der Prozess, bei dem ein trainiertes KI-Modell sein erlerntes Wissen auf neue, nicht sichtbare Daten anwendet, um Vorhersagen zu treffen, Schlussfolgerungen zu ziehen oder Aufgaben zu lösen – ist 75 % kostengünstiger als Infrastructure-as-a-Service in der öffentlichen Cloud.[1]
[1] Basierend auf einer von Dell in Auftrag gegebenen Studie der Enterprise Strategy Group, die die lokale Dell-Infrastruktur mit der nativen Public-Cloud-Infrastruktur als Service vergleicht, April 2024. Analysierte Modelle zeigen, dass ein LLM mit 7B-Parametern, das RAG für eine Organisation mit 5.000 Benutzern nutzt, bis zu 38 % kosteneffizienter ist, und ein LLM mit 70B-Parametern, das RAG für eine Organisation mit 50.000 Benutzern nutzt, bis zu 75 % kosteneffizienter ist. Die tatsächlichen Ergebnisse können abweichen.
Darüber hinaus sind Sie mit dem robusten Dell Technologies-Partner-Ökosystem zur Unterstützung Ihrer KI-Initiativen nicht an ein Modell, einen Rahmen oder eine Betriebsumgebung gebunden. Sie können diejenigen frei auswählen, die für Ihr Unternehmen am besten geeignet sind.
Erfahren Sie mehr über unsere KI-Geschichte und wie die Dell AI Factory mit NVIDIA Ihre KI-Strategie vorantreiben kann.
Die Dell AI Factory mit NVIDIA ist die erste und einzige End-to-End-KI-Lösung für Unternehmen*, mit der die Einführung von KI beschleunigt werden kann. Sie bietet integrierte Funktionen von Dell und NVIDIA, um Ihre KI-gestützten Anwendungsfälle zu optimieren, Ihre Daten und Arbeitsabläufe zu integrieren und Ihnen die Möglichkeit zu geben, Ihren eigenen KI-Journey für wiederholbare, skalierbare Ergebnisse zu gestalten.
* Basierend auf einer Dell-Analyse, Juli 2024. Dell bietet Lösungen mit NVIDIA-Hardware und -Software, die für die Unterstützung von KI-Workloads von PCs mit KI-gestützten Funktionen und Workstations bis hin zu Servern für High-Performance Computing, Datenspeicherung, Cloud Native Software-Defined Infrastructure, Netzwerk-Switches, Datensicherung, HCI und Services entwickelt wurden.
[1] Basierend auf einer von Dell in Auftrag gegebenen Studie der Enterprise Strategy Group, die die lokale Dell-Infrastruktur mit der nativen Public-Cloud-Infrastruktur als Service vergleicht, April 2024. Analysierte Modelle zeigen, dass ein LLM mit 7B-Parametern, das RAG für eine Organisation mit 5.000 Benutzern nutzt, bis zu 38 % kosteneffizienter ist, und ein LLM mit 70B-Parametern, das RAG für eine Organisation mit 50.000 Benutzern nutzt, bis zu 75 % kosteneffizienter ist. Die tatsächlichen Ergebnisse können abweichen.
