Das Mooresche Gesetz, das besagt, dass sich die Anzahl der Transistoren auf einem Chip alle zwei Jahre verdoppelt, ist ein wunderbares Beispiel für exponentielles Wachstum. Es ist für uns intuitiv greifbar, wenn wir zum Beispiel den Leistungsfortschritt von Smartphones und anderen Devices allein innerhalb der letzten Jahre betrachten.
Das Gesetz ist aber nur ein kleiner Ausschnitt der gesamten technologischen Entwicklung, die genauso exponentiell wächst – am Anfang unerträglich langsam, heute blitzschnell. Paradigmenwechsel brauchten früher Jahrtausende (wie bei Steinwerkzeugen und dem Rad), heute nur noch wenige Jahre (wie beim Internet oder eben dem Smartphone). Man kann davon ausgehen, dass diese Beschleunigungsrate im gleichen Tempo weiter zunimmt, übrigens nicht nur in der IT, sondern auch in anderen naturwissenschaftlichen Bereichen wie der Physik oder Biologie. Interessant anzumerken an dieser Stelle ist die Parallelität der technologischen und der globalen Bevölkerungsentwicklung: beide sind exponentiell.
Wie auch immer, KI spielt bei dieser Entwicklung eine vorrangige Rolle, und auch hier rechnen Experten wie Ray Kurzweil oder Jay Wheeler mit einem exponentiellen Wachstum. Deshalb gibt es auch nicht „die“ KI: heute sprechen wir noch von „schwacher“ KI, in einigen Jahren folgt die „starke“ KI, und manche sprechen sogar von Künstlicher Superintelligenz, um die nächste technologische Revolution zu beschreiben. Am Ende der Entwicklung steht die technologische Singularität: dann ist der Mensch gar nicht mehr in der Lage, die Entwicklung auch nur annähernd nachzuvollziehen (Harvard Science Review stellt ein künstliches Megahirn mit einem IQ von 34.597 in den Raum. Ja, das ist ziemlich weit entfernt von unserem mittleren IQ von 100). Schon in der zweiten Hälfte dieses Jahrhunderts wird es wohl keine klare Unterscheidung mehr zwischen künstlicher und menschlicher Intelligenz geben.
Soweit sind wir noch nicht – bei Weitem nicht, denn streng genommen befindet sich KI noch in den Kinderschuhen. Angesichts des Potenzials und der möglichen Gefahren der Technologie fehlen Gesetze, ethische Probleme sind nicht gelöst, und es gibt noch keine ausreichende Standardisierung – auch wenn bereits daran gearbeitet wird, sogar in China. Am Personalmarkt fehlt KI-Expertise und weltweit Millionen KI-Entwickler, und Unternehmen kämpfen mit einer inadäquaten IT-Infrastruktur, die der KI-Entwicklung bei weitem nicht gerecht wird: die Netzwerk-Bandbreite ist zu schwach, Speicherkapazitäten fehlen, und spezialisierte KI-Lösungen gibt es ebenso wenig. KI-Anwendungen sind datenhungrig und müssen die gigantischen Datenberge meist in Echtzeit bewältigen, sonst ist ein großer Vorteil der KI dahin. Mit bestehenden Lösungen geht das eher schlecht als recht.
Es braucht also spezialisierte Hard- und Softwarelösungen sowie eine angepasste, KI-orientierte Infrastruktur: nicht nur, um Daten zügig zu bearbeiten, sondern auch, um neue KI-Anwendungen schnell zu entwickeln und zu implementieren: Im globalen Wettbewerbsumfeld ist Time-to-market bei der Künstlichen Intelligenz essenziell. 80 Prozent der Unternehmen, die der Marktforscher ESG im Auftrag von Dell befragt hat, sind der Meinung, dass ihre Neuentwicklungen rund um KI und Machine Learning weniger als zwei Jahre brauchen, um einen signifikanten Business-Nutzen hervorzubringen.
Der Aufbau einer KI-spezifischen Infrastruktur benötigt sowohl KI- als auch allgemeine IT-Expertise. Die IT-Abteilung muss Hand in Hand mit den Data Scientists zusammenarbeiten, um die richtigen Server, Grafikprozessoren, Speicherlösungen und Netzwerke mit ausreichender und skalierbarer Bandbreite auszuwählen. Dann folgen Aufbau und Test sowie das zeitraubende Feintuning der KI-Frameworks, -Bibliotheken und das Zusammenspiel der Software. Am Ende müssen die Datenwissenschaftler das Gesamtsystem validieren und freigeben. Erst dann können sie erste Modelle entwickeln.
Der Weg über die Cloud ist bei einem solchen Projekt nicht unbedingt schneller, im Gegenteil. Viele Public-Cloud-Provider bieten zwar KI-Rechenleistung und -Bibliotheken an; sie sind aber nicht in der Lage, Referenz-Konfigurationen oder Solution Center für Kunden, geschweige denn ausreichende Beratung zu liefern; sie lassen die Data Scientists damit im Regen stehen. Hinzu kommen Konzept-bedingte Performance-Probleme, verursacht etwa durch die Datenübertragung, so dass eine interne Lösung in der Regel vorzuziehen ist.
Das weiß auch Dell. Erst kürzlich haben wir die Dell Ready Solutions for AI vorgestellt, die wir speziell für maschinelles Lernen mit Hadoop und Deep Learning gemeinsam mit NVIDIA entwickelt haben. Die Lösungen erleichtern und beschleunigen die KI-Einführung und liefern schneller umfangreiche Erkenntnisse aus Daten. Unternehmen müssen ihre KI-Lösungen nicht mehr in einzelnen Komponenten beschaffen, zusammenfügen und umständlich feintunen: Stattdessen können sie sich auf ein von Dell entwickeltes, validiertes und voll integriertes Paket von Best-of-Breed-Software verlassen – einschließlich KI-Frameworks und -Bibliotheken sowie den benötigten Rechen-, Netzwerk- und Speicherkapazitäten.
Unsere Lösungen steigern die Gesamtproduktivität von Data Scientists um 30 Prozent und verringern den Zeitaufwand bis zum produktiven Einsatz einer KI-Lösung um bis zu zwölf Monate, verglichen mit einer Do-it-yourself-Lösung. Damit einhergehend: Neue Services von Dell Consulting, die Unternehmen bei der KI von A bis Z vollständig unterstützen, von der Implementierung und Inbetriebnahme der Ready-Solution-Technologien und KI-Bibliotheken bis hin zu Architekturempfehlungen und Branchenberatung.
Auch die bescheidenste KI-Entwicklung kommt ohne adäquate Infrastruktur kaum in Gang. Eine ambitionierte KI-Roadmap, mit der die Technologie unternehmensweit und auf breiter Ebene genutzt werden kann, braucht eine hochspezialisierte KI-Infrastruktur. Unternehmen können eigentlich schon heute nicht mehr darauf verzichten, wenn sie auf lange Sicht wettbewerbsfähig bleiben wollen.