ChatGPT, der Chatbot des US-Unternehmens OpenAI zählt mittlerweile mehr als 100 Millionen Nutzer. Der Microsoft Office Copilot steht gegen Aufpreis einer weltweiten User Base von 1,5 Milliarden zur Verfügung. Damit haben rund 20% der Weltbevölkerung niederschwelligen Zugang zu KI-Tools (Künstliche Intelligenz, Anm.). Kann man bei solchen Größenordnungen vom Anfang eines KI-Hypes sprechen oder wurde der Scheitelpunkt bereits überschritten? Ist KI überhaupt ein gutes Business und wenn ja, für wen? Wofür wird KI tatsächlich genutzt?
Für die letzte Frage geben die Google-Suchstatistiken Hinweise. Die folgende Grafik zeigt die Suchhäufigkeit von „ChatGPT“ (blau) und des bei Kindern und Jugendlichen beliebten Videospiels „Minecraft“ (rot). Wenig überraschend sind die Suchen nach ChatGPT seit Ende 2022 förmlich explodiert. Interessanter ist jedoch der Rückgang des Interesses zwischen Juni und September, während zeitgleich das Interesse an Minecraft gestiegen ist. Die gängige Hypothese legt nahe, dass ChatGPT zu einem großen Teil von Schüler:innen genutzt wird, die in den Ferien lieber zum Videospiel greifen.
Google-Suchstatistik der Begriffe „ChatGPT“ und „Minecraft“
Entwicklung im vergangenen Jahr, Stand 26.09.2023
Quelle: Google Trends; Hinweis: Die Entwicklung in der Vergangenheit ist kein zuverlässiger Indikator für künftige Wertentwicklungen.
Abseits des Verfassens von Hausübungen mühen sich momentan viele Unternehmen mit der Ausarbeitung konkreter KI-Anwendungsbeispiele ab. Oft zeigt sich, dass viele KI-Tools, die anfangs als bahnbrechende Neuerung empfunden werden, am Ende nur eine Spielerei sind. Unternehmen stoßen auch auf internen Widerstand, wenn zum Beispiel KI verwendet wird, um Meetings aufzuzeichnen und das Gesprochene zusammengefasst abzuspeichern. Eine ungünstige oder falsch verstandene Bemerkung während einer hitzigen Diskussion kann so für immer im Firmenarchiv landen.
Die zwei großen Steckenpferde der momentanen KI-Generation bleiben das schnelle Verfassen von professionell klingenden Texten und das Generieren von funktionalem Computercode. Daher wirkt KI vor allem im Tech-Sektor als Kräftemultiplikator. Zwar spielt maschinelles Lernen in der Pharmaindustrie und der Materialforschung eine Rolle, die dort verwendeten Modelle haben aber wenig mit den Modellen zu tun, die hinter den momentan populären Chatbots und Bildgenerierungs-Tools stecken.
KI – ein wackeliges Geschäftsmodell
Mit seinen mehr als 100 Million registrierten Usern erwartete der Brachenprimus OpenAI für 2023 ursprünglich einen Umsatz von mehr als 200 Million USD. Mittlerweile wird für die kommenden zwölf Monate aber schon mit 1 Milliarde USD Umsatz gerechnet. Ein gutes Geschäft? Bei weitem nicht, denn laut Branchenexperten stehen jedem Dollar Umsatz laufende Kosten von geschätzt 1,13 USD entgegen und diese beinhalten noch nicht einmal die Kosten für die Weiterentwicklung der Modelle. Bei GPT-4, dem momentan performantesten Modell, beliefen sich die Entwicklungskosten auf über 100 Millionen USD. Für die nächste Iteration GPT-5 wird mit noch wesentlich höheren Kosten gerechnet.1
Im Gegensatz zur Internetrevolution der 2000er, mit der der momentane KI-Hype gerne verglichen wird, benötigen KI-Tools wesentlich kostspieligere Infrastruktur. So kostet Google eine vom User abgegebene Suchanfrage im klassischen Browser-Fenster einen Cent-Bruchteil an Infrastruktur- und Energiekosten. Bei ChatGPT ist die Kostenrechnung wesentlich komplizierter. Die Kosten orientieren sich hier an der Länge von Frage und Antwort. Ein Beispiel:
Meine Frage an GPT-4 lautet: „Was ist die beste Retail-Bank in Österreich?” Diese Frage besteht aus acht Wörtern plus einem Satzzeichen, zusammen also neun so genannte Tokens, die als Input für das Modell dienen. Zusätzlich bekommt das Modell bei jeder Anfrage ein für den User unsichtbares System-Prompt mitgeliefert, das die Tonalität der Antwort steuert und in etwa so lauten kann: „Du bist ein hilfreiches AI-Tool. Dein Name ist ChatGPT. Du antwortest auf Fragen kurz und präzise. Dein Ton ist höflich und offen.“ – 53 weitere Tokens.
Die Antwort liefert eine Liste Österreichischer Banken (die Erste Bank wird natürlich an Stelle eins genannt) mit kurzer Beschreibung. Insgesamt besteht der Antworttext aus 230 Tokens, was die Gesamtzahl der Tokens für die Anfrage auf ca. 300 beziffert. Bei geschätzten Kosten pro Token von 0,000178 US-Dollar, schlägt die Anfrage für OpenAI mit ca. 0,05 Dollar zu Buche. Dem gegenüber stehen User-Listenpreise von etwa 0,02 Dollar für eine derartige Anfrage – Open AI verliert also bei diesem Prompt ca. 0,03 Dollar. Von der massiv genutzten Gratisversion reden wir hier noch nicht einmal.2
Nachdem die Kosten mit dem Anfragevolumen mitskalieren, wird die Industrie über kurz oder lang folgende drei Wege einschlagen müssen:
- Preiserhöhungen – nachdem der Markt zwischen den dominanten Playern aufgeteilt wurde, können sukzessive die Preise für KI-Dienstleistungen erhöht werden.
- Werbung – die Antworten von Chatbots könnten in Zukunft mit Werbetexten angereichert werden. Dies ist aber technisch wesentlich komplexer als bei simplen Suchanfragen und könnte die Glaubhaftigkeit der Dienstleistung untergraben.
- Bundling – für einen Aufpreis von 30 Euro können zukünftig Microsoft-Office-User KI-Funktionen nutzen. Ziel ist es die Dienstleistung an Großkund:innen mit Tausenden Nutzer:innen zu vertreiben, wohlwissend, dass in diesem Kontext die Ausnutzung der Dienstleistung eher gering bleibt.
Die unklare Geschäftsproposition von KI-Chatbots erklärt auch warum Branchengrößen wie Amazon, Google, und Meta sich so zögerlich in den Bereich vorwagen, obwohl sie unter ihrem Dach die fähigsten Forscher:innen und Entwickler:innen gepaart mit der besten Hardware zur Verfügung hätten. Nach wie vor bleibt das Werbegeschäft der Motor der Internetriesen und dieses kann nur marginal von den gängigen KI-Trends profitieren.
GPU-rich vs. GPU-poor
Wie bereits erwähnt ist das Trainieren von KI-Modellen ein sehr kostspieliges Unterfangen. Auch OpenAI, trotz seines First-Mover-Vorteils, musste sich unter den großen Kapitalmantel von Microsoft retten.
In den nächsten Jahren wird Microsoft sukzessive 10 Mrd. US-Dollar zusätzlich zu den bereits investierten 2 Mrd. investieren. Wesentlich dabei ist, dass OpenAI damit exklusiv an die Microsoft-Azure-Cloud-Infrastruktur gebunden sein wird und mutmaßlich die Hälfte der Investitionssumme in Form von Compute Credits, d.h. Rechenressourcen, abgegolten werden wird. Man könnte die Situation mit einem kleinen Pop-Up Store vergleichen, der Geschäftsanteile an einen Großhändler veräußert und im Gegenzug nicht genutzte Teile des Großhändler-Lagers verwenden darf.
Wenn der OpenAI-Gründer behauptet „firmenintern AGI erreicht zu haben“, d.h. eine KI geschaffen zu haben, die eine generalisierte Intelligenz besitzt und damit selbst in Bereichen einsetzbar ist, die außerhalb der Trainingsdaten liegen, sollte das einem zu denken geben. OpenAI liebäugelt mit einem IPO (Börsengang), das bei einer Bewertung von 90 Mrd. USD (Vergleich Mercedes-Benz 74 Mrd.) wieder genug Kapital in die Kassen spülen würde um GPT-5 zu trainieren. Da kommt der AGI-Mythos gelegen, um von der weniger rosigen Gewinnsituation abzulenken.
Hinzu kommt, dass die leistungsfähigsten GPU-Chips, die für die Berechnung von KI-Modellen notwendig sind, ausverkauft und nur mehr für Kunden mit langfristigen Lieferverträgen verfügbar sind. Der Preis für das Top-Modell liegt bei ca. 25.000 Euro, und mindestens 200 davon werden benötigt, um ein neues Modell zu trainieren. Kurzum sind momentan nur die Tech-Riesen in der Lage große Rechenkapazitäten zu Verfügung zu stellen. Europäische Anbieter gibt es keine, was nicht unweigerlich ein Hinterherhinken europäischer Unternehmen im KI-Bereich bedeuten wird, da der Zugriff auf die Ressourcen der Anbieter zumindest auf dem Papier nach dem Marktprinzip geregelt sein sollte.
Aber auch die großen amerikanischen Cloud-Provider hängen letzten Endes an der langen Leine des unangefochtenen Chip-Herstellers Nvidia und seines Produzenten TSMC. Nvidia verdankt seine Monopolstellung einer langjährigen Strategie, die nun reichlich Früchte trägt. So entwickelte Nvidia bereits 2007 die Programmierschnittstelle CUDA, die eine optimale Nutzung der hauseigenen GPUs für KI-Anwendungen eröffnete. Konkurrent AMD veröffentlichte erst 2016 mit ROCm eine vergleichbare Lösung. Zu diesem Zeitpunkt hatten sich die meisten Entwickler im AI-Bereich bereits mit CUDA spezialisiert.
Die Fertigung der Hochleistungschips mit 4nm-Architektur (Nanometer) wird momentan von TSMC exklusiv in seinen Werken in Taiwan abgewickelt. Angelockt durch Förderungen hat TSMC zuletzt mit Spatenstichen für neue Werke in den USA, Europa und Indien aufhorchen lassen. Jedoch werden in diesen neuen Werken vorerst nur minderwertigere Chips produziert werden. Das bedeutet, dass der Standort Taiwan auch auf die nächsten 5-10 Jahre der Pulsgeber für die KI-Industrie sein wird. Geopolitische Spannungen in dieser Region würden damit unmittelbar auf die Zukunftsperspektive des Themas KI Einfluss nehmen.
AI 2030 – ein vorsichtiger Ausblick
Zieht man die die monatlichen Nutzerzugriffe auf die ChatGPT-Website heran, scheint der Zenit der Euphorie im Mai 2023 mit 1,9 Mrd. Besucher überschritten worden zu sein. Im August war die Nutzerzahl bereits auf nur mehr 1,6 Mrd. „geschrumpft“. Folgt man dem von Gartner Research entwickelten Hype Cycle Modell für neue Technologien folgt auf den „Gipfel der überzogenen Erwartungen“ das „Tal der Enttäuschung“, wo sich viele der hochtrabenden Versprechungen als Luftschlösser entpuppen und sich viele Nutzer:innen von der Technologie wieder abwenden.
Am Ende das Hype Cycles steht das „Plateau der Produktivität“ – die Phase, in der eine neue Technologie ihr volles Potenzial ausschöpfen kann. Ich bin skeptisch, dass diese Phase 2030 bereits erreicht werden wird. Zwar geloben momentan viele Unternehmen große Investitionen in das Thema KI oder haben bereits Hunderte Use Cases definiert, aber einerseits gibt es für deren Umsetzung nicht genug Ressourcen und andererseits handelt es sich bei den hochtrabenden Ankündigungen oftmals nur um Lippenbekenntnisse, die Probleme andernorts überdecken sollen. Eine Eintrübung der Weltwirtschaft würde vermutlich solchen Ankündigungen den Wind aus den Segeln nehmen.
Zudem muss relativierend bemerkt werden, dass die Transformerarchitektur, die durch ChatGPT popularisiert wurde, bereits 2016 von Google entwickelt wurde.3 Auch im KI-Bereich brauchen bahnbrechende Entwicklungen Jahre bis sie zur Marktreife gelangen und wie oben dargelegt, ist nicht bewiesen, dass die heutigen KI-Chatbots überhaupt ein tragfähiges Geschäftsmodell darstellen.
Maßgeblichen Einfluss auf die zukünftige Entwicklung von KI wird die Halbleiter-Industrie nehmen. Mit dem 4nm-Fertigungsverfahren hat man eine physikalische Grenze erreicht, da die Wellenlänge der Laserstrahlen, die die Halbleiter aus dem Silikonwafer ritzen, größer ist als die Halbleiter selbst. In Zukunft wird die Energieeffizienz der Chips eine größere Rolle spielen. Das könnte dazu führen, dass Nvidia von seinen Konkurrenten eingeholt wird, deren Fokus in den letzten Jahren sehr stark auf diesem Thema lag.
Außerdem wird sich die Vielfalt an eingesetzten Chips erhöhen. Die gemeinhin als Grafikkarten bezeichneten GPUs (graphics processor unit) wurden ursprünglich für die Anzeige von 3D-Umgebungen entwickelt – eine Fähigkeit, die selbst die hochspezialisiertesten Modelle noch besitzen. Deren Nutzen für das Trainieren komplexer Algorithmen war ursprünglich nur ein Nebeneffekt. Die von Google forcierten TPUs (tensor processing units) hingegen, haben den Grafik-Atavismus abgelegt und sind einzig und allein für KI-Anwendungen konzipiert. Am Horizont baut sich auch der lange Schatten der Quantencomputer auf. Hier rechnen Branchenexperten mit einer Innovationsexplosion Ende der 2020er, wenn QPUs (quantum processing units) mit klassischen Chips gleichziehen werden. Danach könnte sich die globale Rechenleistung exponentiell erhöhen.
Chatbots werden auch 2030 noch populär sein. Vermutlich werden sich zwei Kategorien bilden: Gratis-Chatbots, die auf Open Source Architekturen basieren und Werbefeatures beinhalten und hoch performante Chatbots, die an der Spitze von Unternehmensdatenbanken sitzen, werden den Businessbereich dominieren. Diese werden zudem die bestehenden Rechenressourcen von Unternehmen anzapfen, was ein besseres Kostenmanagement ermöglicht. Zudem wird es eine Kennzeichnungspflicht für KI-generierte Texte und Bilder geben.
Meiner Meinung nach, wird der nächste Quantensprung im Bereich des so genannten Reinforcement-Learnings passieren. Im Gegensatz zu Chatbots, die anhand von Wort-Statistik möglichst plausible Antworten liefern aber kein Verständnis über das Gesagte besitzen, geht es beim Reinforcement-Learning darum, aus realweltlichen Problemstellungen konkrete Handlungsketten zu erlernen. Schachcomputer sind ein klassisches Beispiel. In Zukunft könnte es möglich sein, dass KI-Algorithmen arbiträre reale Handlungsabläufe sowohl verstehen, als auch verbessern lernen. Gepaart mit fortschreitendender Robotisierung könnte dies den Traum von Maschinen, die autonom mit der realen Welt interagieren, verwirklichen.
- 32 Detailed ChatGPT Statistics — Users, Revenue and Trends (demandsage.com) ↩︎
- Prompt Economics: Understanding ChatGPT Costs | One AI ↩︎
- [1706.03762] Attention Is All You Need (arxiv.org) ↩︎
Erläuterungen zu Fachausdrücken finden Sie in unserem Fonds-ABC.
Wichtige rechtliche Hinweise:
Prognosen sind kein verlässlicher Indikator für künftige Wertentwicklungen.