Trotz Hype: Big-Tech verdient bislang kein Geld mit KI

Andreas Frischholz
81 Kommentare
Trotz Hype: Big-Tech verdient bislang kein Geld mit KI
Bild: geralt | CC0 1.0

AI bleibt das Hype-Thema der Branche. Während etwa OpenAI ChatGPT sukzessive weiterentwickelt, arbeiten sowohl Microsoft als auch Google oder Adobe intensiv daran, die Technologie in der Produktpalette zu verankern. Offen ist aber nach wie vor, inwieweit sich die KI-Assistenten in ein Geschäftsmodell übertragen lassen.

Wie wenig profitabel die KI-Tools derzeit sind, berichtet das Wall Street Journal. Als Beispiel dient Microsofts GitHub Copilot. Der KI-Assistent für Programmierer, der auf OpenAIs Sprachmodellen basiert, ist mit mehr als 1,5 Millionen Nutzern bereits weit verbreitet. Der Haken: Die Kosten für den Betrieb übersteigen die Einnahmen deutlich. So zahlen die Nutzer 10 US-Dollar pro Monat, die Ausgaben für Microsoft sollen sich im Schnitt aber auf gut 30 US-Dollar pro Nutzer und Monat belaufen.

So entsteht ein Verlust von durchschnittlich 20 US-Dollar pro Nutzer pro Monat. Bei manchen Power-Nutzern soll dieser sogar bei rund 80 US-Dollar pro Monat liegen. Auf Anfrage des Wall Street Journals wollten aber weder Microsoft noch GitHub die Zahlen kommentieren.

Hohe Kosten für Entwicklung und Betrieb

Das Kernproblem bei den generativen KI-Tools ist und bleiben also die Kosten. Teuer ist bereits die Entwicklung, allein für die Hardware zum Training der Modelle – also insbesondere Nvidias AI-Chips – sind hohe Investitionen nötig. Und der Betrieb schlägt sich ebenfalls mit hohen Summen in den Büchern nieder. So beziffern Analysten die Kosten pro ChatGPT-Anfrage auf 4 Dollar-Cent, berichtete zuletzt Reuters.

Betrachtet man die Skaleneffekte, verdeutlicht sich das Ausmaß. Sollte ChatGPT lediglich ein Zehntel der Google-Anfragen abwickeln müssen, wären laut dem Bericht allein zum Start GPUs im Wert von rund 48 Milliarden US-Dollar erforderlich. Für den jährlichen Betrieb fallen dann nochmal Chip-Kosten im Wert von 16 Milliarden US-Dollar an.

Viele Anbieter generativer KI-Tools begrenzen daher bislang auch die Anzahl der Anfragen. Verwendet man ChatGPT mit dem GPT-4-Sprachmodell, liegt das Limit bei 50 Anfragen in drei Stunden. Bei Bildgeneratoren hat sich ein Credit-System etabliert. Ein solches nutzt Adobe auch für zahlende Kunden der Firefly-Anwendungen. Ist das monatliche Credit-Kontigent aufgebraucht, verlangsamt sich der Dienst – oder die Kunden müssen nachkaufen. „Wir versuchen, einen hohen Mehrwert zu bieten, uns aber auf Seite der Kosten zu schützen“, sagt dazu Adobes CEO Shantanu Narayen.

Microsoft und OpenAI wollen selbst AI-Chips produzieren

Um die Kosten zu senken, prüfen Microsoft und OpenAI laut Medienberichten, selbst für AI-Anwendungen optimierte Chips herzustellen. Bei OpenAI nehme man derzeit verschiedene Übernahmekandidaten ins Visier, so Reuters. Microsoft soll schon weiter sein. Wie The Information berichtet, will der Konzern einen eigenen AI-Chip bereits auf der Entwicklerkonferenz Ignite 2023 im November präsentieren.

Selbst produzieren heißt auch, weniger abhängig von dem Markt zu sein, den Nvidia derzeit dominiert – und in dem Grafiklösungen knapp sind. Nur ist die Produktion nicht einfach. So kämpft Meta schon seit geraumer Zeit damit, ein funktionierendes Modell auf den Markt zu bringen.

Geschäftsmodelle entstehen erst – Ausgang offen

Nur sind es bei den AI-Technologien nicht nur die Kosten, mit denen Unternehmen kämpfen. Derzeit fehlt es auch noch an Einnahmen. Tatsächlich ist trotz des Hypes nach wie vor nicht klar, wie lukrativ die Anwendungen sein können. Die Geschäftsmodelle entwickeln sich derzeit erst. Big-Tech-Konzerne wie Microsoft, Google, Amazon und Adobe versuchen diese derzeit zu etablieren, indem KI-Assistenten praktisch in das komplette Produktportfolio eingeführt werden.

Spannend werden daher die nächsten Wochen. Am 1. November ist die Business-Variante des Microsoft 365 Copilot allgemein verfügbar. Die Preise für Microsoft 365 E3-, E5-, Business Standard- und Business Premium-Kunden liegen pro Nutzer bei 30 US-Dollar im Monat. Wer nur Bing Chat Enterprise nutzen will, muss 5 US-Dollar monatlich pro Nutzer zahlen.

Der Aufpreis ist merklich, so startet die Basisversion von Microsoft 365 mit rund 13 US-Dollar im Monat. Ähnlich sieht es bei Google aus. Wird ein Workplace-Abonnement – was bei 6 US-Dollar startet – um die KI-Assistenten ergänzt, sind 30 US-Dollar fällig. OpenAI selbst hat für ChatGPT bereits den kostenpflichtigen Plus-Service für 20 US-Dollar pro Monat im Sortiment und bietet zudem eine angepasste Version für Firmenkunden. Bei Adobe lassen sich generative KI-Funktionen bereits mit dem Photoshop-Abo nutzen, das ab rund 23 Euro monatlich zu haben ist.

Die Pläne besagen im Kern: Kunden zahlen einen fixen Betrag und können dafür die KI-Assistenten nutzen. Angesichts des Marktstarts von Microsoft 365 Copilot und Googles Workplace-KI muss sich nun in der Praxis zeigen, wie und ob sich diese Geschäftsmodelle etablieren. Dabei kämpfen die Konzerne mit zwei Herausforderungen: Die Betriebskosten müssen unter den Abo-Preisen liegen. Und es müssen so viele Kunden die KI-Assistenten als so hilfreich bewerten, dass sie bereit sind, den Aufpreis zu zahlen.

Schlanke Open-Source-Modelle als Alternative zu komplexen LLMs

Für Kunden sind die Kosten der KI-Lösungen aber ebenfalls schon ein Hemmnis. Das gilt nicht nur für Abo-Gebühren, sondern auch den Betrieb eigener Anwendungen, die etwa per API auf Sprachmodelle von OpenAI oder anderen Cloud-Anbietern wie Microsoft, Amazon und Google zugreifen. „Viele Kunden, mit denen ich gesprochen, sind unglücklich mit den Kosten, die sie für den Betrieb einiger der Modelle zahlen müssen“, sagte Adam Selipsky, Chef von Amazons Cloud-Sparte, dem Wall Street Journal.

Hohe Kosten von OpenAIs aufwändigen Sprachmodellen führten bereits in der Vergangenheit dazu, dass Unternehmen sich nach günstigeren Alternativen umgesehen haben. Diese bieten etwa Open-Source-Modelle. Ein Markt, der ohnehin prosperiert. Einen Anteil hat Meta, der Konzern stellt die Llama-2-Modelle mit entsprechenden Lizenzen bereit.

Mails mit GPT-4 bearbeiten ist wie Pizza ausliefern mit einem Lamborghini

Wie groß die Unterschiede sind, lässt sich bereits bei der Größe erkennen. Die Llama-2-Modelle nutzen je nach Variante zwischen 7 und 70 Milliarden Parameter. Für GPT-4 existieren keine offiziellen Zahlen, Analysen zufolge soll die Anzahl aber bei mehr als einer Billion liegen. Wie solche Large Language Models (LLM) grundsätzlich aufgebaut sind, beschreibt ComputerBase in einem Hintergrundartikel:

Interessant ist letztlich nicht nur, ob Big-Tech aus dem KI-Hype heraus ein Geschäftsmodell entwickeln kann. Eine der grundsätzlichen Fragen ist viel mehr, ob die komplexen Sprachmodelle wie GPT-4 überhaupt der richtige Weg sind – oder ob kleinere Modelle, die per Feinabstimmung für bestimmte Aufgaben optimiert werden, nicht effizienter sind.

Eine E-Mail mit einem auf GPT-4 basierenden KI-Assistenten zusammenfassen zu lassen, ist, als würde man eine Pizza mit einem Lamborghini ausliefern, heißt es auch im Bericht des Wall Street Journal. Selbst Microsoft soll daher intern bereits prüfen, für Bing künftig statt GPT-4 eines von Metas Llama-Modellen zu verwenden.