Wieder einmal Chaostage: Wie OpenAI mit dem Wandel zur gewinnorientierten Firma kämpft

Andreas Frischholz
17 Kommentare
Wieder einmal Chaostage: Wie OpenAI mit dem Wandel zur gewinnorientierten Firma kämpft
Bild: Microsoft

Mit Mira Muratis Rücktritt steht OpenAI erneut für das Chaos in der Führungsetage in den Schlagzeilen. Die Kritik richtet sich nun zunehmend auch gegen CEO Sam Altman. Wie schwer dem KI-Startup der Wandel von einer gemeinnützigen Forschungsorganisation hin zu einem echten Unternehmen fällt, beschreibt das Wall Street Journal.

Zentral sind demnach vor allem zwei Entwicklungen bei OpenAI:

  • Das Unternehmen arbeitet derzeit mit so hohem Druck an Produkten, dass Sicherheitsaspekte leiden.
  • Der Wandel von einer Forschungseinrichtung hin zu einem profitorientierten Unternehmen zerreißt die Firmenkultur.

Muratis Abgang wird als gravierender Einschnitt für OpenAI beschrieben, ist aber keine Ausnahme. Mit Bob Grew und Barret Zoph sind in dieser Woche noch zwei leitende Forscher gegangen. Insgesamt sind es mehr als 20 OpenAI-Forscher und ehemalige Gründer, die OpenAI in diesem Jahr verlassen haben. Rechnet man Greg Brockman mit ein, der sich derzeit eine Auszeit nimmt, ist vom ehemaligen Gründerteam praktisch nur noch Altman an Bord.

Er bedauerte letzte Woche zwar den Abgang von Murati, bezeichnete die personellen Wechsel jedoch als normal in einer Start-up-Anfangszeit. In einem Schreiben an die Mitarbeiter, das er auch auf X teilte, kündigte er neben den Nachfolgern auch an, selbst wieder mehr im technischen und im Produktbereich zu arbeiten.

Altman als „podcasting bro“

Der Eindruck, der derzeit entsteht: Alles konzentriert sich auf Altman. Das öffentliche Gesicht von OpenAI ist er ohnehin. Er verkündete Visionen und flog um die Welt, um bei Regierungen und Investoren für seine AI-Infrastrukturprojekte zu werben. Intern soll das auch kritisch aufgefasst worden sein. Im Tagesgeschäft war er kaum noch aktiv und habe sich abgekapselt, sagen ehemalige Mitarbeiter laut dem Wall Street Journal.

Es sind Vorwürfe, die OpenAI bestreitet. Sie passen aber ins derzeitige Bild. Wie die New York Times aktuell berichtet, soll Altman bei seiner Werbetour Anfang des Jahres als erstes bei TSMC vorgesprochen haben. Aus diesen Runden stammen auch die 5 bis 7 Billionen US-Dollar (tatsächlich Billionen!), die bereits im Februar als Summe kursierten, die Altman in AI-Infrastrukturprojekte stecken wollte. Konkret ging es um 36 Chipfabriken sowie weitere Rechenzentren, die über mehrere Jahre hinweg entstehen sollten. Erfolg hatte er damit aber nicht. TSMC-Führungskräfte fanden seine Pläne laut den Quellen der New York Times so absurd, dass sie Altman abwertend als „podcasting bro“ bezeichneten.

Um die Summe einzuordnen: Apple und Microsoft kommen laut dem Portal Companies Market Cap aktuell gemeinsam auf einen Marktwert von rund 6,6 Billionen US-Dollar

OpenAI versucht derweil die Wogen zu glätten. Eine Sprecherin sagte auf Anfrage der New York Times, das Unternehmen habe nie Multi-Billionen-Dollar-Projekte verfolgt. Vielmehr liegen diese in der Größenordnung von Hunderten Milliarden US-Dollar. Am Kern der Strategie lässt Altman derweil aber keinen Zweifel. In seinem Blog erklärt er, Deep Learning funktioniere wie gehabt – der Erfolg bei der KI-Entwicklung hängt demnach also maßgeblich von der Rechenleistung ab.

Und hier soll es bald Fortschritte geben. Die Gespräche über neue Rechenzentren in den USA gelten als fortgeschritten. Microsoft will sogar das Kernkraftwerk Three Miles reaktivieren, um ausreichend Energie bereitzustellen.

Kritik an Altmans Führungsstil

Intern muss Altman nun vor allem die Nachfolge von Murati regeln, was interne Quellen als herausfordernd beschreiben. Laut einem weiteren Bericht des Wall Street Journal leitete sie bis dato das Tagesgeschäft und galt als seine wichtigste Vertreterin. Ihr Abschied soll aber letztes Jahr schon im Raum gestanden haben. Ihre Zusammenarbeit mit Altman verlief dem Bericht zufolge nicht reibungslos, sie soll einige seiner Führungspraktiken als psychologisch missbräuchlich beschrieben haben. Bedenken habe sie demnach auch gegenüber Mitgliedern des Verwaltungsrats geäußert, der Altman dann im November 2023 entlassen hatte – wenn auch nur für kurze Zeit. Diese Entscheidung habe sie laut einem Vertrauten aber nicht unterstützt, sie soll ihre Differenzen stattdessen auch direkt mit Altman besprochen haben.

Neu ist die Kritik an Altmans Führungsstil ohnehin nicht. Dass er nicht aufrichtig sei, war auch der Grund, der bei seiner Entlassung offiziell genannt wurde. Details dazu beschrieb die ehemalige Verwaltungsrätin Helen Toner im Mai dieses Jahres. In einem Podcast sprach sie von irreführenden bis fehlenden Informationen, die Altman mit der Kontrollinstanz teilte. Von der ChatGPT-Veröffentlichung hätten die Mitglieder etwa erst auf Twitter, jetzt die Plattform X, erfahren. Solche und weitere Vorfälle führten dann zur kurzzeitigen Entlassung. Den Machtkampf, den der Verwaltungsrat startete, endete aber mit einem Sieg Altmans. Er kehrte zurück, der Verwaltungsrat wurde umgebaut.

Was bei aller Kritik trotzdem anzumerken ist: In der Belegschaft hatte Altman im November 2023 einen großen Rückhalt, wie der offene Brief zeigte, den viele unterzeichneten. Dasselbe gilt für Investoren. Erst so war es überhaupt möglich, dass er auf seinen Chefposten zurückkehren konnte. Auch Ilya Sutskever – führender Wissenschaftler bei OpenAI, der den Rauswurf von Altman zunächst unterstützte – unterschrieb den Brief.

Die Vorgänge, die das Wall Street Journal rund um Sutskevers Abgang beschreibt, sind jedoch bezeichnend. Offiziell verließ er OpenAI im Mai, um eine eigene Firma zu gründen. Abwesend war er aber bereits seit November 2023. Interessant sind aber die Gespräche, die im Hintergrund stattgefunden haben sollen. Demnach versuchten sowohl Murati als auch OpenAI-Präsident Greg Brockman, Sutskever zur Rückkehr zu bewegen. Sie sprachen von einem „Durcheinander“ und einem potenziellen Zusammenbruch des Unternehmens ohne ihn. Sogar Sam Altman soll bei Sutskever zu Hause vorgesprochen haben, dieser dachte dann wohl ernsthaft über eine Rückkehr nach. Am Ende scheiterte die Rückholaktion wohl, weil Führungskräfte bei OpenAI Schwierigkeiten hatten, eine neue Rolle für ihn festzulegen – sein Ex-Job als Chefwissenschaftler wurde immerhin schon nachbesetzt.

Nun ist das Thema vom Tisch, Sutskever gründete mit Safe Superintelligence ein neues KI-Start-up, das frei von kommerziellem Druck entwickeln soll. Eine Konsequenz, die die Vorgänge für OpenAI hatten: Gründer John Schulman war laut Wall Street Journal von den internen Konflikten und der gescheiterten Rückholaktion so frustriert gewesen, dass er das Unternehmen im August verließ. Er ist nun bei Anthropic.

Richtungsstreit: Produkte oder Forschung

Ein wesentlicher Grund für die Machtkämpfe ist der Streit um die Ausrichtung von OpenAI. Wie gehabt verfolgt das Unternehmen das Ziel, eine allgemeine künstliche Intelligenz (engl. AGI) sicher zu entwickeln, von der die ganze Menschheit profitiert. Während ein Lager vor allem die Forschung in den Mittelpunkt stellt und Produkte wie ChatGPT praktisch als Nebeneffekt beschreibt, setzt die zweite Gruppe auf den ökonomischen Erfolg, um die kostspielige KI-Entwicklung überhaupt finanzieren zu können.

Es ist schwer, beides gleichzeitig zu tun – die product-first-Kultur unterscheidet sich stark von einer Forscherkultur“, sagt Tim Shi, der zu den ersten Mitarbeitern von OpenAI zählte und heute CTO bei einem KI-Start-up ist. Ursprünglich als gemeinnützige Organisation gestartet, folgte 2019 bereits der Schritt zum Capped-Profit-Modell, um attraktiver für Investoren zu sein. Mit dem kompletten Wandel zu einem gewinnorientierten Unternehmen vollzieht sich also für die Identität OpenAIs ein massiver Umbruch.

Hintergründe zu OpenAIs Finanzierungsrunde

Erwartbar ist daher, dass die Entwicklungsgeschwindigkeit weiter hoch bleibt. Nur betrifft das nicht nur die Firmenkultur, sondern hat auch Konsequenzen in Bereichen wie der Sicherheit. Viele ehemalige und sogar aktuelle Mitarbeiter werfen OpenAI nachlässiges Handeln vor. GPT-4o wollte die OpenAI-Spitze demnach unbedingt vor Googles Entwicklerkonferenz im Frühjahr präsentieren. Die Konsequenz: Mitarbeiter aus dem Sicherheitsteam sollen für Tests nur neun Tage Zeit gehabt haben. 20-Stunden-Tage waren dann laut Wall Street Journal nötig, um diese abzuschließen. Eine doppelte Kontrolle war jedoch nicht mehr möglich.

Manche Probleme wurden erst im Nachgang der GPT-4o-Veröffentlichung identifiziert. Mitarbeiter wären daher frustriert gewesen, da man mit mehr Zeit einige Fehler hätte beseitigen können, bevor die Nutzer einen Zugang zum Modell hatten. OpenAI erklärte derweil, dass das Vorgehen bei den Sicherheitstests geändert worden sei. Eine neue Methodik habe die Schwierigkeiten verursacht.

Blickt man auf die personellen Abgänge der letzten Monate, sind Mängel im Sicherheitsbereich hierfür ein weiterer Grund. Mit Sutskever verließen weitere KI-Sicherheitsforscher das Unternehmen, darunter befanden sich prominente Namen wie Jan Leike. Er ist nun wie einige andere bei Anthropic untergekommen. Das KI-Start-up wurde 2021 von ehemaligen OpenAI-Mitarbeitern gegründet, diese hatten schon damals die Firma im Streit verlassen.