Ex-OpenAI-Chefwissenschaftler: Ilya Sutskever gründet AI-Startup für sichere Super­intelligenz

Andreas Frischholz
31 Kommentare
Ex-OpenAI-Chefwissenschaftler: Ilya Sutskever gründet AI-Startup für sichere Super­intelligenz
Bild: Mohamed Hassan | CC0 1.0

OpenAIs ehemaliger Chef-Wissenschaftler Ilya Sutskever hat ein Startup gegründet, das sich explizit mit Sicherheit bei der Entwicklung von KI-Systemen beschäftigt. Mit der Ausrichtung grenzt sich das neue Unternehmen von OpenAIs derzeitigem Kurs ab.

Bislang ist zu dem Startup, das unter den Namen Safe Superintelligence Inc. läuft, wenig bekannt. Auf der Webseite heißt es allgemein, man wolle eine sichere Superintelligenz (SSI) entwickeln – und das sei zugleich die Mission und die Produkt-Roadmap.

Sowohl von Management-Bürokratie als auch Produktzyklen wolle man sich nicht ablenken lassen. Das Geschäftsmodell sei so ausgelegt, dass Sicherheit und Fortschritt nicht von kurzfristig kommerziellem Druck abhängig sind.

Neben Sutskever zählen noch Daniel Gross, vorher bei Cue und Apple, sowie der ehemalige OpenAI-Forscher Daniel Levy zu den Gründern. Büros eröffnet das amerikanische Unternehmen in Palo Alto und Tel Aviv.

Richtungsstreit bei OpenAI

Insbesondere der Fokus auf Produkte und ein Wettrüsten bei der KI-Entwicklung sind Vorwürfe, mit denen OpenAI zuletzt immer wieder konfrontiert wurde. Entsprechend äußerte sich etwa Jan Leike, ehemaliger Chef des Superalignment-Teams, der nun bei der Konkurrenzfirma Anthropic tätig ist.

Sutskever hat sich bei seinem Abgang nicht in dieser Weise geäußert. Er stimmte im November 2023 allerdings im Verwaltungsrat für die Entlassung von CEO Sam Altman. Dieser kehrte zwar kurz darauf zurück, im Endeffekt kam es aber zum Bruch in der Führungsetage. Sicherheitsaspekte sollen einer der Gründe gewesen sein. Sutskever hatte auch öffentlich vor den Risiken gewarnt, die von leistungsstarken KI-Modellen wie AGI-Systemen ausgehen.

Dass sowohl Sutskever als auch Leike OpenAI verlassen haben, führte innerhalb von OpenAI zu Unruhe, berichtet die New York Times. Ehemalige und aktuelle OpenAI-Mitarbeiter warnen in einem offenen Brief vor einem rücksichtslosen Wettlauf um die Vorherrschaft bei der KI-Entwicklung.

Nächster Kritikpunkt: NSA-Direktor im Verwaltungsrat

Neben den Vorwürfen aktueller und ehemaliger Mitarbeiter stand OpenAI zuletzt auch in der Kritik, weil das Unternehmen mit Paul M. Nakasone einen ehemaligen NSA-Direktor in den Verwaltungsrat aufgenommen hat. Befürchtet wird eine zu große Nähe zwischen OpenAI und dem amerikanischen Geheimdienstapparat.