Sicherheitsleck bei OpenAI: Angreifer hatten Zugang zu internen Informationen

Andreas Frischholz
33 Kommentare
Sicherheitsleck bei OpenAI: Angreifer hatten Zugang zu internen Informationen
Bild: OpenAI

Bei OpenAI kam es im letzten Jahr zu einem Datenleck. Ein Angreifer hatte Zugang zu einem internen Forum, in dem sich Mitarbeiter des Unternehmens über aktuelle Technologien austauschen. OpenAI bewertete den Vorfall aber nicht als gravierend.

Das berichtet die New York Times unter Berufung auf zwei Personen, die mit den Vorgängen vertraut sind. Basierend auf den Foren-Diskussionen konnte der Angreifer demnach interne Informationen über OpenAIs Technologien abgreifen. Zugang zu internen Netzwerken oder Entwicklungsumgebungen für die KI-Systeme gab es aber nicht.

Die Mitarbeiter sowie den Verwaltungsrat hatte der OpenAI-Vorstand bereits im April 2024 informiert. Dort wurde der Vorfall auch diskutiert. Am Ende entschied der Vorstand aber, nicht an die Öffentlichkeit zu gehen. Informationen über Kunden oder Partner wären nicht betroffen, ebenso wenig bewertete man den Angriff als Bedrohung für die nationale Sicherheit. Denn das Unternehmen ging davon aus, dass es sich bei dem Hacker um eine Privatperson gehandelt habe.

Verbindungen zu ausländischen Diensten sollen nicht bestanden haben, sagten die Quellen der New York Times. Aus diesem Grund informierte man auch nicht das FBI oder eine andere Sicherheitsbehörde.

Vorwurf: OpenAI nimmt Risiken nicht ernst genug

Wie OpenAI zu dieser Einschätzung kam, geht aus dem New-York-Times-Bericht nicht hervor. Zweifel haben scheinbar auch die Mitarbeiter. In dem Bericht ist von einer wachsenden Sorge die Rede. Diese richtet sich vor allem gegen ausländische Geheimdienste wie die aus China, diese könnten versuchen, sensible Informationen zu stehlen.

Ob OpenAI solche Sicherheitsvorfälle ernst nimmt und wie gut das Unternehmen tatsächlich gegen Angriffe gewappnet ist, sind zwei der weiteren Fragen. Besonders heikel für OpenAI ist, dass diese auch geopolitisch relevant sind. So sollen chinesische Hacker auch zu den Angreifern zählen, die die gravierenden Sicherheitslücken bei Microsoft ausgenutzt haben. Durch den Vorfall waren auch zahlreiche US-Behörden betroffen, allein beim Außenministerium wurden mehr als 60.000 E-Mails heruntergeladen.

Während Microsoft bei der IT-Infrastruktur im Fokus steht, hat OpenAI eine ähnliche Rolle bei der KI-Entwicklung. Modelle wie GPT-4o gelten als weltweit führend, dementsprechend hoch ist das Interesse. Und wie bedeutend diese von einigen Kreisen angesehen werden, hatte zuletzt der Forscher und ehemalige Mitarbeiter Leopold Aschenbrenner in einem 165-seitigen Essay ausgeführt.

Sorge vor geopolitischen Konflikt mit China

Einer seiner Thesen ist: Wenn AGI-Systeme – also künstliche Superintelligenzen – entstehen, gewinnen diese unter anderem aufgrund des militärischen Nutzens einen enormen Vorteil. Dementsprechend dürfte die Entwicklung geopolitische Konflikte anheizen, also vor allem den Wettstreit zwischen den USA und China. Umso bedrohlicher ist in diesem Kontext daher ein solcher Sicherheitsvorfall, den Aschenbrenner auch selbst bereits öffentlich erwähnte. Er verkündete in diesem Kontext, intern wiederholt seine Bedenken geäußert zu haben.

Leopold Aschenbrenner ist mittlerweile nicht mehr bei OpenAI tätig. Seinen Aussagen nach wurde er offiziell entlassen, weil er Informationen mit fremden Forschern geteilt habe, was er jedoch als Austausch unter Wissenschaftlern beschreibt. Er vermutet hingegen politische Gründe als wahren Grund, konkret seien es seine Warnungen vor dem geopolitischen Konflikt mit China, die zur Trennung geführt hätten.

OpenAI bestreitet derweil, dass Aschenbrenners Sicherheitsbedenken zur Entlassung geführt haben. „Wir haben Verständnis für die Bedenken, die Leopold in seiner Zeit bei OpenAI mitgeteilt hatte, und diese haben nicht zur Trennung geführt“, sagte die Sprecherin Liz Bourgeois der New York Times.

KI-Technologie nicht bedrohlicher als Suchmaschinen

Inwieweit die KI-Technologie tatsächlich ein Risiko für die nationale Sicherheit ist, bleibt aber umstritten. Vieles ist spekulativ, das gilt insbesondere, wenn potenzielle AGI-Systeme ins Spiel kommen. Es ist völlig unklar, ob und wann diese auf den Markt kommen. Ebenso wenig lassen sich die Auswirkungen präzise beschreiben.

So verweist auch die New York Times in dem Bericht auf Studien von OpenAI und Anthropic, laut denen aktuelle KI-Technologien kein größeres Risiko für die nationale Sicherheit als etwa Suchmaschinen darstellen. So erklärt Anthropic-Mitgründerin und Präsidentin Daniela Amodei, dass es für wahrscheinlich nicht sehr schädlich sei, wenn interne Entwürfe und Technologien jemand anderes in die Hände bekommen würde. Möglicherweise könnten böswillige Akteure schneller ans Ziel kommen, das sei aber „wirklich spekulativ“.