Transparenz und Kontrolle: Trump hebt KI-Sicherheitsregeln der Biden-Administration auf

Andreas Frischholz
52 Kommentare
Transparenz und Kontrolle: Trump hebt KI-Sicherheitsregeln der Biden-Administration auf
Bild: 12019 | CC0 1.0

In einer der Verordnungen am ersten Amtstag hat der neue US-Präsident Donald Trump die AI-Sicherheitsregeln aufgehoben, die die Biden-Administration im Sommer 2023 erlassen hatte. Diese sollten eigentlich eine sichere, geschützte und vertrauenswürdige KI-Entwicklung gewährleisten.

Die „Executive Order 14110 – Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence“ war ein umfassendes Regelwerk. Anbieter großer Sprachmodelle wurden damit etwa verpflichtet, die Ergebnisse von Sicherheitstests und weitere kritische Informationen mit US-Behörden zu teilen. Das amerikanische National Institute of Standards and Technology (NIST) sollte zudem Standards für Sicherheitstests entwickeln. Weitere Behörden aus Bereichen wie Biologie, Chemie, Cybersecurity oder kritischer Infrastruktur hatten den Auftrag, Risiken zu prüfen, die infolge der KI-Entwicklung entstehen können.

Weitere Regeln betrafen den Schutz der Privatsphäre oder das Verhindern von Betrugsmaschen mit AI-Inhalten. Arbeiter wollte die Biden-Administration ebenfalls unterstützen, weshalb untersucht werden sollte, wie sich die KI-Entwicklung auf den Arbeitsmarkt auswirkt.

Generell sollte die KI-Entwicklung auch gefördert werden, die USA sollte den Status als führendes Land in der Branche beibehalten. Daher wollte man unter anderem sicherstellen, dass ein faires und offenes KI-Ökosystem entsteht.

Unklare Auswirkungen

Welche Auswirkung diese Entscheidung auf die KI-Entwicklung hat, lässt sich schwer abschätzen. Manche Regelungen wie der Deepfake-Schutz durch Wasserzeichen sind Teil einer freiwilligen Selbstverpflichtung, auf die sich führende Anbieter wie Amazon, Anthropic, Google, Meta, Microsoft und OpenAI mit dem Weißen Haus verständigt hatten. Solche Vorgaben sind unabhängig von der Verordnung der Biden-Administration und könnten damit erhalten bleiben. Neben dem Bund arbeiten in den USA zudem auch zahlreiche Bundesstaaten an KI-Regelwerken.

Weitere Biden-Regelungen im KI-Bereich könnten hingegen erhalten bleiben, berichtet The Verge. Das betrifft etwa die Anordnung, die den Export von AI-Chips limitiert.

Im Fokus: Der AI Act in der EU

Erwartet wird jedoch, dass der Druck auf den europäischen AI Act zunimmt. Die „Bühne für einen Showdown“ steht, heißt es etwa bei The Verge. Im Mittelpunkt könnte Meta stehen. Der Konzern hat im letzten Jahr mehrmals verkündet, dass man KI-Modelle und Tools wie den Chatbot Meta AI in der EU erst verzögert oder überhaupt nicht auf den Markt bringen will, weil die Regulierung zu strikt ist.

Zusätzlich kündigte Meta-Chef Mark Zuckerberg bereits im Januar an, er wolle eng mit der Trump-Administration kooperieren, um gegen unliebsame Regulierung außerhalb der USA vorzugehen. Konkret nannte er dabei die EU.

Den AI Act hat die EU bereits im Frühjahr 2024 beschlossen, Änderungen sind also auch nicht ohne weiteres möglich. Wie sich ein geopolitischer Konflikt um die KI-Regeln entwickelt – und welche Folgen das für die Nutzer in der EU hat –, lässt sich daher ebenfalls kaum abschätzen. Dass KI-Tools von US-Anbietern nicht oder verspätet in die EU kommen, ist eine der Optionen. Im Gegenzug haben italienische Datenschützer in Italien schon zeitweise den Zugang zu ChatGPT gesperrt, weil Datenschutzvorgaben nicht eingehalten worden sind.