AI Act: Verbraucherschützer fordern mehr Rechte für Nutzer bei KI-Systemen
Kommende Woche starten die sogenannten Trilog-Verhandlungen über den AI Act. EU-Kommission, EU-Rat und EU-Parlament wollen sich also auf das finale Gesetz verständigen, das in der EU künftig den Umgang mit KI-Systemen regelt. Verbraucherschützer fordern nun, dass Nutzerrechte eine entscheidende Rolle spielen müssen.
So würden im bestehenden Gesetz noch Lücken bestehen, kritisiert Ramona Pop, Vorständin vom Verbraucherzentrale Bundesverband (vzbv). Die EU-Institutionen müssten die Chancen ergreifen, um den AI Act „im Sinne der Menschen zu gestalten“, sagte sie dem Spiegel.
Manipulationen strikt unterbinden
Wichtig seien die Entscheidungen jetzt, denn mit dem Regelwerk stelle die EU die Weichen für die kommenden Jahre. Generative KI-Lösungen wie ChatGPT würden aber heute schon zeigen, wie sie Menschen beeinflussen können. Das gelte etwa für Kaufentscheidungen, könne aber auch weitere Bereiche betreffen, in denen Manipulationen möglich sind.
Die EU will solche Einsatzzwecke bereits verbieten, Pop gehen die Verbote aber nicht weit genug. So müssten alle Anwender – und nicht nur besonders gefährdete Gruppen – auch vor „finanziellen Schäden“ geschützt werden und nicht nur vor psychologischen sowie physischen.
KI-Systeme dürften auch nicht ausnutzen, wenn sie erkennen, dass die Nutzer besonders anfällig seien. Als Beispiele werden etwa Spielsucht, Trauer oder Medikamenteneinfluss genannt. Damit Betroffene bei einem Missbrauch auch ihre Rechte durchsetzen können, fordert der vzbv laut dem Spiegel-Bericht ein Verbandsklagerecht. Damit könnten dann auch Verbraucherschutzverbände im Auftrag der Geschädigten für Schadensersatz klagen.
KI-Regelwerk reguliert auch ChatGPT
Auf Entwürfe für den AI Act haben sich die EU-Institutionen im Sommer verständigt. Dieser soll den künftigen Umgang mit KI-Systemen regeln, im Kern handelt es sich um einen risikobasierten Ansatz. Das bedeutet: Umso mehr Risiko von einer KI-Anwendung ausgeht, desto strikter sind die Vorgaben.
- EU-Parlament beschließt AI Act: Biometrie-Verbote und strikte Regeln für OpenAI und Co.
- Von Telekom bis Ubisoft: 100 Unternehmen aus Europa kritisieren AI Act als zu bürokratisch
- Lobby-Arbeit beim AI Act: Wie OpenAI die KI-Regulierung zu seinen Gunsten beeinflusst
Vorgaben für generative KI-Systeme sowie Large Language Models (LLM) wurden auch noch aufgenommen. So müssen die Entwickler Risikoeinschätzungen für Bereiche wie Gesundheit, Sicherheit, Grundrechte und Umwelt abgeben und Transparenzanforderungen erfüllen.
Wie präzise die Regeln ausfallen, ist aber noch umstritten. Zuletzt warnten etwa Vertreter der Bundesregierung vor zu strikten Vorgaben. Innovationen sollten weiterhin möglich sein. Daher soll bei Basismodellen (also LLMs) praktisch eine Selbstverpflichtung ausreichen.