Datenschutzbeschwerde: ChatGPT bezeichnete einen Mann fälschlich als Kindermörder

Weil ChatGPT nach wie vor falsche Informationen über Personen herausgibt, die zum Teil verleumderisch und rufschädigend sind, hat die Datenschutzorganisation Noyb eine Datenschutzbeschwerde gegen OpenAI eingereicht.
Im konkreten Fall geht es um einen Mann aus Norwegen. Als er ChatGPT nach seinem Namen fragte, wurde er laut der Noyb-Mitteilung als verurteilten Verbrecher dargestellt, der zwei seiner Kinder ermordet und versucht hat, auch seinen dritten Sohn zu ermorden. Neben dem Erfundenen erhielt die Geschichte auch wahre Elemente wie die Anzahl und Geschlechter seiner Kinder sowie den Namen seiner Heimstadt. Laut dem Text wurde er zu einer Haftstrafe verurteilt.
Dass ChatGPT wahre – und zur eindeutigen Identifikation beitragende – Angaben mit falschen und rufschädigenden Informationen vermischt, ist laut Noyb ein Verstoß gegen die DSGVO. Unternehmen müssten sicherstellen, dass persönliche Daten korrekt sind, wenn sie diese erstellen. „Die DSGVO ist hier unmissverständlich. Persönliche Daten müssen korrekt sein“, sagt Joakim Söderberg, Datenschutzjurist bei noyb.
Wenn Fehler entstehen, hätten Nutzer zudem das Recht, die Daten richtig stellen zu lassen. OpenAI weise beim Eingabefenster zwar darauf hin, dass ChatGPT Fehler machen könne, so ein „winziger Hinweis“ reiche aber nicht aus.
OpenAI löscht keine Daten, sondern sperrt Prompts
Dass AI-Chatbots wie ChatGPT falsche bis irreführende Informationen „halluzinieren“, ist ein bekanntes Problem. Mit Blick auf den Umgang mit personenbezogenen Daten beschäftigt es Datenschützer mittlerweile seit Jahren. Der Haken: Falsche Informationen lassen sich nicht einfach aus einem KI-Modell entfernen.
OpenAI ist daher dazu übergangen, direkt den Prompt zu sperren. Das gilt etwa für den australischen Bürgermeister Brian Hood. ChatGPT unterstellte ihm, in Korruptionsfälle verwickelt zu sein, obwohl er selbst als Whistleblower bei der Aufklärung beteiligt war. Er drohte mit Klage, nun führt sein Name sogar zu einem Absturz des Chatbots. Das Phänomen wurde letztes Jahr erstmals beobachtet, bis heute hat sich nichts geändert.

Der Standpunkt von OpenAI ist also: Wenn ChatGPT falsche Informationen herausgibt, sperrt man den entsprechenden Prompt. Für Noyb ist das nicht ausreichend. Zwar habe sich das Problem entspannt, weil ChatGPT nun über die Websuche auf aktuelle Informationen zugreifen kann und somit nicht mehr ausschließlich auf die Informationen innerhalb des Modells angewiesen ist.
Weil falsche Daten weiterhin Teil des LLM-Datensatzes seien, könne man nicht sicher sein, dass diese wirklich vollständig gelöscht sind. Ebenso wenig erfülle OpenAI das DSGVO-Auskunftsrecht; Betroffene können nicht herausfinden, welche Daten über sie verarbeitet worden sind.
Noyb fordert Bußgeld und Modellanpassungen
Noyb hat die Beschwerde bei der norwegischen Datenschutzbehörde Datatilsynet eingereicht. Die Forderung an OpenAI ist: Diffamierenden Output löschen und das Modell so anzupassen, dass keine vergleichbaren Ergebnisse mehr generiert werden. Zusätzlich soll die Datenschutzbehörde noch ein Bußgeld verhängen.
Eine erste Beschwerde gegen OpenAI hatte Noyb bereits 2024 eingereicht. Die irische Datenschutzbehörde DPC prüft diese aber noch.
