Datenschutz­beschwerde: ChatGPT bezeichnete einen Mann fälschlich als Kindermörder

Andreas Frischholz
67 Kommentare
Datenschutz­beschwerde: ChatGPT bezeichnete einen Mann fälschlich als Kindermörder
Bild: OpenAI

Weil ChatGPT nach wie vor falsche Informationen über Personen herausgibt, die zum Teil verleumderisch und rufschädigend sind, hat die Datenschutzorganisation Noyb eine Datenschutzbeschwerde gegen OpenAI eingereicht.

Im konkreten Fall geht es um einen Mann aus Norwegen. Als er ChatGPT nach seinem Namen fragte, wurde er laut der Noyb-Mitteilung als verurteilten Verbrecher dargestellt, der zwei seiner Kinder ermordet und versucht hat, auch seinen dritten Sohn zu ermorden. Neben dem Erfundenen erhielt die Geschichte auch wahre Elemente wie die Anzahl und Geschlechter seiner Kinder sowie den Namen seiner Heimstadt. Laut dem Text wurde er zu einer Haftstrafe verurteilt.

Dass ChatGPT wahre – und zur eindeutigen Identifikation beitragende – Angaben mit falschen und rufschädigenden Informationen vermischt, ist laut Noyb ein Verstoß gegen die DSGVO. Unternehmen müssten sicherstellen, dass persönliche Daten korrekt sind, wenn sie diese erstellen. „Die DSGVO ist hier unmissverständlich. Persönliche Daten müssen korrekt sein“, sagt Joakim Söderberg, Datenschutzjurist bei noyb.

Wenn Fehler entstehen, hätten Nutzer zudem das Recht, die Daten richtig stellen zu lassen. OpenAI weise beim Eingabefenster zwar darauf hin, dass ChatGPT Fehler machen könne, so ein „winziger Hinweis“ reiche aber nicht aus.

OpenAI löscht keine Daten, sondern sperrt Prompts

Dass AI-Chatbots wie ChatGPT falsche bis irreführende Informationen „halluzinieren“, ist ein bekanntes Problem. Mit Blick auf den Umgang mit personenbezogenen Daten beschäftigt es Datenschützer mittlerweile seit Jahren. Der Haken: Falsche Informationen lassen sich nicht einfach aus einem KI-Modell entfernen.

OpenAI ist daher dazu übergangen, direkt den Prompt zu sperren. Das gilt etwa für den australischen Bürgermeister Brian Hood. ChatGPT unterstellte ihm, in Korruptionsfälle verwickelt zu sein, obwohl er selbst als Whistleblower bei der Aufklärung beteiligt war. Er drohte mit Klage, nun führt sein Name sogar zu einem Absturz des Chatbots. Das Phänomen wurde letztes Jahr erstmals beobachtet, bis heute hat sich nichts geändert.

ChatGPT-Fehlermeldung bei Brian Hood mit GPT-4o
ChatGPT-Fehlermeldung bei Brian Hood mit GPT-4o

Der Standpunkt von OpenAI ist also: Wenn ChatGPT falsche Informationen herausgibt, sperrt man den entsprechenden Prompt. Für Noyb ist das nicht ausreichend. Zwar habe sich das Problem entspannt, weil ChatGPT nun über die Websuche auf aktuelle Informationen zugreifen kann und somit nicht mehr ausschließlich auf die Informationen innerhalb des Modells angewiesen ist.

Weil falsche Daten weiterhin Teil des LLM-Datensatzes seien, könne man nicht sicher sein, dass diese wirklich vollständig gelöscht sind. Ebenso wenig erfülle OpenAI das DSGVO-Auskunftsrecht; Betroffene können nicht herausfinden, welche Daten über sie verarbeitet worden sind.

Noyb fordert Bußgeld und Modellanpassungen

Noyb hat die Beschwerde bei der norwegischen Datenschutzbehörde Datatilsynet eingereicht. Die Forderung an OpenAI ist: Diffamierenden Output löschen und das Modell so anzupassen, dass keine vergleichbaren Ergebnisse mehr generiert werden. Zusätzlich soll die Datenschutzbehörde noch ein Bußgeld verhängen.

Eine erste Beschwerde gegen OpenAI hatte Noyb bereits 2024 eingereicht. Die irische Datenschutzbehörde DPC prüft diese aber noch.

Wo gibt es GeForce RTX 5000 und Radeon RX 9000 zu kaufen? Unser RTX-50-Verfügbarkeits-Check und der RX-9000-Verfügbarkeits-Check informieren über aktuelle Listungen.
Nvidia GTC 2025 (17.–21. März 2025): Alle News auf der Themenseite!