KI-Chatbot: Italiens Datenschützer bremsen ChatGPT aus

Update 3 Michael Günsch
159 Kommentare
KI-Chatbot: Italiens Datenschützer bremsen ChatGPT aus
Bild: Pixabay

Italiens Datenschützer starten ein Verfahren gegen den KI-Chatbot ChatGPT. Der Dienst des amerikanischen Entwicklers OpenAI verstoße sowohl gegen den Datenschutz als auch den Jugendschutz. Daher beschränkt Italiens Datenschutzbehörde die Verwendung personenbezogener Daten von italienischen Nutzern.

Über den Entschluss, der „sofortige Wirkung“ besitze, hat unter anderem die Nachrichtenagentur AFP berichtet. Die entsprechende Erklärung der italienischen Datenschutzbehörde GPDP ist online abrufbar.

Verstöße gegen Daten- und Jugendschutz

Eingeleitet wurde die Untersuchung offenbar nach dem Datenleck, das kürzlich publik wurde. Manche Nutzer der kostenpflichtigen Pro-Variante erhielten zeitweise Einblick in Daten von anderen Konten. Die Informationen umfassten Angaben wie den Vor- und Nachnamen, die Rechnungsadresse sowie die letzten 4 Ziffern der Kreditkartennummer. Laut OpenAI war ein Bug in einer Open-Source-Bibliothek für die Sicherheitslücke verantwortlich, mittlerweile wurde das Problem behoben.

Der Vorfall ergänzt die generellen Datenschutzbedenken. Für die massenhafte Erhebung und Speicherung personenbezogener Daten, mit denen die KI „trainiert“ werden soll, fehle jegliche Rechtsgrundlage, so die Behörde. Es handele sich daher um eine „illegale Erhebung“. Kontrollen hätten zudem ergeben, dass Angaben von ChatGPT nicht mit den tatsächlich verarbeiteten Daten übereinstimmen. Was genau überprüft wurde und inwieweit man zwischen dem Training der Modelle und dem alltäglichen Betrieb des Chatbots unterscheidet, wird in der Mitteilung nicht klar.

Hinzu kommen die Mängel beim Jugendschutz. Es fehle eine Funktion, um das Alter der Nutzer zu überprüfen. Vom Chatbot könnten Minderjährige somit aus Sicht des Jugendschutzes für sie „ungeeignete Antworten“ erhalten. Die Teilnahmebedingungen vom Entwickler OpenAI würden die Nutzung zwar auf Personen ab 13 Jahren einschränken, doch fehlt eine Maßnahme zur Einhaltung dieser Regel.

Frist für Maßnahmen, sonst Strafe

Weiter heißt es in dem Entschluss, dass OpenAI nun 20 Tage Zeit habe, mitzuteilen, welche Maßnahmen der Anbieter ergreifen wolle, um die geforderten Änderungen umzusetzen. Sollte nicht reagiert werden, drohe eine Strafe in Höhe von bis zu 20 Millionen Euro oder bis zu vier Prozent des globalen Jahresumsatzes.

Über ChatGPT und die Risiken

ChatGPT ist eine Software, die Texteingaben der Nutzer mithilfe von Künstlicher Intelligenz und riesiger Datensätze aus dem Internet verarbeitet. Der Chatbot simuliert einen echten Gesprächspartner und gibt Antworten auf Fragen und kann sogar Textaufgaben erledigen.

Dem Unterhaltungswert und Nutzen solcher KI-Programme stehen aber vielerlei Bedenken gegenüber. Etwa fürchten Lehrkräfte, dass Schüler ihre Aufgaben dem Chatbot überlassen und damit schummeln könnten. Generell besteht das Risiko der Verbreitung von Falschinformationen und Propaganda. Europol hatte zudem kürzlich auf die Risiken hingewiesen, dass sich Kriminelle mithilfe der umfangreichen Datensammlung Informationen darüber, „wie man in ein Haus einbricht, bis hin zu Terrorismus, Cyberkriminalität und sexuellem Missbrauch von Kindern“ verschaffen könnten.

In den vergangenen Monaten hat die Tech-Branche einen regelrechten KI-Wettlauf unternommen, dem ChatGPT vorauseilt. Microsoft nutzt die Software von OpenAI inzwischen zur Ergänzung seines eigenen Suchdienstes Bing. Kurz darauf hatte Google einen großen Testlauf für seinen ChatGPT-Konkurrenten „Bard“ gestartet. Auch Meta (Facebook) entwickelt komplexe Sprachmodelle.

KI-Forscher und Prominente wie Elon Musk fordern aufgrund dieses „KI-Hype“ einen Entwicklungsstopp mächtiger KI-Modelle für sechs Monate, um etwaige Risiken zu überdenken.

Update

Sam Altman, der CEO von OpenAI, hat über Twitter verkündet, dass man ChatGPT in Italien nicht mehr anbieten wird, obwohl sie glauben, dass sie alle Datenschutzgesetze befolgen.

Update

Deutsche Datenschutzbehörden beobachten das Vorgehen in Italien. Man habe bei der italienischen Datenschutzbehörde Garante bereits „um weiterführende Informationen gebeten und [werde] diese dann an die zuständigen Landesdatenschutz­aufsichtsbehörden und Landesmedienanstalten weitergeben“, sagte eine Sprecherin des Bundesdatenschutzbeauftragten dem Spiegel.

Sofern Trainingsdaten auch personenbezogene Daten beinhalten, unterliegen diese auch der DSGVO, so die Ansicht der Datenschützer. Nutzer müssten dementsprechend einwilligen, ob mit ihren Informationen ein Algorithmus weiterentwickelt werden darf. Um die Vorwürfe auszuräumen, müsste OpenAI allerdings die Trainingsdaten veröffentlichen.

Dass dies bei GPT-4 nicht der Fall ist, kritisierten auch KI-Forscher kurz nach der Veröffentlichung des neuen Sprachmodells. OpenAIs Chef-Forscher Ilya Sutskever rechtfertigte das Vorgehen gegenüber The Verge unter anderem mit der Aussage, „Trainingsdaten sind Technologie“ – und dementsprechend würden diese unter das Geschäftsgeheimnis fallen. Angesichts der Datenschutzverfahren stellt sich nun umso mehr die Frage, wie lange OpenAI diese Strategie aufrechterhalten kann.

Zugang mittels Geoblocking gesperrt

Die ChatGPT-Sperre in Italien setzt OpenAI derweil mittels Geoblocking um, meldet TechCrunch. Nutzer mit italienischer IP-Adresse können also nicht mehr auf den Dienst zugreifen. Dasselbe gilt offenbar für einige Nutzer, die ihr ChatGPT-Konto in Italien angelegt haben.

In dem Hinweis für die Nutzer zeigt sich OpenAI zuversichtlich, dass ChatGPT nicht gegen die DSGVO verstößt. Die Vorwürfe will man nun gemeinsam mit Garante ausräumen. Abonnenten des kostenpflichtigen ChatGPT-Plus-Angebots sollen aber das Geld für den März zurückerhalten und nichts zahlen müssen, solange die Sperre greift.

Update

Die italienischen Datenschützer haben OpenAI eine Frist bis zum 30. April eingeräumt, um die gestellten Anforderungen zu erfüllen. Sollte dies eingehalten werden, könne der Dienst auch wieder in Italien genutzt werden. Ein System zur Altersprüfung müsse bis zum 31. Mai in Plänen vorgelegt und bis zum 30. September 2023 eingeführt werden.