News Datenschutz­beschwerde: ChatGPT bezeichnete einen Mann fälschlich als Kindermörder

Woher bitte hat die KI solche Informationen zu Privatpersonen, dazu Kinderanzahl, Alter usw.? Und wie kommt so eine perfide Unterstellung zustande? Scheinen die Amis aber auch sehr sensible personenbezogene Daten ungefragt zu verwursten. Einfach das letzte Backup der NSA bei ChatGPT eingespielt zum Trainieren?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: zhompster, F4irPl4y, Vasilev und 15 andere
Promts sperren reicht also nicht sondern die gespeicherten Daten zur Person sollen vollumfänglich gelöscht werden. Das torpediert doch ein wenig die Funktionsweise von dem AI-Gedöns. Und das freut mich diebisch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: zhompster, F4irPl4y, JustAnotherTux und 18 andere
Whitehorse1979 schrieb:
Woher bitte hat die KI solche Informationen zu Privatpersonen, dazu Kinderanzahl, Alter usw.? Und wie kommt so eine perfide Unterstellung zustande? Scheinen die Amis aber auch sehr sensible Daten ungefragt zu verwursten.
ChatGPT hat kein Faktenwissen, sondern produziert plausibel klingende Sätze. Da die auf realen Daten beruhen, sind die oft akkurat, aber manchmal generiert es einfach gut klingenden Blödsinn, auf Basis von ähnlichen Namen oder sowas. Dann kommen solche Halluzinationen dabei heraus.
 
  • Gefällt mir
Reaktionen: Saamuel, Teckler, LukS und 11 andere
hatte mal auf reddit von diesem Namen gelesen, aber hatte es nicht selbst getestet. Ich finde die Fehlermeldung sollte etwas mehr aussagekräftig sein als "geht nicht"
 
  • Gefällt mir
Reaktionen: qappVI
  • Gefällt mir
Reaktionen: Kalsarikännit, the_IT_Guy, sikarr und 4 andere
Das ist wie wenn man einem Menschen sagt: Bitte Vergiss alles zu genau diesem Thema 🤓
So funktioniert eine KI nicht. Hier ist Zensur tatsächlich die einzige technische Möglichkeit.
Man könnte die Lerndaten für zukünftige KIs nach Namen durchforsten und diese löschen. Aber eine fertige KI kann nichts mehr "verlernen".
Leuten die denken, ein Chat-bot ist eine bessere Suchmaschine, kann man halt auch nicht mehr helfen.

über Systemprompts kann man das Verhalten der KI auch nachträglich beeinflussen, diese wurden aber teilweise schon durch geschickte Fragetechniken umgangen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ghecko
Whitehorse1979 schrieb:
Und wie kommt so eine perfide Unterstellung zustande?
In Amerika sind Straftäter, vor allem bei Straftaten in Bezug auf Kinder, in vielen Bundestaaten in öffentlichen Datenbanken registriert.

Da muss die KI nur ein wenig halluzinieren oder es gibt zufällig nen Straftäter mit ähnlichen Daten und zack.
 
  • Gefällt mir
Reaktionen: zhompster, sikarr, floTTes und 2 andere
Da gibts wohl ein Problem in dem Datensatz fürs Training. Ein wenig wie gutgläubigen Leuten Telegramm installieren. Nach einer Woche erkennst du sie nicht wieder.
 
  • Gefällt mir
Reaktionen: bruteforce9860, iron-man, Matunuctus und 3 andere
@Whitehorse1979 Die KI hat irgendwann mal seinen Namen gelesen, zusätzlich wurden in dem Kontext in der Quelle auch seine Kinder genannt.
KI ist sehr gut darin Zusammenhänge zu finden, schießt dabei aber auch leicht über das Ziel hinaus, wie die KI die darauf trainiert wurde Hautkrebs zu erkennen und die erkannte als Zusammenhang, dass Hautkrebs auf Bildern häufig mit einem Maßstab/Lineal daneben zu finden ist um die Größe darzustellen. Ist auf Bildern von Hautflecken also ein Lineal, muss der Hautfleck Krebs sein.
In diesem Kontext gibt es vielleicht einen anderen Kindermörder mit dem Namen - oder auch nur seinem Vornamen und dem Vornamen seines Kindes und die KI hat das in einen Zusammenhang gesetzt.

Wie @stefan92x schon sagt, die allgemeinen Sprachmodelle haben kein Faktenwissen sondern sind eben nur Modelle um Sprache zu generieren. Da das Lehrmaterial heutzutage quasi der gesamte textliche Output der Menschheit ist, ist aber bereits darin oft kompletter Bullshit, weil KI-Modelle eben Witze oder Trollerei nicht erkennen können und Bullshit den sie so erlernt haben intern nicht als Bullshit kennzeichnen können.
Alles Erlernte ist für sie mehr oder weniger gleichwertig.

Und dann kommt noch hinzu, dass ihre Aufgabe nicht die Reproduktion von Fakten ist sondern die Erstellung von plausiblen Sätzen - du kannst ChatGPT eine Wissensfrage stellen, wahrscheinlich ist der Textoutput auch korrekt, weil es häufiger ähnliche Sätze gelesen und erlernt hat mit einem korrekten Inhalt und versucht diese nachzuahmen. Das ist aber nicht gesichert.
Und wenn du ChatGPT dann nach Quellen zu der Aussage fragst bekommst du auch welche - aber auch die werden "generiert", d.h. du kriegst z.B. Bücher genannt die plausibel klingen und Autorennamen aus dem Fachgebiet beinhalten - aber da stimmt dann mal der Vorname der einen Autorin nicht, der Autor hat nicht das "Handbuch der XYZ" geschrieben sondern das "Lehrbuch der XYZ" und an dem Punkt weißt du schon, dass die Quelle einfach erfunden wurde - auf plausiblen Daten basierend, aber eben nicht korrekt.

Ein Beispiel noch, wie man evtl. einfach die Funktionsweise von Sprachmodellen nachvollziehen kann:
Die Tastatur auf dem Smartphone hat heutzutage ja häufig eine Wortvervollständigungsfunktion und auch eine Satzvervollständigungsfunktion.
Tippe ich H A L L ein wird Hallo vorgeschlagen. Tippe ich Mit freundlichen ein wird als nächstes Wort Grüßen vorgeschlagen. Weil eben Mit freundlichen Grüßen sehr häufig genau so geschrieben wird und andere Sätze die mit Mit freundlichen anfangen viel viel seltener sind.
Das Problem: Als nächstes Wort würde ja üblicherweise der Name des Schreibenden erwartet werden, weil das der logische Aufbau eines Textes ist, in dem Mit freundlichen Grüßen vorkommt.
Aber wir heißen alle anders und das System erlernt eben nur nach Häufigkeiten, nicht nach der eigentlichen Intention hinter einer Schlussformel in einem Brief oder einer Mail, nämlich den eigenen Namen hinter die Verabschiedung zu setzen.
Auf dem iPhone führt das dann dazu, dass mir nicht mein Name als nächstes Wort vorgeschlagen wird - obwohl das iPhone weiß wie ich heiße - sondern Andreas und wenn ich das Wort übernehme dann als weiteres Wort Schmidt (oder Müller, bin gerade nicht sicher und zu faul es erneut zu testen), eben weil Andreas so ziemlich der häufigste männliche Vorname ist (und Männer wahrscheinlich mehr förmliche Mails schreiben?!) und Schmidt entsprechendes beim Nachnamen. Das nächste vorgeschlagene Wort ist dann übrigens Rechtsanwalt... Wahrscheinlich weil mehr Rechtsanwälte ein iPhone gekauft haben, es für Geschäftskommunikation verwenden und eine förmliche Schlussformel verwenden und als Disclaimer noch ihren Beruf angeben.

Und das ist die Funktionsweise hinter den Sprachmodellen, nur dass die etwas größer denken als die einfache iOS-Tastatur.
 
  • Gefällt mir
Reaktionen: gazer, Demon_666, KadmosIII und 7 andere
hat noch wer als erstes mal geschaut, was chatgpt über einen selber schreibt? :D
 
  • Gefällt mir
Reaktionen: amorosa, floTTes und V3ngeance
Pandora schrieb:
Da muss die KI nur ein wenig halluzinieren oder es gibt zufällig nen Straftäter mit ähnlichen Daten und zack.
Dann ist die KI noch nicht zum öffentlichen Einsatz bereit. Ganz einfach. Denn das geht nämlich gar nicht. Ich werde mal meine Daten abprüfen. Mal gucken was Big Brother so alles hat, was nicht offen abrufbar sein sollte.
 
  • Gefällt mir
Reaktionen: sikarr und iSight2TheBlind
Whitehorse1979 schrieb:
Dann ist die KI noch nicht zum öffentlichen Einsatz bereit.
Das ist aktuell eigentlich die entscheidende Frage... welchen Anspruch stellt man an das System, und welchem Anspruch muss es gerecht werden?

Rein technisch betrachtet handelt es sich um Sprachmodelle, die Texte fabrizieren sollen. Das klappt hervorragend, diesen Zweck erfüllen ChatGPT und co hervorragend. Aber gleichzeitig bedeutet das auch, dass jedem Nutzer klar sein müsste: Es sind keine Fakten. Und der Output darf nicht als Fakt behandelt werden. Und unter dieser Prämisse wäre für mich auch völlig akzeptabel, dass da Dinge ausgegeben werden, die nicht der Realität entsprechen. Denn das gibt diese Technik einfach gar nicht her.

Das Problem ist jetzt nur, dass die ganzen AI-Apologeten das ganze als Lösung für alles mögliche anpreisen, dass einem real direkt nutzbare Antworten gibt. Und diesem Anspruch wird das in der Tat nicht gerecht.
 
  • Gefällt mir
Reaktionen: hans_meiser, Zarlak, sikarr und 3 andere
Whitehorse1979 schrieb:
Und wie kommt so eine perfide Unterstellung zustande?
Ich weiss nicht obs jetzt dieser konkrete Fall war, aber ich habe von einem Gerichtsreporter gelesen, der ueber diverse Strafverfahren geschrieben hat.
Dann taucht der Name in Artikeln die er geschrieben hat natuerlich vor, und sei es nur als Quellenangabe.

Und schon war dieser Reporter fuer ein LLM (Ich weiss nicht welches es gewesen ist), ein Straftaeter.
 
  • Gefällt mir
Reaktionen: Zarlak, DNS81, floTTes und eine weitere Person
Ruff_Ryders88 schrieb:
hat noch wer als erstes mal geschaut, was chatgpt über einen selber schreibt? :D
Es tut mir leid, aber ich habe keine spezifischen Informationen über eine Person namens ...... Wenn du mir mehr Kontext oder Details gibst, kann ich versuchen, dir besser zu helfen oder allgemeine Informationen zu einem verwandten Thema bereitzustellen.

Glück gehabt: Bin weder Massenmörder, Kinderschänder oder Nazi... 😇 😂
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kalsarikännit, Ruff_Ryders88 und sikarr
Whitehorse1979 schrieb:
Woher bitte hat die KI solche Informationen zu Privatpersonen, dazu Kinderanzahl, Alter usw.? .... Einfach das letzte Backup der NSA bei ChatGPT eingespielt zum Trainieren?
Es gab jetzt haupsächlich gutgemeinte Erklärungen zu seiner, wie ich finde, rethorisch gestellten Frage, da sie eher versucht eine schon vorhandene Annahme zu implizieren als wirklich die Ursachen des Problems zu erörtern.

Das finde ich jetzt besonders ironisch ,da diese angesprochene Verbindung zu geheimen Machenschaften, Geheimdiensten usw. selbst die Bedingung der Halluzination neuronaler Netze erfüllt.
KIs ähneln uns sehr viel mehr als wir denken, besonders wenn wir keine Lust haben die energieintensive aber logische Schlussfolgerung der heuristischen vorzuziehen, wie z.B.:
Name, Herkunftsort, Anzahl der Kinder wurden aus Social Media oder anderen öffentlichen Daten extrahiert.
(Also genau das wovor wir IT'ler spätestens seit Gründung von Facebook gewarnt haben).
Dann noch eine falscher Querverweis, eine lose Assoziation, ein falsch verknüpftes "Neuron" und fertig ist die falsche Behauptung.

Kindermörder oder NSA, der Vorgang ist auf abstrakter Ebene im Grunde, dabei scheinen die internen Korrekturmechanismen der KIs sogar noch effektiver zu sein die unseren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sikarr
Whitehorse1979 schrieb:
Scheinen die Amis aber auch sehr sensible personenbezogene Daten ungefragt zu verwursten. Einfach das letzte Backup der NSA bei ChatGPT eingespielt zum Trainieren?
dein blinder anti-amerikamismus ist mal wieder unangebracht, chatccp ist der gleichen meinung:
Screenshot_20250320_122318_AI Seek.jpg
 
  • Gefällt mir
Reaktionen: hans_meiser
Whitehorse1979 schrieb:
Woher bitte hat die KI solche Informationen zu Privatpersonen, dazu Kinderanzahl, Alter usw.? Und wie kommt so eine perfide Unterstellung zustande? Scheinen die Amis aber auch sehr sensible personenbezogene Daten ungefragt zu verwursten. Einfach das letzte Backup der NSA bei ChatGPT eingespielt zum Trainieren?
So wie manche Menschen Sozial-Medien nutzen und Bilder von ihren Kindern usw. hochladen, dazu die Kontaktdaten im Handy an alle Unternehmen der Weltsharen usw. Würde es mich nicht wundert das man nur aus den Informationen was die Personen selbst ohne nachzudenken ins Netz schleudern herausbekommt.
Und zu den restlichen fehlenden Information denkt sich die KI einfach Daten und Zahlen aus.
 
Naja eigentlich müssten Privatpersonen entsprechend geschützt werden bzw. deren Daten. Insbesondere Angaben bzw. Daten zu Minderjährigen, Familienmitgliedern. Es sollte generell nicht möglich sein, sensible persönliche Daten einer Privatperson oder einer Familie in einer KI öffentlich abrufen zu können. Hier wäre dann mal dringend die EU gefragt zwecks entsprechenden Regeln und Schutz der Bürger, anstatt ständig immer Apple für jeden Mist auf die Finger zu klopfen.
 
Zuletzt bearbeitet:
0x8100 schrieb:
dein blinder anti-amerikamismus ist mal wieder unangebracht, chatccp ist der gleichen meinung:
Wieder mal ein Beweis, dass es die Chatgpt Trainingsdaten nutzt, oder heimlich dort in Echtzeit anfragt.
 
  • Gefällt mir
Reaktionen: 0x8100
Zurück
Oben