News Datenschutz­beschwerde: ChatGPT bezeichnete einen Mann fälschlich als Kindermörder

Ich glaube nicht, dass das als Anti-Amerikanismus gedacht war. Hier ging es halt um OpenAI, aber alle anderen Entwickler von Sprachmodellen müssen sich die gleichen Vorwürfe natürlich ebenso gefallen lassen.

Es ist auch ein schönes Beispiel dafür, was hier auch schon erklärt wurde. Sprachmodelle generieren Sprache, nicht mehr. Schaut euch mal die Struktur der Antwort von DeepSeek an. Das imitiert perfekt etwas, was ein Zeitungsbericht o.Ä. über ein echtes Event sein könnte. Die Inhalte sind auch noch mal leicht anders als die von ChatGPT. Um die ging es nie, es soll nur echt wirken.
 
stefan92x schrieb:
ChatGPT hat kein Faktenwissen, sondern produziert plausibel klingende Sätze.

Ein bisschen so wie die meisten Politiker - muss nicht stimmen, muss nur gut klingen. :D

Zum Thema: Etwas ähnliches ist mir auch passiert als ich Google Gemini Deep Research nach mir gefragt habe. Dort findet er einen Beitrag zu meinem Cousin, der in Paderborn studiert hat und meint ich wäre das der dort studiert hätte - was aber schlichtweg nicht stimmt. Natürlich ist das nicht so schlimm wie in diesem Fall.
 
  • Gefällt mir
Reaktionen: Project 2501 und sikarr
Hamburg schrieb:
Wieder mal ein Beweis, dass es die Chatgpt Trainingsdaten nutzt, oder heimlich dort in Echtzeit anfragt.
Und das macht es mit Milliarden IPs und ständig neuen Sessions?

Oder warum sollte OpenAI die Anfragen nicht einfach blockieren.

Mit den Trainingsdaten gebe ich dir Recht.

Allerdings haben sich da alle illegal an urheberrechtlich geschützten Kram bedient.

Kein Mitleid für bestohlene Diebe.
 
  • Gefällt mir
Reaktionen: CableGuy82, Zarlak, aid0nex und eine weitere Person
stefan92x schrieb:
Aber gleichzeitig bedeutet das auch, dass jedem Nutzer klar sein müsste: Es sind keine Fakten. Und der Output darf nicht als Fakt behandelt werden. Und unter dieser Prämisse wäre für mich auch völlig akzeptabel, dass da Dinge ausgegeben werden, die nicht der Realität entsprechen. Denn das gibt diese Technik einfach gar nicht her.

Das Problem ist jetzt nur, dass die ganzen AI-Apologeten das ganze als Lösung für alles mögliche anpreisen, dass einem real direkt nutzbare Antworten gibt. Und diesem Anspruch wird das in der Tat nicht gerecht.

Oh ja!
Es ist ein großes Problem, dass KI als Ablösung für Internetsuchen oder Fachrecherchen gepriesen oder sogar schon genutzt wird.
Und das mit einem Output-Interface, welches die ausgegebenen Texte als "Fakt" darstellt und keine "Unklarheiten" offen lässt.
Sprich: Das Sprachmodell gibt einen Text aus, behauptet darin etwas und das wars...
Der Text klingt gut, dann werden die "Fakten" darin doch sicherlich auch wahr sein...
Sollten Quellen angezeigt werden, dann nur wenn man aktiv danach gefragt hat im Prompt und auch diese Angaben sind, wie schon genannt, generiert.

Eine Suchmaschine oder gar Fachdatenbank stellt schon in ihrer grundlegenden Funktion nicht den Anspruch Die Wahrheit (TM) auszugeben, man findet dort immer den Verweis zu einer Quelle, also einer Internetseite, oder der Fachartikel der zu der Fragestellung gefunden wurde wird angezeigt und muss für die Beantwortung der Frage dann noch durchgearbeitet werden (und idealerweise natürlich auch nicht nur der eine sondern auch andere).
Und man sieht auch immer mehrere Treffer, man kann also direkt sehen, dass es nicht diese eine alternativlose Die Wahrheit (TM) gibt, wie es ein Sprachmodell wirken lässt.

Ich denke also das Problem bei Sprachmodellen und der Nutzung dieser für die Beantwortung von Faktenfragen liegt schon in der Wurzel, in der grundlegenden Funktion dieser Modelle und der Oberfläche auf der man mit ihnen interagiert.
Es ist der liebe weise Onkel in der Cloud, der alles weiß und wenn man ihm eine (1) Frage stellt kommt eine (1) Antwort und man kann ihm alles glauben was er sagt.

Nur dass die Sprachmodelle vom Ansatz her gar nicht auf dieses Nutzungsszenario ausgelegt sind.

Entweder bräuchten die Sprachmodelle einen großen fetten Disclaimer, dass Texte frei erfunden und Ähnlichkeit mit der Realität Zufall sind - oder man muss ihre Funktionsweise komplett ändern und ihnen zuerst Grundlagen und Grundgesetze beibringen, Logik und wie Zusammenhänge funktionieren.
Und erst auf dieser Basis kann sie dann aus weiteren Quellen lernen, aber niemals diesen Grundlagen widersprechen, sofern die Aufgabe an der Realität orientiert ist.
Aber das ist dann eben auch kein Sprachmodell mehr sondern viel eher ein "künstliches Kind" - dem bringt man einmal die Basics von Sprache und Mathe bei und dann kann es den Rest darauf aufbauend aus Fachquellen erlernen. Aber man setzt das Kind nicht einfach in eine Bibliothek und verlangt, dass es aus sich heraus lesen lernt und danach alles liest und auswendig lernt ;)
 
  • Gefällt mir
Reaktionen: Project 2501, Zarlak, H1ldegunst und 4 andere
racer3 schrieb:
Aber eine fertige KI kann nichts mehr "verlernen".
zumindest nicht mit der aktuell gehypten Technologie ;-)
 
Ups! Und wieder ein Menschenleben zerstört!
 
  • Gefällt mir
Reaktionen: CableGuy82 und sikarr
Whitehorse1979 schrieb:
Woher bitte hat die KI solche Informationen zu Privatpersonen, dazu Kinderanzahl, Alter usw.? Und wie kommt so eine perfide Unterstellung zustande?
Chat GPT durchsucht u.a. soziale Netzwerke wie Xing, Facebook, etc. nach einem eventuellen Profil dieser Person. Der bloße Name reicht dafür nicht, man muss schon einen Ort oder Beruf oder anderweitige Informationen in die Anfrage einbauen, um auf eine spezifische Person zu kommen. Daraus bastelt die KI dann einen Text mit frei zugänglichen Informationen über diese Person zusammen. Der Rest ist pure Fantasie, so auch die Mordunterstellung. Möglich das der Name tatsächlich zu einem Mörder passt. Nur passt eben der Mord nicht zu der angefragten Person.
 
  • Gefällt mir
Reaktionen: Zarlak
Pandora schrieb:
In Amerika sind Straftäter, vor allem bei Straftaten in Bezug auf Kinder, in vielen Bundestaaten in öffentlichen Datenbanken registriert.
Sicher das die öffentlich ist, ich dachte die sind nur für Staatsbedienstete und Behörden wie Polizisten usw. zugänglich?
iSight2TheBlind schrieb:
Da das Lehrmaterial heutzutage quasi der gesamte textliche Output der Menschheit ist, ist aber bereits darin oft kompletter Bullshit, weil KI-Modelle eben Witze oder Trollerei nicht erkennen können und Bullshit den sie so erlernt haben intern nicht als Bullshit kennzeichnen können.
Alles Erlernte ist für sie mehr oder weniger gleichwertig.
Aber ein Mensch kann lernen das eine Behauptung auch falsch sein oder widerlegt werden kann und wendet das beim nächsten mal an. Das ist ja quasi wie vergessen, ich streiche den flaschen Fakt aus meinem Gedächtnis und nutze nur noch den neuen, bestätigten.
 
  • Gefällt mir
Reaktionen: Zarlak
Darklordx schrieb:
Glück gehabt: Bin weder Massenmörder, Kinderschänder oder Nazi... 😇 😂
Ja, die KI bewertet dich also als Niemand. ;)

In Zukunft könnte das bedeuten, dass die im Entscheidungsfindungsprozess eingebundene KI dann zu Ungunsten des Niemand entscheidet (z.B. Kreditvergabe, [oder Wahlen]).

Der feuchte Traum der TechBros und der willigen Opfer, die auf den Mist reinfallen, ist das schon heute.

Und mit der Vorgehensweise, einfach nur Abfragemethodiken zu sperren, statt Faktenmethodiken zu schaffen die die Halluzinationen unterbinden, wird das Erfolgsmodell KI (ChatGPT) durchs Dorf getrieben.
 
  • Gefällt mir
Reaktionen: Kalsarikännit
@Dr. MaRV

Tja, diese "Fantasie" muss wohl bei Suchen nach Privatpersonen dringend eingestellt werden. Soll die KI eben maximal nur die gefundenen URLs bei Google zu einem Namen ausspucken. Reicht ja. Aber es muss eben dringend was gemacht werden und zwar auch gesetzlich. So kann das unmöglich bleiben.
 
Zer0DEV schrieb:
Ja, die KI bewertet dich also als Niemand. ;)

In Zukunft könnte das bedeuten, dass die im Entscheidungsfindungsprozess eingebundene KI dann zu Ungunsten des Niemand entscheidet (z.B. Kreditvergabe, [oder Wahlen]).
Zum einen das und zum anderen arbeiten damit ja auch heute schon teils Bhörden und Firmen und Nutzen diesen Service für Dienstleistungen. Musk selber will doch das die angestellten eine Mail ihrer letzten Tätigkeiten schreiben und wollte sie durch KI auswerten, wer weiß was dabei rauskommt.

Schlimmer noch ist eigentlich die Generation die mit dem KI Thema auf\reinwächst. Diese verlassen sich immer mehr auf die Aussagen der KI, ich wage sogar zu behaupten das sie das selbständige Denken und Hinterfragen verlernen könnten.
 
  • Gefällt mir
Reaktionen: Zarlak
Whitehorse1979 schrieb:
Tja, diese "Fantasie" muss wohl bei Suchen nach Privatpersonen dringend eingestellt werden. Soll die KI eben maximal nur die gefundenen URLs bei Google zu einem Namen ausspucken.
ChatGPT und Co sind KEINE SUCHE. Dieser Gedanke muss aus den Köpfen raus.
 
  • Gefällt mir
Reaktionen: Project 2501, Fyrex, Kalsarikännit und 3 andere
Doch wenn ich gezielt nach Informationen zu einer Privatperson suche dann eben schon. Nämlich genau deswegen, um diese Person vor falschen Behauptungen durch die KI zu schützen reicht eine reine URL-Ausgabe aus. Besser als alternativ gar nichts auszugeben. Dann kann man auch Google direkt benutzen und die KI vergessen.
 
Zuletzt bearbeitet:
@Whitehorse1979 Eben nicht. Für diesen Zweck ist ChatGPT prinzipiell nicht geeignet und aus den hier geschilderten Gründen schlechter als gar nichts.
 
  • Gefällt mir
Reaktionen: DNS81 und iSight2TheBlind
Whitehorse1979 schrieb:
Tja, diese "Fantasie" muss wohl bei Suchen nach Privatpersonen dringend eingestellt werden. Soll die KI eben maximal nur die gefundenen URLs bei Google zu einem Namen ausspucken. Reicht ja.
Aber genau das geht ja nicht so einfach. Die Anbindung von Sprachmodellen an eine Internetsuche ist erst ganz neu. Das Modell selbst ist keine Suchmaschine. Und woher die Trainigsdaten stammen, um anzuzeigen dass die Information XYZ von Quelle A stammt, ist nicht Teil der statistischen Betrachtung. FALLS das überhaupt in den Trainingsdaten drin ist und nicht einfach nur ausgefüllter Lückentext ist, den man da präsentiert bekommt. Selbst wenn das System einen Anhaltspunkt irgendwoher hat, es erfindet den Rest dazu, wenn es nötig ist um plausibel wirkende Ausgaben zu produzieren. Das ist eine inhärente Eigenschaft dieser Systeme, das ist so vorgesehen. Deswegen sind das generative Sprachmodelle, sie generieren Sprache. Nicht mehr und nicht weniger.

Darüber hinaus hast du natürlich völlig Recht. Aus diesem und aus weiteren Gründen gehört das alles abgeschaltet. Anders kriegst du das nämlich aktuell garnicht korrigiert, weil ein Korrektiv nicht vorgesehen ist und die Komplexität auch viel zu hoch ist. Daher ist die Antwort aktuell ja eher Zensur.
 
  • Gefällt mir
Reaktionen: Zarlak und iSight2TheBlind
  • Gefällt mir
Reaktionen: Volvo480, random_sdg und iSight2TheBlind
sikarr schrieb:
Sicher das die öffentlich ist, ich dachte die sind nur für Staatsbedienstete und Behörden wie Polizisten usw. zugänglich?

https://www.nsopw.gov/
Have fun!
Die USA ist echt ein Drecksland und der Gedanke der Bestrafung bei der Strafverfolgung viel etablierter als der der Besserung.
Erklären wir Straftäter nach der verbüßten Strafe einfach weiter zur persona non grata, was soll schon schlimmes passieren...

sikarr schrieb:
Aber ein Mensch kann lernen das eine Behauptung auch falsch sein oder widerlegt werden kann und wendet das beim nächsten mal an. Das ist ja quasi wie vergessen, ich streiche den flaschen Fakt aus meinem Gedächtnis und nutze nur noch den neuen, bestätigten.

Dazu sind die Sprachmodelle viel zu groß und "groß" - als Mensch weißt dich jemand auf einen Fehler hin oder du bemerkt, dass du falsch liegst und passt dann direkt dein "Wissen" an.
Aber ChatGPT spricht mit der ganzen Menschheit gleichzeitig, es könnte gar keine "Hey, du liegst da falsch!" Informationen in Echtzeit verarbeiten und umsetzen, insbesondere auch wegen der Gefahr, dass die Person die ihm das sagt einfach lügt.
Und der eigentliche Trainingsvorgang passiert eben nicht live sondern regelmäßig, mit angepasstem Modell und angepasstem Datensatz, zentral. Die Information dass etwas falsch ist könnte ihm nur in dem Moment beigebracht werden.

@Whitehorse1979
Wie @stefan92x und @Khorneflakes sehr schön ausgeführt haben, ChatGPT ist nicht für Faktenfragen geeignet, da es nicht weiß was Fakten überhaupt sind. Es weiß nur, welche Information es häufiger gelesen hat. Aber wenn alle von der Brücke springen, dann würde es erlernen, dass es gut ist von der Brücke zu springen^^
Es kann dir auch keinen Link zu einer Google-Quelle geben, weil es keine Suchmaschine ist und es ihm völlig egal und wahrscheinlich unbekannt ist woher der Text den es gelesen hat stammt.
Es ist auch eine Black Box, es kann dir auch nicht sagen "wo" es etwas gelesen und gelernt hat, es weiß nur, dass es etwas "weiß" und repliziert das in Form von plausiblen Sätzen.
Von der Funktion her liegt aber der Schwerpunkt auf den plausiblen Sätzen, nicht darauf, dass das "Wissen" auch faktisch korrekt ist.
 
Zuletzt bearbeitet: (Typo)
  • Gefällt mir
Reaktionen: Zarlak, DNS81 und sikarr
Zurück
Oben