News Datenschutz­beschwerde: ChatGPT bezeichnete einen Mann fälschlich als Kindermörder

Ranayna schrieb:
Erzaehl das Google.
Da ist in den USA ja die "AI Preview" beim Googlen immer das was ganz oben steht.
Das finde ich aber ehrlich gesagt richtig gemacht. Es gibt die AI Overview klar abgegrenzt von den eigentlichen Suchergebnissen. Diese Overview produziert leider auch mal solche Missverständnisse, aber wenigstens ersetzt sie (noch?) nicht die eigentlichen Suchergebnisse.

Ich könnte auch drauf verzichten, aber wenn man das schon so macht, dann wenigstens so.
 
  • Gefällt mir
Reaktionen: Zarlak
@stefan92x
Das stimmt, finde ich auch. So kann man das auch direkt ignorieren. Noch besser wäre es, wenn es dafür einen Aus-Schalter gäbe und das einfach ausgeblendet wird. Gibt es vielleicht sogar, weiß ich nicht, ich nutze Google nicht mehr, denn die eigentlichen Suchergebnisse sind trotzdem von "KI" verseucht, weil Webseiten voller "KI"-generiertem Schwachsinn in den Ergebnissen nach oben gespült werden.

Die Qualität von Google-Suchergebnissen ist heutzutage richtig schlecht, dank "KI". Und wenn es die eigene nicht verbockt, dann übernimmt das eine externe.

Da schließt sich dann ironischerweise der Kreis, wenn "KI" jetzt anfängt Suchmaschinenergebnisse mit einzubeziehen, und dort auch nur sich und seinesgleichen findet.
 
  • Gefällt mir
Reaktionen: Volvo480, Zarlak, stefan92x und eine weitere Person
@sikarr Es hat Gründe, warum die USA so viele ihrer Bürger eingesperrt haben, wie kein anderes "zivilisiertes" Land (bei jüngsten Meldungen tu ich mich immer schwerer, dass Wort unironisch zu nutzen). Resozialisierung ist in deren System einfach nicht vorgesehen, bist du kriminell, bleibst du kriminell, du bekommst kaum einen anderen Weg angeboten.
 
  • Gefällt mir
Reaktionen: Zarlak, DNS81, sikarr und eine weitere Person
Allgemein sollte Chatgpt dann einfach keine Auskunft über Personen geben können.

Aber wenn man möchte dass KI denken kann, dann sollte man ihr auch Fehler erlauben.
Ich denke nicht, dass KI bewusst Rufmord begeht (zumindest theoretisch, ausser wir sind schon wirklick bei Matrix oder Skynet angekommen).
 
@sikarr
Die USA sind für solche Späße bekannt. Öffentliche Pranger halten die für eine gute Lösung, das unterscheidet sich in vielerlei Hinsicht kaum vom Mittelalter. Und das hieß nicht dunkles Zeitalter, weil das Licht immer aus war.
 
  • Gefällt mir
Reaktionen: Zarlak, DNS81, Whitehorse1979 und eine weitere Person
@stefan92x Mhhh, lecker Steine ;)

@Khorneflakes Oh ja, Dead Internet-Theory, Bots die Dinge posten die von Bots geliked werden und KI-Modelle die Inhalte generieren die wiederum von anderen KI-Modellen als Trainingsmaterial verwendet werden...

Wo wir gerade gut dabei sind Antibiotika durch übermäßigen Einsatz wirkungslos zu bekommen und den Erdorbit so mit Satelliten zuscheißen, dass es nur ein paar Unfälle braucht um unseren Zugang zum Weltall für Wochen oder Monate zu blockieren, so sind wir nun auch ganz vorne mit dabei der Internet so sehr mit Scheiße zu fluten, dass ein Informationsaustausch dort nicht mehr möglich ist.

Juuhuu!

@sikarr Und das ist nur eine Datenbank, es gibt auch andere Datenbanken für andere Taten oder auch einfach irgendwelche "Nachrichtenseiten" wo sowas aus irgendwelchen mehr oder weniger öffentlichen Quellen gesammelt wird.
Das Konzept des Datenschutzes und Persönlichkeitsrecht wie wir sie praktizieren existieren dort nicht.
Nachbarschaften schließen sich zusammen, geben ihre Ring-Haustürkameras für alle Nachbarn frei und irgendwer sitzt immer ewig vor dem Bildschirm und teilt dann allen mit, dass gerade ein schwarzer Mann durch die Nachbarschaft geht und der ja ganz eindeutig irgendetwas Böses vorhabe.
Bei uns dagegen darf eine private Kamera öffentlichen Grund nicht filmen und selbst auf Privatgrundstück muss auf die Aufnahme hingewiesen werden. Nur um den Kontrast mal zu verdeutlichen.
 
  • Gefällt mir
Reaktionen: Kalsarikännit, DNS81 und sikarr
Whitehorse1979 schrieb:
Woher bitte hat die KI solche Informationen zu Privatpersonen, dazu Kinderanzahl, Alter usw.? Und wie kommt so eine perfide Unterstellung zustande? Scheinen die Amis aber auch sehr sensible personenbezogene Daten ungefragt zu verwursten. Einfach das letzte Backup der NSA bei ChatGPT eingespielt zum Trainieren?

Durch die ganzen Sozialen Netzwerke etc. werden sehr viele persöhnliche Daten relativ schnell durch Suchmaschinen gefunden.
 
Es wird endlich mal Zeit das Softwarehersteller für ihre Produkte haften und die Haftung nicht per AGB ausschließen können!
Ergänzung ()

stefan92x schrieb:
@sikarr Resozialisierung ist in deren System einfach nicht vorgesehen, bist du kriminell, bleibst du kriminell, du bekommst kaum einen anderen Weg angeboten.
Das liegt daran das deren Gefängnisse private Firmen sind. Ein Insasse bringt mehr Geld, vom 'Staat, als ein Resozialisierter. Des weiteren sind das auch extrem günstiger Arbeiter. Die mit Arbeitsschutz ala Indien günstig schaffen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tor Tesla
Die Forderung an OpenAI ist: Diffamierenden Output löschen und das Modell so anzupassen, dass keine vergleichbaren Ergebnisse mehr generiert werden.
Das ist halt praktisch unmöglich. LLMs generieren so ziemlich alles was du willst, ganz gleich ob es der Wahrheit entspricht, oder eben nicht. Ist halt nach wie vor nur Wortvorhersage anhand bestehender Kontextdaten. Und Kontext ist hier eben sämtliche Daten die im kompletten Modell vorkommen, einschließlich Nachrichten oder Stories über Kindermörder. Wenn man also gerade nachrichtenähnliche Informationen abfragt, kann gerne auch mal etwas Nachrichtenartiges hinzu halluziniert werden.
Darklordx schrieb:
Glück gehabt: Bin weder Massenmörder, Kinderschänder oder Nazi... 😇 😂
Noch nicht. Jetzt kennt die LLM aber deinen Namen, welcher gleich mal in die nächste Version gefüttert wird, und kann dann den Rest dazu halluzinieren.
 
  • Gefällt mir
Reaktionen: Kalsarikännit, DNS81 und iSight2TheBlind
Mein Futter:

Darklordx ist der Schattengottkaiser von Deutschland... 😱 😂 🏴‍☠️ 🤣
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
iSight2TheBlind schrieb:
@Whitehorse1979 Die KI hat irgendwann mal seinen Namen gelesen, zusätzlich wurden in dem Kontext in der Quelle auch seine Kinder genannt.
KI ist sehr gut darin Zusammenhänge zu finden, schießt dabei aber auch leicht über das Ziel hinaus, wie die KI die darauf trainiert wurde Hautkrebs zu erkennen und die erkannte als Zusammenhang, dass Hautkrebs auf Bildern häufig mit einem Maßstab/Lineal daneben zu finden ist um die Größe darzustellen. Ist auf Bildern von Hautflecken also ein Lineal, muss der Hautfleck Krebs sein.

Da wurde aber kein Zusammenhang sondern nur ein wiederkehrendes Muster erkannt. Und ein falscher Zusammenhang erzeugt.

Das ist halt wie das wo sie Personaldaten von 1950 bis in ein Sprachmodell gefüttert haben und Bewerber mit einer zu hohen Melaninmenge in der Haut als ungeeignet eingestuft wurden.
Die KI hat einen Zusammenhang zwischen Ablehnungen und Hautfarbe erkannt nur ohne den gesellschaftlichen Kontext verstanden zu haben. Die KI hat nur ein weniger offensichtliches Muster er kannt und den falschen Schluss daraus gezogen.

sikarr schrieb:
Sicher das die öffentlich ist, ich dachte die sind nur für Staatsbedienstete und Behörden wie Polizisten usw. zugänglich?

Aber ein Mensch kann lernen das eine Behauptung auch falsch sein oder widerlegt werden kann und wendet das beim nächsten mal an. Das ist ja quasi wie vergessen, ich streiche den flaschen Fakt aus meinem Gedächtnis und nutze nur noch den neuen, bestätigten.


Großer Goth weißt du was das mit der Wahrscheinlichkeitswolke macht wenn du da willkürlich Daten entfernst. Ist ja nicht so das sie das nicht machen würden, aber die Wolke mag das nicht.
 
sikarr schrieb:
Aber ein Mensch kann lernen das eine Behauptung auch falsch sein oder widerlegt werden kann und wendet das beim nächsten mal an.
Menschen haben aber auch ein Verständnis für Daten und Fakten. Sprachmodelle haben genau dieses nicht. Unsere Fähigkeit, Sätze formulieren zu können, existiert unabhängig von unserem Faktenwissen. LLMs haben diese Fähigkeit nur durch ihr "Faktenwissen". Und genau deshalb können sie nichts vergessen, weil sie von Anfang an nichts "wissen" (nicht in dem Sinne wie wir Menschen).

Wir können Nonsens-Sätze bilden, die keinen Bezug zu irgendwas haben, was wir jemals gesehen oder gehört haben. Wir können uns durch unsere Fantasie bewusst neue Dinge ausdenken. Sprachmodelle können all das nicht.

Menschen lernen mit vieeeeeeeeeel kleineren Datenmengen als aktuelle AI-Systeme. Deshalb ist es auch viel einfacher, einzelne Datenpunkte in unserem Wissen auszutauschen, weil wir viel weniger verknüpfen müssen.
 
  • Gefällt mir
Reaktionen: DNS81 und iSight2TheBlind
stefan92x schrieb:
Menschen lernen mit vieeeeeeeeeel kleineren Datenmengen als aktuelle AI-Systeme. Deshalb ist es auch viel einfacher, einzelne Datenpunkte in unserem Wissen auszutauschen, weil wir viel weniger verknüpfen müssen.
hast du auch Zahlen dazu oder ist das nur Bauchgefühl?
Das Gehirn ist immerhin 24/7 für Jahrzehnte in Betrieb und empfängt drei viertel der Zeit einen hochauflösen Videostream gepaart mit mindestens genauso vielen Infos aus dem restlichen Körper.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Xiaolong und futzi
KitKat::new() schrieb:
hast du auch Zahlen dazu oder ist das nur Bauchgefühl?
Ich hab auf die schnelle nur was altes zu GPT-3 (also der nicht mehr aktuellen Version) gefunden: https://medium.com/@dlaytonj2/chatgpt-show-me-the-data-sources-11e9433d57e8

570 GB Plain Text Trainingsmaterial, ein Buch kommt auf üblicherweise auf bis zu 100.000 Wörter (meistens weniger), also lass uns für Spaß und einfache Faustregel einfach mal sagen, dass ein Buch 570 kB sind - dann hätte GPT-3 nämlich genau 1 Million Bücher gelesen. Für die aktuellen Versionen noch viel mehr.

Natürlich erweitert es auch das Faktenwissen, wenn man mehr Bücher liest, aber wir können das eben trennen. GPT kann es nicht.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
stefan92x schrieb:
570 GB Plain Text Trainingsmaterial,
Das ist ja jetzt gar nicht so viel an reiner Datenmenge.
Ich schätze, dass das Gehirn alleine an einem Tag auf so viele Daten kommt
 
@KitKat::new() Aber nicht wenn man nur die in Worte gefasste Information betrachtet. Du sprichst und hörst einige 1000 Worte am Tag, liest vielleicht noch einiges mehr. Aber insgesamt bist du in dieser Kategorie nur bei einigen 100kB täglich.

Visuelle Daten, auch akustische sind natürlich ganz andere Mengen. Aber das sind alles Daten, die einem GPT nicht zur Verfügung stehen und daher für einen Vergleich nicht brauchbar sind.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
stefan92x schrieb:
Visuelle Daten, auch akustische sind natürlich ganz andere Mengen. Aber das sind alles Daten, die einem GPT nicht zur Verfügung stehen und daher für einen Vergleich nicht brauchbar sind.
Aber unser Gehirn ist trotzdem jeden Moment damit beschäftigt diese Infos mit einander zu verknüpfen unter Benutzung weit tieferer Abstraktion während ein GPT hauptsächlich in die "Breite" geht.
In dem Sinne ist die Datenmenge wohl einfach kein gutes Vergleichsmittel.

Wenn man sich anschaut wie lange ein Mensch braucht um neu sprechen oder gehen zu lernen, wenn es überhaupt klappt, sieht es mit dem Austauschen der Fakten bei Menschen auch nicht mehr so gut aus - auf einem tieferen Abstraktionslevel.
Für GPT sind das niedrigste Abstraktionslevel ja die Tokens.
 
KitKat::new() schrieb:
Aber unser Gehirn ist trotzdem jeden Moment damit beschäftigt diese Infos mit einander zu verknüpfen unter Benutzung weit tieferer Abstraktion während ein GPT hauptsächlich in die "Breite" geht.
In dem Sinne ist die Datenmenge wohl einfach kein gutes Vergleichsmittel.
Ich glaube, diese Tatsache zeigt einfach, wie unterschiedlich unser Hirn und ein LLM arbeiten und wie weit entfernt LLMs davon sind, unsere Intelligenz künstlich nachzubilden.
 
  • Gefällt mir
Reaktionen: Xiaolong und iSight2TheBlind
Whitehorse1979 schrieb:
Woher bitte hat die KI solche Informationen zu Privatpersonen, dazu Kinderanzahl, Alter usw.?
"Hallozination"
KI träummen sich irgendweien scheieß zusammen. ist halt deep lerning und keine klassische Datenbank. Das wird uns noch so auf den Kopf fallen. gerade mit Fakenews...
 
Zurück
Oben