News Datenschutz­beschwerde: ChatGPT bezeichnete einen Mann fälschlich als Kindermörder

Es atet immer weiter aus mit dem AI Chat GPT schmutz, das jetzt das Internet durchforstet wird wenn man User Names eingibt selbst auf Computer Base um dann eine detaillierte Analyse zu erhalten ist schon frech.
 
Dieses Halluzinieren ist ein viel größeres Problem als es die Dampfplauderer von OpenAI etc. uns weismachen wollen.

Letzte Woche hat mir GitHub Copilot wieder Blödsinn ausgegeben weil es keine Ahnung von "Best Practice" hat und veralteten Code ausspuckt der seit 5 Jahren deprecated sind und nicht funktioniert.

Mittlerweile lese ich wieder mehr Doku und das gute alte Stackoverflow, da sehe ich immerhin dass ein Post von 2012 ist und deshalb vielleicht nicht mehr relevant oder veraltet ist.

Nicht funktionierender Code ist das eine, aber diese LLMs fantasieren auch Blödsinn zu echten Personen herbei. Ich halte das für brandgefährlich.
Ergänzung ()

iSight2TheBlind schrieb:
die erkannte als Zusammenhang, dass Hautkrebs auf Bildern häufig mit einem Maßstab/Lineal daneben zu finden ist um die Größe darzustellen. Ist auf Bildern von Hautflecken also ein Lineal, muss der Hautfleck Krebs sein.
Mein Lieblingsbeispiel sind Bild-Generatoren die kein volles Glas Wein erstellen können.
In den Trainingsdaten sind nämlich nur halbvolle Gläser.

Besonders lächerlich wird es, wenn sie ein Video generieren wo jemand Wein ins Glas einschenkt - der Füllstand des Glases bleibt gleich. :daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iSight2TheBlind
"Falsche Daten" sind nicht das Problem. Selbst bei 100% richtigen Daten können prompts falsche Ergebnisse liefern.
Deswegen hilft das löschen und korrigieren gar nichts. LLMs funktionieren nicht wie ein Nachschlagewerk oder Google: suche nach Ergebnissen die Worte us dem Prompt erhalten.

Sie arbeiten rein statistisch und verstehen weder etwas vom Gefragten noch von dem Geantworteten. Die einzige Möglichkeit ist bestimmter Worte oder Phrasen im Promt zu erkennen und diese auszufiltern oder direkt abzubrechen bevor man es zum modell schickt.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
Zurück
Oben