Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsDatenschutzbeschwerde: ChatGPT bezeichnete einen Mann fälschlich als Kindermörder
Es atet immer weiter aus mit dem AI Chat GPT schmutz, das jetzt das Internet durchforstet wird wenn man User Names eingibt selbst auf Computer Base um dann eine detaillierte Analyse zu erhalten ist schon frech.
Dieses Halluzinieren ist ein viel größeres Problem als es die Dampfplauderer von OpenAI etc. uns weismachen wollen.
Letzte Woche hat mir GitHub Copilot wieder Blödsinn ausgegeben weil es keine Ahnung von "Best Practice" hat und veralteten Code ausspuckt der seit 5 Jahren deprecated sind und nicht funktioniert.
Mittlerweile lese ich wieder mehr Doku und das gute alte Stackoverflow, da sehe ich immerhin dass ein Post von 2012 ist und deshalb vielleicht nicht mehr relevant oder veraltet ist.
Nicht funktionierender Code ist das eine, aber diese LLMs fantasieren auch Blödsinn zu echten Personen herbei. Ich halte das für brandgefährlich.
Ergänzung ()
iSight2TheBlind schrieb:
die erkannte als Zusammenhang, dass Hautkrebs auf Bildern häufig mit einem Maßstab/Lineal daneben zu finden ist um die Größe darzustellen. Ist auf Bildern von Hautflecken also ein Lineal, muss der Hautfleck Krebs sein.
"Falsche Daten" sind nicht das Problem. Selbst bei 100% richtigen Daten können prompts falsche Ergebnisse liefern.
Deswegen hilft das löschen und korrigieren gar nichts. LLMs funktionieren nicht wie ein Nachschlagewerk oder Google: suche nach Ergebnissen die Worte us dem Prompt erhalten.
Sie arbeiten rein statistisch und verstehen weder etwas vom Gefragten noch von dem Geantworteten. Die einzige Möglichkeit ist bestimmter Worte oder Phrasen im Promt zu erkennen und diese auszufiltern oder direkt abzubrechen bevor man es zum modell schickt.