stefan92x schrieb:
Aber gleichzeitig bedeutet das auch, dass jedem Nutzer klar sein müsste: Es sind keine Fakten. Und der Output darf nicht als Fakt behandelt werden. Und unter dieser Prämisse wäre für mich auch völlig akzeptabel, dass da Dinge ausgegeben werden, die nicht der Realität entsprechen. Denn das gibt diese Technik einfach gar nicht her.
Das Problem ist jetzt nur, dass die ganzen AI-Apologeten das ganze als Lösung für alles mögliche anpreisen, dass einem real direkt nutzbare Antworten gibt. Und diesem Anspruch wird das in der Tat nicht gerecht.
Oh ja!
Es ist ein großes Problem, dass KI als Ablösung für Internetsuchen oder Fachrecherchen gepriesen oder sogar schon genutzt wird.
Und das mit einem Output-Interface, welches die ausgegebenen Texte als "Fakt" darstellt und keine "Unklarheiten" offen lässt.
Sprich: Das Sprachmodell gibt einen Text aus, behauptet darin etwas und das wars...
Der Text klingt gut, dann werden die "Fakten" darin doch sicherlich auch wahr sein...
Sollten Quellen angezeigt werden, dann nur wenn man aktiv danach gefragt hat im Prompt und auch diese Angaben sind, wie schon genannt, generiert.
Eine Suchmaschine oder gar Fachdatenbank stellt schon in ihrer grundlegenden Funktion nicht den Anspruch
Die Wahrheit (TM) auszugeben, man findet dort immer den Verweis zu einer Quelle, also einer Internetseite, oder der Fachartikel der zu der Fragestellung gefunden wurde wird angezeigt und muss für die Beantwortung der Frage dann noch durchgearbeitet werden (und idealerweise natürlich auch nicht nur der eine sondern auch andere).
Und man sieht auch immer mehrere Treffer, man kann also direkt sehen, dass es nicht diese eine alternativlose
Die Wahrheit (TM) gibt, wie es ein Sprachmodell wirken lässt.
Ich denke also das Problem bei Sprachmodellen und der Nutzung dieser für die Beantwortung von Faktenfragen liegt schon in der Wurzel, in der grundlegenden Funktion dieser Modelle und der Oberfläche auf der man mit ihnen interagiert.
Es ist der liebe weise Onkel in der Cloud, der alles weiß und wenn man ihm eine (1) Frage stellt kommt eine (1) Antwort und man kann ihm alles glauben was er sagt.
Nur dass die Sprachmodelle vom Ansatz her gar nicht auf dieses Nutzungsszenario ausgelegt sind.
Entweder bräuchten die Sprachmodelle einen großen fetten Disclaimer, dass Texte frei erfunden und Ähnlichkeit mit der Realität Zufall sind - oder man muss ihre Funktionsweise komplett ändern und ihnen zuerst Grundlagen und Grundgesetze beibringen, Logik und wie Zusammenhänge funktionieren.
Und erst auf dieser Basis kann sie dann aus weiteren Quellen lernen, aber niemals diesen Grundlagen widersprechen, sofern die Aufgabe an der Realität orientiert ist.
Aber das ist dann eben auch kein Sprachmodell mehr sondern viel eher ein "künstliches Kind" - dem bringt man einmal die Basics von Sprache und Mathe bei und dann kann es den Rest darauf aufbauend aus Fachquellen erlernen. Aber man setzt das Kind nicht einfach in eine Bibliothek und verlangt, dass es aus sich heraus lesen lernt und danach alles liest und auswendig lernt
