Krik schrieb:
Die ganzen Tests bescheinigen den KIs je nach Anwendungsfeld Korrektheitsraten (ist das das richtige Wort dafür?) irgendwo zwischen 50% und 90%. Das bedeutet, dass der Rest schlicht falsch war.
Führt dazu, dass alle "Faktentexte" die man aus ChatGPT hat danach eigentlich so sehr gegengeprüft werden müssten, dass es einfacher wäre den Text aus eigenem Wissen selbst zu schreiben.
Erst so ist gesichert, dass man nicht irgendeine dumme kleine Stelle übersieht, wo ChatGPT den Soviets den ersten Menschen auf dem Mond andichtet oder einen anderen eigentlich offensichtlichen Fehler.
Denn Fehler in Texten anderer zu suchen ist imho aufwändiger als einen eigenen Text zu schreiben und sich da nur auf Informationen zu berufen die man (sehr) sicher weiß bzw. die Fakten nachzurecherchieren. Da weiß man ja, wofür man Belege sucht.
Aber ich hatte letztens den Fall, dass ich - für andere - eine Quelle suchen wollte die wie oben schon gesagt sehr korrekt klang, aber eben keine 100%ige Übereinstimmung mit dem was ich fand hatte. Quasi "James White - Handbook of Eine Sache" zu "Jack White - Eine Sache - A Handbook"
Hat da jemand einfach nur das "J. White" unterschiedlich/leicht falsch erraten und den Titel schludrig aufgeschrieben?
Nö, auf Nachfrage stellte sich heraus, dass da in ChatGPT nach einer Literaturliste zu dem Thema gefragt wurde und ChatGPT erfand in einem Fachgebiet in dem es einen Jack White gab einfach noch einen James White mit einem nach einem Grundlagenwerk klingenden Titel, weil das eben einfach plausible Titel für dieses Fachgebiet waren.
Ah, es gibt in Paläontologie eine Autorin namens Schmonzendinkler?
Dann muss in einer Literaturliste zu diesem Thema natürlich auch ein/e Schmonzendinkler stehen, welchen Vornamen die hat ist ChatGPT dabei ziemlich egal.
Sieht in einer oberflächlichen Betrachtung alles richtig aus, aber in der Tiefe liegen die Schrecken!