denglisch schrieb:
Irgendeine Form von formaler Logik wird es trotzdem brauchen, denn gewisse Sachen lassen sich statistisch/durch Wahrscheinlichkeiten schlecht abbilden.
denglisch schrieb:
Diese Logikmodelle/Constraints kann man händisch codieren, aber sie zu trainieren ist nochmal eine ganz andere Sache.
Deine Bedenken sind berechtigt. Ich schätze allerdings, dass die Forderung nach einem System, welches ein belastbares, logisches Weltverständnis hat, schon sehr stark in Richtung einer Universal-KI tendiert. Davon sind wird in der Forschung aber noch weit entfernt. Wir können ja nicht einmal vollständig modellieren, was die menschliche Logik überhaupt ausmacht. Ganz zu schweigen von den Dingen, die durch Intuition und Bewusstsein beeinflusst werden - in meinen Augen beides Dinge, ohne die ich mir ein differenziertes Denken nur schwer vorstellen kann.
Bis auf Weiteres müssen wir uns also mit anwendungsspezifischen Modellen zufriedengeben. Im Falle unseres Bildungssystems werden wir um ein strenges Guided Learning auch nicht herumkommen. Dafür ist das, was vermittelt werden soll, einfach zu wichtig, um es der Willkür eines LLM auszusetzen.
Wenn man das Frage-Modell verstärkt und dadurch deutlich mehr Rekursivität im Ausgabepfad anregt, wenn man qualitativ selektierten Lernstoff einspeist und fortlaufend evaluiert, dann wird man für den Moment denke ich aber schon ganz gute Ergebnisse bekommen, die bereits bestehende E-Learning-Plattformen gut unterstützen können.
Davon abgesehen halte ich es für methodisch äußerst gefährlich, ein didaktisches Modell lediglich auf die Ausgabe von fachbezogenen Antworten auf vordefinierte Fragen zu reduzieren. ChatGPT sollte hier nicht unreflektiert implementiert werden. Das eigentlich Ziel lautet nämlich, Schüler und Studierenden das selbstständige, differenzierte Lernen beizubringen. Auf dem Weg dahin braucht es viel mehr Fragen als Antworten, um nämlich ein reflektiertes Denken zu trainieren. In diesem Sinne halte ich ChatGPT derzeit für viel zu einseitig, weil es lediglich Abkürzungen vorschlägt und dadurch Selbständigkeit abbaut.
denglisch schrieb:
Hast du dafür Beispiele welche Fragen keine Fehler erzeugen können?
Fehlerfrei sind die derzeitigen Modelle sicher nicht. Aber wenn ich allgemeines Fachwissen abklopfe, zum Beispiel aus den Geistes- und Kulturwissenschaften, dann erscheinen mir die bisherigen Outputs eigentlich recht plausibel. ChatGPT zum Beispiel kann gut zusammenfassen und Kontexte darlegen. Wenn es solche Dinge
nicht könnte, dann bliebe wahrscheinlich auch nicht viel übrig, was den derzeitigen Hype noch rechtfertigen könnte. ^^
Allerdings:
Wenn ich bspw. frage, welche die drei populärsten Kunsttheorien sind, die sich mit der Materialität des Werks auseinandersetzen, dann bekomme ich mit jeder Anfrage variierende Beispiele und Rankings. Das liegt daran, dass die Frage schlicht zu unspezifisch formuliert ist und das statistisch-probabilistische Modell je nach zeitlicher Eingrenzung und Kontext von Materialität innerhalb einer Iteration ganz unterschiedliche Beispiele heranzieht. Dahingehend müssen diese LLM also deutlich stärker darauf trainiert werden, statistische Uneindeutigkeiten kenntlich zu machen und sich in der Tonalität etwas zurückzunehmen, wenn es um die Abbildung von Fakten geht.