Habe gerade etwas getestet, womit das Modell davor auch Probleme hatte… und zwar zu einem Satz ein neues Wort aus den Anfangsbuchstaben zu erstellen. Und dann daraus einen neuen Satz zu bilden.
Bekommt o1 hin… aber irgendwie habe ich das Gefühl, dass die Eingabe zerlegt wird, bevor sie ein LLM als Input bekommt. Also ich glaube nicht, dass das einfach nur ein LLM ist.
Muss mir dazu mal Literatur anschauen. Wie gesagt, die Modelle davor haben schon Tools verwendet - es wäre auch Unsinn, wenn das LLM die Aufgaben eines Parsers, Berechners etc. übernehmen würde.
@proton
Unser Wissen von der Welt basiert auf erlebten Erfahrungen… d.h. die Sprache codiert nicht unser gesamtes Wissen, sondern nur den Teil, der explizit ist. Und selbst in diesem Teil gibt es viele Metaphern, Vorstellungsbilder, die notwendig sind. (Die Forschung zur Sprache bei Menschenaffen und Kleinkindern zeigt, dass Wörter am Anfang vor allem fixierte Perspektiven innerhalb einer geteilten Wahrnehmungssituation zwischen zwei Individuen sind.)
In Bezug auf Einstein ist das Buch „Analogie“ von Hofstadter interessant. (Der Autor von „Gödel, Escher, Bach“.)
Die von dir genannten Theorien wurden nicht logisch hergeleitet. Eine wichtige Rolle haben Gedankenexperimente und bestimmte Überzeugungen über die Welt gespielt.