Blaexe schrieb:
Also willst du hier einen Test der von Experten genau darauf ausgerichtet wurde und der vor 2 Jahren noch bei 5% richtig lag als unnütz hinstellen? Als Mensch lese ich mir auch ein Fachbuch durch und mache dann einen Test.
Dazu noch einmal das folgende… einer der Experten ist F. Chollet… habe schon 2017 ein großartiges Fachbuch von ihm durchgearbeitet. (Er ist auch bekannt durch die Keras-API von Tensorflow).
Dass die LLMs vor zwei Jahren noch unnütz bei dem Test waren, liegt schlicht daran, dass die ARC-Tests kein Sprachproblem sind.
„Sprachlich“ lässt es sich aber als JSON darstellen und verarbeiten, womit sich ein LLM für diese Tests feintunen lässt. Was OpenAI getan hat - denn das lässt sich gut fürs Marketing einsetzen.
Die Interviews mit Chollet sind sehr interessant… und was seine Sicht zur aktuellen Technologie ist.
Und damit du mich nicht falsch verstehst, auch wenn ich es vorher schon verteilt geschrieben habe, was meine Ansicht ist:
- Für den praktischen Nutzen ist es irrelevant, ob eine AI tatsächlich Denken kann oder alles auswendig lernt… es zählt nur das Systemverhalten und nicht wie es realisiert ist!
Genau deswegen ist eine Kritik daran, was eine AI in einem philosophischen Sinn eben nicht ist, kein Zweifel am praktischen Nutzen.
Und dass du als Mensch auch ein Fachbuch liest… Ja… Analogien sind gut und wichtig, wir könnten ohne sie nicht Denken, aber man sollte auch deren Grenzen kennen und bei Analogieschlüssen vorsichtig sein.
Davon abgesehen ist das Lesen eines Fachbuches kein passiver Vorgang. Und der Datensatz ist auch ziemlich klein… keiner liest tausende Fachbücher und Artikel und auch nicht jedes Fachbuch hunderte Male. - So könnte man jedenfalls die Analogie fortführen. ;-)
Aber wie gesagt, für das Endergebnis ist das irrelevant.