Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsStrawberry und Orion: OpenAI könnte GPT-4-Nachfolger im Herbst starten lassen
Mit Strawberry soll OpenAI an einem neuen KI-Produkt arbeiten, das deutlich besser als bisherige Modelle darin ist, mathematische Aufgaben und komplexere Probleme zu lösen. Wie Decoder unter Berufung auf einen The-Information-Bericht meldet, soll das neue System im Herbst erscheinen.
Mathematische Fähigkeiten und Logikaufgaben stehen aktuell im Mittelpunkt.
...
Ebenso sind Aufgaben ein Problem, die in mehreren Schritten gelöst werden müssen
Sehr gut! Da erlebe ich immer wieder den einen oder anderen Fehler, den man manuell korrigieren muss.
Komplexe Aufgaben sind weiterhin fast unlösbar, allerdings sind die Fortschritte sichtbar.
Ich frage mich, warum man bisher nicht Microsofts Math Solver mit GPT fusioniert hat. Es gibt ja auch Online-Dienste, welche mathematische Aufgaben in Einzelschritte unterteilen können. OpenAI wird daran hoffentlich schon arbeiten.
Ich denke nicht, dass es noch viel Spielraum für Verbesserungen gibt bei LLMs. Es wird jetzt bald eine Wand geben gegen die man rennt und dann ist Ende. Und die "KI" Blase wird platzen. Mal sehn, was das für Nvidia bedeuten wird.
Mathematische „Fähigkeiten“ sind natürlich besonders wichtig solange Antworten kommen, die Kleinkinder verletzen könnten oder halluziniert wird, dass Haaland bei Bayern spielt und Kane vielleicht kommt. Letzteres wissen viele Kleinkinder übrigens besser, vorausgesetzt sie haben keine dummen Eltern, die dank ChatGPT ihr Kind gefährden 😉
Ich habe mal in GPT4o ein Sudoku als Screenshot geladen. Schon das auslesen der Anfangszahlen ging in die Hose. Nachdem ich die Zahlen korrigiert habe und es um das Auflösen ging, kam da nur Grütze raus. Also da ist sicher noch viel Potenzial für Verbesserungen vorhanden.
Ohje , ich hoffe der Zugang ist beschränkt. Gibt schon so viele Schüler und Studis die nicht mehr eigenständig Texte schreiben können oder wollen. Wenn jetzt noch Mathe dazu kommt , dann wird es echt kritisch ^^
Ich denke nicht, dass es noch viel Spielraum für Verbesserungen gibt bei LLMs. Es wird jetzt bald eine Wand geben gegen die man rennt und dann ist Ende. Und die "KI" Blase wird platzen. Mal sehn, was das für Nvidia bedeuten wird.
Wie kommt man zu der Annahme mit der Wand? Wenn die KI‘s sich gegenseitig schulen können und ohne Begrenzung Daten aus dem Internet beziehen… ist es fast unendlich. Die Frage ist eher ob wir als normale Leute so eine Ki bekommen werden. Denke nicht.
Die Modelle brauchen dringend eine art self-policing. Es kann nicht sein das ich unter fast jede zweite Antwort schreiben muss "bist du dir sicher?" und dann eine Entschuldigung und dann erst das korrekte Ergebnis erhalte. Wenn überhaupt.
Man darf sich halt nicht auf die Antworten verlassen, was okay ist - man kann seine Arbeit in Bereichen in denen man sich auskennt trotzdem beschleunigen, aber sich auf Antworten in Gebieten verlassen von welchen man selbst keinen Dunst hat, ist schlicht gefährlich. Ich nutze es aber auch hauptsächlich im MINT Kontext.
Ich finde es spannend diese Entwicklung mit zu erleben =)
Ich denke eher dass du das Gefasel von Unternehmen wie OpenAI etwas differenzierter betrachten solltest. Bislang haben die LLMs sich nicht als "AI" entpuppt und der "große Durchbruch", der stets angekündigt wird, kommt nie. Das merken wahrscheinlich auch die Investoren mittlerweile - die Bezeichnung "Autocorrect on steroids" bietet sich an
Das war auch nie das Ziel, jedenfalls nicht mit LLMs. Klar träumt man bei OpenAI irgendwo auch von einer AGI, also einer wirklichen künstlichen Intelligenz, davon sind wir aber noch sehr weit entfernt.
Ein LLM ist keine "Künstliche Intelligenz", sondern im Grunde nur eine extrem gute Wortvorhersagemaschine.
Ich bin gespannt, wann solch Systeme in der Forschung vor Problemen gesetzt werden und die dafür eine echte Lösung bieten können, mathemathische Theoreme, Verbesserung und Entwicklung von neuen Technologien usw..
Wir pumpen massig Treibhausgase in die Atmosphäre, und reichern unsere Nahrungskette mit Mikroplastik an. Auch nicht besonders intelligent wenn du mich fragst, aber wer bin ich sowas beurteilen zu können.
Wenn LLMs mit dem Material trainiert werden das LLMs erzeugt haben werden auch die Fehlberechnungen mit den den Lernpool der mit dem von LLMs erzeugen Material trainierten LLM aufgenommen.
Dadurch steigt die Fehlerqoute, sie sinkt nicht. Du darfst nicht vergessen das LLMs nur stochastische Papageien sind die Wörter aufgrund ihrer wahrscheinlichen Häufung aneinander reihen.
Verzerren "falsche" Antworten diese Wahrscheinlichkeitswerte kommt mehr unfug dabei heraus.