News Strawberry und Orion: OpenAI könnte GPT-4-Nachfolger im Herbst starten lassen

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
7.851
  • Gefällt mir
Reaktionen: Mr Peanutbutter und aid0nex
Mathematische Fähigkeiten und Logikaufgaben stehen aktuell im Mittelpunkt.
...
Ebenso sind Aufgaben ein Problem, die in mehreren Schritten gelöst werden müssen
Sehr gut! Da erlebe ich immer wieder den einen oder anderen Fehler, den man manuell korrigieren muss.
Komplexe Aufgaben sind weiterhin fast unlösbar, allerdings sind die Fortschritte sichtbar.

Ich frage mich, warum man bisher nicht Microsofts Math Solver mit GPT fusioniert hat. Es gibt ja auch Online-Dienste, welche mathematische Aufgaben in Einzelschritte unterteilen können. OpenAI wird daran hoffentlich schon arbeiten.
 
Ich denke nicht, dass es noch viel Spielraum für Verbesserungen gibt bei LLMs. Es wird jetzt bald eine Wand geben gegen die man rennt und dann ist Ende. Und die "KI" Blase wird platzen. Mal sehn, was das für Nvidia bedeuten wird.
 
  • Gefällt mir
Reaktionen: aid0nex, the_IT_Guy, Delirus und 2 andere
Mathematische „Fähigkeiten“ sind natürlich besonders wichtig solange Antworten kommen, die Kleinkinder verletzen könnten oder halluziniert wird, dass Haaland bei Bayern spielt und Kane vielleicht kommt. Letzteres wissen viele Kleinkinder übrigens besser, vorausgesetzt sie haben keine dummen Eltern, die dank ChatGPT ihr Kind gefährden 😉
 
@dernettehans Ich glaube du unterschätzt da was gewaltig. Die Entwicklung hat gerade erst richtig begonnen und hat definitiv noch viel Spielraum
 
  • Gefällt mir
Reaktionen: Cool Master, DoS007, aid0nex und 7 andere
Ich habe mal in GPT4o ein Sudoku als Screenshot geladen. Schon das auslesen der Anfangszahlen ging in die Hose. Nachdem ich die Zahlen korrigiert habe und es um das Auflösen ging, kam da nur Grütze raus. Also da ist sicher noch viel Potenzial für Verbesserungen vorhanden.
 
Ohje , ich hoffe der Zugang ist beschränkt. Gibt schon so viele Schüler und Studis die nicht mehr eigenständig Texte schreiben können oder wollen. Wenn jetzt noch Mathe dazu kommt , dann wird es echt kritisch ^^
 
  • Gefällt mir
Reaktionen: Delirus und Weyoun
CruellaDE schrieb:
Wenn jetzt noch Mathe dazu kommt , dann wird es echt kritisch ^^
Ich seh's positiv. Wenn alle anderen noch schlechter in Mathematik sind als ich fällt es nicht auf wie inkompetent ich in dem Bereich unterwegs bin. :D
 
dernettehans schrieb:
Ich denke nicht, dass es noch viel Spielraum für Verbesserungen gibt bei LLMs. Es wird jetzt bald eine Wand geben gegen die man rennt und dann ist Ende. Und die "KI" Blase wird platzen. Mal sehn, was das für Nvidia bedeuten wird.
Wie kommt man zu der Annahme mit der Wand? Wenn die KI‘s sich gegenseitig schulen können und ohne Begrenzung Daten aus dem Internet beziehen… ist es fast unendlich. Die Frage ist eher ob wir als normale Leute so eine Ki bekommen werden. Denke nicht.
 
  • Gefällt mir
Reaktionen: Zockmock
Dabei handelt es sich laut den Berichten um den lange erwarteten GPT-4-Nachfolger.
Wie lange? Seit Gpt4 release also 1.5 Jahre?
Nicht eher der heiss ersehnte? Begehrt erwartete?

TomausBayern schrieb:
Wenn die KI‘s sich gegenseitig schulen können und ohne Begrenzung Daten aus dem Internet beziehen… ist es fast unendlich
Du weisst aber schon das AI nach dem Garbage in Garbage out Prinzip funktioniert?
 
Die Menschheit schafft sich ab.
 
Die Modelle brauchen dringend eine art self-policing. Es kann nicht sein das ich unter fast jede zweite Antwort schreiben muss "bist du dir sicher?" und dann eine Entschuldigung und dann erst das korrekte Ergebnis erhalte. Wenn überhaupt.
Man darf sich halt nicht auf die Antworten verlassen, was okay ist - man kann seine Arbeit in Bereichen in denen man sich auskennt trotzdem beschleunigen, aber sich auf Antworten in Gebieten verlassen von welchen man selbst keinen Dunst hat, ist schlicht gefährlich. Ich nutze es aber auch hauptsächlich im MINT Kontext.

Ich finde es spannend diese Entwicklung mit zu erleben =)
 
  • Gefällt mir
Reaktionen: DoS007 und LamaMitHut
Chris007 schrieb:
Danke fürs Aufklären!!1!

Overkee schrieb:
@dernettehans Ich glaube du unterschätzt da was gewaltig. Die Entwicklung hat gerade erst richtig begonnen und hat definitiv noch viel Spielraum
Ich denke eher dass du das Gefasel von Unternehmen wie OpenAI etwas differenzierter betrachten solltest. Bislang haben die LLMs sich nicht als "AI" entpuppt und der "große Durchbruch", der stets angekündigt wird, kommt nie. Das merken wahrscheinlich auch die Investoren mittlerweile :D - die Bezeichnung "Autocorrect on steroids" bietet sich an ;)
 
  • Gefällt mir
Reaktionen: the_IT_Guy und Delirus
l33ch0r schrieb:
Bislang haben die LLMs sich nicht als "AI" entpuppt und der "große Durchbruch", der stets angekündigt wird, kommt nie.
Das war auch nie das Ziel, jedenfalls nicht mit LLMs. Klar träumt man bei OpenAI irgendwo auch von einer AGI, also einer wirklichen künstlichen Intelligenz, davon sind wir aber noch sehr weit entfernt.

Ein LLM ist keine "Künstliche Intelligenz", sondern im Grunde nur eine extrem gute Wortvorhersagemaschine.
 
  • Gefällt mir
Reaktionen: the_IT_Guy und Delirus
Ich bin gespannt, wann solch Systeme in der Forschung vor Problemen gesetzt werden und die dafür eine echte Lösung bieten können, mathemathische Theoreme, Verbesserung und Entwicklung von neuen Technologien usw..
 
Budimon schrieb:
Hab ihn mal gefragt was für große Spiele denn 2024 noch so rauskommen... Antwort war unter anderem Witcher 3.
Wir pumpen massig Treibhausgase in die Atmosphäre, und reichern unsere Nahrungskette mit Mikroplastik an. Auch nicht besonders intelligent wenn du mich fragst, aber wer bin ich sowas beurteilen zu können.
 
TomausBayern schrieb:
Wie kommt man zu der Annahme mit der Wand?

Der Datenpool aus dem LLMs Trainiert werden können ist nun mal endlich.

TomausBayern schrieb:
Wenn die KI‘s sich gegenseitig schulen können und ohne Begrenzung Daten aus dem Internet beziehen… ist es fast unendlich.

Wenn LLMs mit dem Material trainiert werden das LLMs erzeugt haben werden auch die Fehlberechnungen mit den den Lernpool der mit dem von LLMs erzeugen Material trainierten LLM aufgenommen.

Dadurch steigt die Fehlerqoute, sie sinkt nicht. Du darfst nicht vergessen das LLMs nur stochastische Papageien sind die Wörter aufgrund ihrer wahrscheinlichen Häufung aneinander reihen.
Verzerren "falsche" Antworten diese Wahrscheinlichkeitswerte kommt mehr unfug dabei heraus.
 
  • Gefällt mir
Reaktionen: TomausBayern und dernettehans
Zurück
Oben