News Sprung auf dem Weg zur AGI?: OpenAI stellt neues Spitzenmodell o3 vor

Northstar2710 schrieb:
Das ist sehr gut und ich finde auch löblich. Ich hoffe du lernst auch was dabei so das du irgendwann ChatGPT dafür nicht mehr brauchst.

Das ist sehr gut, und ich finde auch löblich. Ich hoffe, du lernst auch was dabei, sodass du irgendwann ChatGPT dafür nicht mehr brauchst.
 
madmax2010 schrieb:
Was willst du damit sagen? Der Test wurde mit privaten, unbekannten Fragen durchgeführt.

Es gibt ein öffentliches Training Set, was aber so explizit auch von ARC AGI freigegeben ist. Als Mensch lernst du auch indem du dir ähnliche Dinge verinnerlichst.
Ergänzung ()

calluna schrieb:
Du kannst ihn von der Webseite herunterladen… was meinst du damit, das er privat ist?
Es gibt einen öffentlichen Teil und einen privaten Teil. Es wurde mit dem privaten Teil getestet.

Die Ergebnisse sind jetzt einsehbar - der Test wurde aber auch bestanden und es wird an einer (wieder privaten) v2 gearbeitet.
 
Zuletzt bearbeitet:
@Blaexe

Bei diesen Tests geht es um die allgemeine Form, darum, dass die Aufgaben lösbar sind, ohne viel zu Wissen…. die konkreten Fragen sind unwichtig.
Oder wie ich schon schrieb: der Tests ist darauf ausgelegt, dass er nur schwer auswendig gelernt werden kann. - von daher ist das Ergebnis sehr gut, egal wie die konkreten Test-Fragen aussehen.
 
@calluna

Also willst du hier einen Test der von Experten genau darauf ausgerichtet wurde und der vor 2 Jahren noch bei 5% richtig lag als unnütz hinstellen? Als Mensch lese ich mir auch ein Fachbuch durch und mache dann einen Test.

Unglaublich welche gedanklichen Verrenkungen angestellt werden nur um sich nicht eingestehen zu müssen wie revolutionär diese KIs sind und wie sie unsere Welt verändern werden. Wir haben hier die größte und schnellste gesellschaftliche Veränderungen aller Zeiten vor uns.

Aber gut, werden halt viele böse erwachen.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
@Blaexe

Ok, das ist ein Punkt. Ich überarbeite meine Nachrichten meistens, weil mir noch etwas einfällt, nachdem ich sie nach dem Absenden durchlese.
 
AGI kann nicht in den nächsten 5 Jahren kommen. Die Investoren dulden zurzeit die Investments nur, weil sie hoffen, dass dabei was rukommt. Wie oft noch kann man 100te Mrd. verbraten, bis jemand sagt: ihr spinnt doch!

Es gibt kein wirtschaftliches Geschäftsmodell hinter AI. Die Angst den Anschluss zu verlieren kann nur so lange als Motivation für Investments herhalten. Irgendwann muss der Rubel rollen.

Ich erinnere mich an den VR Hype , AR Hype, Bitcoin Hype … nichts davon ist in der Art und Weise Realität geworden.

Alle mal den Ball flach halten :) es wird kommen, bloss nicht so schnell wie wir denken. Eine AGI die generell Fragen beantworten kann (auf bestehendem wissen) ist nicht schlecht, aber halt noch immer keine echte Intelligenz
 
@duckyisshiny Haste dir eig mal die News durchgelesen, was das neue Modell, in einem Monat kommt ca können wird? Und wenn du jetzt 5 Jahre Fortschritt drauf rechnest, denkst du nicht dass das irgendwie in die Nähe “echter” Intelligenz kommt?
 
  • Gefällt mir
Reaktionen: Ayo34
Nein, denke ich nicht. Die News, die letzten Wochen zeigen auch, dass sie eigentlich nicht mehr wissen, wie sie es noch besser machen können. Mehr Trainingsdage gibt es nicht, bahnbrechende neue Algorithmen gibt es auch nicht … sie machen zurzeit nur noch Optimierungen und Effizienzssteigerungen.
 
  • Gefällt mir
Reaktionen: madmax2010
Blaexe schrieb:
Das ist doch ziemlich deutlich? Eine neue, wissenschaftliche Entdeckungen. Oder ein mathematischer Beweis. Eben etwas wo niemand mehr sagen kann "Pah, Ist ja alles eh nur in den Trainingsdaten!"

Aber das gibt es doch reihenweise? Schaue dir Mal AlphaFold 2 bzw. 3 an.

Und die nächste Frage wäre dann, was ein Mensch grundsätzlich anders macht? Am Ende lernen wir, sammeln Daten und einer von ein paar Millionen findet dann irgendwas heraus, was es schon gibt, wovon wir aber noch nicht wussten.

Die Frage ist, wo ist der Unterschied zwischen Tier, Mensch und nur einer Recheneinheit?
 
  • Gefällt mir
Reaktionen: Alioth, Azdak und madmax2010
duckyisshiny schrieb:
Nein, denke ich nicht. Die News, die letzten Wochen zeigen auch, dass sie eigentlich nicht mehr wissen, wie sie es noch besser machen können. Mehr Trainingsdage gibt es nicht, bahnbrechende neue Algorithmen gibt es auch nicht … sie machen zurzeit nur noch Optimierungen und Effizienzssteigerungen.

Eine interessante Interpretation des letzten Absatzes im Artikel:

Generell bewerten KI-Forscher eine solche Architektur als Lösung, um die Geschwindigkeit bei der KI-Entwicklung hochzuhalten. Laut Ilya Sutskever, ehemals OpenAI und nun Start-up-Gründer, habe das Skalieren in der Pre-Trainingsphase ein Plateau erreicht. Demnach genügt es nicht mehr, die Menge der Trainingsdaten und Rechenzeit zu erhöhen, um Fortschritte zu erzielen. Es seien neue Ansätze erforderlich, so Sutskever. Die Inferenzberechnungen zu skalieren, ist einer davon.
 
Inwiefern ist meine Aussage interessant? Sie optimieren! Sie haben nicht mehr Trainingsdaten und sie haben keine neuen Algorithmen, sondern drehen an verschiedenen Stellschrauben. Klar wird da mehr gehen, das ist wie bei Batterien … die werden auch jedes Jahr besser, aber was bahnbrechend neues gibt es da auch nicht.

Für mich ist AGI, aber kein LLM auf Steroiden.
 
duckyisshiny schrieb:
Für mich ist AGI, aber kein LLM auf Steroiden.
Ich habe auch meine Probleme mit der neuen Definition von AGI und hänge immer noch der alten Definition der Gesellschaft für Informatik nach. Dennoch wird diese neue Definition benutzt und es ist (gerade in einem Diskurs) nicht hilfreich mit "privaten Definitionen" um die Ecke zu kommen. Daher benühe ich mich auch, in der Diskussion an den Standards zu orientieren und schon gar nicht meine private Meinung als interessierter Leihe zu diesem Thema als Grundlage für Argumentationen zu nutzen.

Wir alle wissen nicht, wie KI oder LLMs unsere Welt verändern werden. Wurde ja schon einige Male hier angesprochen. MIr ist aber ein Satz von jemanden anders sehr im Gedächtniss geblieben:
Die Menschen überschätzen die Veränderungen, die in den nächsten 2 Jahren kommen und unterschätzen die Veränderungen der nächsten 10 Jahre.

Ich sehe in KI viel Potential. Ich kann daher das Interesse von Firemen, hier Mrd Dollar zu investieren, nachvollziehen. Ich sehe auch Risiken. Was es am Ende wird? Keine Ahnung.

Ein Beispiel: LLMs sind super zum "unterhalten". Eine der häufigsten Anwendungen ist "Beziehungsersatz". Aber es ist keine Beziehung. Eine "Beziehung" mit einem Etwas ohne eigene Bedürfnisse mag bequem sein. Ich fürchte aber Beziehungsunfähigkeit als Ergebnis. Auf der anderen Seite, wie umgehen, wenn keiner mehr da ist?
In dieser Richtung forscht man ja auch mit der Roboter-Robbe Paro.

Ich bin gespannt, was die Zukunft bringt....
 
  • Gefällt mir
Reaktionen: Brrr
lmao


N16ZXZz.png
 
  • Gefällt mir
Reaktionen: tipmyredhat und Brrr
Frag doch mal, es soll einen (langen) Palindrom-Satz finden, also einen Satz, den man vorwärts und rückwärts lesen kann ... die Ergebnisse sind erstaunlich gut.

Beispiel: Ein Esel lese nie.
 
  • Gefällt mir
Reaktionen: Alioth
duckyisshiny schrieb:
Nein, denke ich nicht. Die News, die letzten Wochen zeigen auch, dass sie eigentlich nicht mehr wissen, wie sie es noch besser machen können. Mehr Trainingsdage gibt es nicht, bahnbrechende neue Algorithmen gibt es auch nicht … sie machen zurzeit nur noch Optimierungen und Effizienzssteigerungen.
Das wird reichen.

Stark vereinfacht ist eine LLM, wie eine Pflanze, die zum Licht wächst. Das Licht ist das User-Feedback beim Learning-Prozess. Es werden solange Muster generiert bis es passt. Natürlich hat das Schwächen und ist in der Art nicht mit der menschlichen Intelligenz vergleichbar. Momentan bruteforced man das einfach mit Rechenpower.

Je nach Anwendungsgebiet werden bessere oder schlechte Ergebnisse produziert. Aber wir sind noch nicht mal in dem Stadium, wo wir Modelle benutzen, die spezifisch trainiert wurden sind. Das wird dann der nächste Gamechanger.

Selbst wenn man davon ausgeht, dass man nur mehr optimiert, bruteforced and spezifisch trainiert, werden die Modelle vermutlich unser Leben massiv verändern.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Krik schrieb:
AGI kann helfen, die Ressourcen besser zu verteilen. Beispielweise haben wir in Europa eine Nahrungsüberproduktion und viele Länder in Afrika eine Unterproduktion. Und was machen wir mit dem Essen? Größtenteils vernichten. Das geht besser. Und das wird sicher nicht die einzige Kategorie sein, wo eine AGI helfen kann.
Eine AGI ist nicht schlauer als ein Mensch. Warum sollte also eine AGI jetzt an diesem Problem was ändern, was die bisherigen zuständigen Menschen nicht geschafft haben? Und liegt es überhaupt an der Inteligenz, dass das Problem besteht? Warum haben es die bisherigen, zuständigen Menschen nicht geschafft?

Weil das ein strukturelles Problem ist. Hier muss beispielsweise der Staat eingreifen und das wegwerfen von Nahrungsmitteln unter Strafe stellen, damit die Unternehmen gewillt sind, Kosten aufzuwenden und die Überproduktion in andere Ländern zu transportieren. Solange es für ein Unternehmen günstiger ist, den Überschuss zu entsorgen, als irgendwo hin zu transportieren, wo man es nicht mit Gewinn verkaufen kann, wird das Unternehmen die Entsorgung wählen, egal ob eine AGI oder ein Mensch von der Unternehmensführung den Auftrag bekommt, die Überproduktion loszuwerden.
 
Zunächst muss mal ein Problem vorliegen. Die Tafeln haben gerade massiv zu wenig Lebensmittel, so ist es nur folgerichtig, dass wir eine Lebensmittelüberproduktion brauchen.

Ohnehin ist diese Diskussion heuchlerisch, denn wenn ich hier einen Apfel wegwerfe, gibt es dadurch in Afrika nicht mehr oder weniger Lebensmittel.
 
  • Gefällt mir
Reaktionen: Brrr
Zurück
Oben