News Sprung auf dem Weg zur AGI?: OpenAI stellt neues Spitzenmodell o3 vor

Erst AI nun AGI.

Bei der Abkürzung musste ich tatsächlich kurz mal googeln.
Ganz klassisch. Eine Suche die ich selbst getätigt habe 🤣🙈
 
  • Gefällt mir
Reaktionen: nyster, Ice =A=, Teckler und 2 andere
Es bleibt erstmal abzuwarten, wie die Ergebnisse bei unabhängigen Tests aussehen...

Und auf der Kostenskala sehe ich zwei Zehnerpotenzen zum 'besten' Modell. Wer will das denn noch bezahlen?
 
  • Gefällt mir
Reaktionen: Convert, JustAnotherTux, dualcore_nooby und eine weitere Person
Warum wird gefühlt nur über OpenAI berichtet? Es gab eine große News zu Sora aber nicht zu Googles Veo 2 was Sora deutlich überlegen ist...

Und zu Gemini 2.0 gab es auch keine.
 
  • Gefällt mir
Reaktionen: sent!nel, Yumix, GregoryH und 15 andere
Da ich mit meiner Rechtschreibung Probleme habe, nutzliche sehr oft ChatGPT um Texte neu zu formulieren /zu verbessern oder diese z.b. domianter/freundlicher/sachlicher etc. zu schreiben. ChatGPT ist mein täglicher begleiter geworden.
 
  • Gefällt mir
Reaktionen: olligo, DaDare, StoneJ und 5 andere
die Kosten für die Nutzer würden aber deutlich geringer ausfallen.
Wie soll denn das funktionieren, wenn GPT nun länger über eine Aufgabenstellung nachdenken muss bzw. einfach mehr Ressourcen aufgewendet werden müssen?
Wenn man irgendwann ein 100-Mrd.-Rechenzentrum bauen will, dann müssen diese Kosten auch wieder rein kommen. Das sehe ich aktuell noch nicht.

Rickmer schrieb:
Wer will das denn noch bezahlen?
Das ist die große Frage.
 
  • Gefällt mir
Reaktionen: theGoD, jonny8, JustAnotherTux und eine weitere Person
Rickmer schrieb:
Und auf der Kostenskala sehe ich zwei Zehnerpotenzen zum 'besten' Modell. Wer will das denn noch bezahlen?
o3 Mini erreicht die Leistung von o1 zu einem Bruchteil der Kosten. Es gibt verschiedene Modelle von daher muss sich nicht alles gegenseitig ausschließen.

Google hat hier mit den eigenen TPUs aber einen massiven Vorteil - und gehen auch sehr großzügig damit um.
 
  • Gefällt mir
Reaktionen: dualcore_nooby, nyster, Alioth und eine weitere Person
Es geht voran. Sehr schön.
 
  • Gefällt mir
Reaktionen: usernamehere, dualcore_nooby, nyster und 3 andere
"Und der rechenintensive Weg benötigt 172 mal so viel Computing-Power wie das effiziente Modell."
Also für diese Verbesserung klingt das einfach ineffizient. Da sind also noch ein paar Atomkraftwerke fällig :D
 
  • Gefällt mir
Reaktionen: nosound und the_IT_Guy
Ich denke ich schaffe den Test mit einem gleichwertigen Ergebnis zum Preis eines Marmeladenbrots 😅
 
  • Gefällt mir
Reaktionen: iSight2TheBlind, Convert, moppelg und 5 andere
Ich freu mich, habe ein ChatGPT-Abo und es kann ein echt hilfreiches Werkzeug sein. <3
 
  • Gefällt mir
Reaktionen: olligo, dualcore_nooby, Alioth und eine weitere Person
Laphonso schrieb:
Warum? Wie wurde die denn bisher beantwortet ? 🤔
Bisher kann man mit den LLMs kein großartiges Geld verdienen. Die ganzen Abos usw. sind meist gerade mal kostendeckend.

Aber so kann es ja nicht ewig weiter gehen. Ich geb der Sache noch ca. 4-5 Jahre, dann wird das große Sterben der KI-Firmen beginnen und vielleicht nur noch 2-3 übrig bleiben.
 
  • Gefällt mir
Reaktionen: nosound und Laphonso
Mimir schrieb:
@Majestro1337 Aber die AI macht das auf Wunsch 24/7 und schweißfrei. ;)
Zum dem Preis findet sich bestimmt auch jemand der die Nachtschicht macht. Ein Deo ist dabei bestimmt auch noch drin 😁
 
  • Gefällt mir
Reaktionen: JustAnotherTux, nyster, DNS81 und 2 andere
Als Nichtprogrammierer hab ich verblüffend einfach eine berechnende HTML Seite mit tabellarischer csv Ausgabe erstellen können in GPT4o.
Je umfangreicher es wurde, mal will ja zB den Tab-Focus in den richtigen Eingabefeldern, umso mehr musste korrigiert werden was schon mal gestimmt hatte.
Wenn das künftig auch noch besser wird dürfte so eine KI ähnlich wie Google zum Standard werden.
Und Google braucht dann keiner mehr :D
 
  • Gefällt mir
Reaktionen: moppelg, nyster, Alioth und eine weitere Person
minimii schrieb:
AGI ist eher das 2023 Buzzword. 2024 wollten alle ASI


Der ARC-Benchmark gilt daher auch als Maßstab für die AGI-Entwicklung, also einer allgemeinen künstlichen Intelligenz, die bei den meisten Aufgaben mit Menschen mithält oder dieser übertrifft
François Chollet selbst bezeichnet ARC als "Vermutlich zwar notwendig, jedoch nicht hinreichend"
 
  • Gefällt mir
Reaktionen: nyster, Alioth und Azdak
Krik schrieb:
Bisher kann man mit den LLMs kein großartiges Geld verdienen. Die ganzen Abos usw. sind meist gerade mal kostendeckend.
Das meinste Du, ja, Zustimmung, ich hatte die Frage anders verstanden bzw. im anderen Kontext ^^
 
  • Gefällt mir
Reaktionen: Krik
@Laphonso
Alles gut! :schluck:


Eine positive Sache sehe ich an der Entwicklung schon: Es werden kleine KIs entstehen, die man lokal flüssig (genug) ausführen kann, sodass jeder seinen persönlichen Assistenten auf dem PC oder Handy dabei haben kann. Ein Assistent, der den Namen auch verdient (und nicht so was wie Alexa). Die Hardware-Entwicklung geht ja auch verstärkt dahin.
Darüber hinaus könnten NPCs in Spielen zukünftig damit auch befeuert werden, was das Spielerlebnis auf eine neue Stufe bringen würde.
Darauf freue ich mich. Ein Online-Fragenbeantworter hingegen braucht ich so nicht.
 
  • Gefällt mir
Reaktionen: nyster und Laphonso
Stell dir vor du hast einen Arbeitskollegen als Programmierer der gibt für die selbe Aufgabe immer eine andere miese Antwort statt wie ein Mensch die seiner Meinung nach beste Lösung, zweitbeste, drittbeste. Das ist ChatGPT und andere Chatbots. Als Programmierer bin ich mir immer noch nicht sicher ob ChatGPT mir Zeit spart oder mich mehr Zeit kostet. Du merkst erst wie schlecht Chatbots alle sind, wenn du selbst die beste und zweitbeste Lösung kennst. Höchsten bei Sprachen und Frameworks die man selbst nur lose kennt, können Chatbots einem wirklich helfen.
 
  • Gefällt mir
Reaktionen: Bademeister69, JustAnotherTux und nosound
Zurück
Oben