Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsSprung auf dem Weg zur AGI?: OpenAI stellt neues Spitzenmodell o3 vor
OpenAI hat mit o3 zwei neue Modelle angekündigt, die Anfang kommenden Jahres erscheinen soll. Im Vergleich zu o1 verzeichnet diese nochmals deutliche Fortschritte bei Logikaufgaben und erzielen außerordentlich hohe Werte bei einem Benchmark, der AGI messen möchte.
Da ich mit meiner Rechtschreibung Probleme habe, nutzliche sehr oft ChatGPT um Texte neu zu formulieren /zu verbessern oder diese z.b. domianter/freundlicher/sachlicher etc. zu schreiben. ChatGPT ist mein täglicher begleiter geworden.
Wie soll denn das funktionieren, wenn GPT nun länger über eine Aufgabenstellung nachdenken muss bzw. einfach mehr Ressourcen aufgewendet werden müssen?
Wenn man irgendwann ein 100-Mrd.-Rechenzentrum bauen will, dann müssen diese Kosten auch wieder rein kommen. Das sehe ich aktuell noch nicht.
o3 Mini erreicht die Leistung von o1 zu einem Bruchteil der Kosten. Es gibt verschiedene Modelle von daher muss sich nicht alles gegenseitig ausschließen.
Google hat hier mit den eigenen TPUs aber einen massiven Vorteil - und gehen auch sehr großzügig damit um.
"Und der rechenintensive Weg benötigt 172 mal so viel Computing-Power wie das effiziente Modell."
Also für diese Verbesserung klingt das einfach ineffizient. Da sind also noch ein paar Atomkraftwerke fällig
Bisher kann man mit den LLMs kein großartiges Geld verdienen. Die ganzen Abos usw. sind meist gerade mal kostendeckend.
Aber so kann es ja nicht ewig weiter gehen. Ich geb der Sache noch ca. 4-5 Jahre, dann wird das große Sterben der KI-Firmen beginnen und vielleicht nur noch 2-3 übrig bleiben.
Als Nichtprogrammierer hab ich verblüffend einfach eine berechnende HTML Seite mit tabellarischer csv Ausgabe erstellen können in GPT4o.
Je umfangreicher es wurde, mal will ja zB den Tab-Focus in den richtigen Eingabefeldern, umso mehr musste korrigiert werden was schon mal gestimmt hatte.
Wenn das künftig auch noch besser wird dürfte so eine KI ähnlich wie Google zum Standard werden.
Und Google braucht dann keiner mehr
AGI ist eher das 2023 Buzzword. 2024 wollten alle ASI
Der ARC-Benchmark gilt daher auch als Maßstab für die AGI-Entwicklung, also einer allgemeinen künstlichen Intelligenz, die bei den meisten Aufgaben mit Menschen mithält oder dieser übertrifft
Eine positive Sache sehe ich an der Entwicklung schon: Es werden kleine KIs entstehen, die man lokal flüssig (genug) ausführen kann, sodass jeder seinen persönlichen Assistenten auf dem PC oder Handy dabei haben kann. Ein Assistent, der den Namen auch verdient (und nicht so was wie Alexa). Die Hardware-Entwicklung geht ja auch verstärkt dahin.
Darüber hinaus könnten NPCs in Spielen zukünftig damit auch befeuert werden, was das Spielerlebnis auf eine neue Stufe bringen würde.
Darauf freue ich mich. Ein Online-Fragenbeantworter hingegen braucht ich so nicht.
Stell dir vor du hast einen Arbeitskollegen als Programmierer der gibt für die selbe Aufgabe immer eine andere miese Antwort statt wie ein Mensch die seiner Meinung nach beste Lösung, zweitbeste, drittbeste. Das ist ChatGPT und andere Chatbots. Als Programmierer bin ich mir immer noch nicht sicher ob ChatGPT mir Zeit spart oder mich mehr Zeit kostet. Du merkst erst wie schlecht Chatbots alle sind, wenn du selbst die beste und zweitbeste Lösung kennst. Höchsten bei Sprachen und Frameworks die man selbst nur lose kennt, können Chatbots einem wirklich helfen.