Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsSprung auf dem Weg zur AGI?: OpenAI stellt neues Spitzenmodell o3 vor
Der Energiebedarf wird natürlich auf einen winzigen Bruchteil sinken. Wie das bislang immer so war. Sonst hätten wir heute keine GPUs, die mit 50 Watt schaffen, was ein paar Jahre zuvor selbst mit 5.000 Watt nicht zu schaffen gewesen wäre.
Ein Siliziumatom ist, je nachdem nach welchem Verfahren man geht, um die 0.2nm
Ein Transistor besteht aus mehreren Atomen.
Die kleinsten Strukturen aktller ICs liegen schon um die 2nm. Das sind 10 Atome.
Ein bisschen was wird noch gehen, aber der klassische Performancezuwachs geht schon seit Jahren zurück.
Nicht sicher, ob ich gerade an 2 weitere Größenordnungen glauben kann
Wobei Raw Compute bei Transformermodellen eher im Inferencing limitiert. Es gibt aktuell auch ein paar Paper die glaube, dass sie MatMul los werden koennen, was deutlich interessantere Architekturen als heutige GPUs erlauben koennte.
Die kommen jetzt schon weil es hier Gratis Geld, Gesundheitsversorgung und Familiennachzug gibt. Armut wird es immer geben, da ändert auch ein Klimawandel (der nur zu einem Bruchteil überhaupt durch uns beinflussbar ist), gar nichts dran.
Das sind überwiegend Wirtschaftsflüchtlinge und auch "nur" ca. 1 Mio. im Jahr. Wenn in ein paar Dekaden die Klimaänderung ganze Landstriche unbewohnbar gemacht hat, dann schlagen jährlich mehr als 10 Mio. an der EU-Grenze auf. Mit einem Deal mit der Türkei und ein paar Schiffen der Küstenwacht im Mittelmeer kommt man da nicht mehr weit. Alle aufnehmen kann man bei der Größenordnung nicht, ohne unser Wohlstandsniveau zu gefährden. Alle abweisen löst das Problem nicht, denn die bleiben an der Grenze hocken und warten auf die nächste Gelegenheit. Und das darauf folgende Jahr sind das dann zusammen mit dem nächsten Schwung schon 20 Mio. Menschen, die rein wollen.
Das ist ein Problem, das sich verschlimmern wird und ich sehe keine humane Lösung dafür. Falls du dich dafür interessierst, kann du dir auch mal dieses Video anschauen. Das deckt sich fast mit meiner Meinung.
Persönlich bin ich zur Antwort weder noch gekommen. Ich habe die ganzen Code Vorschläge asugeschaltet, di emachen mich langsamer. Ich prompte im allgemeinen nur selten.
Ich habe mich einmal gezwungen, als experiment, ein relativ einfaches Problem mit Cursor und dem o1 Modell in einer bestehenden Applikation zu korrigieren. Ging, aber mit relativ viel korrektur. Am Schluss hatte ich mehr Zeit aufgewendet als wenn ich es einfach selber gemacht hätte.
Mittlerweile glaube ich eine Intuition zu haben, wann es sich lohnt die AI zu fragen. Gibt ab und zu mal den Moment, wo ich denke, das ist eine Aufgabe für die AI.
Zum lernen finde ich es auch ganz nützlich mittlerweile. Ich schaue mir grad Supabase und Postgres an. Die Lernmaterialien erklären nicht immer alle Parameter, da steht dann manchmal einfach etwas und du fragst dich warum steht da jetzt da. Da hat dann die AI teilweise schneller und verständlichere Ergebnisse geliefert als eine Google Suche.
In meinen Augen beseitigt A(G)I kein einziges relevantes Problem, sondern schafft nur Neue.
Und dafür dann dieser jetzt schon absurd hohe Stromverbrauch, nur um fehlende Eigeninitiative (weil man mittlerweile nicht mal mehr Willens ist, das Wissen zu suchen und in das umzusetzen, was man braucht) zu bedienen...
In vielen Berufen ist nicht die Arbeitszeit das Wertvolle, sondern das Wissen, wie man die Arbeit richtig macht, also die Spezalisierung. Wenn A(G)I irgendwann mal wirklich tauglich wird, wird zunehmend am Wert dieses Wissens gesägt, durch unterschiedlichste Berufe hindurch. Ob das so bestrebenswert ist?
@iGameKudan
Das Wissen der Welt verdoppelt sich angeblich alle 12(!) Stunden, die digital gespeicherten Daten angeblich alle 1,5 bis 4 Jahre. Das sagt jetzt nichts über die Qualität des Wissens aus. Da kann auch Schrott dabei sein.
Wir überblicken das schon lange nicht mehr, darum gibt es heute nur noch Spezialisten und keine Generalisten mehr.
Ehrlich gesagt, kommt man ohne irgendeine Suchhilfe heute nicht mehr zu Rande. Es sind einfach zu viele Informationen. Man muss zu viel nachschlagen. Ob ein LLM jetzt die richtige Art Suchhilfe ist, kann ich nicht sagen. Sie hilft aber zumindest, die richtige Richtung durch den Datenwust zu finden.
Als Nichtprogrammierer hab ich verblüffend einfach eine berechnende HTML Seite mit tabellarischer csv Ausgabe erstellen können in GPT4o.
Je umfangreicher es wurde, mal will ja zB den Tab-Focus in den richtigen Eingabefeldern, umso mehr musste korrigiert werden was schon mal gestimmt hatte.
Das macht o1 nach meiner Erfahrung bereits deutlich besser als 4o. Ich habe angefangen eine App zu entwickeln und man muss o1 lediglich Schritt für Schritt sagen, welches Feature man als Nächstes möchte. Und der Code funktioniert quasi immer. Als meine Ressourcen für o1 aufgebraucht waren, wurde meine Erfahrung mit o1-Mini und 4o deutlich schlechter, wie von dir beschrieben.
Ich bin wirklich gespannt, ob o3-Mini o1 ersetzen kann und ob dort dann höhere Limits gelten. 50 Anfragen pro Woche sind einfach zu wenig, um produktiv mit dem ChatGPT-Plus Abo zu arbeiten.
Aber sie brauchen Obst und Gemüse, das je nach Sorte nur ein bis drei Mal im Jahr geerntet werden kann. Etwas Fleisch wäre auch super, aber je nach Vieh braucht das ein paar Jahre, bis es "reif" genug ist.
Das brauchen Menschen egal ob Sie 7-8 Stunden am Tag arbeiten, oder zusätzliche 7-8 Stunden Freizeit haben. Mit der AGI wird die Welt also nicht nur den Menschen mit Nahrung durchfüttern müssen, sondern zusätzlich die AGI mit Energie und Ressourcen für die Chips. Am Ende des Tages muss dann also der Mensch die Ressourcen mit der AGI teilen, die er vorher nur für sich hatte und bekommt als Gegenleistung mehr Freizeit. Nur hat die Welt nicht mehr nachwachsende Ressourcen. Die Menscheit wird also für mehr Freizeit die gespeicherten Ressourcen verbrauchen, die die Kinder nicht mehr haben werden. Das ist keine Utopia, sondern eine Dystrophie, zumindest für die Kinder und Kindeskinder.
Krik schrieb:
Du bist ganz schön negativ eingestellt. Ich schreibe hier von einem Szenario, dass in pffff vielleicht 75 Jahren eintritt. Bis dahin läuft ne Menge Wasser den Fluss runter. Ich würde heutige Maßstäbe nicht ansetzen.
Bis dahin wird der Raubbau an unserer Welt weiter voranschreiten und wird durch etweigen Einsatz von AGI noch weiter zunehmen, den jede effizenzsteigerung der Wirtschaft wurde für weiteren Wirtschaftswachstum genutzt und dieser führt zu mehr Resourcenverbrauch. So lange an diesem System nichts geändert wird, ist meine Einstellung nicht negativ, sondern realistisch und deterministisch.
Ich mache mir eher Sorgen, was, wenn eine AI einen eigenen Verstand/Willen erlangt und entscheidet, dass die Menschheit böse ist und zu viele Ressourcen verbraucht, dann geschieht ...
Aber das wird sicher irgendwer dann regeln.
Noch ist sie nur in einigen Bereichen sehr gut, aber im Allgemeinen nicht dem Menschen überlegen.
Mit der AGI wird die Welt also nicht nur den Menschen mit Nahrung durchfüttern müssen, sondern zusätzlich die AGI mit Energie und Ressourcen für die Chips.
AGI kann helfen, die Ressourcen besser zu verteilen. Beispielweise haben wir in Europa eine Nahrungsüberproduktion und viele Länder in Afrika eine Unterproduktion. Und was machen wir mit dem Essen? Größtenteils vernichten. Das geht besser. Und das wird sicher nicht die einzige Kategorie sein, wo eine AGI helfen kann.
Convert schrieb:
jede effizenzsteigerung der Wirtschaft wurde für weiteren Wirtschaftswachstum genutzt und dieser führt zu mehr Resourcenverbrauch
Dieses System kann nicht ewig so weiter laufen. Das wird man auch in der Wirtschaft akzeptieren (müssen). Unbegrenztes Wachstum gibt es nicht, auch wenn der Kapitalismus davon ausgeht.
Convert schrieb:
So lange an diesem System nichts geändert wird, ist meine Einstellung nicht negativ, sondern realistisch und deterministisch.
Also im Film sagt der Roboter selber, dass er nur das wiedergeben kann, womit man ihn gefüttert hat. Für mich ist das keine AGI sondern eher so was wie ein angewandtes LLM. Eine AGI würde hier möglicherweise sagen, dass sie einen anderen Job will.
Du kannst ihn von der Webseite herunterladen… was meinst du damit, das er privat ist?
Und bei dem Test von F. Chollet geht es darum, dass ein LLM es hier schwerer mit dem Auswendiglernen hat - aber umso größer Modelle werden, desto wahrscheinlicher wird auch eine höhere Lösungsquote… durch auswendig Lernen.
Was aber F.C. zeigen will, ist, dass man diese Aufgaben lösen kann mit dem Weltwissen eines Kleinkindes.
Und worum es ihm darüber hinaus geht - also abgesehen von diesem Test: das die Welt mehr Freiheitsgrade hat, als sich auswendig lernen lässt… und dass die Welt sich verändert.
Ergänzung ()
Krik schrieb:
Eine AGI würde hier möglicherweise sagen, dass sie einen anderen Job will.
Warum sollte sie das? Sie muss nichts „wollen“. Lebewesen sind so „gestrickt“, weil es sich während ihrer Evolution so ergeben hat - aber das bedeutet nicht, dass jedes „intelligente“ System auf dieselbe Weise designt werden muss.
Davon abgesehen hat das englische Wort Intelligence nicht dieselbe Assoziation zu menschlicher Intelligenz wie das deutsche Wort.
Das ist ein schönes Beispiel dafür, wie Sprache Denken beeinflusst.
Das ist aber schon seit Jahren bekannt, schon nach der Einführung von Navigationssystemen, dass die Leute plötzlich nicht mehr wussten, wo was ist oder wie man eine Karte lesen kann ...
Ich weiß nicht inwieweit das Firmen wirklich hilft. Aber was soll sowas als Abo nachher kosten. Sobald eine KI auf dem Smartphone Geld kostet bin ich raus.
Was ich zuletzt von unserer IT gehört habe, 60 Euro pro Account… unabhängig von der Nutzung. Deswegen haben wir uns für einen anderen Anbieter entschieden, bei dem es Nutzungsabhängig ist… so dass Mitarbeiter, die es nicht verwenden, keine Kosten verursachen, aber dennoch die Möglichkeit haben, es jederzeit verwenden zu können.
Und noch was Allgemeines: es spielt überhaupt keine Rolle, ob eine AI, AGI oder was auch immer wirklich Denken kann oder alles nur auswendig lernt - für den praktischen Nutzen zählt nur das Resultat!
Das ist doch ziemlich deutlich? Eine neue, wissenschaftliche Entdeckungen. Oder ein mathematischer Beweis. Eben etwas wo niemand mehr sagen kann "Pah, Ist ja alles eh nur in den Trainingsdaten!"