News GPT-4.5 veröffentlicht: OpenAIs bis dato größtes Modell ohne Reasoning-Fähigkeiten

Frag mich wie das gehen soll, dass es weniger halluziniert. Das ist doch in der DNA eines LLMs drin so wie ich das verstehe..
 
  • Gefällt mir
Reaktionen: up.whatever
Jedes Modell halluziniert "anders" und natürlich kann man auch diesen Aspekt verbessern. Einfaches Beispiel bei einem Reasoning-Modell... er gibt eine Antwort und dann wird diese Antwort mit Wissen abgeglichen oder noch einmal beantwortet und verglichen ob die Antwort 1 mit der Antwort 2 übereinstimmt.

Hier ist es dann wohl eher das "Weltwissen". Das Modell hat eine deutlich größere Wissenbasis und wurde stärker trainiert, entsprechend weiß es auch "mehr". Natürlich kann man auch andere Mechanismen gegen Halluzinationen einbauen.

Häufig ist das aber immer ein Tradeoff, man beschränkt ein Modell irgendwo, dafür wird es dann an anderer Stelle schlechter.
 
  • Gefällt mir
Reaktionen: jotecklen, schneeland, Zagrthos und 3 andere
Einer der wichtigsten Vorteile eines "reasoning models" ist eben, daß man die KI direkt fragen kann, wie sie denn auf die gegebene Antwort gekommen ist, und die einem das auch sagen kann. Alleine diese Eigenschaft macht Halluzinationen viel unwahrscheinlicher. Mittlerweile geben bereits einige Modelle (DeepSeek, Claude, darauf aufbauende) die Quellen (mit Links) für ihre Aussagen an. Auch aus dem Grund mag ich zB Perplexity.
ChatGPT scheint hier etwas hinterher zu sein.
 
  • Gefällt mir
Reaktionen: Weyoun und jotecklen
Input 30x teurer als GPT 4o, output 10x teurer

Dagegen ist ja selbst o1 ein schnapper
 
  • Gefällt mir
Reaktionen: buy95, Weyoun, eastcoast_pete und 4 andere
@madmax2010 Ich glaube das wird die Zukunft bei KI sein. Ein paar Prozent mehr Intelligenz verbraucht Unmengen mehr an Rechenleistung.
 
@MacFu Ich könnte selbst versuchen das herauszufinden, erlaube mir die Frage aber mal dennoch zu stellen: Hilft QuantenComputing? 🙈
 
@Silencium Nein da es ja noch nichts gibt in der Art außer Ankündigung. Schätzungsweise wird es mindestens noch 10 Jahre dauern.

Und selbst wenn die Chips dann 1000 Mal schneller berechnen können ist die Frage was die kosten und was das bei KI an Mehrwert bring. Weil wie schon erwähnt wird jedes Prozent mehr an KI Intelligenz Unmengen an Mehraufwand benötigen als beim vorherigen Prozent.
 
  • Gefällt mir
Reaktionen: Silencium
MacFu schrieb:
@madmax2010 Ich glaube das wird die Zukunft bei KI sein. Ein paar Prozent mehr Intelligenz verbraucht Unmengen mehr an Rechenleistung.
Naja die Computer werden schneller und kleiner und die KI Modelle in Zukunft sicher effizienter.
 
Das sicher so dass die Modelle effizienter werden, trotzdem wird der Energieauufwand und Rechenaufwand bei LMMs vermutlich doch sehr sehr viel schneller steigen als die Effizienzverbesserungen.

Denn deren Komplexität steigt in Millionen von Wissenbereichen parallel - was also exponentiell dann im gesamten ist. Von wie macht man Kaffeeflecken aus Teppichen bis zu aktuellen Theorien zur Gravitation.

Eine Effizenzsteigerung ist eher das Gegenteil von exponentieller Zunahme - die einfachen und grossen Brocken sind da am schnellsten weg und dann sinkt die Effizenzsteigerung eher immer schneller gegen 0.

Schon eine lineare Effizienzsteigerung wäre doch extremst ungewöhnlich.
 
Zuletzt bearbeitet:
Im Gegenteil. Der Weg ist doch gerade weg von den riesigen Modellen hin zu kleinen, aber schnellen, die dann ber der Inferenz mehr Output generieren. Aber da der aufgrund der Größe des Modells viel schneller berechnet wird, brauchts am Ende trotz besseren Antworten weniger Ressourcen.

Auch schön an den Open-Weight Modellen zu sehen, von denen wir die Details wissen (bei OpenClosedAI weiß man ja nicht mal wirklich die Anzahl der Parameter): Bisher hat man jedes Jahr die Leistung der großen in die ein Klasse darunter bekommen. Das ist bis zuletzt der Fall.

Dazu kommen wohl auch neue Architekturen wie bspw. Googles Titans (quasi der Nachfolger der Transformer-Architektur, auf der die aktuellen LLMs basieren), womit der aktuell quadratische Anstieg in der benötigten Rechenleistung deutlich reduziert wird.

Titans Paper
 
Zuletzt bearbeitet:
Topmodelle sind wichtig und darauf basieren ja häufig auch die kleineren Modelle.

GPT4 war auch richtig teuer. GPT4o dann deutlich effizienter und trotzdem besser. Gemini Ultra war auch sehr teuer und wurde dann von Gemini Pro 1.5 und später sogar selbst von Gemini 2 Flash abgelöst.

Im Grunde wachsen Modelle gerade in alle Richtungen. Sie werden besser und teurer, sie werden aber auch besser und günstiger. Man muss ja auch mal sagen, dass man nicht die Topmodelle für einfache Anfragen benötigt. Wenn du wissenschaftliche Arbeit von einem Monat durch eine 50€ Anfrage erledigen kannst, dann ist das eine super Preiseinsparung. Wenn man eine 50€ Anfrage dafür nutzt um nach dem Wetter zu fragen, dann macht man eben etwas falsch.

Und ich verstehe auch nicht wie man zu dem Schluss kommen kann, dass die Schritte klein sind. Im Grunde haben wir erst gestern mit LLMs angefangen und jeden Tag kommt etwas Neues. Deepseek, Grok 3, Sonnet 3.7 hat einen starken Sprung bei Programmierung gerade gemacht...
 
madmax2010 schrieb:
Input 30x teurer als GPT 4o, output 10x teurer

Dagegen ist ja selbst o1 ein schnapper
Momentan macht Sam Altman ja schon (finanzielle) Schnappatmung 😁.
Ergänzung ()

MacFu schrieb:
@madmax2010 Ich glaube das wird die Zukunft bei KI sein. Ein paar Prozent mehr Intelligenz verbraucht Unmengen mehr an Rechenleistung.
Allerdings hat DeepSeek (die Open Source Modelle, nicht die App!) auch klar gezeigt, daß auch bei KI "work smarter, not harder" gelten kann*. Ansonsten wird es fast unmöglich sein, KI Modelle gut und wirtschaftlich zu betreiben.
* Natürlich ist es trotzdem wichtig, genug Compute Leistung zu haben, weswegen sich Nvidia zumindest bis 2026 noch keine Sorgen um ihren Absatz machen müssen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MacFu
Das Problem was in Zukunft hinzukommt: wie das Alles refinanzieren? Die große Masse will kein Geld ausgeben. Sicherlich sind die üblichen paar Euro im Monat machbar aber mehr? Zudem wird die Masse auch nicht unbedingt smarter Lösungen brauchen, den reicht ein Ersatz für Google und das ist ja nun schon lange gegeben. Es bleibt spannend.

Was wir auf kurz oder lang sehen werden sind Business Lösungen für 100-500 Euro im Monat.
 
@MacFu die AI-Chats sind ja nur ein kleiner Teil. Die Integration in Anwendungen wird da viel, viel mehr ausmachen.
 
In der Forschung Pharma und Medizin wird es sicher auch monatliche Abos von vielen hundertausend+ geben.
 
Die Fähigkeiten von ChatGPT sind unglaublich. Die kontinuierliche Verbesserung ist schon fast etwas unheimlich. Denke viele Unternehmen "ohne ChatGPT" werden in absehbarer Zeit nicht mehr Konkurrenzfähig sein können.
 
  • Gefällt mir
Reaktionen: Xiaolong
jotecklen schrieb:
Frag mich wie das gehen soll, dass es weniger halluziniert. Das ist doch in der DNA eines LLMs drin so wie ich das verstehe..
Genau deswegen ist es auch ein Problem. Bisher ist es nur geeignet Phantasietexte zu generieren auf Fake News Niveau. Das schränkt es ziemlich ein.
Ich beschrieb es hier schon mal, allerdings umschrieben. Exakt war die erste Frage:
Wie lang sind Exon 2, 3 und 4 von KRAS
gefolgt von
Wie lang sind Exon 1, 2, 3 und 4 von KRAS

Ergebnis:
Exon 2, 3 und 4 waren unterschiedlich lang bei den beiden Antworten.
 
  • Gefällt mir
Reaktionen: jotecklen
Man kann LLMs auch nur über ihre Fähigkeiten mit externem Wissen nutzen (RAG). Damit umgeht man das Problem der Halluzination nahezu komplett.
 
  • Gefällt mir
Reaktionen: jotecklen
Das größte Problem ist einfach, dass viele denken, dass Computer nicht lügen können und keine Meinung vertreten. Wenn man dann z.B. über den Voice Mode fragen stellt, nimmt man es so hin. Und in Textform kontrolliert auch kaum einer die Quellen.

Dabei kann man LLMs in eine Richtung trainieren und gleichzeitig später noch manipulieren. Als Nutzer sieht man das aber kaum. Und dadurch hat dann OpenAI, Google und Co. enorme Macht zur subtilen Beeinflussung an Milliarden Menschen.

Und wir sind ja so simpel gebaut, dass selbst eine offensichtliche "BILD" uns beeinflusst.
 
  • Gefällt mir
Reaktionen: jotecklen und Azdak

Ähnliche Themen

Zurück
Oben