Neue Modelle für ChatGPT: Sam Altman kündigt GPT-4.5 und GPT-5 an

Andreas Frischholz
23 Kommentare
Neue Modelle für ChatGPT: Sam Altman kündigt GPT-4.5 und GPT-5 an

Eine Neuerung bei OpenAI: Mit einer kleinen Roadmap gibt man erstmals einen Ausblick auf die nächsten Modelle. Chef Sam Altman bestätigt, dass bald GPT-4.5 und GPT-5 kommen sollen. Zudem will das Unternehmen die Modellauswahl in ChatGPT vereinfachen.

Als nächstes kommt GPT-4.5, erklärt Altman via X. Das Modell, das intern unter dem Codenamen Orion läuft, soll das letzte sein, das keinen Chain-of-Thought-Ansatz verfolgt. Danach soll die GPT- und o-Serie wieder zusammengeführt und somit die Modellauswahl vereinfacht werden. Man möchte ein System, dass alle Tools wie die Web-Suche, Canvas oder Deep Research enthält und selbst die Ressourcen managt, die für das Berechnen einer Anfrage erforderlich sind.

GPT-5 soll dieses Modell sein. In diesem System soll auch o3 integriert werden, diese Modellreihe wird danach nicht mehr eigenständig laufen.

Danach ist GPT-5 auch in ChatGPT das Modell der Wahl. Auch die Nutzer der kostenlosen Variante sollen einen unbegrenzten Zugang erhalten, dieser erfolgt aber mit der Standard-Intelligenzeinstellung. Abonnenten der kostenpflichtigen Plus-Variante erhalten ein höheres Intelligenzlevel, bei dem Pro-Abonnement ist es nochmals höher.

Ein konkretes Datum für den Start von GPT-4.5 und GPT-5 enthält die Roadmap nicht. Angesprochen auf die Veröffentlichung, nennt Altman Wochen und Monate als Zeitraum.

Reasoning-Modelle als Zukunft

Den Chain-of-Thought-Ansatz führte OpenAI mit den o1-Modellen ein, die auch unter dem Titel „Reasoning-Modelle“ laufen. Der wesentliche Unterschied zu dem vorherigen Ansatz ist, dass Ressourcen auf die Inferenzphase verlagert werden, in der das Modell die Antwort generiert. Weil es in diesem Prozess „Nachdenkt“ – und dabei mehrere Lösungswege testen kann –, besitzen die Chain-of-Thought-Modelle Vorteile bei Logikaufgaben aus Bereichen wie Mathematik und Programmierern. So einen Ansatz nutzt auch das chinesische Start-up DeepSeek sowie Google mit dem Gemini-Thinking-Modellen.

Altman ist zuversichtlich, dass das Entwicklungstempo hoch bleibt. Wie er in einem Anfang der Woche veröffentlichten Blog-Beitrag erklärte, hänge die Intelligenz eines KI-Modells maßgeblich von den Ressourcen ab, die für das Training und den Betrieb verwendet werden. Neben dem Training- und Inferenz-Computing seien Daten zudem noch die relevante Größe, um Fortschritte zu erzielen.

Was laut Altman damit immer noch funktioniert: Die Skalierung – mehr Ressourcen führen berechenbar zu mehr Leistung. Inwieweit diese sogenannten Scaling Laws noch gelten, ist in der KI-Branche strittig. Forscher wie der OpenAI-Gründer Ilya Sutskever erklärten, beim Training stoßen die Modelle an ein Plateau. Die Chain-of-Thought-Modelle sind einer der Ansätze, um diese Grenzen zu umgehen.

Wo gibt es GeForce RTX 5090 oder RTX 5080 zu kaufen? Unser RTX-50-Verfügbarkeits-Check informiert über (absurd teure) Listungen.