Neue Modelle für ChatGPT: Sam Altman kündigt GPT-4.5 und GPT-5 an
![Neue Modelle für ChatGPT: Sam Altman kündigt GPT-4.5 und GPT-5 an](https://pics.computerbase.de/1/1/6/0/8/5-cbd64c619fab700c/article-1280x720.0cc2c668.jpg)
Eine Neuerung bei OpenAI: Mit einer kleinen Roadmap gibt man erstmals einen Ausblick auf die nächsten Modelle. Chef Sam Altman bestätigt, dass bald GPT-4.5 und GPT-5 kommen sollen. Zudem will das Unternehmen die Modellauswahl in ChatGPT vereinfachen.
Als nächstes kommt GPT-4.5, erklärt Altman via X. Das Modell, das intern unter dem Codenamen Orion läuft, soll das letzte sein, das keinen Chain-of-Thought-Ansatz verfolgt. Danach soll die GPT- und o-Serie wieder zusammengeführt und somit die Modellauswahl vereinfacht werden. Man möchte ein System, dass alle Tools wie die Web-Suche, Canvas oder Deep Research enthält und selbst die Ressourcen managt, die für das Berechnen einer Anfrage erforderlich sind.
GPT-5 soll dieses Modell sein. In diesem System soll auch o3 integriert werden, diese Modellreihe wird danach nicht mehr eigenständig laufen.
Danach ist GPT-5 auch in ChatGPT das Modell der Wahl. Auch die Nutzer der kostenlosen Variante sollen einen unbegrenzten Zugang erhalten, dieser erfolgt aber mit der Standard-Intelligenzeinstellung. Abonnenten der kostenpflichtigen Plus-Variante erhalten ein höheres Intelligenzlevel, bei dem Pro-Abonnement ist es nochmals höher.
Ein konkretes Datum für den Start von GPT-4.5 und GPT-5 enthält die Roadmap nicht. Angesprochen auf die Veröffentlichung, nennt Altman Wochen und Monate als Zeitraum.
Reasoning-Modelle als Zukunft
Den Chain-of-Thought-Ansatz führte OpenAI mit den o1-Modellen ein, die auch unter dem Titel „Reasoning-Modelle“ laufen. Der wesentliche Unterschied zu dem vorherigen Ansatz ist, dass Ressourcen auf die Inferenzphase verlagert werden, in der das Modell die Antwort generiert. Weil es in diesem Prozess „Nachdenkt“ – und dabei mehrere Lösungswege testen kann –, besitzen die Chain-of-Thought-Modelle Vorteile bei Logikaufgaben aus Bereichen wie Mathematik und Programmierern. So einen Ansatz nutzt auch das chinesische Start-up DeepSeek sowie Google mit dem Gemini-Thinking-Modellen.
Altman ist zuversichtlich, dass das Entwicklungstempo hoch bleibt. Wie er in einem Anfang der Woche veröffentlichten Blog-Beitrag erklärte, hänge die Intelligenz eines KI-Modells maßgeblich von den Ressourcen ab, die für das Training und den Betrieb verwendet werden. Neben dem Training- und Inferenz-Computing seien Daten zudem noch die relevante Größe, um Fortschritte zu erzielen.
Was laut Altman damit immer noch funktioniert: Die Skalierung – mehr Ressourcen führen berechenbar zu mehr Leistung. Inwieweit diese sogenannten Scaling Laws noch gelten, ist in der KI-Branche strittig. Forscher wie der OpenAI-Gründer Ilya Sutskever erklärten, beim Training stoßen die Modelle an ein Plateau. Die Chain-of-Thought-Modelle sind einer der Ansätze, um diese Grenzen zu umgehen.
![](https://pics.computerbase.de/redakteure/729085-80x80.445392ce.jpg)
![](https://pics.computerbase.de/redakteure/191-80x80.8c17fb9c.jpg)