Gemini 2.0 Flash Thinking: Reasoning-Modell als o3/DeepSeek-Antwort für alle Nutzer
Google hat eine Reihe neuer Gemini-2.0-Modelle vorgestellt. Mit von der Partie ist das Reasoning-Modell Gemini 2.0 Flash Thinking, das sich zwar noch im experimentellen Status befindet, von nun an aber von allen Nutzern der Gemini-App verwendet werden kann.
Bei den Reasoning-Modellen sorgten zuletzt vor allem OpenAI mit o3 sowie das chinesische AI-Start-up DeepSeek für Aufsehen. Das Besondere an den Modellen ist, dass diese Teile der Berechnung auf die Inferenzphase verlagern. Während die Antwort generiert wird, findet also eine Art „Denkprozess“ statt, bei dem das Modell die Prompt-Eingaben in Bestandteile zersetzt und verschiedene Lösungswege testen kann.
Logik-Modelle für das Agenten-Zeitalter
Gemini 2.0 Flash Thinking Experimental ist Googles Variante dieser Reasoning-Modelle, die alle Gemini-App-Nutzer testen können. Ein kostenpflichtiges Gemini-Advanced-Abo ist nicht nötig, Nutzer des Abo-Dienstes profitieren aber von einem priorisierten Zugang.
Zusätzlich zur normalen Variante bietet Google eine Variante des Thinking-Modells, das mit den Google-Diensten YouTube, Suche und Google Maps verknüpft ist. Damit ist es möglich, bei Antworten auf Informationen aus den Diensten zuzugreifen.
Ein verbesserter Umgang mit Logikaufgaben sowie komplexen Prompts ist eine der Kernaufgaben von Gemini 2.0. Als Google die Reihe im Dezember 2024 angekündigte, hat man diese explizit als Grundlage für die Agenten-Systeme vorgestellt, die im Laufe dieses Jahres erscheinen sollen.
Eines der ersten Agenten-Tools ist Googles Recherche-Assistent Deep Research, der eigenständig komplexe Fragen beantwortet, indem dieser eigenständig Web-Suchen durchführt, die Ergebnisse auswertet und basierend auf den Erkenntnissen weitersucht. Nutzer erhalten die Ergebnisse dann in einem Bericht, also ähnlich wie bei OpenAIs Deep-Research-Agenten.
Gemini 2.0 Pro als neues Spitzenmodell
Mit Gemini 2.0 Pro hat Google ein weiteres Spitzenmodell in einer experimentellen Version veröffentlicht. Entwickler können es über die Cloud-Dienste Google AI Studio sowie Vertex AI nutzen, abrufbar ist es aber auch über Gemini Advanced.
In den von Google veröffentlichten Benchmarks – die nur Vergleiche zwischen den Gemini-Modellen beinhalten – setzt sich Gemini 2.0 Pro an die Spitze. Ausgelegt ist es insbesondere für Aufgaben wie Programmieren oder den Umgang mit komplexen Prompt-Eingaben, bei diesen Szenarien profitiert es in der Regel auch.
Die Alltagsmodelle bleiben bei Google aber die Gemini-Modelle aus der Flash-Reihe. Diese ist primär auf Geschwindigkeit und Effizienz ausgelegt, die Preise sind auch besonders günstig. Die verbesserte Version Gemini Flash 2.0 verbreitet nun. Verfügbar ist es auch über die kostenfreie Version der Gemini-App.
Gemini Flash 2.0 Lite: Auf Effizienz getrimmt
Mit Gemini Flash 2.0 Lite erweitert Google den Katalog an Flash-Modellen. Effizienz ist das, was bei dem neuen Ableger explizit im Fokus steht. Laut Google hat es eine bessere Qualität als Flash 1.5, obwohl Geschwindigkeit und Kosten gleich bleiben. So übertrifft es den Vorgänger bei der Mehrheit der Benchmarks.
Verfügbar ist Flash 2.0 Lite zunächst in einer Vorschau-Version. Die lässt sich über Google AI Studio und Vertex AI abrufen.