News Gemini 2.5 Thinking: Googles neues KI-Modell setzt sich an die Spitze

Thares schrieb:
Bisher konnte ich mit KI-Tools wenig anfangen. Doch seit meinem neuen Job als Systemadministrator und der intensiven Arbeit mit PowerShell hat sich das grundlegend geändert.
Ist ja oft so. Bis man selber einen Anwendungsfall hat, wo man von einer neuen Entwicklung profitiert, ist das alles "unnützer Kram, der als Blase bald platzt".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaMitHut, EmViO und FrAGgi
Bei den KI Modellen geht es eigentlich nur noch darum, welches amerinikanische Unternehmen noch mehr Daten klauen kann als das beste chinesische Unternehmen.
Ist schon witzig, wenn Unternehmen sich über China beschweren, von denen angeblich geklaut zu haben, denen aber nachgewiesen wird, selbst die Daten geklaut haben.
Die Beweislast ist mittlerweile so erdrückend, da muss quasi schon Trump mit Druck nachhelfen, um dei Unternehmen vor dem wirtschaftlichen Bankrott durch Massenklagen zu retten.
Es ist erschreckend, wie schon vor Trumps Selbsternennung zum König die ganzen Unternehmen ohne Gewissenbisse flächendeckend jede Art von geschützten Werken und persönlichen Daten massenhaft in ihre Datencenter hineinfressen.
Also alles was geht, ohne Nachfrage und Kontrolle.
Kein Wunder, dass diese Unternehmen sich nun imemr mehr zu trump hingezogen fühlen, der durch eine deregulierung etc. diesen herrschafften ihr Geschäftsmodell nicht komplett zerschießen lassen will.
Denn eigentlich ist das alles völlig illegal und strafrechtlich nachzuverfolgen, was die da betreiben.
Es ist kein privater Kavaliersdelikt oder ein Versehen, sondern kalkulierte Planwirtschaft.
Nicht fragen - einfach machen. Sollte jemand aufmucken, regeln dass die besten Anwälte, die guten Kontakte und viel Geld dahinter immer.
Das alles ist viel viel billiger, als sich von Anfang an an irgendwelche Gesetzgebungen zu halten oder gar nicht in dem Segment tätig zu sein.
Wer was dagegen hat, wird so oder so mundtot gemacht, da das Machtverhältnis einfach zu unterschiedlich ist, und der Vorteil bis in die Regierungskreise udn somit die Justiz hoch reicht.
(Black) MAGA regiert nun die Welt, somit steht der Nutzen einzelner Großkonzerne immer über dem des einfachen Volkes.
Komme was wolle.
Ich werde deren geschäftsmodelle jedenfalsl nich tmit tragen , also weder Nutzen, udn schon gar nicht monatliche Abomodelle finanziell unterstützen udn die damit noch reicher als reich auf Kosten anderer werden lassen, die im schlechtesten Fall überhaupt nichts vom großen Kuchen abbekommen, obwohl sie die ungefragten und mitunter ungewollten Datengeber sind.
Da werden Wörter wie "Raubkopierer" erfunden und Privatpersonen strafrechtlich verfolgt und bis zu 5 Jahre in den Knast gesteckt, hier hingegen wird das gewerblich auch noch von der Regierung gefördert udn alle Klatschen Beifall udn werfen ihr Geld hinterher?
Gehts noch?!?
Das Paradoxon ist mal wieder so groß, da schaut man durch ohne es zu sehen, so gewaltig ist es.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Loro Husk
BxBender schrieb:
Bei den KI Modellen geht es eigentlich nur noch darum, welches amerinikanische Unternehmen noch mehr Daten klauen kann als das beste chinesische Unternehmen.

Das dumme an der ganzen Geschichte ist, wenn eine Regierung sagt, du darfst nicht mehr "klauen - Fairuse", dann ist die KI-Industrie im Land direkt tot. Da aber ganz viele andere Länder eben anders vorgehen können, würden diese Modelle um ein vielfaches besser.

Und aus Kundensicht? Ein günstiges besseres China-Modell lokal auf dem PC, welches keine Daten von dir abgreift oder ein teures und schlechtes USA-Modell lokal auf deinem Rechner?

Ist eine dumme Sache...
 
Yay! Gerade die neue KI Zusammenfassung in Chrome entdeckt :daumen:

1742992615013.png
 
  • Gefällt mir
Reaktionen: Windowserrors12
Kuristina schrieb:
Wäre generell mal interessant, viele verschiedene KIs in Bezug auf Codegenerierung zu vergleichen. Vielleicht kommt ja mal ein Artikel nur speziell dazu. :)
Sonnet ist in copilot fast immer besser bei den Antworten, braucht aber auch etwas länger und halluziniert wilder.
 
  • Gefällt mir
Reaktionen: Gerry18
Ist doch cool dass es aktuell so viele Modelle gibt - aber es gibt doch Fortschritte bei allen.

Noch sind doch die KI Modelle ganz am Anfang, dass es da Inselbegabungen gibt ist doch normal. Die ganze "Industrie" inkl Hardware etc muss noch gewaltigste Fortschritte machen bevor man universelle AIs bekommt.
 
Im Grunde wird es immer unwichtiger welches KI-Modell eigentlich im Hintergrund läuft. Aktuell überholen die sich vermeintlich alle paar Tage gegenseitig und liefern im Großen und Ganzen sehr ähnliche Ergebnisse. Die Unterschiede werden in Zukunft wohl immer geringer.
Am Ende gewinnt nicht das Unternehmen mit den meisten virtuellen Zentimetern auf der nerdigen Benchmarkskala, sondern das Unternehmen, dass für Kunden die nützlichsten Anwendungen liefert, die über die reine Eingabe von Prompts und die Zusammenfassung von Texten hinausgehen.
 
Interessant ist, das die KI bei Auflistungen manchmal nur ein paar nennt und auf Wikipedia etc verweist.
 
BxBender schrieb:
Da werden Wörter wie "Raubkopierer" erfunden und Privatpersonen strafrechtlich verfolgt und bis zu 5 Jahre in den Knast gesteckt, hier hingegen wird das gewerblich auch noch von der Regierung gefördert udn alle Klatschen Beifall udn werfen ihr Geld hinterher?
Wirr, was du schreibst. Aber okay, sei bitte stark, in Deutschland ist sogar das Datamining von geschützten Werken und Datenbanken erlaubt, wenn es denn wiss. Zwecken diente. §60d Urheberrecht. Man kann sich streiten, wie weit das alles in den USA noch zutrifft. Aber so trivial wie du es beschreibst, ist es halt auch da nicht.

Spaßig wird es halt, wenn alles an vorhandenen Sprach- und sonstigen Ressourcen verwurstet wurde und die zukünftige Textproduktion auf KI setzt. Dann beginnt vermutlich die Demenz der LLM, wenn sie noch auf diese Daten trainiert werden.

Aber ansonsten, das Tempo derzeit ist so irre hoch, dass man gefühlt jeden Monat sich mit einem neuen Modell auseinandersetzen muss. Mein Sweetspot bisher war: ChatGPT Plus für Textproduktion, Claude Pro für Code (auch weil der optisch schön aufbereitet wurde), Google Colab, um den Code ggf. auszuführen. Perplexity für Recherche im Netz. Schön, dass es nun Konkurrenz mit Google gibt. Noch schöner wäre es, wenn es mal Konkurrenz aus Europa gäbe. Aber das habe ich abgehakt. Ach so, ich nutze ich "KI" halt einfach um mit Aufgaben, Vorbereitungen, Texten schneller und besser fertig zu werden. Wenn Kollegen das nicht tun, haben sie halt Pech.
 
  • Gefällt mir
Reaktionen: zhompster
Kuristina schrieb:
Das ist leider auch die Krux bei den lokalen LLMs. Die brauchen immer ewig, bis die was fertig ausgegeben haben. Da ist man online schon 3x fertig mit einer Anfrage.
Ist auch online, braucht nur länger und verbraucht offenbar mehr tokens pro Anfrage.
 
Wow!

Ich habe gerade mal die freie Variante "Gemini 2.5 Pro Experimental 03-25" getestet und muss eingestehen, dass das die erste KI ist, mit der ich etwas anfangen kann. Verglichen mit z.B. "Gemini 2.0 Flash Thinking Experimental 01-21" ist das ein enormer Sprung, insbesodere bei wissenschaftlichen Themen. Sehr interessant ist es auch, "das Nachdenken zu verfolgen":
1743010018051.png


Oh je! Wo soll das noch enden ;)
 
Slowz schrieb:
Schade, dass das Modell nicht im Bereich "Code Generation" mit Claude 3.7 Sonnet verglichen wurde. Das ist seit dem Release das Modell meiner Wahl, wenn es um Code Generation mit Python im Bereich Data Science / KI Entwicklung und generell in komplexeren Softwareprojekten geht.
Muss noch nicht mal komplex sein. Ich habe kürzlich etwas zu Wordpress gefragt, muss da grade eine Funktion in ein Plugin einbauen. Da Wordpress sehr verbreitet ist und es tausende von Codebeispielen gibt, dachte ich die KI wird was schlaues ausspucken. Zuerst ChatGPT gefragt, das hat irgendwelche Hooks halluziniert die es gar nicht gibt. Dann Claude 3.7 gefragt, dort kam brauchbarer Code.

Der Code den Claude rausgespuckt hat, war aber sehr ineffizient (zu viele einzelne DB abfragen). Ich habe Claude dann darauf hingewiesen und gefragt ob es auch mit einer Abfrage ginge. Es meinte dann ja klar und hat Code ausgespuckt der wieder das gleiche Verhalten hatte.

Habe dann doch noch die Docs durchforstet, und leider gesehen, dass es mit Baordmitteln nicht wirklich anders geht. War trotzdem etwas enttäuscht von Claude, dass es nicht einfach sagt, nein das geht nicht, oder alternativ irgendwas vorschlägt wie man die Limitierung umgehen könnte.
 
Slowz schrieb:
Schade, dass das Modell nicht im Bereich "Code Generation" mit Claude 3.7 Sonnet verglichen wurde. Das ist seit dem Release das Modell meiner Wahl, wenn es um Code Generation mit Python im Bereich Data Science / KI Entwicklung und generell in komplexeren Softwareprojekten geht.
Laut den anderen Benchmarks könnte es besser sein oder?
Ergänzung ()

shysdrag schrieb:
Nutz mittlerweile Gemini auch gern in VSCode, ich Frag mich nur wann Google beginnt die Preise an ChatGPT anzugleichen, das gabs ja für 1 Jahr geschenkt zum Google Smartphone. Die 30 € pro Monat sind verglichen zu dem was man bei der Konkurrenz bezahlt fast schon zu günstig. Aber gut, Google hat wohl verstanden dass das Service zuerst an die Massen geliefert werden muss und dann sukzessive im Netflix Stil die Preise angehoben werden.
Den Reasoning Modellen konnte ich bis jetzt aber nichts abgewinnen. Das ist einfach ne Wall of Text vor dem Resultat die mir persönlich keinen Mehrwert bietet.

Aber schon verrückt was damit alles schon Möglich ist: Hab mir rein über Gemini ein komplexes Aquarium Projekt zusammen stellen lassen, da wurde alles von Größe, Wasser, Soil, Pflanzenvariationen, Beleuchtung, Heizung, Filter, Inbetriebnahme, Ausstreuen, bepflanzen/welche Pflanzen wo/hin, Beleuchtungsdauer, Energieeffizenz, welche Tierchen kommen dann rein die nicht ganzjährig mit 25°C Wasser beheizt werden müssen, welche Spezies lassen sich kombinieren usw. in einer doch sehr komplexen Kette abgearbeitet.
Das Aquarium steht nach der Woche und das ganze Grünzeugs wuchert wie verrückt. Aber Gemini erlaubt mir erst Morgen die ersten kleinen Schneckchen hinein zu setzen. Fische und Garnelen dann viel später. Sogar meine Wassertests und Pflanzenwachstum hat sie mir auf Basis von Handyfotos erklären können und Tips gegeben wie es weiter geht. Manchmal wünscht ich mir halt einfach nur gleich Fische in das Ding werfen zu dürfen. Aber da sind wir uns noch nicht einig geworden :D
Da hättest du mal ein Projekt-Thread zu machen können ;)
 
  • Gefällt mir
Reaktionen: shysdrag
BxBender schrieb:
Bei den KI Modellen geht es eigentlich nur noch darum, welches amerinikanische Unternehmen noch mehr Daten klauen kann als das beste chinesische Unternehmen.
Naja, dann mach es wie ich und nutze einfach eine non-american AI wie mistral.ai mit dem codestral API modell. Ist zwar nicht deutsch aber französisch, kann etwas weniger aber gehört wenigstens zur EU und günstiger als chatGPT ist es auch.
 
Also 2.0 ist von der Qualität der Outputs ziemlich gruselig.
Davon ausgehend kann ich mir kaum vorstellen, dass 2.5 besser sein soll.
Nur um die 2.5er überhaupt ausprobieren zu können, werde ich mit Sicherheit nichts zahlen.
 
bei Chatbot Arena LLM Leaderboard ist gemini knapp vor grok. Für die Programmierung finde ich Claude AI Sonnet bisher am besten, gefolgt von ChatGpt o4. Für normale Recherchen ist Deepseek r1 am wenigsten zensiert. Mit Gemini kam viel Unsinn heraus und die KI war von sich selbst überzeugt und konnte nicht korrigiert werden. Ich konnte Grok noch nicht ausgiebig testen.


1743026003103.png
 
Seesen1 schrieb:
Bei mir habe ich ganz schnell mal ein Python-Programm mit O3-mini-high geschrieben. Das aus csv-Daten, 3D Diagramme macht.
Nach 2 Prompts kam ein (fast) fertiges Programm raus, das sehr gut war und meinen Vorstellungen entsprach. Mit Claude3.7, die Gleichen prompts verwendet, war nicht so gut, hat mir nicht gefallen und mit diesem Modell ,Gemini2.5, hat er auch nichts gutes gemacht, was auf anhieb lief
Erstaunlich. Gerade bei Python fand ich Claude3.7 bedeutend besser als GPT. Viel besser als 4o und immer noch ne Ecke besser als o1 oder o3-mini.... Wobei o1 wie auch o3 besser darin waren Strukturen für größere Projekte zu entwerfen. Die Funktionen an sich bezogen auf "wie schnell komm ich an funktionierenden Code" waren aber unter Claude fast magisch gut.

Gemini fand ich zum Coden bisher nie gut, dafür aber ganz interessant bei der Auswertung von Daten / längeren Dokumenten und beim.... Hmm ja "formulieren". Kann das gar nicht exakt an etwas festmachen aber ich konnte mit Geminis Sprachstil häufig mehr anfangen....wobei das sicherlich auch noch sowohl Geschmacksfrage als auch eine Frage des Prompts ist.

Die neue 2.5 hab ich noch nicht genauer getestet.

Finde es insgesamt sehr krass wie schnell die Entwicklung in dem Bereich doch immer noch vorangeht. Hab ja an diversen Stellen in Netz Meinungen gelesen, dass auf Basis der aktuellen Technologien keine bedeutend besseren Modelle erwartbar seien.

In meinem Alltag wird es nach wie vor sehr regelmäßig (~2-3 Monate ) in irgendeinem Bereich für mich wahrnehmbar deutlicher besser.
 
Kuristina schrieb:
Wäre generell mal interessant, viele verschiedene KIs in Bezug auf Codegenerierung zu vergleichen. Vielleicht kommt ja mal ein Artikel nur speziell dazu. :)
Habe gerade den Link nicht zur Hand. Gibt eine interessante Studie, die Commits in Public Repos seit dem llm Zeitalter vergleicht. Commits haben stark zugenommen, die Code Qualität aber gleichzeitig abgenommen.
 
  • Gefällt mir
Reaktionen: Kuristina
Zurück
Oben