News Experten-Einschätzungen: Wie sich OpenAIs neues o1-Modell im Vergleich zu GPT-4o schlägt

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
7.909
  • Gefällt mir
Reaktionen: J_RN, Otorva, schneeland und 2 andere
Nutze ChatGpt für echt viel mittlerweile, da es einiges an Zeit spart.

Deswegen freue ich mich darauf, wenn das neue Modell released wird und die Beantwortung der Fragen noch schneller geht.
 
  • Gefällt mir
Reaktionen: surtic
Ich warte immer noch auf eine benutzerfreundliche Offline-Version, welche ich mit mehreren Dokumenten (docx, xlsx, pdf, jpg, png, usw.) füttern und mir Antworten nur auf Grundlage meiner Dokumente generieren lassen kann.

Für so etwas würde ich auch bezahlen. (aber niemals Abo)

Es ist manchmal schon nervig, zuerst meine Prompts zu kopieren, dann Textausschnitte und dann ~15 Sekunden (manchmal sogar länger) zu warten, wenn es etwas komplexer ist.
Manchmal muss man mit weiteren Prompts Anpassungen durchführen, was wiederum etwas dauert.
Es ist zwar ein Luxusproblem, manchmal 1-2 Minuten damit beschäftigt zu sein, aber immer noch besser als eine halbe Stunde ohne KI daran zu arbeiten.
 
  • Gefällt mir
Reaktionen: drmaniac
xerex.exe schrieb:
Nutze ChatGpt für echt viel mittlerweile, da es einiges an Zeit spart.
In gewissen Bereichen erspart es einem auch Ärger und Frust. Gerade in Foren (mittlerweile, leider auch hier) stellt man eine Frage und bekommt erst einmal Gegenfragen, ohne dass man überhaupt auf die Frage eingeht.

Und da bekomme ich (milde ausgedrückt) das ko***n!

Bin aber auch auf das neue Release gespannt, in wie fern es sich verändert oder verbessert. Wobei man auch sagen muss, dass ganze ist immer Fluch und Segen zugleich.

AI-Nadja schrieb:
Ich warte immer noch auf eine benutzerfreundliche Offline-Version
In wie fern "offline", meinst du die Abfragen? Es gibt doch schon Hardware und Möglichkeiten, sich sein eigenes LLM zu bauen.
 
  • Gefällt mir
Reaktionen: surtic und xXBobbyXx
xerex.exe schrieb:
Nutze ChatGpt für echt viel mittlerweile, da es einiges an Zeit spart.

Deswegen freue ich mich darauf, wenn das neue Modell released wird und die Beantwortung der Fragen noch schneller geht.
Und das beste ist: selbst wenn es keine korrekte Antwort auf deine Fragen hat, wirst du eine Antwort bekommen ;)
 
  • Gefällt mir
Reaktionen: el_zoido, Gnarfoz, the_IT_Guy und 5 andere
@Domi83
Davon habe ich zwar schon gelesen, aber die Lösungen schienen immer zu aufwendig und dann doch nicht so, wie ich es mir vorstelle.

Das Optimum wäre eine Software mit schöner UI, in der man "Profile" mit Prompts inkl. zugehörigen Dateiordnern als Grundlage speichern könnte, die man nach Bedarf erweitert.

  • Profil 1: "Prompt A" mit "Informatik Ordner" + "Mathematik Ordner"
  • Profil 2: "Prompt B" mit "Steuern Ordner" + "Recht Ordner" + "Außenhandel Ordner" + "Internetseite C"
  • etc.
Das wird sicher noch kommen, aber wahrscheinlich erst in ein paar Jahren, wenn es reifer sein wird und man hohe Abogebühren dafür verlangen kann. >30 € / Monat halte ich für wahrscheinlich. (für eine Basis Version)
 
Zuletzt bearbeitet von einem Moderator:
AI-Nadja schrieb:
Ich warte immer noch auf eine benutzerfreundliche Offline-Version, welche ich mit mehreren Dokumenten (docx, xlsx, pdf, jpg, png, usw.) füttern und mir Antworten nur auf Grundlage meiner Dokumente generieren lassen kann.
Wird es sehr wahrscheinlich in nicht allzu weiter Ferne geben. Dauert vielleicht noch wenig, kann mir aber nicht vorstellen, dass es kein Offline-Anwendungen mit entsprechender Privacy geben wird.
 
AI-Nadja schrieb:
Davon habe ich zwar schon gelesen, aber die Lösungen schienen immer zu aufwendig und dann doch nicht so, wie ich es mir vorstelle.
gpt4all gibt's fast 2 Jahre, für jedes Betriebssystem, mit Dokumenten / embeddings etc, mit setup und komfortabler ui.

mit gradio gibt's noch einige weitere..
 
  • Gefällt mir
Reaktionen: Sherman789, Otorva, Maviba und 5 andere
"Bei seiner Kreuzworträtsel-Abfrage waren es staatliche 108 Sekunden"

Der Staat muss sich auch überall einmischen. ;-)
 
  • Gefällt mir
Reaktionen: Sherman789, myrthain, dideldei und 8 andere
@madmax2010
gpt4all habe ich letzten Winter testen können und der Qualitätsunterschied war deutlich geringer, verglichen mit den Online Versionen von OpenAI und Microsoft.
Vielleicht sollte ich es nach ca. einem Jahr nochmals testen.

Und die ganzen Alternativen, in denen man mit Kommandozeilen arbeiten sollte, habe ich gar nicht erst getestet, weil ich schlicht keine Lust darauf habe. So schnell wie sich GPT entwickelt, "lohnt" es sich nicht selbst zu basteln, finde ich.
 
du kannst auch API keys zu OpenAI / Anthropicund Co eingeben - dann kommt das gleiche raus wie online, aber etwas datenschutzfreundlicher und billiger ;)
AI-Nadja schrieb:
verglichen mit den Online Versionen von OpenAI und Microsoft.
 
  • Gefällt mir
Reaktionen: AI-Nadja
Nächstes Jahr wird es richtig spannend. Es dürfte eine Vielzahl an neuen, großen Modellen kommen die das "GPT4-Level" hinter sich lassen: GPT5, LLama 4, Gemini 2.0, Claude 3.5 Opus...

Wenn diese als Grundlage dann auch noch so ein Reasoning-Modell übergestülpt werden könnte es los gehen mit KI Agenten in produktiver Anwendung. Mit allen positiven und/oder negativen Folgen.
 
  • Gefällt mir
Reaktionen: Glendon, Strahltriebwerk und StockEnteAchse4
ChatGPT4 ist in machen Bereichen richtig gut. Hab mir sogar ein Abo für einen Monat geholt, obwohl ich sonst kein einziges monatliches Abo habe.
->Fremdes Fachgebiet für mich, nicht so anspruchsvoll eigentlich. Spart enorm viel Zeit sich Dank ChatGPT hier einzuarbeiten.
 
o1-preview war in Bezug auf ein mathematisches Problem, dass ich hatte ein echter Gamechanger. Unter 4o hatte ich es nicht hinbekommen, einen Problemfall so mathematisch darzustellen wie ich das wollt. Mit o1-preview war es im 1-shot schon näher an meinen Vorstellungen und konnte danach weiter verfeinert werden. Gerade im Bereich Mathematik und Programmierung erscheint mir selbst o1-mini deutlich performanter als sein Vorgänger. Ich wünschte mir nur der Reset wäre nicht bereits nach 30 Nachrichten (pro Woche).
 
Freue ich mich darauf. Ich nutze GPT fast täglich.... Mitlerweile auch wieder viel öfters als Bard das spürbar zurückgefallen ist und hoffentlich bald aufholt.

Es ist halt gerade die Logik, Mahtematik, aber auch diese "Loops of stupidity" die mich noch daran hindern ein Abo abzuschließen. Aber das tretet immer seltener auf, oft reicht auch einfach nen "reboot" sprich Ergebnisse im Clipboard sichern, in dann neu versuchen.... Aber manchmal gibts halt auch "stupidtiy Days", was halt für produktiv Einsätze überhaupt nicht geht. Ich warte auf die erste "Stupidty Benchmarks" die einfach von AIs die Tagesverfassung messen. ^^ Weil du hast halt wirklich Tage, da funktioniert garnichts.... Oder auch Themen... manchmal hat man das gefühl der gegenüber ist der Professor den sich jeder Student wünscht, und dann hast du wieder das gefühl, GPT hat heute die kognitven Fähigkeiten von nem 5 Jährigen, oder gar einer "Ameise"....

Mir ist natürlich klar, so funktioniert AI nicht... Ist halt eine Neuronale Kniffelbox... mal würfelt man nen 6 Pasch... und manchmal kann man Stundenlang rumprobieren, inkl Arbeismethoden, ansätze anzupassen... und selbst yahoo bietet schnellere und bessere ergebnisse! und das will was heisen!

ist halt noch Beta, wen nicht Alpha status....
 
Zuletzt bearbeitet:
xerex.exe schrieb:
Deswegen freue ich mich darauf, wenn das neue Modell released wird und die Beantwortung der Fragen noch schneller geht.

ChatGPT4 braucht z.B. 3 Sekunden... o1-mini 9 Sekunden und o1 dann über 30 Sekunden für eine Antwort. Die Beantwortung dauert also länger, weil die KI mehrere Dinge durchspielt und "nachdenkt".

Ebenso macht o1 bei vielen Anfragen auch kein Sinn, weil es nicht besser als GPT4 ist. Man muss einfach schauen, welche Antworten besser für GPT4 oder für o1 sind.

Für mich auch der Grund, warum die KI nicht GPT5 heißt. GPT5 wird kommen... o1 kann als Ergänzung zu GPT4/5 dann gesehen werden. Weil in manchen Bereichen ist o1 deutlich besser.
Ergänzung ()

AI-Nadja schrieb:
Das Optimum wäre eine Software mit schöner UI, in der man "Profile" mit Prompts inkl. zugehörigen Dateiordnern als Grundlage speichern könnte, die man nach Bedarf erweitert.

  • Profil 1: "Prompt A" mit "Informatik Ordner" + "Mathematik Ordner"
  • Profil 2: "Prompt B" mit "Steuern Ordner" + "Recht Ordner" + "Außenhandel Ordner" + "Internetseite C"
  • etc.
Das wird sicher noch kommen, aber wahrscheinlich erst in ein paar Jahren, wenn es reifer sein wird und man hohe Abogebühren dafür verlangen kann. >30 € / Monat halte ich für wahrscheinlich. (für eine Basis Version)

Ist das nicht zum Teil verfügbar? In Form von Custom GPTs und Gemini Gems? Ich meine da kann man ja spezielle "Bearbeiter" trainieren und diese dann auch mit bestimmten Informationen füttern. Ist zwar noch nicht perfekt und natürlich auch die Frage, was man hochladen möchte, aber das wird sicherlich mit der Zeit kommen.

Lokal mit RTX Chat von Nvidia haben wir ja auch eine Möglichkeit Ordner anzugeben und das wird dann lokal bearbeitet. Allerdings hat man hier dann schlechtere Modelle, weil der VRAM zu Hause meistens sehr beschränkt ist.

Aber in die Richtung wird definitiv schon gedacht...
 
  • Gefällt mir
Reaktionen: surtic
Da wir im Büro keine Rechner mit potenter GPU haben, finde ich die 20 Dollar nicht zu teuer -- neben kleineren Scriptsachen (für die zB ich als kompletter Laie sonst Ewigkeiten auf stack overflow verbringen würde, mehr Zeit als das Script mitunter spart) ist ChatGPT unglaublich zeitsparend, wenn man sprachliche Standardaufgaben lösen muss: Grusswort? Ich füttere das Modell mit Inhalt (keine Angst, nix Datenschutzproblem) und iterativ kommen wir zu einem netten, personalisierten Grußwort. Die tausendste Begründung für die Haushaltsabteilung, warum x und nicht y? ChatGPT. Arbeitszeugnis mit Gesamtnote gut? ChatGPT. Usf. Nur Logik und Mathematik sind oder waren eher schwach, aber das ist nicht mein Metier. Und klar, kritisch Denken sollte man weiterhin.
 
  • Gefällt mir
Reaktionen: Beero84 und w33werner
@Ayo34
Ein Upload von ganzen Dateien kommt leider nicht infrage.
Ich nutze GPT zwar täglich und kopiere/lade ständig Texte hoch, allerdings sorge ich immer dafür, dass keine sensiblen Informationen enthalten sind.

Eine Online-Version, vor allem von Unternehmen wie Google, werde ich demnach niemals so nutzen (dürfen), wie ich es offline machen würde.
Die Leute haben sich schon bei einem Offline Recall aufgeregt, weil Dateien durch Bugs und andere Apps online gehen könnten.
Wie wäre es dann wohl, wenn man die ganzen Dateien und Ordner direkt auf Server von bspw. Apple, Google, Microsoft, etc. hochlädt und von einer KI erfassen lässt?
 
Dann bleibt nur RAG mit einem Modell deiner Wahl auf deinem Rechner bzw. du mietest dir GPU-Zeit. Ist halt teuer und nicht ganz unaufwändig... . Ja, dass niemand weiß, wie oder wohin Daten bei OpenAI abfließen, ist ein Problem. Selbst, wenn sie dir.zusichern, keine Daten zu speichern -- gerade OpenAI würde ich rein gar nichts glauben!
 
Zurück
Oben