News Experten-Einschätzungen: Wie sich OpenAIs neues o1-Modell im Vergleich zu GPT-4o schlägt

AI-Nadja schrieb:
Ich warte immer noch auf eine benutzerfreundliche Offline-Version, welche ich mit mehreren Dokumenten (docx, xlsx, pdf, jpg, png, usw.) füttern und mir Antworten nur auf Grundlage meiner Dokumente generieren lassen kann.

Für so etwas würde ich auch bezahlen. (aber niemals Abo)

Es ist manchmal schon nervig, zuerst meine Prompts zu kopieren, dann Textausschnitte und dann ~15 Sekunden (manchmal sogar länger) zu warten, wenn es etwas komplexer ist.
Manchmal muss man mit weiteren Prompts Anpassungen durchführen, was wiederum etwas dauert.
Es ist zwar ein Luxusproblem, manchmal 1-2 Minuten damit beschäftigt zu sein, aber immer noch besser als eine halbe Stunde ohne KI daran zu arbeiten.

Niemals ohne Abo? Das wird schwierig. Einmal zahlen und dann ein Innovatives Produkt erhalten. Ich glaube as wäre aus Sicht des Anbieters ein Schritt zurück.
 
AI-Nadja schrieb:
@Domi83

Das Optimum wäre eine Software mit schöner UI, in der man "Profile" mit Prompts inkl. zugehörigen Dateiordnern als Grundlage speichern könnte, die man nach Bedarf erweitert.

  • Profil 1: "Prompt A" mit "Informatik Ordner" + "Mathematik Ordner"
  • Profil 2: "Prompt B" mit "Steuern Ordner" + "Recht Ordner" + "Außenhandel Ordner" + "Internetseite C"
  • etc.
schonmal https://openwebui.com/ angeschaut?

ich nutze chatgpt mit custom gpts aber mann kanns auch über die api direkt machen
 
Ayo34 schrieb:
ChatGPT4 braucht z.B. 3 Sekunden... o1-mini 9 Sekunden und o1 dann über 30 Sekunden für eine Antwort. Die Beantwortung dauert also länger, weil die KI mehrere Dinge durchspielt und "nachdenkt".

Noch ;) Mit mehr Rechenleistung wird sich das auch ändern und man wird wieder runter gehen.
 
@Cool Master Ich denke das Verhältnis pro Rechenleistung bleibt. ChatGPT4 braucht einfach weniger Ressourcen als o1 pro Anfrage. Wenn o1-mini dann anstelle 9 Sekunden noch 3 braucht, würde GPT4 wohl nur noch 1 Sekunde brauchen. Am Ende bleiben dann 3x höhere Kosten bei o1-mini und 10x höhere Kosten bei o1. Wie genau das Verhältnis ist, weiß ich nicht, aber o1 wird sicherlich nicht das Standard-Model für normale Anfragen.

Verkürzt:
Anfrage -> GPT4 -> Ausgabe
Anfrage -> o1 -> 5 verschiedene Ansätze ("Thinking") -> Dinge werden verworfen oder verfeinert -> Ausgabe
 
@Ayo34

Ja klar, da ist schon was dran aber kann durchaus sein, dass neue HW besser mit dem Modell zurecht kommt, daher kann man das so nicht direkt behaupten. Die Kosten werden in Zukunft zudem weiter runter gehen da die HW das bessere P/L-Verhältnis hat. War bis jetzt schon immer so und wird auch so bleiben :)
 
Nicht mehr ins Bett machen?

Andererseits arbeiten an "erst denken, dann sprechen" ja auch viele nicht-künstliche Intelligenzen noch.
 
Zurück
Oben