News OpenAI: Sprachmodell GPT-4o mini löst GPT-3.5 Turbo in ChatGPT ab

@Bish

mein Beruf besteht jeden Tag daraus ,mich selbst überflüssig zu machen und alles zu automatisieren.
Und sehr wahrscheinlich hat mein Beruf auch andere Leute arbeitslos gemacht bzw. sie dazu gebracht sich umzuschulen.
Das ist kein Argument für die Zukunft ("demnächst"), das passiert schon seit Jahrzehnten auf andere Weise. Nur wird es ggf. in bestimmten Bereichen mit sowas etwas schneller passieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: usernamehere, Nahkampfschaf und dualcore_nooby
Können die endlich mal die Funktionen von 4o bringen, die in der Präsentation angekündigt wurden?
Großes Tamtam machen und dann erst Monate später liefern.
Und die Mac-App läuft auch noch unrund…
Ergänzung ()

@PS828
Neulich meinte es zu mir, dass ein Feuersalamander der Gattung Hundertfüßler zuzuschreiben ist.
 
@eightcore was wäre denn die korrekte Antwort gewesen? (Bin kein Powershell Experte )
 
  • Gefällt mir
Reaktionen: Nahkampfschaf und Rickmer
Damien White schrieb:
Für "echte Logik" benötigt es grundsätzlich andere Systeme und Ansätze. Ja, an denen wird auch geforscht und es gibt schon einiges was sehr vielversprechend ist.

Prolog?

Logik und inferenzielle Beziehungen haben eben nichts mit Wahrscheinlichkeiten zu tun.

Ein LLM kann Tools verwenden… es kann die Prämissen vom Benutzer in Prolog formulieren und das logische Schließen Prolog durchführen lassen.

Dasselbe für Mathematik… ein LLM kann Python und einen Interpreter verwenden.
Ergänzung ()

Damien White schrieb:
Und könnt ihr bitte aufhören diesen Quark als "KI" zu bezeichnen. Das ist halt objektiv falsch.

Daran ist objektiv nichts falsch - weil es keine allgemein verbindliche Definition gibt. Was verstehst du unter KI? Was versteht man in der Informatik unter KI? Und sind AI und KI bedeutungsgleich? (Sind sie eben nicht… man vergisst meist die Konnotationen von Wörtern)
 
Zuletzt bearbeitet:
Bish schrieb:
Dann wird dein Job nämlich komplett von der ki gemacht. 😃
Ist OK. Wenn die dumme Version von mir reicht, braucht MICH da eh keiner :D.
Haldi schrieb:
Und diese Statistiken stimmen dann auch?
Aus Sicht des LLM schon, das hat die ja schließlich extra für dich gefälscht.
Ergänzung ()

calluna schrieb:
Dasselbe für Mathematik… ein LLM kann Python und einen Interpreter verwenden.
Auch korrekt?
Ergänzung ()

Bin bei LLMs auf jedenfall immer fasziniert, mit welcher inbrünstig-manischen Vehemenz das mir seine absurde Antwort verkaufen will. Die ist so offensichtlich falsch - Fremdschämen pur.

Die aufgewendete Kreativität, stellt alle motivierten User hier mühelos in den Schatten - und das will wirklich etwas heißen :D. Ich schließe mich da ja ein ;).

TL;DR: Wenn es der Plan war, einen dementen älteren Herren (mehr vergessen als andere je lernen werden) in einem Internet-Forum zu simulieren - Mission Accomplished.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: JustAnotherTux
Damien White schrieb:
Mit den aktuellen LLM kann es rein vom System her keine Logik geben.

Für "echte Logik" benötigt es grundsätzlich andere Systeme und Ansätze. Ja, an denen wird auch geforscht und es gibt schon einiges was sehr vielversprechend ist. Aber LLM, egal ob Text oder Grafik basierend, können niemals "intelligent" werden.
lol.. wie ich sehe bleibt Technik in Deutschland weiterhin Neuland
 
Chris007 schrieb:
Technik in Deutschland weiterhin Neuland
In welchem? Ist wieder eine Phrase. Dadurch werden LLMs nicht weniger dumm.

Nicht falsch verstehen. LLMs und co. sind hervorragend für Musterkennung brauchbar (und vieles in dem Kontext). Das aber sehr spezifisch.

Ein 'normal-begabter' Mensch koordiniert seinen Körper und ist sozialisiert. Er kann komplexe Zusammenhänge verstehen, mit fundiertem und verknüpftem 'Allgemeinwissen' arbeiten und das auch in einem Turm zu Babel (beliebiges internationales Forum = sieht nach Englisch aus, sieht aus...).

Kontext-sensitiv!

Das sollen LLMs am besten auch. Siehst du da was?
 
mae1cum77 schrieb:
Dadurch werden LLMs nicht weniger dumm.
hast du die neusten (bezahl) modelle selbst ausprobiert? hast du dir die vorträge von den chef entwicklern bei youtube angeguckt? (unwahrscheinlich, denn das letzte von anthropic hatten nur ein paar hundert menschen geguckt^^)

und überleg mal wie viele menschen überhaupt etwas neu erfinden. die meisten lernen nur etwas und wenden es dann bei der arbeit an, laut deiner logik dürften diese menschen alle nicht intelligent sein ;)

ich denke in 5 Jahren arbeitet keiner mehr, bzw. menschen können einfach nicht mehr mit ki's bei denkarbeit konkurieren (alles unter professor ist schon in 3 jahren weg)

 
Momentan finde ich ChatGPT ganz hilfreich wenn es zu etwas mangelnde Doku gibt oder googeln zu lange dauert oder die vorhandene Doku sehr umfangreich ist.

Allerdings muss die Antwort natürlich geprüft werden, ChatGPT ist sehr gut darin sich Sachen auszudenken welche es nicht gibt zb auch Funktionen welche es in der Software nach welcher gefragt wurde nicht gibt.

Auch umformulieren oder übersetzen funktioniert sehr gut.

In den meisten Recherche Fällen ist Google aber nach wie vor schneller, ChatGPT labert einfach viel zu viel ums Thema herum und man muss die Antwort immer noch mal prüfen da zu oft falsch.

Was Code angeht sind die Antworten meist ineffizient oder der ganze Q/A Prozess bis zur gewollten Lösung dauert so lange, das Google + ausprobieren einfach schneller ist.
 
  • Gefällt mir
Reaktionen: s1ave77
Chris007 schrieb:
hast du die neusten (bezahl) modelle selbst ausprobiert? hast du dir die vorträge von den chef entwicklern bei youtube angeguckt? (unwahrscheinlich, denn das letzte von anthropic hatten nur ein paar hundert menschen geguckt^^)
Könnte ich.

Ich kann auch einen Papagei mit einem LLM vergleichen. Da sind offensichtliche Ähnlichkeiten, Check!

Da der Papagei seine Umgebung begreift, Ego hat und situativ versteht ist er exponentiell intelligenter als das LLM.

Q.E.D.! Oder kannst du das entkräften. Ist nicht das einzige vernuntbegabte Wesen, außer dem Menschen. Der ist schlechter, als er glaubt, aber: kognitive Dissonanz hilft :D.
Ergänzung ()

CODE: Es beginnt ganz harmlos. Der Code ist nach einigen Promptanpassungen und etwas Recherche lauffähig.

Das heißt erst mal nur, da crasht nix, ohne Log siehst du die ganzen 'unhandled exeptions' nicht und denkst dir so; man ist das gut. Ganz allein geschafft.

Da ist Blimp-Code galore und Bibliotheken und API-Funktionen, die es nicht gibt. Merkst du nicht, stört nicht, direkt.

Code geht in's eigene GIT und wird geklont. Die Blimps wandern weiter.

Konsequenz: Die GITs müssen zunehmend nach diesen Blimps suchen, sonst wandern die in die Commits/Pulls.

Solange Halluzination ein generelles systemisches Problem des Modells sind, entscheidet der aufzuwendende Aufwand für die Fehlersuche, über die Nützlichkeit des LLM.
 
Zuletzt bearbeitet von einem Moderator:
mae1cum77 schrieb:

Na auf jeden Fall besser als vom Modell etwas zu erwarten, was es prinzipiell nicht leisten kann.

Für mich haben die Sprachmodelle mehr mit dem „Schnelles Denken“ von Daniel Kahneman zu tun als mit dem „Langsamen Denken“, also Intuition vs Rationales Denken.

LLM haben mehr mit dem Gemeinsam, wie Menschen aus dem Gefühl heraus auf etwas antworten… in solchen Fällen erkennen Menschen Muster und reagieren darauf mit erinnerten Mustern.

So zumindest erkläre ich es Personen, die keinen technischen Hintergrund haben.

Die LLMs liefern die Grundlage für ein besseres Interface für die Interaktion mit Maschinen. Aber es ist unsinnig, von den LLMs die Lösung von Problemen zu erwarten, für die sie ungeeignet sind.
 
  • Gefällt mir
Reaktionen: s1ave77
calluna schrieb:
Die LLMs liefern die Grundlage für ein besseres Interface für die Interaktion mit Maschinen. Aber es ist unsinnig, von den LLMs die Lösung von Problemen zu erwarten, für die sie ungeeignet sind.
Sage ja, die sind durchaus nützlich.

Halluzinationen sind trotzdem systemisch, das disqualifiziert das LLM letztlich für mehr als sortieren, und nur spezifisch und kontrolliert, da unzuverlässig per definitionem.
 
PS828 schrieb:
Was halt direkt wieder aufploppt sind die wirklich haarsträubenden Fehler die einen der quatsch tagtäglich auftischt. Ich hoffe das ganze läd zum selbst denken ein.

Hier mal ein Recht viel zitiertes Beispiel für die aktuelle 4o Version;)
Jo, auf analytische Rechnungen sind die Modelle überhaupt nicht ausgelegt. Auch Formeln herleiten funktioniert praktisch überhaupt nicht, wenn es keine Standardherleitung ist, die so auch in hunderten Lehrbüchern steht.

Das einzige, wo mich ChatGPT bislang echt richtig überzeugt, ist Code schreiben. Da ist es super hilfreich. Und es sind auch erstaunlich wenig Fehler drin, wenn man sich auf kleinere Code-Schnipsel beschränkt - oft sogar gar keine.
Hilft mir enorm weiter. Es ersetzt nicht das Dokumentation durchforsten und googeln, aber es ist eine sehr hilfreiche Ergänzung.
 
  • Gefällt mir
Reaktionen: PS828
Für viele Leute die jetzt an KI Projekten arbeiten (schließt mich mit ein) ein Gamechanger.

⟶ Wo wir vor nem Monat noch überlegt haben ob wir mehrere Millionen existierende Tickets samt Support-Chats für ~25 000 € von GPT-4-o zusammenfassen lassen sollen (um diese Daten besser embedden zu können und besser durchsuchbar zu machen), kostet das gleiche mit GPT-4-o-mini nur 800-1000€.

Nicht jeder Anwendungsfall braucht das beste verfügbare Model, z.B. für Zusammenfassungen reichen "gute" & günstige Modelle.
 
  • Gefällt mir
Reaktionen: dualcore_nooby
PS828 schrieb:
Hier mal ein Recht viel zitiertes Beispiel für die aktuelle 4o Version;)
Dass man ChatGPT nicht für Matheaufgaben benutzen sollte ist seit Tag 1 doch mittlerweile auch bekannt.
Warum werden immer so alte Beispiele ausgegraben und das bei jedem Update? Zumal man sowas halt auch schneller im Taschenrechner eingetippt hat als in ChatGPT.

Anstatt sich bei ChatGPT (und vergleichbaren Systemen) ständig nur auf die Sachen zu konzentrieren die nicht laufen, könnte man es ja auch einfach dort einsetzen, wo es sehr gut funktioniert.

Aber gut, jeder geht anders an sowas ran.
 

Entwickler müssen für den Zugriff die eingangs erwähnten 15 US-Cent respektive 60 US-Cent für eine Million Tokens als In- und Output zahlen.“…

Ist das viel?
Dazu habe ich absoulut keine Vorstellung..
 
Für mich sind die gängigen LLM´s echte Gamechanger im Beruf.
In unterstützender Funktion wenn ich nicht weiter weiß oder mir das passende Know How fehlt total gut zu gebrauchen.
KNIME will nicht wie ich will -> ChatGPT führt mich Schritt für Schritt zur Lösung.
Formulierungen für Schriftstücke, Zusammenfassungen von langen Texten oder Troubleshooting (besonders bei gut Dokumentierten Anwendungen) ist ein riesen Timesaver.

Halluzinationen sind mir bisher im Verhältnis recht selten begegnet, meist dann wenn ich nicht genug Kontext gegeben habe oder der Prompt auf mehrere Arten interpretiert werden konnte.

Edit:
Ob nun tatsächlich intelligent oder nicht, nützlich bleibt nützlich.
Hier im Forum liest man immer wieder eine starke Anti-AI Haltung, ob es nun so zielführend ist sich an der Bezeichnung aufzuhalten...
Das Potential ist riesig und die Technik ist jetzt schon für viele "einfache" und repetitive Tätigkeiten ein Segen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beitrag, TheShaft und conspectumortis
Zurück
Oben