News Upgrade für AI-Chatbot: GPT-4o* und neue Funktionen für kostenlose ChatGPT-Version

gpt-4o, läuft...
1717074094363.png
 
  • Gefällt mir
Reaktionen: flo.murr, Marmormacker, crogge und 5 andere
So langsam fehlt der Anreiz, mein ChatGPT Abo noch beizubehalten, wenn's eh alles relevante in der kostenfreien gibt ^^
 
  • Gefällt mir
Reaktionen: Zagrthos, eigsi124, Coenzym und 6 andere
Apple hat wieder schön Aufpreis bezahlt um irgendwelche Beta Features nutzen zu können^^
Genauso wie bei den letzten TSMC Deals... ob sich das lohnt ;) ?

Gerade mal kurz 4o ausprobiert - ist wirklich meilenweit vor Gemini in der kostenlosen Version.
Da muss Google die nächsten 3-4 Monate nochmal ran!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: flo.murr
Nutze ich seit paar Tagen, ist echt gut. Es macht vor allem beim Programmieren nicht mehr so viele Fehler.
 
  • Gefällt mir
Reaktionen: flo.murr und eigsi124
x.treme schrieb:
So langsam fehlt der Anreiz, mein ChatGPT Abo noch beizubehalten, wenn's eh alles relevante in der kostenfreien gibt ^^
Wird halt alles soweit kostenlos gemacht, um Leute für die auf GPT-5 basierenden Produkte anzufixen.
 
  • Gefällt mir
Reaktionen: flo.murr und eigsi124
also web durchsuchen ist echt krass. Ich kann super einfach mir Themen erklären lassen mit Quellen, und muss nicht google fragen und mich stundenlang einlesen
 
  • Gefällt mir
Reaktionen: Zagrthos, scout1337, eigsi124 und 2 andere
Hab mir heute mal wieder Plus für einen Monat geholt, weil ich gerade im Tageslimit hänge.
Mal gucken, wie auch der Rest im Paket so perform.
 
Ich habe 100 Seiten Arbeiten mit 100 Punkten Schemata bewerten lassen und auf nachfrage konnte es mir detalliert erläutern wie es auf die Punkteverteilung beim grading kommt. Schon beeindruckend.
 
Keloth schrieb:
Ich habe 100 Seiten Arbeiten mit 100 Punkten Schemata bewerten lassen
Das ist überhaupt die Zukunft. Person A lässt GPT Arbeit schreiben und Person B lässt die Arbeit dann durch GPT bewerten.
 
  • Gefällt mir
Reaktionen: prh, ermel83, Zagrthos und 25 andere
Erzeuge 5 Paare aus zufälligen Wörtern und ihren nach RFC 4648 Base32 kodierten Entsprechungen. Gebe die Paare in Tabellenform aus.

Antwort:
Code:
Wort        Base32-kodiert      Dekodiert
abcdefgh    MFRGGZDFMY======    abcdef
hijklmno    NBSWY3DPNE======    helloi
pqrstuvw    OBZXG5LTOR======    pssust
xyzabcde    P5XG6ZRAPR======    nof |
fghijklm    MZXW6YTPOI======    foobor

Während ich mir ja durchaus mehrmals die Woche Grundgerüste für die unterschiedlichsten Probleme in verschiedenen Sprachen erzeugen lasse, habe ich solche eigentlich simplen Aufgaben bisher noch nicht korrekt gelöst bekommen - kann aber auch daran liegen, dass ich 'ne Niete im Erklären bin oder es hier immer noch keine Intelligenz gibt 😶
 
  • Gefällt mir
Reaktionen: Zagrthos, KlaasKersting und JustAnotherTux
Oder - GPT A lässt GBT B die Arbeit schreiben, durch GPT C bewerten ... und falls es in diesem Kreislauf noch einen Menschen gibt, hört der nur "Alles nach Plan"
 
  • Gefällt mir
Reaktionen: Coeckchen und Kuristina
Also ich habs in der Kostenlosen Variante beim Thema Programmieren getestet. Hab in dem Chat ca. 4 Antworten von 4o bekommen. Dann ist er auf 3.5 gewechselt. Ich konnte keinen Unterschied feststellen
 
3.5 will mir erzählen, dass sich Schlamm auf Moritz reimt und die Wörter phonetisch total ähnlich sind. 4o macht das nicht. 4o arbeitet auch viel mehr mit Zwischenüberschriften und deutlicher Gliederung bei längeren Texten, dafür bemerke ich da irgendwie ab und zu Rechtschreibfehler.
 
JP-M schrieb:
Erzeuge 5 Paare aus zufälligen Wörtern und ihren nach RFC 4648 Base32 kodierten Entsprechungen. Gebe die Paare in Tabellenform aus.
bei mir kam das im anhang raus. der code ist richtig, der output nicht. dafür müsste chatgpt den code auch ausführen und ich glaube, dass das openai lieber nicht möchte. da könnte man sonst seeehr viel schindluder mit treiben :)
 

Anhänge

  • 1717079995050.png
    1717079995050.png
    186,7 KB · Aufrufe: 218
"Apfel" müsste nach RFC 4648 eigentlich "IFYGMZLM" sein. "apple" wiederum "MFYHA3DF".

Eigentlich sollte man meinen, dass das eine ziemlich "einfache" Aufgabe ist, ein bekanntes und gut beschriebenes Kodierungsverfahren auf zufällig ausgewählte Wörter anzuwenden. Aber bereits ein so simples Beispiel zeigt einige Grenzen der populären LLMs auf. Auch spannend sehen Implementierungen für z.B. Java aus, die man bekommt, wenn man den RFC als Grundlage verwenden lässt. In den meisten Fällen sieht es nach schlechtem Copy & Paste der Apache Commons Codec Bibliothek aus. Am Ende funktioniert zwar das Grundgerüst, doch die Ergebnisse und hier on top auch noch die Implementierung, muss man komplett Schritt für Schritt überprüfen.

Ob ich dann ein solches Tool einsetzen möchte, um damit Analysen von Datenmengen durchführen zu lassen, Auswertungen anzufertigen .. eher nicht, wenn ich am Ende für die Prüfung so viel Arbeit reinstecken muss, wie eine eigene Beabeitung benötigt hätte.

@0x8100 Das wäre ja aber das Minimum. Kompilieren und den echten Code benutzen. Wenn das System intelligent wäre, könnte es ja erkennen ob ein Algorithmus schädlich ist und nicht ausgeführt werden soll(te) oder ob es etwas harmloses wie ein bisschen Base32 Kodierung ist.
 
  • Gefällt mir
Reaktionen: Nobody007 und fox40phil
Das GPT-4o-Limit habe ich aber sehr sehr schnell erreicht. Das waren keine zehn webbasierten Suchen.

Aber krass ist das schon.
 
Zurück
Oben