News Upgrade für AI-Chatbot: GPT-4o* und neue Funktionen für kostenlose ChatGPT-Version

LamaMitHut schrieb:
Wird halt alles soweit kostenlos gemacht, um Leute für die auf GPT-5 basierenden Produkte anzufixen.
Sam Altman hat einmal sinngemäß gesagt, dass "die Welt nicht von KI überrascht werdern will, dass habe man aus dem Release von ChatGPT gelernt". Ich vermute also mehr, dass mit der Freigabe von GPT4o der Status Quo (und so einzigartig ist die Leistungsfähigkeit dieses Modells ja nicht) einer breiteren Öffentlichkeit bekannt machen will, bevor erkennbar leistungsstärkere Modelle veröffentlicht werden. Vieleicht sehen wir ja bald Q* oder GPT4.5. Wir werden sehen.

Frühjahr 2022:
Die Vorstellung, sich wie in Star Trek mit einem Computer zu unterhalten, ist reine Science-Fiction und wird noch Jahre, wenn nicht Jahrzehnte dauern!

Frühjahr 2024:
LLMs sind ja so schlecht, sie können nicht mal rechnen und die Antwort auf die Frage nach den letzen stellen von Pi kennt sie auch nicht.

Für mich immer wieder phenomenal, wie schnell sich Menschen an einen neuen Status Quo gewöhnen.
 
@Azdak

Ich sehe die Sache etwas anders. Die Leute die Chatbots für nutzlos halten, und in der Sache keine Zukunft sehen, haben die Technologie einfach nicht verstanden und Posaunen ihre Ignoranz in die Welt. Nein, die haben sich an nichts gewöhnt.
 
Das ist aber auch nichts Neues. Bin immer wieder erstaunt, wie sehr nur auf den Status Quo geschaut und sowohl der transformative, als auch der perspektivische Aspekt ignoriert wird. Wie Kleinkinder, die sich die Augen zuhalten: Ich sehe es nicht, also kann es mich nicht sehen.

Sicherlich gibt es "Innovationen", die wieder aus verschiedensten Gründen verschwinden. Das wird hier aber nicht der Fall sein.
 
  • Gefällt mir
Reaktionen: rosenholz und Drahminedum
LamaMitHut schrieb:
haben die Technologie einfach nicht verstanden und Posaunen ihre Ignoranz in die Welt.
oder sie haben die technologie verstanden, erkennen ihre inhärenten grenzen, sehen das aufwand/nutzen-verhältnis und lassen sich nicht von jedem hype wuschig machen.
 
  • Gefällt mir
Reaktionen: metoer, Zagrthos, Vigilant und eine weitere Person
@0x8100

Ich habe jedenfalls genug verstanden um zu sehen, dass weder Software/Algorithmen noch Hardware auch nur ansatzweise ausentwickelt sind. Ich sehe da eine sehr dynamische Entwicklung.
 
katzenhai2 schrieb:
Schade, dass die wenigsten das Prinzip der LLMs verstehen - denn DAS ist das eigentliche Wunder dabei. Manchmal stelle ich mir daher die Frage, ob alles was wir Menschen denken nicht auch nur auf Zufallswahrscheinlichkeiten besteht; also was wir am besten als nächstes denken sollten - nur noch etwas ausgeklügelter. 🤔

Bin mir sogar ziemlich sicher dass es so funktioniert. Und wenn deine errechnete Wahrscheinlichkeit falsch ist, musst du mit den Konsequenzen leben oder sterben.
 
Niemand, ist zumindest aus dem Text nicht herauszulesen.

Ist aber auch nicht viel anders, als ein Gespräch mit einem (vermeintlichen) "Experten".

Wer sagt dir in diesem Moment, dass er kompetent und richtig auf deine Fragen antwortet, wenn du selbst nicht über entsprechendes Wissen und Hintergrundinformationen verfügst oder dein Gesprächspartner eine einwandfreie, erfahrbare Reputation hat?

Oder wie kannst du sicher sein, dass allein deine Fragestellung richtig verstanden wurde?

Wenn du wirklich sicher sein willst, musst du dich selbst auf den Weg machen. Das wird sich so schnell nicht ändern.
 
0x8100 schrieb:
gpt-4o, läuft...
Als ich neulich chatgpt aus Jux gefragt habe warum mir kein Apfel erschienen ist wo ich doch -1 Apfel * -1Apfel gerechnet habe, hat mir ChatGPT dazu geraten an Orten wie der Waschmaschine oder unter der Couch nach dem Apfel zu suchen. :D
 
Marmormacker schrieb:
Als ich neulich chatgpt aus Jux gefragt
Merkste? 😄

Also zumindest "scheint" das Modell auf technischer Ebene zu "wissen", wie es Humor identifizieren und darauf antworten kann. Auch das ist zunächst irgendwie ein klein wenig erstaunlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Marmormacker
x.treme schrieb:
So langsam fehlt der Anreiz, mein ChatGPT Abo noch beizubehalten, wenn's eh alles relevante in der kostenfreien gibt ^^
Überlege dir das nochmal. Die kostenlose ist gefühlt um "100IQ" downgradet geworden …
Oft manchmal vergisst sie innerhalb von 1-2 Sätzen über was man geredet hat. Lerneffekt praktisch null … während man sich vor 2 Jahren noch über den Gesprächsverlauf, "importieren" konnte, also auf das Gesprochene mit geschicktem Einschluss und Ausschluss verfahren, auf das gewünschte Ergebnis kommen konnte, hat man jetzt Tage wo Bing, Google, duckyduck die bessere alternative darstellt!

Bart/Gemini ist dort wo GPT3,5 vor einem Jahr war! Und schon dort war es schlechte als vor 2, 3 Jahren also zum Release, dennoch besser als heute! Früher war GPT immer meine erste Wahl, mittlerweile nutze ich zuerst immer Gemini, und wechsel nur, wen der auch seinen "A...." Tag hat.

Aber mach deine Erfahrung. Es ist immer noch meine erste Anlauf stelle... doch ich komme immer öfters zum Schluss, dass ich über google Dorking schneller zum Ziel komme.... Oft fährt man 15min, 30min, unendlich lange "Karusel" mit dem Chatbot....

Ich bin ja kein Idiot. Das machen die, damit die Leute nen Abo abschließen. Erst "Porno", ne AI, mit der man ne Doktorarbeit schreiben kann, und jetzt spricht man jeden zweiten Tag mit einer AI mit dem "IQ" die einen Parkinson Patienten im Endstadium simuliert.....

Ich würde am liebsten nen AI Metacrawler schreiben, der alles, was ich Tippe simultan auf alle verfügbaren AI verteilt... einfach um die "Deppentage" auszusortieren...
 
Zuletzt bearbeitet:

Anhänge

  • 1717247544029.png
    1717247544029.png
    200,4 KB · Aufrufe: 64
  • Gefällt mir
Reaktionen: Dark_Soul
Habe ich doch schon … zieht nur immer Leistung, wen es gerade nicht soll … auch bin ich kein Fan von 'nem Cloudbasierten "Keylogger" der nicht mal in Europa sitzt...

1717248490188.png
 
Zuletzt bearbeitet:
0x8100 schrieb:
Cool, kannte ich noch gar nicht. Bisher teilweise mit DeepL unterwegs. Danke.

@lynx007 Dein Beitrag liest sich wirklich etwas... schräg. Dafür braucht es leider kein Tool, um das zu erkennen 😉.
 
0x8100 schrieb:
oder sie haben die technologie verstanden, erkennen ihre inhärenten grenzen
Die Technologie verstehen und sie gleichzeitig für eher nutzlos zu halten, ist aber ziemlich widersprüchlich.
Geht eigentlich nicht.
 
ist das nicht etwas kurz gedacht (pun intended)? niemand hält llm für nutzlos, sie funktionieren z.b. hervorragend beim übersetzen oder bei anderen klar abgegrenzten themengebieten. aber als allgemeine wissensbasis? zur zeit nicht so beeindruckend.

übrigens kann man durchaus eine sache komplett verstehen und sie für nutzlos halten. hexenverbrennung oder verbleites benzin kann man einfach verstehen - nützlich war beides nicht.
 
Zurück
Oben