News Änderungen bei ChatGPT: GPT-4 und Echtzeit-Informationen sind jetzt kostenlos

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
7.939
  • Gefällt mir
Reaktionen: Spike Py, Benjamin_Blume, Teckler und 7 andere
Mithos schrieb:
Im Video hat man ja gesehen, wie die eine Konversation mit dem Assistenten führen. Wenn das nicht gestellt/geschönt war, dann war das sehr beeindruckend. Ich habe das Gefühl, dass Apple das vermutlich genau so / sehr ähnlich in iOS 18 einbauen wird. Gab in letzter Zeit dazu mehrere Gerüchte. Bei dieser Präsentation hatte ich das Gefühl die zukünftigen Sprachassistenten (Siri, Google, Alexa) zu sehen.
Naja die CoPilot App (ChatGPT 4 inkludiert) kann das schon eine Weile in ähnlicher Form, ja.
 
  • Gefällt mir
Reaktionen: Benjamin_Blume und MrNightcall
Wow, die Sprachdemos sind ja wirklich unglaublich. Kommt einer realen Person schon ziemlich nahe.

Die Geschwindigkeit mit der sich AI entwickelt ist wahnsinn. Wenn das so weiter geht, schaffen wirs tatsächlich noch, eine AGI zu erschaffen - wenn sie nicht vielleicht schon existiert. Das hier ist ja „nur“ ein modell das sehr effizient millionen von Usern bedienen soll. Wer weiß was tatsächlich bereits möglich ist…
 
  • Gefällt mir
Reaktionen: Mar1u5, MiroPoch, Protogonos und 6 andere
Kann man das bei der Webseite https://chatgpt.com auch irgendwo umstellen, denn hier verlangt man für v4 noch ein kostenpflichtiges Plus Update?
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Headyus, Brian.Griffin und 8 andere
Fantastisch, mein Probemonat ist gerade abgelaufen und GPT4 war eine immense Erleichterung meiner "Arbeit" (Browser-MMO als relativer Code-Anfänger bauen), während 3.5 mehr Zeit gekostet als eingespart hat.

Der Unterschied war gerade bei längeren Unterhaltungen immens, GPT4 hat teilweise noch Anmerkungen von vor 50 Prompts mit bedacht, während 3.5 das spätestens beim übernächsten Prompt wieder vergessen hatte.
 
  • Gefällt mir
Reaktionen: Protogonos, Benjamin_Blume, Teckler und 6 andere
Mimir schrieb:
Wenn das so weiter geht, schaffen wirs tatsächlich noch, eine AGI zu erschaffen - wenn sie nicht vielleicht schon existiert.
Das wird die nächste große Diskussion. Das Buzzword ist gewählt für 2-3 Jahre.

Jede Firma wird es selbst definieren.
Jede Firma schreibt AGI auf jedes noch so dumme Produkt.
Algorithmen sind nun auch nicht nur AI, sondern AGI.
Jede Konkurrenz wird argumentieren, warum es keine AGI ist.
 
  • Gefällt mir
Reaktionen: bullit1, Mondgesang, Exfiltratior und 16 andere
Die Präsentation, besonders die voice-interaktion, war für mich nicht mehr als medienwirksamer Taschenspielertrick.


Der Teil mit dem "Atemtraining" war nüchtern betraxhtet nur eine banale Reaktion auf das vorgespielte Hyperventilieren ohne weitergehenden Inhalt.
Den Hauptteil des "Aha"-effekts trägt zudem die betonte Stimme, sie vermittelt den Eindruck, dass GPT-4o "verstehen" würde was sie hört und sagt, dabei ist es im Grunde nur die übliche Hintergrund Berechnung mit einem schneller verarbeitenden "Fake-human-overlay".
Darum erwarte ich , dass die AIs leider zunehmend mit dem Fokus trainiert werden lebendig zu wirken als wirklich die Konzepte zu "verstehen". Zumindest was die Face2face Kommunikation betrifft. Von intelligenteren Gesprächen, wie man sie mit einem Menschen führen würde, ist man hier noch Meilenweit entfernt.

Man sollte sich bei solch Investitionsträchtigen Technologien vielleicht nicht gleich von dem typisch aufgedrechselten "awesome"-Stil der amerikanischen Präsentationen beeindrucken lassen.
Sich einfach mal das Video hinter einem VHS-Filter vorstellen und man ist zurück im Homeshopping Zeitalter ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Foxel, Mondgesang, saintsimon und eine weitere Person
u-blog schrieb:
Fantastisch, mein Probemonat ist gerade abgelaufen und GPT4 war eine immense Erleichterung meiner "Arbeit" (Browser-MMO als relativer Code-Anfänger bauen), während 3.5 mehr Zeit gekostet als eingespart hat.

Der Unterschied war gerade bei längeren Unterhaltungen immens, GPT4 hat teilweise noch Anmerkungen von vor 50 Prompts mit bedacht, während 3.5 das spätestens beim übernächsten Prompt wieder vergessen hatte.

Ja, GPT3.5 ist im Vergleich zu GPT4 praktisch "schrott".
Ich nutze GPT4 schon eine ganze Weile im Copilot and die Unterhaltungen sind überhaupt nicht mit GPT 3.5 vergleichbar.

Mich wundert im Nachhinein, dass GPT3.5 überhaupt diesen Hype erzeugen konnte. Es ist wie du sagst extrem vergesslich, versteht nicht richtig wenn man nachfragt, bzw. berücksichtigt es nicht und arbeitet stur sein "ding" ab. "AI" kann man darin höchstens erahnen. Beeindruckend ist da bestenfalls der Wissenskatalog, aber mehr auch nicht. Ansonsten ist es nur für sehr stumpfe und einfache regelbasierte Aufgaben brauchbar aber nicht, um irgend eine komplexere Problemstellung zu lösen oder auf kreative Fragen mit kreativen Antworten zu reagieren.

Mir kommt GPT3.5 in der ChatGPT App sogar nochmal deutlich schlechter als GPT3.5 im Copilot vor, obwohl es angeblich die selbe Version ist..

Ne, wenn dann GPT4. Damit hat KI für mich dann auch eine gewisse Schwelle überschritten, wo ich dann auch wirklich disruptives Potenzial für die Gesellschaft sehe und nicht nur einen besseren Karl Klammer der code snippets oder Tabellen erstellen kann.

Sollte GPT5 nochmal so einen Sprung wie von 3.5 auf 4 machen, dann wird das ziemlich viel auf den Kopf stellen, jede Wette.


CyrionX schrieb:
Darum erwarte ich , dass die AIs leider zunehmend mit dem Fokus trainiert werden lebendig zu wirken als wirklich die Konzepte zu "verstehen". Zumindest was die Face2face Kommunikation betrifft. Von intelligenteren Gesprächen, wie man sie mit einem Menschen führen würde, ist man hier noch Meilenweit entfernt.

Natürlich wird das versucht. AI in der From von ChatGPT MUSS Menschlich funktionieren, da wir es nunmal mit Sprache und Text bedienen.
Aktuell hat man teilweise das Problem, dass man mehr oder weniger Prompt engineering betrieben muss, damit das Modell das macht, was man will und auch die richtigen Antworten liefert.
Um das Potenzial auszunutzen ist es daher essenziell, dass die Fähigkeiten über möglichst natürliche Formulierungen bzw. Unterhaltungen nutzbar werden.

Es ist halt wenig gewonnen, wenn AI nur effektiv ist, wenn man nen Block aus sorgfältig ausgewählten Promts als Input gibt..
Dass daran gearbeitet wird finde ich verdammt wichtig. Es ist nunmal ein Chat Bot. Der soll eben im wahrsten Sinne fähig sein wie ein mensch zu "chatten". Das ist der Sinn des ganzen.

Sieh es meinetwegen als Update für die HMI Schnittstelle.
 
Zuletzt bearbeitet:
Ein weiterer Schritt in den Untergang imho ...
 
Augen1337 schrieb:
Jede Firma schreibt AGI auf jedes noch so dumme Produkt.
Bei Molkereien passt das dann vortrefflich: Unser Käse basiert auf modernsten AGI-Technologien.

Ich bleibe sachlich nüchtern. Auch ohne tiefere Kenntnisse: Eigentlich werden da doch "nur" zwei Vorhersagemodelle kombiniert. Das erste für Text, welches wiederum die Prompts für eine, durchaus ausgefeilte, Phonem-Vorhersage liefert.

Bisher jedenfalls ist das nur ein bestandener Turing-Test - also eine Art Täuschung.

Ich werde erst dann aufmerksam, sobald diesen Systeme "echte" Transferleistungen (*) erbringen können. Wobei alleine ein solcher Nachweis (schnell) schwierig werden könnte - und vielleicht auch eine Ernüchterung für das Selbstverständnis des Homo Sapiens.

*: Sollte einer solchen Maschine eines Tages ein Beweis für ein lange bekanntes, nicht triviales Problem der Mathematik oder Theoretischen Physik gelingen, dann ...
 
cal1s schrieb:
Ein weiterer Schritt in den Untergang imho ...
Wir müssen uns der Zeit anpassen, ansonsten sind "wir" bald diejenigen die wie unsere Väter nichts mit diesem Smartphone-Zeugs/Internet anfangen können, und nichts daraus machen - die möglicher weise nächste, grosse "Digitale Wende".

Anstatt aktiv zu versuchen die Gleise zu legen für die nächste Generation.
 
  • Gefällt mir
Reaktionen: MiroPoch, Exfiltratior, ScorpAeon und 20 andere
Mimir schrieb:
Es ist halt wenig gewonnen, wenn AI nur effektiv ist, wenn man nen Block aus sorgfältig ausgewählten Promts als Input gibt..
Dass daran gearbeitet wird finde ich verdammt wichtig. Es ist nunmal ein Chat Bot. Der soll eben im wahrsten Sinne fähig sein wie ein mensch zu "chatten". Das ist der Sinn des ganzen.
Genau das! Einer der Gründe warum Alexa, Siri und Co. es kaum weiter als ein Küchenradio geschafft haben. Die AIs waren nicht nur dumm, sondern auch unnatürlich in der Bedienung. Besonders bei Alexa mit den Skills. Es war keine natürliche Sprache möglich, sondern war mehr oder weniger das Einstudieren vordefinierter Befehle. "Alexa, öffne Bring und füge Äpfel hinzu". Aber hat man einfach nur "Alexa, pack Äpfel auf die Bringliste" gesagt, war das Ding völlig überfordert. Und die Befehle dann für x-Skills auswendig zu lernen, hat keiner Bock und wenns nicht grad Skills sind, die man täglich benutzt, dann weiß man oft gar nicht mehr was die Anwendung grad hören will und gibt nach einigen Versuchen einfach auf und benutzt den Skill nie wieder.
 
  • Gefällt mir
Reaktionen: shaggy86, Vitche, FrAGgi und 4 andere
@Icepeakjr
Wobei ich der Meinung bin, dass die Errungenschaften des Smartphones saldiert (also nicht nur bei Betrachtung der Anbieter von Hard- und Software) realistisch zu betrachten sind. Auf der Konsumentenseite (und deren Auswirkungen) jedenfalls betrachte ich die Auswirkungen nur bedingt positiv und im mittel- und langfristigen Ergebnis fortschrittlich für die Menschheit. :evillol:
 
Der Zugriff auf das schnelle Modell ist aber limitiert, abhängig von den verfügbaren Kapazitäten wechseln Nutzer automatisch zurück auf GPT-3.5.
Ist GPT4 tatsächlich schneller? Ich dachte die Turbo-Varianten sind die schnellen. Ich kenne zumindest Anwendungen in welchen auf das schlechtere GPT3.5 Turbo zurückgegriffen wird statt auf GPT4 weil 3.5 Turbo schneller ist.


Davon ab eine Frage, wie muss man sich das Thema Webbrowsing vorstellen? Schmeißt das Ding dann sozusagen Google an und schaut die ersten Paar Ergebnisse? Durchsucht es diese seiten komplett oder nur die Snippets in der Suche? Wird das was es dort findet direkt in den Datenbestand geladen?
 
Was wird denn dann der Vorteil des kostenpflichtigen Accounts sein?
Oder verliere ich diesen einfach bzw. werde "nur" noch bevorzugt?
 
  • Gefällt mir
Reaktionen: gollum_krumen
Frage ich mich auch gerade. Möglicherweise Zugriff auf CustomGPTs? Das wäre für mich leider unverzichtbar. Schade, die 20€ gehen schon auf die Tasche.
 
FrittiDeluxe schrieb:
Was wird denn dann der Vorteil des kostenpflichtigen Accounts sein?
Oder verliere ich diesen einfach bzw. werde "nur" noch bevorzugt?
Naja wie willst neue Kunden anlocken ohne das die Leute Probefahren können, macht doch Sinn.

Und ja man kann auch öfters Probefahren 10 min mit ChatGPT wahrscheinlich immer noch billiger ist wie 10 Minuten Benzin.

Zumal es ja ein Wettrennen ist wenn sie zu lange das Premium halten besteht die Gefahr das die Konkurrenz mal was ähnliches vielleicht schlechteres wie GPT4 aber deutlich besser als 3.5 anbieten, ohne zahlen, daher können die sich nicht leisten das stur dauerhaft alles hinter ne Bezahlschranke zu stecken.

Es geht ja nicht um die Gewinne der nächsten 12 Monate mit was 0,1% der Population sondern die Gewinne der nächsten sagen wir mal 20-40 Jahre mit dann vielleicht >50% Bevölkerung als Nutzer selbst wenn die alle nur mit Daten bezahlen ist das mehr als die 0,1 in Überweisungen jeh blechen können.

Denke die Leute die damit ihr Geld verdienen / besser performen in ihrem Job werden schon blechen, auch für Priorität und so was im zweifel alleine.
 
Zuletzt bearbeitet:
Ich gehöre ziemlich sicher einer kleinen Gruppe an, welche mit diesem AI Hype gar nichts anfangen kann.

Ok, ich nutze ab und zu und auch nur auf Knopfdruck Siri im Auto um eine kurze Nachricht zu senden, aber das war es schon.
Die "Wanze" muss bestimmt nicht das Mikrofon 24/7 aktiv haben.
 
  • Gefällt mir
Reaktionen: d3nso und piepenkorn
@SwissCrow das ist ja auch Dein gutes Recht :)

Ich habe auch keine dieser Wanzen zuhause, allerdings kann ich mit der AI wie Gemini oder GPT schon was anfangen. Ich bekomme Antworten auf Fragen sehr schnell und mit relativ guter Qualität, die mir die Arbeit leichter macht oder zumindest gute Anregungen geben kann. Mir ist das was wert.

Manuelle Eingabe auf ChatGPT oder Gemini ist nicht eine Wanze (die ständig mithört.)
 
Wie immer... es ist eine Entwicklung. Interessant wird, wie es in 5 bis 10 Jahren aussieht. Ob das nun AI sein soll oder "nur" ausgefeilte Algorithmen, ist dabei nebensächlich. Daher kommen wir um eine Auseinandersetzung mit den Auswirkungen nicht herum, ganz besonders im beruflichen Kontext.

Interessant fand ich in diesem Zusammenhang zuletzt auch eine Anmerkung zu Neuroplastizität: "Use it or lose it". Gemeint sind eigene Fähigkeiten, die durch "Auslagerung" auf einen Algorithmus nicht mehr trainiert werden und dadurch verkümmern.

Andererseits kann eine "KI" aber auch die Rolle eines Trainers übernehmen und Wissen transferieren. Wenn in dieser Form verwendet, bietet das Neue auch Chancen, sich persönlich schneller und umfassender entwickeln zu können.

Spannendes Thema, das in seiner Komplexität deutlich über die Anwendung einer neuen App hinausgeht.
 
  • Gefällt mir
Reaktionen: rallyco, rosenholz und hans_meiser
Zurück
Oben