Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGPT-4o: OpenAIs neues Spitzenmodell macht ChatGPT zum Echtzeit-Gesprächspartner
Mit GPT-4o hat OpenAI heute ein neues Spitzenmodell präsentiert, das leistungsfähiger und effizienter als GPT-4 Turbo ist und insbesondere bei der Sprachsteuerung punkten soll. Ergänzt um das neue Modell soll sich ChatGPT zu einem leistungsfähigen Alltagsassistenten entwickeln, mit dem Nutzer sich fortlaufend unterhalten können.
Top, sehe das GPT-4o Modell auch schon in der App. Die MacOS Version ist aber noch nicht verfügbar, obwohl ich Plus-Nutzer bin. Ich bin ja ein ganz großer Fan von dem Sprachmodus. Cool, dass das jetzt auch auf dem Computer funktioniert.
Ich werde die Mac-OS App bei Verfügbarkeit sofort installieren. Bisher ist diese App noch nicht auffindbar.
Und sonst: OpenAI haut gewaltig raus, die Videos sind sehr faszinierend.
Aber: Ich hoffe mit GPT-4o wird ChatGPT wieder besser / genauer, weil in letzter Zeit die Resultate gefühlt etwas schlechter wurden...
OpenAI legt aber gut vor, mal sehen wie das in der Praxis mit normalen Menschen und DAUs im Alltag funktionieren wird.
Anyways faszinierend! Ich bin ja großer Perplexity AI Fan und das könnte tatsächlich das zweite AI Privat Abo werden, mal sehen.
Das Potenzial ist disruptiv und das wird von OpenAI gut ausgespielt. Das ist definitiv noch nicht das Ende der Fahnenstange was da kommen wird.
Jetzt noch mit instant translator Deutsch japanisch, dann werden die ganzen Meetings deutlich entspannter Was haben wir gelacht damals vor 15 Jahren über sowas wie den Babbelfisch und für kaum bis nicht möglich gehalten...
Die planen genau das, was meiner Meinung nach das größte Potential hat. Eine Alexa, mit der man sich fast wie mit einem Menschen Unterhalten kann. Irgendwann wird das niemand mehr missen wollen. Vor allem wenn sich das Ding Informationen merkt und in späteren Gesprächen darauf referenziert.
Alle Digital-Jobs werden über kurz oder lang ersetzt werden können und spätestens wenn solche Systeme mit Robotik-Systemen verbunden werden, betrifft es ALLE Jobs.
Ich denke es ist kein Zufall, dass Sam Altman gerade wieder von einem bedingungslosen Grundeinkommen gesprochen hat. Der hat noch einen tieferen Einblick in zukünftige Systeme, die der Öffentlichkeit noch nicht bekannt sind und er weiß wohl besser als die meisten anderen, wohin die Reise geht.
Ich kopiere meinen Kommentar mal aus dem anderen Thread, passt hier vermutlich eher rein.
Im Video hat man ja gesehen, wie die eine Konversation mit dem Assistenten führen. Wenn das nicht gestellt/geschönt war, dann war das sehr beeindruckend. Ich habe das Gefühl, dass Apple das vermutlich genau so / sehr ähnlich in iOS 18 einbauen wird. Gab in letzter Zeit dazu mehrere Gerüchte. Bei dieser Präsentation hatte ich das Gefühl die zukünftigen Sprachassistenten (Siri, Google, Alexa) zu sehen.
edit: Anscheinend wird gpt4o auch „bald“ kostenlos.
Super beeindruckend, freue mich schon darauf damit rumzuspielen.
Die Sprachausgabe wirkte in der Präsentation deutlich "menschlicher" als es bisherige Sprachassistenten oder TTS Systeme tun. Finde ich so als dauerhaften digitalen Begleiter durchaus sinnvoll.
Bei Problemen mal eben den Bildschirm "freigeben" und sich helfen lassen ist auch eine klasse Ergäzung.
Warum war die Aufgabe ein schlechter Witz? Ich denke genau darin leigt ein riesen Potential. AI als Lernhilfe, simple Aufgaben step by step durchgehen, perfekt zugeschnitten auf das Tempo und die Bedürfnisse des lernenden.
Überhaupt nicht. Im Gegenteil! Das war unglaublich!
Da hat eine Maschine die Formel "gelesen", die gestellte Aufgabe "verstanden" und konnte entsprechend "reagieren". In Echtzeit!
Ich hätte nicht gedacht, dass das heute schon so möglich ist. Ich bin davon ausgegangen, dass das noch 10 Jahre in der Zukunft liegt.
Echt beeindruckend!
Jetzt muss man "nur" noch einen echten Assistenten daraus machen. Mit Erinnerungsfunktion, Organizer, usw. Die sind schon ganz nahe dran.
Bilde ich es mir ein, oder sind die Fakeprofile, die einen auf LinkedIn anschreiben, seit diesen LLMs drastisch mehr geworden?
Nicht mal kreativ sind sie, ich bekommen reihenweise Post Midreißiger Pariser Witwen.......
Ein netter Vorgeschmack auf die Zukunft, steckt ja noch in den Babyschuhen. Finde es immer wieder knuffig wenn hier einige "Experten" von einer Blase sprechen, die ganz bestimmt bald platzen wird. ;-)
Erinnern wir uns doch an die Präsentation von Google zurück... da war auch alles gestellt und geschönt!
Wenn auch nur die Hälfte von dem gezeigen effektiv zuhause reproduzierbar ist bin ich beindruckt! vorher nicht.
BTW, nachdem ich mir die Samples Playlist auf Youtube angeguckt habe muss ich sagen, man geht mir die AI aufn Keks! Die Stimmlage, diese fake schnippischen antworten. Das erste was ich tun würde wäre das irgendwie zu ändern..... "Stell dir vor du bist der Butler von Batman"
Ich brauch doch keine AI die mir kekke antworten gibt... Die soll gefälligst ihre Arbeit tun.
Unglaubliche Fortschritte. Mit der geringen Latenz, Sprachfähigkeit und Bilderfassung und Beschreibung kann das ja schon anstandslos live von Personen mit Seh-Beeinträchtigung genutzt werden. Da tun sich eine Menge use cases auf, die übernommen werden können und das ist nur eins von tausenden Beispielen.