News Large Language Model Ajax: Integriertes „Apple-GPT“ könnte noch dieses Jahr kommen

DennisK.

Redakteur
Teammitglied
Registriert
Nov. 2018
Beiträge
856
  • Gefällt mir
Reaktionen: aid0nex und knoxxi
Ob es so "gut" wird wie Siri...? :freak:

Auch wenn ich gespannt drauf bin, brauche ich nicht von jedem Hersteller LLM-Services - ehrlich gesagt ist mir macOS sogar aktuell noch lieber ohne aufgedrückte KI-Services. Wenn das sich nun auch ändert, ist das ein großes Argument, was wegfällt.
 
  • Gefällt mir
Reaktionen: bananaaaa, aid0nex und M4ttX
Das stimmt, Siri ist wirklich der mit Abstand schlechteste aller Assistenten. Das war auch der Grund, warum ich zu Google gewechselt bin, wobei ich mir den Google assistant auch deutlich besser vorgestellt habe. Die sind alle nicht so, dass sie im Alltag eine Hilfe sind. Allerdings passt es halt nicht zusammen, wenn man die höchsten Preise aufruft, aber nicht die höchste Qualität bietet
 
  • Gefällt mir
Reaktionen: Piehnat, Slayn, Seven2758 und 6 andere
Ich habe gestern mal ChatGPT ausprobiert und eine Aufgabe gestellt. Erst einmal Antworten, die am Thema vorbei gehen. Dann hat sich ChatGPT einen Parameter für ein Kommandozeilentool ausgedacht. Also aktuell ist es nicht besser als die ersten Treffen aus Google oder Bing
 
  • Gefällt mir
Reaktionen: Roesi, Kalsarikännit, aid0nex und 3 andere
Würde Apple nicht an sowas arbeiten, wäre es auch sehr verwunderlich.

Aktuell ist mein Eindruck: Ja, andere sind durchaus weiter, vor allem als Siri. Aber der Level, dass es (für mich) im Alltag wirklich hilfreicher wäre als Siri es ist, ist irgendwie doch noch nicht erreicht.

Am Anfang hab ich versucht, ChatGPT mal bei einzelnen Problemen beim Programmieren zu fragen o.ä., aber die Antworten haben mich in 99% der Fälle nicht weiter gebracht, als es die erste Google Suche getan hätte.

Vielleicht bin ich einfach nur schlecht im Prompts schreiben, wer weiß. Aber ich kann verstehen, dass Apple da etwas zurückhaltender ist und erst startet, wenn es reifer ist, wie üblich.
Der Shitstorm, den es geben würde, wenn Apple-GPT so falsche Antworten gibt wie teilweise ChatGPT und BingChat kann ich mir bildlich vorstellen. Da steht Apple immer mehr im Fokus, weil es einfach mehr Klicks bringt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MeisterKalle, Roesi, bit_change und 4 andere
@ebird

Dann schreib doch mal, was deine Eingabe war? Meine Erfahrungen sind da anders - besonders mit Version 4.

Natürlich gibt es auch mal falsche Ausgaben… besonders wenn man Suggestivfragen stellt.

Man sollte sicher auch realistische Erwartungen an so ein Tool haben.
 
  • Gefällt mir
Reaktionen: bananaaaa, Kommando und Bamu
Ich bin mal gespannt wann der Hype verebbt und die Grakas die zu hundertausenden für diese Pseudo-KI-LLMs in RZs gestopft werden zu sehr sehr wenig nachhaltigem Hardwareschrott werden.
 
  • Gefällt mir
Reaktionen: Dimitri Kostrov
Biertrinker schrieb:
Das stimmt, Siri ist wirklich der mit Abstand schlechteste aller Assistenten. Das war auch der Grund, warum ich zu Google gewechselt bin, wobei ich mir den Google assistant auch deutlich besser vorgestellt habe.
Ist der USP von Siri nicht, dass es ganz ohne Internetverbindung funktioniert da keine Daten/Aufnahmen in die Cloud geschickt wird? Google nimmt nämlich alles auf und du kannst auch 10 Jahre später noch die Aufnahmen im entsprechenden Menü abspielen.

Wenn jetzt Apple-GPT lokal läuft, wäre das gar nicht mal so blöde.
 
  • Gefällt mir
Reaktionen: nkler, JDK91, gesperrter_User und 10 andere
Gortha schrieb:
Ich bin mal gespannt wann der Hype verebbt
Der Hype hat doch noch nicht mal angefangen?
Da hier etablierte Softwarefunktionen durch bessere Algorithmik ersetzt werden um die Probleme "schlauer" zu lösen: Die nächsten Jahre wohl nicht - bis es etwas Besseres gibt. Bis dahin ist die Hardware in RZ eh veraltet und schon lange wegen der Effizienz verschrottet worden.
 
  • Gefällt mir
Reaktionen: Kommando
Tenferenzu schrieb:
Ist der USP von Siri nicht, dass es ganz ohne Internetverbindung funktioniert da keine Daten/Aufnahmen in die Cloud geschickt wird? Google nimmt nämlich alles auf und du kannst auch 10 Jahre später noch die Aufnahmen im entsprechenden Menü abspielen.

Wenn jetzt Apple-GPT lokal läuft, wäre das gar nicht mal so blöde.
Je nach Einstellungen und Anfragen werden Daten an Apple gesendet oder auch nicht.

Siri ist für mich tatsächlich nicht mehr als ein Assistent, also Timer stellen, Person X anrufen usw.
Bei mir ist auch Daten an Apple senden aus und auch hey Siri ist deaktiviert.

Ich habe mir von Siri noch nicht den HTML Code für eine generierte Website wie es Bing/Chat GPT können geben lassen.
 
Also im direkten Vergleich sind Alexa, Google und Siri eigentlich alle gleich doof. Präzise Kommandos werden von allen dreien vernünftig verstanden und verarbeitet. Fragen nach Gott und der Welt sind bei allen dreien einfach nicht möglich, da bekommst bestenfalls eine Suche vorgeschlagen, aber mehr können die einfach nicht. Die LLM sind nunmal etwas anderes und gehören auf Dauer in die Assis integriert. Dann muss Siri nur so schlau werden zu erkennen wann es selber etwas kann, oder eben nicht. Böse gesagt: das habe ich nicht verstanden, bzw. Ich kann dir antworten im Web anzeigen, wenn du die Anfrage an deinem iPhone noch einmal stellst.

Unterm Strich. Ich nutze Siri täglich und was ich damit mache funktioniert eigentlich gut. Warum eigentlich? Weil Siri sich umentwickelt und zwischendurch Befehle nicht mehr erkennt, die vorher mal funktionierten. Einen echten Fortschritt kann ich eigentlich nicht wirklich erkennen. Aber da tun sie sich alle nichts. LLM könnten da halt endlich den ersehnten Schritt bringen.

Zu ChatGPT kann man benutzen, aber ohne Brain 1.0 ist das Tool genau so nützlich wie ein Mikroskop für einen Blinden. Der Benutzer ist da der Knackpunkt ChatGPT kann das, was es kann.
 
  • Gefällt mir
Reaktionen: Gesualdo, Kommando, MalWiederIch und 2 andere
calluna schrieb:
@ebird

Dann schreib doch mal, was deine Eingabe war? Meine Erfahrungen sind da anders - besonders mit Version 4.

Natürlich gibt es auch mal falsche Ausgaben… besonders wenn man Suggestivfragen stellt.

Man sollte sicher auch realistische Erwartungen an so ein Tool haben.
Ich habe nach firewalld Regeln gefragt, konkret von welchem Interface zu welchen und welchen Zonen.

Der ausgedachte Parameter war --add-forward-zone=public

Apologies for the confusion in my previous responses. You are right; there is no --add-forward-zone parameter in firewalld. To route traffic between different zones, you need to use the --forward-port option.
Übrigens gibt es --forward-port auch nicht, zudem habe ich im Chat Verlauf auch mitgeteilt, dass ich kein Port Forwarding, sondern Routing betreiben will.

Dann war ChatGPT in einer Dauerschleife der falschen antworten.

Also nicht mit Suggestivfragen, sondern eine technisch präzise Frage ohne Prosa. Es war schon fast eine Formel.
 
  • Gefällt mir
Reaktionen: KitKat::new(), ichmich2000, MalWiederIch und eine weitere Person
Ob man damit wohl genau so gut putzen kann, wie mit dem alt bewährten Ajax? 🤔
 

Anhänge

  • ajax.jpg
    ajax.jpg
    97,9 KB · Aufrufe: 136
  • Gefällt mir
Reaktionen: Fatal3ty, lordfritte, gesperrter_User und eine weitere Person
Ich kann die abwartende Haltung von Apple nachvollziehen.
Gehört ja auch zur Unternehmensstrategie zu warten bis eine Technologie ausgereift genug ist und erst das dann ein Produkt dafür bringen, siehe iPhone, iPad, Watch oder auch jetzt VR Brille

Übrigens war Siri nicht immer so schlecht. Als es damals rausgekommen ist, war es praktisch der erste sprachasisstent der benutzbar war. Klar es war nicht der erste überhaupt, aber halt wieder der erste der ausgereift genug war.
 
w33werner schrieb:
Übrigens war Siri nicht immer so schlecht. Als es damals rausgekommen ist, war es praktisch der erste sprachasisstent der benutzbar war. Klar es war nicht der erste überhaupt, aber halt wieder der erste der ausgereift genug war.

Umso unverständliche wie man diesen Vorsprung dermaßen versemmeln konnte. Vom Marktführer zum schlusslicht in nur ein paar Jahren. Alle sind an Apple vorbeigezogen beim Assistenten.
 
Grundgütiger schrieb:
Je nach Einstellungen und Anfragen werden Daten an Apple gesendet oder auch nicht.

Siri ist für mich tatsächlich nicht mehr als ein Assistent, also Timer stellen, Person X anrufen usw.
Bei mir ist auch Daten an Apple senden aus und auch hey Siri ist deaktiviert.

Ich habe mir von Siri noch nicht den HTML Code für eine generierte Website wie es Bing/Chat GPT können geben lassen.
ChatGPT ist auch nicht die direkte Konkurrenz zu Siri, wie kommt man denn darauf?
Das wären eher Google Assistant und vielleicht noch Alexa, die sind auch nicht zu mehr zu gebrauchen als einen Termin einzutragen etc. - für die meisten wohl auch ausreichend.

Zwecks Code aus ChatGPT muss man eigentlich immer nachbessern und benötigt dementsprechend zwingend Fachkenntnisse - einfach „geben lassen“ ist da nicht.

Deshalb soll das gerne mehr als die 1-2 Jahre reifen, bis es auch wirklich sinnvoll ist das in Milliarden Geräte zu integrieren.
Ergänzung ()

Biertrinker schrieb:
Umso unverständliche wie man diesen Vorsprung dermaßen versemmeln konnte. Vom Marktführer zum schlusslicht in nur ein paar Jahren. Alle sind an Apple vorbeigezogen beim Assistenten.
Und das beim wichtigsten Feature an einem Smartphone …
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
MalWiederIch schrieb:
Und das beim wichtigsten Feature an einem Smartphone …
Naja Smartphone ist das eine und vermutlich nicht so wichtig wie die Home-Assistenten. Da kann Siri ja auch nicht glänzen und braucht schon sehr klare Anweisungen.
 
Man kann nur hoffen, dass das ganze KI-Gedöns für die Anwender, die es benötigen, optional bleibt. Ich für meinen Teil möchte nicht in jedem OS mit KI beglückt werden.

So wie es aussieht, hat Windows sowas ja schon bald „out of the box“ und macOS wohl auch. Schon bezeichnend wie wieder alle dem Hype nachlaufen.
 
  • Gefällt mir
Reaktionen: McMoneysack91 und Gortha
@SVΞN

Warum? Ist doch nur Code. Wo ist für dich der Unterschied?
Diese Assistenten gibts doch schon ewig lange und mehr als Antworten auf vorgefertigte Kommandos konnten sie bisher nie geben. praktisch jede Frage und jede Antwort ist bisher hardcoded. Jetzt gibts eben Code, der die Aufgabe besser lösen kann. Warum sollte dich das stören, nur weils "KI" genannt wird?

Mit dem "KI-Gedöns" ist es halt erstmals möglich, dass der Assistent die Frage ähnlich gut wie ein Mensch versteht und sich auch so verhalten kann. Man kann nachhaken und die KI geht darauf ein.

Wie gut die fachliche Qualität der Antworten ist, steht natürlich nochmal auf einem anderen Blatt, aber zumindest ist damit endlich die Hürde genommen, dass das Ding auch versteht, was du willst, wenn du nicht nur Hardcoded Befehle triggerst.

Auch wenn es dauert, aber diese Assistenten haben in den letzten 10 Jahren wahnsinns Fortschritte gemacht.

Die erste Hürde war, dass gesprochene Sprache in Text umgewandelt wird und die Sprache zuverlässig und in Echtzeit in Text umgewandelt wird. Schon das hat gefühlt ewig gedauert und die Hürde hatte man anfang bis mitte der 10er Jahre genommen. Hier gab es massive Fortschritte, die ich extrem beeindruckend finde. Heute läuft es bei jedem youtube Video automatisch mit, um untertitel zu generieren, aber vor 10-15 Jahren war das noch ziemlich unvorstellbar, dass es jemals so gut funktionieren kann...

Jetzt ist die nächste Hürde eben das inhaltliche Verständnis und die hat man mit ChatGPT bereits genommen.

Jetzt muss man es nur noch soweit optimieren, dass das bereitgestellte Wissen auch korrekt ist und sich nichts hinzufantasiert wird. Aber da die Qualität in vielen Bereichen jetzt schon sehr gut ist und man hier bereits Fortschritte erzielt, wird man das auch noch hinbekommen. Wird halt wieder ein paar Jahre dauern.


Der Punkt ist eben, sobald diese Assistenten mal gut genug sind, wird sie jeder nutzen, auch du. Erstrecht wenn sich daraus dann völlig neue praktische Anwendungsbeiete im Alltag ergeben und schlussendlich wieder darauf aufgebaut wird. So funktioniert eben technischer Fortschritt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DNS81 und Kommando
Zurück
Oben