Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsKI-Funktionen für Siri: Apples Assistentin soll bald das Smartphone steuern
Unter dem Codenamen „Project Greymatter“ arbeitet Apple Berichten zufolge an Implementierungen von künstlicher Intelligenz auf Systemebene in iOS, macOS und iPadOS. Davon soll auch Siri profitieren. Die Assistentin soll dadurch deutlich fähiger und moderner werden und dem Nutzer im Alltag zur Seite stehen.
Ich nutze mein IPhone wirklich gerne und seit dem 3GS nur Apple Smartphones. Aber Siri ist immer das Erste was ich abschalte. Ich kann dem Gesabbel ins Telefon einfach nichts abgewinnen.
Auch wenn es sicherlich gerade für Menschen mit Einschränkungen ne tolle Sache ist.
Wenn es überhaupt fürs 15 Pro kommt. Apple wäre nicht Apple wenn neue Funktionen nur auf das neuste Gerät kommen obwohl alte auch gehen würden (sie 24MP Modus auf dem 15er vs 14Pro 12MP Modus)
Bloomberg schreibt weiter, dass viele der Funktionen möglicherweise ein iPhone 15 Pro oder ein iPad oder Mac mit M1-Chip oder höher erfordern. Die Anforderung wäre skurril: Ein iPad Air mit M1-Chip verfügt über eine NPU mit 11 Millionen TOPS an Rechenleistung, welche auch im iPhone 12 (Pro) mit dem A14-SoC verbaut wurde. Die Funktionen auf einem iPhone 12 könnten also technisch gleich schnell beschleunigt werden. Die Entscheidung wirkt so eher produktpolitisch motiviert, um den Kauf neuer iPhones anzutreiben.
Als ob das etwas Neues wäre. War ja bei der Text-Erkennung auf Fotos nicht anders, hat ja auch einige Betas gedauert bis Apple einsah, dass man dies auch für Intel-MacBook Pro und Macs freigeben könnte - obwohl es schon zig Frameworks gab, die das selbst per einigermaßen einfachem Python-Code auf älteren Maschinen konnten.
Das iPhone 15 Pro verkauft sich wohl nicht gut genug
Ein Wunder, das bei mir noch nicht das SEK eingerückt ist, denn die häufigste Funktion die ich mit Siri nutze, ist einen Timer für Tee, Pizza oder anderes im Ofen zu stellen. Den Timer vom Ofen höre ich im Schlafbüro nämlich nicht. 😅
Und natürlich dem Homepod in der Küche zu sagen, er soll Radio 21 Hannover abspielen. 👍
Ich muss ehrlich gestehen, dass ich bei den Features, die seit 1-3 Jahren kommen, vielleicht nur 10% bewusst nutze. Bei mir ist das eine Resignation eingetreten..
Ich kann mir nicht vorstellen, dass ich diese KI-Features irgendwie (auf dem Telefon) in den Alltag integrieren kann.
Ich nutze mein IPhone wirklich gerne und seit dem 3GS nur Apple Smartphones. Aber Siri ist immer das Erste was ich abschalte. Ich kann dem Gesabbel ins Telefon einfach nichts abgewinnen.
Auch wenn es sicherlich gerade für Menschen mit Einschränkungen ne tolle Sache ist.
da wäre ich vorsichtig. genau wie llm halluzinieren, so erkennen auch diese systeme im input dinge, die eigentlich nicht da sind und das lässt sich ausnutzen. und da lässt sich sicher auch was erstellen, was dein siri glauben lässt, dass das deine stimme wäre.
Ja, das nutze ich ebenfalls - selbst wenn es am häufigsten der Pizza-Timer ist
Ich habe das kommende Update aber so verstanden, dass es deutlich besser Zusammenhänge versteht. Also sprich bei meinem Beispiel, dass Siri im Kalender den richtigen Termin & richtigen Thomas auswählt - automatisch etc. - gerade damit es mehr ist als heute
Die einzige Funktion, die Siri zuverlässig umsetzt, ist das Stellen von Timern (am besten über die Uhr). Nutze ich primär beim Kochen. Bei nichts anderem kann man sich bei Siri darauf verlassen, dass es das macht, was man will. Eine Überarbeitung ist zwingend erforderlich.
Das erstellen von Terminen im Auto oder Erinnerungen schafft Siri ganz gut. Oder Um einen Musiktitel zu spielen.
Für alles andere... naja...ich sage dann: "Warum verstehst du mich nicht?" 🙄🤔
die 15 pro Einschränkung dürfte am RAM hängen und nicht der NPU. m1/a17 haben 8gb und selbst kleine LLMs gönnen sich da doch einiges. Bleibt zu hoffen, dass wir beim 17 pro endlich die 12gb bekommen….