News Apple Intelligence: Persönlicher Assistent schickt Siri auf Wunsch zu ChatGPT

TenDance schrieb:
Das ist halt eine Frage des Vertrauens, oder hast Du nachverfolgt wo Deine Daten hinwandern?
Natürlich ist es das. Aber ich mag auch nicht pauschale Verurteilung ohne Belege. Und dass KI immer Daten abgreift und assimiliert ist halt technischer Unsinn. Darauf wollte ich nur eingehen. :) Es gibt mittlerweile viele technische Kniffe, die das verhindern. Auch verschlüsselte Netze, die eine sicherere Nutzung erlauben. Aber klar, das muss halt auditiert werden. Bin gespannt ob da noch was kommt hinsichtlich Apple Intelligence.
Da Apples Kerngeschäft nicht die Daten der Nutzer sind, anders als bei Amazon und Google, ist da zumindest ein anderer Druck da als bei Apple.
TenDance schrieb:
Sind Deine Daten einmal im Internet, sind sie nicht privat
Ist so halb richtig mMn, aber ich verstehe die Argumentation dahinter. Einmal in der Cloud hat man zumindest Zeit und exponentielle Mittel Sachen zu entschlüsseln. Da hängts von der Schwere der Verschlüsselung ab, ob das zeitlich sinnvoll, parallelisierbar usw. ist. Aber ich stimme dir dahingehend zu: man sollte sich immer im Klaren sein, was man in die Cloud wirft und was nicht, und die Konsequenzen abschätzen können. Und sich bewusst sein, dass es potentiell geleaked werden kann, auch wenn die Wahrscheinlichkeit tendenziell sehr gering sein mag.
Das gute ist ja, niemand muss Cloud nutzen. Von daher ist das jedem selbst überlassen. Wer sich da komplett abschotten will hostet was selbst oder lässt es ganz bleiben.
 
  • Gefällt mir
Reaktionen: Topas93, iSight2TheBlind und eigsi124
onkel_axel schrieb:
Ich würde da nicht zu viel vom A18 erwarten.
Die große Veränderung wird, dass es ihn einfach in verschiedenen Konfigurationen geben wird, wie auch die M4 mittlerweile.

Also bekommt das iPhone 16 den kleinen A18 und das iPhone 16Pro den großen ohne Teildeaktivierung.
Chipdesign ist ein langwieriger Prozess. Das was im Herbst rauskommt, ist 3 Jahre alt.
Außerdem ist es weiterhin der selbe 3nm Prozess von TSMC
Ich erwartet die selbe Verbesserung wie von M3 zu M4.
Der normale A18 wird vermutlich nur ein rebrandeter A17Pro oder wie du meintest, ein A18Pro mit deaktivierten CPU& GPU Kernen werden.
 
NJay schrieb:
Ja, denn deine Chatverläufe sind aktuell schon indiziert, sonst hättest du keine schnelle Suche über Textnachrichten. Hier wird nur beim Prompt ein Kontext für die KI erstellt aus Daten, die sowieso schon auf deinem Gerät lokal vorliegen. D.h. es werden lokal nicht mehr Daten gesammelt als zuvor.
Sorry, aber ein Index und ein Semantischer Index sind zweierlei paar Schuhe.
Und gerade das Content Retrievel aufgrund sämtlicher On-Device-Daten ist ein Graus. Es gibt mehr als genügend Beispiele, warum das von Nachteil sein kann und absolut zur Kontrolle ausgenutzt werden kann, wenn nicht sogar werden wird.
Dieses "Feature" in der selben Präsentation zu zeigen, wo man auf verstecktere Hidden Apps aus Privacy Gründen hinweist, ist ungefähr das Niveau von Satire, wie die Warnungen vor zu kurzer Distanz zum Display just bevor man das Vision Pro gezeigt hat.


NJay schrieb:
Bei Microsofts Idee einfach alle Zeit X Screenshots zu machen und Ewigkeiten
Knapp 3 Monate: https://www.theverge.com/2024/5/20/24159258/microsoft-recall-ai-explorer-windows-11-surface-event

NJay schrieb:
Hier werden also Daten gespeichert, die normalerweise temporär sind und dann "gelöscht" werden.
Microsofts Recall speichert "nur" Inhalte, welche auf dem Bildschirm zu sehen waren. Apples AI will einen semantischen Index aus sämtlichen Informationen auf dem Gerät und auf Applikationen und für Information Retrievel verwenden.
Also ich weiß nicht, wie man das eine loben oder verteidigen kann und im gleichen Zug das andere abstrafen. Entweder man betrachtet beide als Sicherheitsprobleme - was berechtigt wäre - oder man sieht beides gut an - was ebenso berechtigt wäre. Aber zu behaupten, Apples Lösung wäre besser dank Apples "Trust me, bro"-Argumentation, während Microsofts Lösung einfach pauschal schlecht sein soll, weil Microsoft, ist halt absurd.
Zumal auch Apple mit iOS 17.5 absurde Security-Probleme hatte (worüber hier auch nicht berichtet wurde, go figure): https://9to5mac.com/2024/05/23/apple-deleted-photos-resurfacing-explanation/
Nur mal so in den Raum gefragt: Warum muss die Foto-Datenbank denn überhaupt gelöschte Bilder über Jahre hinweg im Backup mit sich rumschleifen, wenn man ein neues Device von einem alten einrichtet?

eigsi124 schrieb:
Das ist auch nicht viel anders, als das, was Google, Microsoft, AWS und sonst wer behauptet.

Nero1 schrieb:
Da Apples Kerngeschäft nicht die Daten der Nutzer sind, anders als bei Amazon und Google, ist da zumindest ein anderer Druck da als bei Apple.
Mit 6 Milliarden Dollar allein in den USA aber auch nicht klein: https://www.statista.com/statistics/1329251/apple-ad-revenue-usa/

Nero1 schrieb:
Das gute ist ja, niemand muss Cloud nutzen.
AI schmeißt es automatisch in die Cloud, außer, man nutzt den gesamten Service nicht. Viel Wahl gibt es da nicht.
 
  • Gefällt mir
Reaktionen: CMDCake
tomgit schrieb:
Microsofts Recall speichert "nur" Inhalte, welche auf dem Bildschirm zu sehen waren. Apples AI will einen semantischen Index aus sämtlichen Informationen auf dem Gerät und auf Applikationen und für Information Retrievel verwenden.
Ich verstehe hier nicht, wie du den Unterschied zwischen Daten, die sowieso schon auf dem Gerät sind und temporären Daten, die extra gespeichert werden nicht als kritisch ansiehst.

Du hast vollkommen recht, auch bei Apples Methode können Daten missbraucht werden. Aber das können sie aktuell auch schon, da die Daten ja eben schon existieren. Wenn Apple wollen würde, könnten sie sie jederzeit extrahieren. Das selbe gilt natürlich auch für alle Daten die auf deinem Windows-Gerät liegen. Einen "Trust-Me-Bro"-Ansatz muss man bei beiden fahren, oder nur open-source Betriebssysteme nutzen.
Ergänzung ()

tomgit schrieb:
AI schmeißt es automatisch in die Cloud, außer, man nutzt den gesamten Service nicht. Viel Wahl gibt es da nicht.
Das ist noch nicht gesichert, es kann sein, dass man das trennen können wird. Aber vermutlich wird es wie du gesagt hast nur an und aus geben. Wobei die Aussage, dass es eben nicht dauerhaft, sondern nur während des Requests gespeichert wird das ganze besser macht als z.B. OpenAI, die definitiv alles speichern und nutzen, solange sie wollen.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind und eigsi124
tomgit schrieb:
Zumal auch Apple mit iOS 17.5 absurde Security-Probleme hatte
Da war’s eher ein Datenbankproblem mit übrig gebliebenen Speicherverweisen afaik, aber selbst wenn nicht, sowas kann technisch sehr komplizierte Gründe haben, ohne direkt ein Securityproblem zu sein. Aber da hier vermutlich wenige wirkliches Detailwissen haben, mich eingeschlossen, werd ich das Thema mal nicht weiter vertiefen, da es nur weitere Mutmaßungen wären.
tomgit schrieb:
AI schmeißt es automatisch in die Cloud, außer, man nutzt den gesamten Service nicht.
Bis auf on-device Prozesse, sonst ja. Nichts anderes hab ich gesagt. Trifft ja btw auf sämtliche Clouddienste zu, daher nun nicht wirklich überraschend.
 
tomgit schrieb:
Zumal auch Apple mit iOS 17.5 absurde Security-Probleme hatte (worüber hier auch nicht berichtet wurde, go figure): https://9to5mac.com/2024/05/23/apple-deleted-photos-resurfacing-explanation/
Nur mal so in den Raum gefragt: Warum muss die Foto-Datenbank denn überhaupt gelöschte Bilder über Jahre hinweg im Backup mit sich rumschleifen, wenn man ein neues Device von einem alten einrichtet?
1. Weird. Ich war fest überzeugt, dass hier darüber berichtet wurde. Aber du hast recht.
2. Es war ein Bug in der Datenbank unter ganz speziellen Voraussetzungen, sonst wären ja alle betroffen gewesen.
3. Bugs oder fehlerhafte Datein werden von Backup zu Backup mitgeschleift. Das ist normal.
 
  • Gefällt mir
Reaktionen: stevefrogs, iSight2TheBlind, eigsi124 und eine weitere Person
eigsi124 schrieb:
Haha, dass bestätigt mich noch mehr :D

Cloud ist nicht gleich Cloud, du scheinst nicht zu verstehen, was Apple hier mit Private Cloud Computing macht, lies dich mal ein bisschen ein, vielleicht erhellt dich das ein bisschen..

https://security.apple.com/blog/private-cloud-compute/

Ergänzend dazu:

Meine IT-Security-Bubble tippte zuerst auf die Verwendung von Homomorphic encryption für das "Private Cloud Computing" - nein, es werden Secure enclaves + TLOGGED-Software eingesetzt.

Hochinteressant auch die Website der Apple-eigenen On-Device-Foundation-Models mit Vergleichsdaten zu anderen Modellen:

https://machinelearning.apple.com/research/introducing-apple-foundation-models

Und hier weitere, recht ausführliche Informationen u.a. zum Thema "Verifiable transparency" bei Private Cloud Computing.

"We consider allowing security researchers to verify the end-to-end security and privacy guarantees of Private Cloud Compute to be a critical requirement for ongoing public trust in the system. Traditional cloud services do not make their full production software images available to researchers — and even if they did, there’s no general mechanism to allow researchers to verify that those software images match what’s actually running in the production environment. (Some specialized mechanisms exist, such as Intel SGX and AWS Nitro attestation.)

When we launch Private Cloud Compute, we’ll take the extraordinary step of making software images of every production build of PCC publicly available for security research. This promise, too, is an enforceable guarantee: user devices will be willing to send data only to PCC nodes that can cryptographically attest to running publicly listed software. We want to ensure that security and privacy researchers can inspect Private Cloud Compute software, verify its functionality, and help identify issues — just like they can with Apple devices."

Our commitment to verifiable transparency includes:

  1. Publishing the measurements of all code running on PCC in an append-only and cryptographically tamper-proof transparency log.
  2. Making the log and associated binary software images publicly available for inspection and validation by privacy and security experts.
  3. Publishing and maintaining an official set of tools for researchers analyzing PCC node software.
  4. Rewarding important research findings through the Apple Security Bountyprogram.
Every production Private Cloud Compute software image will be published for independent binary inspection — including the OS, applications, and all relevant executables, which researchers can verify against the measurements in the transparency log. Software will be published within 90 days of inclusion in the log, or after relevant software updates are available, whichever is sooner. Once a release has been signed into the log, it cannot be removed without detection, much like the log-backed map data structure used by the Key Transparency mechanism for iMessage Contact Key Verification.

As we mentioned, user devices will ensure that they’re communicating only with PCC nodes running authorized and verifiable software images. Specifically, the user’s device will wrap its request payload key only to the public keys of those PCC nodes whose attested measurements match a software release in the public transparency log. And the same strict Code Signing technologies that prevent loading unauthorized software also ensure that all code on the PCC node is included in the attestation.

Making Private Cloud Compute software logged and inspectable in this way is a strong demonstration of our commitment to enable independent research on the platform. But we want to ensure researchers can rapidly get up to speed, verify our PCC privacy claims, and look for issues, so we’re going further with three specific steps:

  • We’ll release a PCC Virtual Research Environment: a set of tools and images that simulate a PCC node on a Mac with Apple silicon, and that can boot a version of PCC software minimally modified for successful virtualization.
  • While we’re publishing the binary images of every production PCC build, to further aid research we will periodically also publish a subset of the security-critical PCC source code.
  • In a first for any Apple platform, PCC images will include the sepOS firmware and the iBoot bootloader in plaintext, making it easier than ever for researchers to study these critical components.
The Apple Security Bounty will reward research findings in the entire Private Cloud Compute software stack — with especially significant payouts for any issues that undermine our privacy claims.

https://security.apple.com/blog/private-cloud-compute/

ChatGPT wird, wie andere bereits hier erwähnten, erst nach einer expliziten Userbestätigung freigegeben, da hier die o.g. Maßnahmen (noch?) nicht implementiert sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeusTheGod, stevefrogs, iSight2TheBlind und 3 andere
Das klingt großartig! Ich liebe den Fortschritt.
Endlich kann eine KI mir mithilfe meiner Daten auch helfen und nicht unnötig da sein!
So muss das und nicht anders!
 
tomgit schrieb:
Das ist auch nicht viel anders, als das, was Google, Microsoft, AWS und sonst wer behauptet.
Doch, Apple fährt hier einen ganz anderen Ansatz.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
NJay schrieb:
Ich verstehe hier nicht, wie du den Unterschied zwischen Daten, die sowieso schon auf dem Gerät sind und temporären Daten, die extra gespeichert werden nicht als kritisch ansiehst.
Weil eine Schlagwortsuche, wie es bei Datenbanken normalerweise funktioniert, etwas komplett anderes ist als eine semantische Verarbeitung.
Ja, lokale Daten kann man extrahieren. Aber es ist weitaus schwieriger, den Datensatz zu finden, wenn man maximal nach Inhalten oder Titel zurückgreifen kann und bestenfalls per Regex die Datensätze durchsuchen kann.
Grundkonzept semantischer Suchen und Information Retrievel ist eben, dass es im Kontext geschieht, also mit vektorisierten Schlagworten, sodass eben nicht nach exakten Daten gesucht werden muss, sondern über Ähnlichkeiten diese extrahiert werden.
Darum fixiert sich Microsoft auch so sehr auf die Verwendung von Labels und Information Barriers beim Enterprise-Einsatz von M365 Copilot: Weil es eben bei schlechter Einrichtung unfassbar einfach macht, Informationen zu extrahieren.

BalthasarBux schrieb:
3. Bugs oder fehlerhafte Datein werden von Backup zu Backup mitgeschleift. Das ist normal.
Normal wäre, wenn das System eine regelmäßige Überprüfung der Datenbank durchführen würde - wie es eigentlich bei vielen Systemen der Fall ist oder auch sein sollte. Dass mal Dateileichen mitgenommen werden, ja, ist bekannt. Dass die Dateileichen jedoch so sehr rekonstruierbar sind, dass sich Bilder über mehrere Geräte und Backups hinweg aus den gelöschten Dateien wiederherstellbar sind, ist schon merkwürdig.

Aber gut, Apple sichert im Backup ja auch fehlerhafte Kernel... :freak:
 
  • Gefällt mir
Reaktionen: CMDCake
onkel_axel schrieb:
Außerdem ist es weiterhin der selbe 3nm Prozess von TSMC
Werden die nicht so langsam mal auf N3E oder N3X wechseln?

Ein bestehendes Design 'so mal eben' zu wechseln geht ja nicht, aber wenn es eh neue Masken gibt?...
 
Also alle Daten auswerten, die auf dem Gerät gespeichert werden, erinnert mich doch auch an Microsoft Copilot+ ... da man das dann nicht ausschalten kann, viel Spaß damit - ohne mich.
 
Ich bin unentschlossen. Die Präsentation von Apple zum Thema KI erschien mir professioneller und durchdachter im Vergleich zu der von Microsoft. Meiner Ansicht nach verfolgt Apple einen guten Ansatz, und es ist wichtig, dass wir uns mit dem Thema KI auseinandersetzen. Allerdings sehe ich auch die Notwendigkeit für stärkere Regulierungen durch die Regierung, um unerwünschte Entwicklungen zu vermeiden.
 
eigsi124 schrieb:
Apple Intelligence ist ein komplett eigenes KI Modell, dass ein groß der Funktionen lokal am Gerät rechnet (wer macht das sonst noch?). (Deswegen läufts ja auch nur auf den neuesten Geräten!)

Die kommende KI Recall von Microsoft läuft auch vollkommen lokal auf dem PC und das will ich ebenfalls nicht haben. Hoffentlich lässt sich das Apple Intelligence einfach und komplett abschalten.
 
tomgit schrieb:
Dass die Dateileichen jedoch so sehr rekonstruierbar sind, dass sich Bilder über mehrere Geräte und Backups hinweg aus den gelöschten Dateien wiederherstellbar sind, ist schon merkwürdig.
Naja, es ist nicht umsonst ein Bug gewesen. Die Bilder waren auf den Geräten nicht wirklich weg, sie waren wohl noch in der Dateien.app, aber aus der Fotos.app gelöscht. Durch einen Fehler in der Datenbank wurden sie dann wieder in die Fotos.app importiert.
 
  • Gefällt mir
Reaktionen: stevefrogs
QuantumQuirk schrieb:
Meiner Ansicht nach verfolgt Apple einen guten Ansatz
Zumindest im Vergleich zu Microsoft: Denen wurde bereits nachgewiesen, dass überhaupt ein Ansatz fehlt. Denn mit einem solchen wäre so etwas eigentlich nur mit einem unbeabsichtigten Leak einer sehr frühen Entwicklungsversion möglich.

Grundsätzlich hängt es aber auch bei Apple an der fundamentalen Vertrauensfrage.
 
Seven2758 schrieb:
Die kommende KI Recall von Microsoft läuft auch vollkommen lokal auf dem PC und das will ich ebenfalls nicht haben. Hoffentlich lässt sich das Apple Intelligence einfach und komplett abschalten.
Bei Recall gefällt mir nicht, dass Microsoft Screenshots als Datenbasis hernimmt. Da ist einfach zu viel Müll dabei, denn ich gar nicht aufheben oder berücksichtigen will.

Btw. es ist natürlich mehr als legitim, wenn jemand sagt ich brauch das nicht.
Ich denke es wird wie bisher auch Siri, einfach abschaltbar sein.
 
  • Gefällt mir
Reaktionen: Seven2758
eigsi124 schrieb:
Ich denke es wird wie bisher auch Siri,
Das hoffe ich - und erwarte ich auch bei einem Anbieter, der mit "Privacy. That’s Apple." wirbt.

Gerne auch mit granularer Freigabe. Bei Photos würde ich z. B. gerne "alles, was lokal geht" nutzen.
 
  • Gefällt mir
Reaktionen: eigsi124
ComputerJunge schrieb:
Grundsätzlich hängt es aber auch bei Apple an der fundamentalen Vertrauensfrage.

Und da macht Apple Intelligence imho nichts anders als alles was von Apple davor kam.
Bereits jetzt wertet die Fotos-App Bildinhalte aus und macht sie durchsuchbar, um gezielt alle Bilder von Mama, Papa, Katze 1 oder Katze 2 anzeigen zu lassen oder nur Bilder an einem Strand, von einem Baum etc.
Und ich kann in Mails natürlich nach Mailinhalten suchen, über Spotlight bestimmte Notizen (Mails, Kalendereinträge usw) finden und so weiter.
Man scheint diese Dinge nur einfach stärker zu verknüpfen und noch mächtiger zu machen, also nur Bilder von "Papa, der Katze 2 auf einem Strand im Arm hält, mit einem Baum im Hintergrund" die einem von Mama geschickt wurden.
Aber die Dateien selbst liegen alle bereits jetzt im "Zugriff" von Apple, wenn sie denn wollten.
Wer Apple zukünftig nicht vertraut, zumindest was die Nutzung von Apple Intelligence on-device betrifft, der kann der Firma eigentlich jetzt bereits nicht vertrauen und was Apple Intelligence in der Cloud betrifft, wer da Schindluder durch Apple vermutet kann auch jetzt kein iCloud nutzen und da er den Programmcode von iOS nicht selbst überprüft hat kann er auch nicht "wissen", dass das iPhone nicht selbst bei deaktivierter iCloud-Nutzung Daten immer mal heimlich exfiltriert wenn es nicht messbar ist.
(Messbar = Im WLAN kann man mitloggen welche Geräte wann Daten senden - im Mobilfunknetz jedoch nicht mehr. Da könnte man zwar theoretisch schauen was an Datenvolumen verbraucht wird, aber das Logging direkt auf dem Gerät würde natürlich von Apple manipuliert werden und wenn Apple bösartig Daten für die NSA exfiltriert, wer sagt dann, dass es keinen geheimen Deal zwischen NSA, BND und allen Providern gibt, dass sie Exfiltrationstraffic nicht als verbrauchten Traffic rechnen?)

Wenn man schon "Verschwörungstheorien" anhängt, dann kann man nicht einfach mittendrin stoppen und muss "unglaublich böse Firma/Regierung macht unglaublich böse Dinge" bis zum Ende weiterdenken und danach handeln.
Wenn man dies nicht tut offenbart man damit Fehler in der eigenen Logik, siehe die ganzen "Die Regierung will nicht, dass ihr von mir erfahrt, dass..." VTler die ihre "Offenbarungen" ins Internet posaunen, ohne Angst von der Regierung verschwinden lassen zu werden.
 
  • Gefällt mir
Reaktionen: knoxxi und eigsi124
Zurück
Oben