@Butterhützchen Weil Apple sehr viel Wert darauf legt, dass die Daten des Nutzers in der Hand des Nutzers bleiben und auch Anstrengungen unternimmt und diese auch erklärt, um genau das umzusetzen.
Das ist ja auch der Grund, warum Apple Intelligence nicht so viel kann wie andere KI-Systeme, da es drei Stufen gibt und diese alle auf Datenschutz ausgelegt sind.
Die erste Stufe läuft direkt auf dem iPhone, Daten verlassen nicht das Gerät.
Die zweite Stufe, wenn die KI-Leistung auf dem Gerät nicht ausreicht, läuft in einer speziellen Apple Intelligence-Cloud, bei der für den Nutzer quasi kurzzeitig eine private Instanz eingerichtet wird und im Anschluss an die Nutzung unwiederbringlich gelöscht wird. Daten die für die Verarbeitung an diese AI-Cloud weitergegeben werden verlassen diese Instanz nicht und Apple erhält niemals Zugriff drauf.
Die dritte Stufe schließlich ist eine Einbindung von ChatGPT (und zukünftig auch anderen Modellen, Apple will da iirc offen für andere sein), diese ist nutzbar wenn man z.B. etwas machen möchte, wo diese anderen externen KI-Modelle geeigneter für sind.
Da fließen Daten an diesen externen Anbieter, aber:
1. Soweit ich mich erinnere werden auch diese Daten anonymisiert und sind - sofern die Inhalte selbst nicht die Identität verraten - nicht einem speziellen Nutzer zuweisbar.
(Man kann jedoch auch sein eigenes OpenAI-Konto für kostenpflichtige Funktionen nutzen, dann ist die Identität natürlich klar)
2. Man wird (iirc jedesmal) darauf hingewiesen, dass man nun Apple Intelligence "verlässt" und Daten an externe Dienste fließen können.
Dass man Apple da also mehr vertraut liegt einfach an dem Hintergrund der jeweiligen Firma, eine setzt sich sehr für Datenschutz und Privatsphäre ein, der anderen sind diese Aspekte relativ "egal".
Selbst wenn man die Snowden-Enthüllungen betrachtet: Als die NSA anfragte schrie Microsoft ganz laut "Hier! Gerne!", während Apple erst sehr spät (und wahrscheinlich widerwillig!?) den Programmen beitrat.