Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Ja, das System würde ihnen die Verschlüsselung von iCloud Fotos ermöglichen. Gescannt wird lokal auf dem Gerät, dann erst wird verschlüsselt und hochgeladen. So lange das iPhone keinen Positivbefund meldet, kriegt also nie irgendein Server irgendwelche verwertbaren informationen über die eigenen Bilder.
Ja, das System würde ihnen die Verschlüsselung von iCloud Fotos ermöglichen. Gescannt wird lokal auf dem Gerät, dann erst wird verschlüsselt und hochgeladen. So lange das iPhone keinen Positivbefund meldet, kriegt also nie irgendein Server irgendwelche verwertbaren informationen über die eigenen Bilder.
Vielleicht … Die Bedenken der Instrumentalisierung durch Regierungen bleiben aber. Apple könnte irgendwann sagen, wir scannen lokal vor Verschlüsselung schon mal auf verfassungswidrige Symbole und weiten das auch auf eigentlich verschlüsselte Nachrichten von Messages z.B. aus. Die Technologie dafür wäre dann da.
Jetzt kann man sich auch ausrechnen warum CSAM eingeführt werden soll. Zum hochladen von Fotos wird es nicht benötigt, da diese sowieso schon seit Januar 2020 gescannt werden.
Zumindest das FBI und vermutlich noch viele anderen Staaten haben das gefordert, um endlich flächendeckend E2E verschlüsselte Nachrichten lesen zu können. Das einführen von CSAM ist eine Nummer zu groß um es dauerhaft zu verheimlichen, der Code dazu wurde ja auch schon kurze Zeit später in IOS entdeckt. Deswegen geht Apple damit so offen um, da ja keiner was gegen den vorgeschoben Grund haben kann. Damit wird zwar kein einziges abscheuliches Verbrechen an Kinder verhindert, das war aber auch nie der eigentliche Zweck von CSAM.
Es ist und bleibt ein Backdoor, nur das Apple dieses gut verkauft.
Am Ende des Tages ist selbst eine gründlich dokumentierte, sorgfältig durchdachte und eng gefasste Hintertür immer noch eine Hintertür.
Gerade auf der Apple Seite geschaut. Es ist immer die Rede vom A12 Bionic. Der ist auch im XR gepaart mit 3GB RAM. Wäre man weiter zurück gegangen, hätte ein 8er mit 2GB RAM dabei sein müssen und das macht schon nen großen Unterschied. Ich finde es ok, dass 8(+)/X nicht mehr das komplette Featureset bekommen.
Ergänzung: Das XR in iOS 15 noch voll zu unterstützen macht auch insofern Sinn, weil es bis vor kurzem noch zum offiziellem Lineup gehörte. Das X und 8er sind schon länger raus.
Gerade auf der Apple Seite geschaut. Es ist immer die Rede vom A12 Bionic. Der ist auch im XR gepaart mit 3GB RAM. Wäre man weiter zurück gegangen, hätte ein 8er mit 2GB RAM dabei sein müssen und das macht schon nen großen Unterschied. Ich finde es ok, dass 8(+)/X nicht mehr das komplette Featureset bekommen.
Bezüglich Maßnahmen gegen Kinderpornografie, die grundlegend erstrebenswert sind: Aber nicht so.
Das ist eine Blaupause für weitere Scannings aus anderen Kategorien.
Ich habe zwar nichts auf meinem Gerät, was irgend eine Behörde etc. interessieren kann, aber mein Datenmüll gehört mir. Da hat niemand dran zu schnüffeln.
Ich verurteile so etwas.
Genauso, wie das Blocking einer xy-Messenger-Telegram-Gruppe durch das Betriebssystem garnicht geht. Das ist Zensur.
Für den Fall, dass etwas ungesetzlich ist, muss der Gesetzgeber aktiv werden und Maßnahmen ergreifen den Content zu entfernen.
Alles andere ist Schwachfug. Und dumm.
Wenn die Komponente bei IO15 mit drin ist, gibts bei mir kein Update.
Und mittelfristig wird es dann nur ein altes Nokia oder so...
Ich sehe eigentlich nur zwei Punkte, der mir Bauchschmerzen macht. Falschmeldungen, die am Ende nicht falsch sind. Was ich damit meine ist, wenn private Fotos vielleicht abgezogen wurden und auf solchen Seiten auftauchen.
CSAM = Child Sexual Abuse Material
Die prüde USA hat zwar ein echtes Problem mit Sexualität und da teils sehr krude Vorstellungen was schon als Missbrauch gilt (immerhin liegt in einigen Staaten das Age of Consent sogar erst bei 18!), aber ich bin doch sehr zuversichtlich, dass die Bilder der eigenen Kinder nackt im Garten oder auch z.B. später im FKK-Urlaub von keiner für die Datenbank zuständigen Stelle als CSAM betrachtet werden.
@teufelernie Und wie soll der Gesetzgeber solche Inhalte aus verschlüsselter Kommunikation und von verschlüsseltem Speicher herausfinden und löschen?
Strafverfolgungsbehörden heulen doch immer nach einem Generalschlüssel für Verschlüssung, mit dieser Prüfung die Apple einführt nehmen sie den Behörden den großen Punkt „Kindesmissbrauch“ als öffentliches Druckmittel weg, denn der könnte nun auch aufgedeckt werden wenn iCloud komplett verschlüsselt wäre.
Das sind Pläne, die bestanden - ich bezog mich auf die aktuelle Implementierung. Das hat nichts mit dem Teil zu tun, auf den ich antworte
Panoramix schrieb:
Es geht doch gar nicht nur um die Fotos... es geht um das Aufbrechen der bisher (angeblich) lückenlosen Absicherung der Geräte gegen Dritte und selbst Apple, und die Konsequenzen daraus bzgl. der Interessen staatlicher Stellen.
Ansonsten hab ich auch die Diskussion aber eh keine große Lust. Apple erstellt einen Hashwert der Datei. Die Daten werden also schon vor dem Hochladen gescannt und nicht von den Apple Servern. Ich nutze auch gmail und cloud, da wird alles online ohne Verschlüsselung gescannt.. Apples Variante stört mich nicht bzw. finde ich da sogar sympathischer, da ich mich nicht meine gegen Apple oder den Staat schützen zu wollen sondern einfach gegen Verlust der Daten und irgendwelche Hackerkiddies. Dafür ist es gut und vor allem sehr leicht umzusetzen. Ob die NSA nun meine Gmail mitliest, was sie nicht macht da viel zu aufwendig bei Milliarden Nutzern, ist mir egal.
Das erste SE und das 6s erhalten noch iOS 15?
Man kann von Apple echt halten was man will, aber so muss Support aussehen
(Getippt auf meinem Pixel 5 😅)
Ganz so einfach ist das nicht. Da wird nicht nur ein Strafbefehl verschickt sondern solche Sachen führen zu Hausdurchsuchungen und da werden dann alle Geräte eingesackt, krach gemacht und bei Nachbarn bist du dann als Schwerkrimineller abgespeichert ;I)
Das Ganze erfolgt aber auf richterliche Anordnung und vorheriger Sichtung der Beweislage/Verdachtsmomente. Gibt es denn Statistiken über False Positives bei Hausdurchsuchungen?
Bei mir könnten die gleich mal putzen!
@teufelernie,
wie kommst du darauf, dass dein Datenmüll nur dir gehört? Je nachdem was du fotografiert wird, hast du nicht einmal das Recht am Bild.
Dein Footprint gehört dir schon mal gar nicht alleine nur weil du ihn verursachst ...
Es gibt sicherlich Leute, die behaupten, dass man das Recht auf Anonymität freiwillig verwirkt wenn man nur einen öffentlichen Platz aufsucht. Ganz von der Hand zu weisen ist das nicht ...
Das Ganze erfolgt aber auf richterliche Anordnung und vorheriger Sichtung der Beweislage/Verdachtsmomente. Gibt es denn Statistiken über False Positives bei Hausdurchsuchungen?
Bei mir könnten die gleich mal putzen!
In Hamburg gab es schon für weniger Sachen Durchsuchungen. Da reicht schon ein beleidigter Innenminister und der Richter unterschreibt meistens sowas einfach. Ist weniger stressig als erst ein Widerspruch zu formulieren.
Und wie soll der Gesetzgeber solche Inhalte aus verschlüsselter Kommunikation und von verschlüsseltem Speicher herausfinden und löschen?
Strafverfolgungsbehörden heulen doch immer nach einem Generalschlüssel für Verschlüssung, mit dieser Prüfung die Apple einführt nehmen sie den Behörden den großen Punkt
Apple zeigt ja jetzt, dass es Möglichkeiten gibt und genutzt werden. Da sind dann die bisherigen Argumente Apples bei den entsprechenden Staaten weniger überzeugend.
Besonders heise.de braucht seit iOS 14.6? Kann auch etwas später mit 14.7 gekommen sein, satte 15 Sekunden zum laden! Das ist somit für mich nicht mehr wirklich spaßig. War gefühlt Anfang des Jahres noch anders. Wenn iOS15 das behebt wird mein iPhone 6S auch noch bis zum 7. Jahr genutzt 😁
Der beste Umweltschutz ist eben nicht zu konsumieren und wenn Apple schon SIEBEN! Jahre Support bietet, warum nicht mitmachen? 🙂