News Offener Brief: Bürgerrechtler kritisieren Apples Überwachungspläne

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Herdware schrieb:
und schon wird vollautomatisch die Polizei alarmiert.
Und schauen wir mal etwas in die Zukunft und schielen dabei leicht auf China:
Der eigene Score wird (automatisch) verringert und man fragt sich dann etwas später weswegen man gekündigt wurde/nicht ausreisen darf/das Konto gesperrt wurde/usw.
Und das Beste kommt zum Schluss: keiner ist in der Lage das zu beheben, weil die meisten davon keine Ahnung haben.
Dann passiert so etwas wie in Österreich, wo die Behörde nicht mehr das Telefon abnimmt, könnte ja einer dran sein der Arbeit macht!
 
  • Gefällt mir
Reaktionen: ruthi91
Janami25 schrieb:
Es geht hier also nicht nur um Bilder, sondern um sämtliche Medien und Nachrichten. Man muss wirklich jedes Wort abwägen, was man noch mailt oder schreibt, oder welches Foto / Video man hochlädt. Klar, ich habe dahingehend ein ruhiges Gewissen, aber ein Unwohlsein beschleicht mich schon, wenn alle meine Nachrichten und Mails jetzt gescannt werden, und eine Fehlalarm mein Leben zerstören könnte.

Totalüberwachung Pur.

Aber das ist doch längst und ganze ohne Apple alltäglich. Vielleicht noch einmal ansehen, anhören was Edward Snowden geleakt hat. Das ist eine totale Überwachung.
 
  • Gefällt mir
Reaktionen: cruse
Janami25 schrieb:
Dann hättest du doch sicherlich nichts dagegen, wenn jederzeit deine Wohnung überwacht wird, vielleicht auch mit den Kameras oder Mikros an all deinen Geräten. Denn wenn du nichts zu verbergen hast, kann man da doch wunderbar Kameras drin installieren, oder es kommt regelmässig jemand zur Inspektion. Es ist ja nur zu deinem Vorteil, und bezeugt dann auch ganz sicher, wo du während eines Verbrechens warst und was du getan hast. Vielleicht auch gleich noch deine Surf- und Videogewohnheiten direkt übermitteln, weil du ja kein schlechtes Gewissen hast.

Immerhin heiligt ja anscheinend bei Dir / Euch jedes Mittel den Zweck. Wenn Euch die Privatsphäre nicht interessiert, gebt sie doch dann vollständig auf, denn: IHR HABT JA NICHTS ZU VERBERGEN.
Wenn es meiner Sicherheit dient warum nicht?
 
brabe schrieb:
Manche Kinder kennen aber auch die Pins der Eltern und verwenden deren Handys. Was passiert dann?
Wodurch erkennt das Gerät, wie alt man ist? Wenn man sich als erwachsener also als 14 Jähriger im 2. Gerät einträgt, dann kann ein Pädophiler sich solche Bilder schicken lassen? Das Problem ist also, dass es viel mehr false positiv geben wird und die echten Verbrecher sich im Darknet mit Sicherheit wieder irgendwelche Hacks besorgen werden.

Du vermischt da zwei Dinge, die Apple dummerweise aber auch zeitgleich angekündigt hat!

1. iCloud-CSAM-Scan
2. Lokaler iMessage-Nacktfoto-Scan

1. Das basiert auf Hashes bekannter Bilder, die Strafverfolgungsbehörden als "Kinderpornografie" bekannt sind.
2. Das funktioniert aufgrund einer Erkennung von Bildinhalten durch KI.

Zu 1. Beim Upload in iCloud kann kein neues Material in dem Kindesmissbrauch gezeigt wird erkannt werden, nur bekannte Bilder.
Zu 2. Das hat nichts mit "Kinderpornografie" zu tun und wenn ein Kind seinem Freund mit dem Handy der Eltern Nacktfotos von sich selbst schicken würde genau nichts passieren! Das Material ist nicht auf der CSAM-Liste und triggert nicht den iCloud-Upload und der iPhone-Account der Eltern ist ein Erwachsenen-Account, d.h. es wird auch nicht die lokale Bilderkennung getriggert - und selbst wenn würde allerhöchstens direkt auf dem Gerät gewarnt (was nicht passieren wird), d.h. das Kind klickt das einfach weg und Ende.
Apple oder gar Strafverfolgungsbehörden werden nichts (!) davon erfahren.

HateyHate schrieb:
Die Hashes kommen von zwei verschiedenen NGOs und Apple bekommt nicht das Material in Bildform. Wenn diese NGOs kompromittiert werden, sind auch die Hashes als kompromittiert einzustufen und dem System kann nicht mehr vertraut werden. Dieses System ist aber direkt in deinem iOS eingebaut und du hast keine Möglichkeit (außer Jailbreak) es zu deaktivieren.

Wenn diese NGOs kompromittiert werden tritt der nächste Schritt in Kraft - die Scanfunktion erzeugt von Bildern bei denen Hashkollisionen erkannt werden auflösungsreduzierte Stellvertreter die zusammen mit der Meldung von Apple abgerufen werden können.

Vergleichbar (aber wahrscheinlich noch stärker abstrahiert) dazu:

tank man.jpg


Der Mitarbeiter, der die Meldung prüft wird sehen, dass das eingebettete Bild kein Kindesmissbrauch ist.

Apple hat da schon ein bis zwei Schritte weitergedacht als die Forenkrieger hier...
 
  • Gefällt mir
Reaktionen: brabe
Miuwa schrieb:
Ganz normale Ermittlungsarbeit. Wäre mal ein Anfang.
Kindesmissbrauch findet meines Wissens hauptsächlich im familiären Umfeld statt.
Da wäre doch mehr Mittel für Jugendämter und Schulen toll. Damit sich Kinder an jemanden wenden können und Auffälligkeiten nachgegangen wird.
Oder wie wäre es mit Entstigmatisierung von pädophilen Neigungen und niedrigschwelligen therapeutischen Angeboten. So als Prävention.
Ist halt politisch/PR-mäßig nicht so griffig und anstrengender.
 
Leider muß man auch hier auf CB zur Kenntnis nehmen, daß die "Ich habe nichts zu verbergen"-Fraktion eindeutig Zulauf hat. Passend dazu hat Edward Snowden einmal gesagt:
Arguing that you don't care about the right to privacy because you have nothing to hide is no different than saying you don't care about free speech because you have nothing to say.
Das größte Problem an Apples Plänen ist, daß es sich hier um etwas handelt das man im englischen Sprachraum eine "slippery slope" (also einen rutschigen Abhang) nennt. Die Überwachung direkt auf den Geräten fängt mit Dingen an die vermutlich jeder geistig gesunde Mensch für verwerflich hält. Darstellungen von sexuellem (Kindes-)mißbrauch werden wahrscheinlich in jeder Kultur als in keiner Hinsicht akzeptabel angesehen. Das Problem ist nur, daß es dabei nicht bleiben wird.

Ist die Überwachungsinfrastruktur erst einmal installiert, dann wird es schwieriger sich dagegen zu wehren, daß auch gegen andere Dinge vorgegangen wird. Was ist mit Mobbing oder Androhung von körperlicher Gewalt? Was ist mit Drogen- oder Menschenhandel? Die Argumentation ist immer dieselbe, daß derartige Dinge schließlich kein anständiger Mensch gut finden könne. Wir wollen doch nur eine bessere Gesellschaft wird dann gesagt. Ebenso wie der Weg zur Hölle ist der in die Überwachungsgesellschaft mit guten Vorsätzen geradezu gepflastert.

Am Ende steht dann das, was Benjamin Franklin einst sagte:
Those who would give up essential Liberty, to purchase a little temporary Safety, deserve neither Liberty nor Safety.
Die Redefreiheit ist eine solche essentielle Freiheit. Wer immer damit rechnen muß, daß das was gesagt wurde sofort einem scheinbar unsichtbaren und allmächtigen Aufseher zur Kenntnis gelangt, der wird natürlich früher oder später genau überlegen was er wem wo sagt. Die Möglichkeit die eigenen Ansichten frei UND anonym zu äußern ist eine der Säulen der Demokratie. Wo dies nicht mehr gewährleistet ist wird die Demokratie früher oder später auch verloren gehen. Es mag vielleicht so aussehen wie Demokratie, es mag vielleicht noch so genannt werden, aber es ist dann nur noch eine Spottgeburt von der gesagt wird "Seht her, das ist unsere Demokratie!".

Am Ende werden wir dann in dem Stadium anlangen das Phil Zimmerman mit den treffenden Worten beschrieb:
If privacy is outlawed, only outlaws will have privacy.

Mein nächstes Smartphone wird wahrscheinlich eines von Huawei. Nein, ich glaube nicht, daß die chinesische Regierung mehr Vertrauen verdient als unsere Regierungen. Aber ich glaube, daß Huawei von vielen westlichen Medien und Geheimdiensten beobachtet wird die alle darauf warten sagen zu können "Seht her, wir haben doch immer gesagt, daß Huawei alle ausspionieren will, und hier ist der Beweis!". Wenn Huawei also irgendwelche Schweinereien vorhat dann ist es ziemlich unwahrscheinlich, daß sie es lange geheim halten könnten.
 
  • Gefällt mir
Reaktionen: chartmix, brabe und Seven2758
Das Scannen der Chats in iMessage und die Benachrichtigung der Eltern ist mMn eine Katastrophe, da es dadurch erst recht zu Kindesmisshandlungen durch Gewalt nun aber von den eigenen Eltern kommen kann, oder gar zu Ehrenmorden in anderen Kulturen. Apple geht wohl davon aus, dass Eltern-Kind-Beziehungen weltweit immer optimal sind. Man kann nur hoffen das jeder Fall zumindest in Amerika vor Gericht gegen Apple verhandelt wird.

Über das CSAM Thema habe ich ja schon einiges in anderen Threads geschrieben und bin damit bestimmt so einigen damit auf den Geist gegangen. :D Leider ist das Thema zu wichtig und sollte Apple damit wieder durchkommen, wird es in Zukunft in vielen Bereichen der IT zu Veränderungen kommen.

Deswegen nochmals kurz angerissen, Apple scannt seit Januar 2020 sowieso schon die iCloud unter anderem nach KiPo Material. Damit erfüllen sie schon immer diese Anforderung!

https://www.apfelpage.de/news/apple-scannt-die-icloud-automatisiert-nach-kinderpornographie/

Jetzt bauen sie mit CSAM für viel Geld ein zusätzliches System auf, um auf KiPo Material bevor es in die iCloud geladen wird lokal auf dem iPhone zu überprüfen. Da kann man schon ins Grübeln kommen was dieser Unfug eigentlich soll. Zwei Systeme die im Endeffekt das gleiche machen, nur das jetzt eine lokale Überwachung auf dem iPhone dazugekommen ist. Daran sieht man das die Begründung von Apple für die Einführung von CSAM nicht die Wahrheit ist.

Ich denke das die US-Regierung (besonders das FBI) Zugriff auf die iPhones gefordert hat, um unter anderem auch auf E2E verschlüsselten Nachrichten zugreifen zu können. Man hat bei Apple überlegt wie man das am besten umsetzt und dem Nutzer schlussendlich auch verkaufen kann. Da stand bestimmt die Terrorismus Bekämpfung und KiPo zur Auswahl, da man bei diesen Themen den meisten Zuspruch von der Bevölkerung erwartet.

Zusammenfassend, KiPo und anderen Missbrauch wurde schon immer in der iCloud gescannt, nur das jetzt eine Hintertür lokal auf dem Gerät dazugekommen ist. Die Electronic Frontier Foundation bezeichnet die Funktion als Backdoor.

Am Ende des Tages ist selbst eine gründlich dokumentierte, sorgfältig durchdachte und eng gefasste Hintertür immer noch eine Hintertür.

Das Apple damit so offen umgeht hat auch seinen Grund. Erst mal haben die vermutlich nicht mit so einem Gegenwind gerechnet. Eine heimliche Einführung dieser Funktion wäre bei Entdeckung für Apple aber der Super-GAU geworden.

Beachten sollte man auch das die lokale Überprüfung und damit die Hintertür sich nicht nur auf IOS beschränkt, sondern im gleichen Umfang auch mit macOS12 eingeführt wird. Da sieht man rückwirkend die Funktion in Big Sur für das umgehen von Firewalls und VPNs von Apple mit ganz anderen Augen. Begründet wurde das damals mit mehr Sicherheit und Zuverlässigkeit der Apple eigenen Dienste. Sicherheitsforscher waren auch da schon ganz anderer Meinung, denn in Wahrheit war es schon der erste Schritt für das nun eingeführte Backdoor. Unter IOS war das umgehen von VPNs vermutlich schon immer so.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: brabe, Seven2758 und HateyHate
Puh, endlich ein Artikel von Computerbase zu dem Thema :)

Erstmal ein ein paar Sachen direkt eingehen, die mir hier aufgefallen sind.
mcsteph schrieb:
Ich habe nix zu verbergen
Wie das ausgehen kann erleben aktuell hunderte, wenn nicht tausende afghanische Ortskraefte, die jetzt verzweifelt versuchen zu fliehen. Die USA versuchen jetzt noch ihre Webseiten zu saeubern, aber die Akten sind eh in der Hand der Taliban...

shoKuu schrieb:
Das ist doch einfach absurd und heuchlerisch wie sich hier die Leute im Forum aufregen. Die Hälfte davon hat sicherlich Alexa zuhause, ein modernen PKW mit Online Anbindung, bezahlen täglich über Paypal, nutzen x Apps mit erhöhten Rechten, nutzen diverse Socialmedia Plattformen inkl. Foto Upload, gehen außer Haus, usw...
Keine Alexa oder aehnliches
Ziemlich altes Auto ohne E-Call
Paypal -> Ja, aber nicht taeglich
Auf meinem Handy sind vielleicht 5 Apps, WhatsApp gewungenermassen, aber das bekommt so wenig Rechte wies geht, zB keinen Zugriff aufs Adressbuch
Kein "social Media", abgesehen von klassischen Foren wie diesem
Was ausser Haus gehen jetzt hier in der Liste soll weiss ich nicht so recht...

Ich besitze zwei iGeraete (ein iPhone 6s und ein iPad Air2) weil sie schlicht funktionieren, und der Softwaresupport von Apple vorbildlich ist. Die iCloud verwende ich nicht.

Anyway, zum Thema hatte ich schon eine ganze Weile einen Post hier im Entwurf, den ich aber nachdem sich hier mehr als eine Woche nach erstem Bekanntwerden der Plaene nichts getan hat, schliesslich verworfen hatte.

Viele Argumente die ich dort geschildert hatte sind hier ja bereits gebracht worden.
Kritisch sehe ich persoenlich vorallem zwei Punkte:

Die "slippery Slope". Wenn die Technik einmal etabliert ist, werden sich frueher oder spaeter weitere Anwendungsfaelle finden. Da habe ich einen praegnanten Kommentar bei The Register gelesen:
https://forums.theregister.com/forum/all/2021/08/05/apple_csam_scanning/#c_4309795 schrieb:
"We're only using it to scan for images of kiddie porn. Are you on the side of the kiddie fiddlers?"
"We're only using it to scan for images glorifying terrorism. Are you a terrorist?"
"We're only using it to scan for images of serious crimes. Why do you sympathize with murderers?"
"We're only using it to scan for images of banned ideologies. What, are you a neo-Nazi?"
"We're only using it to scan for images of racist or TERF nature. Such thought is wrong and is banned."
"We're only using it to scan for images showing support for Antifa."
"We're only using it here in China to scan for images showing you support the Hong Kong democracy movement."
"We're only using it here in Spain to scan for Catalan separatist imagery..."
Was von Apples Aussagen zu halten ist, diese Technik keinen authoritaeren Staaten zur Verfuegung zu stellen, sieht man anschaulich an Appels Umgang mit China: Sobald es um genug Geld geht wird die Technik zur Verfuegung stehen. Ein Verkausverbot wird Apple nicht riskieren. In Ungarn gibts dann vielleicht Probleme bei Bildern mit 'nem Regenbogen im Hintergrund?
Und wielang es bei einem Scan ausschliesslich von Bildern vor dem Hochladen in die iCloud bleibt, sei auch dahingestellt.
Fuer die Begehrlichkeiten gibts ja auch hier in Deutschland das schoene Beispiel mit dem Kennzeichenscanning.

Dann ist da aber auch noch die Zuverlaessigkeit dieser Technik. Als ich meinen Entwurf schrieb war mir die erzeugte Hashkollision noch nicht bekannt. Das Risiko dafuer aber sehr wohl. Das es so schnell geht hatte ich aber erwartet, zeigt das Problem:
Als User stehts du erstmal doof da, wenn du von einem false positive betroffen bist. Denn laut den Entwuerfen wird erstmal direkt deine Apple ID gesperrt wenn was gefunden wird, und Betroffene muessen sich aktiv melden um gegen diese, vermutlich vollautomatische, Sperrung vorzugehen.
Jenachdem wer das dann mitbekommt (zB durch eine geteilte Apple-ID auf dem Familien iPad), koennen die Betroffenen durchaus in Erklaerungsnoete kommen.
Es braucht nicht viel um eine Existenz zu ruinieren.
 
  • Gefällt mir
Reaktionen: chartmix, Seven2758 und Serana
China gefällt das und Apple liebt China. Wenn sie im Westen ein paar iPhones weniger verkaufen, ist ihnen das scheißegal, solange die Geräte im Reich der Mitte immer mehr Abnehmer finden.

Apple wird deshalb auch weiterhin Dinge tun, die China gut findet. Und das bedeutet nun mal eher selten mehr Datenschutz.

Muss man sich dran gewöhnen, Geld regiert die Welt.
 
Ich frage mich die ganze Zeit schon, ob Apple schlicht und einfach nicht die Bilder in der iCloud selber scannen kann, weil eben verschlüselt? Und es halt nur so geht, bevor bei der Übertragung die Bilder verschlüselt werden.
Hatte neulich bei Gamestar dazu ein Video gesehen, wo auch mal Zahlen genannt wurden, wieviel da so von Apple im Jahr gemeldet wird (um die 200 Vorfälle). Das klingt ja so, also ob es da wirklich Gründe gibt, oder einfach die Erzeuger und Verbreiter kinderpornografischer Inhalte keine iPhones haben.

Die anderen Cloud-Anbieter machen das in ihren Clouds ja schon länger und Gott weiß, was die da alles scannen, auswerten und weiterverwerten. Weiß halt wohl keiner, deswegen kein Aufschrei?

Ich will das garnicht schön reden, was Apple hier vor hat und finde es auch sehr gefährlich. Das die "Anderen" es auch so machen (nur direkt in der Cloud), macht es nicht besser oder relativiert es. Ich würde halt gern den technischen Hintergrund dazu erfahren wollen.
Die bei Apple sind ja nicht blöd, ist ja nicht wie bei den deutschen Politikern, wo jeden Tag nen Dummer aufsteht und sich ausdünsten muss, die haben ja sicher schon drüber nachgedacht, was Sie da machen. Und wenn Sie es ohne Gegenwind einfach in der iCloud machen könnten, würden Sie das tun und nicht so einen Shitstorm lostreten wollen.
 
EJC schrieb:
Ich frage mich die ganze Zeit schon, ob Apple schlicht und einfach nicht die Bilder in der iCloud selber scannen kann, weil eben verschlüselt? Und es halt nur so geht, bevor bei der Übertragung die Bilder verschlüselt werden.
Hatte neulich bei Gamestar dazu ein Video gesehen, wo auch mal Zahlen genannt wurden, wieviel da so von Apple im Jahr gemeldet wird (um die 200 Vorfälle). Das klingt ja so, also ob es da wirklich Gründe gibt, oder einfach die Erzeuger und Verbreiter kinderpornografischer Inhalte keine iPhones haben.

Die anderen Cloud-Anbieter machen das in ihren Clouds ja schon länger und Gott weiß, was die da alles scannen, auswerten und weiterverwerten. Weiß halt wohl keiner, deswegen kein Aufschrei?

Ich will das garnicht schön reden, was Apple hier vor hat und finde es auch sehr gefährlich. Das die "Anderen" es auch so machen (nur direkt in der Cloud), macht es nicht besser oder relativiert es. Ich würde halt gern den technischen Hintergrund dazu erfahren wollen.
Die bei Apple sind ja nicht blöd, ist ja nicht wie bei den deutschen Politikern, wo jeden Tag nen Dummer aufsteht und sich ausdünsten muss, die haben ja sicher schon drüber nachgedacht, was Sie da machen. Und wenn Sie es ohne Gegenwind einfach in der iCloud machen könnten, würden Sie das tun und nicht so einen Shitstorm lostreten wollen.

Ja, ich meine das ist das Problem. Meine da was gelesen zu haben. Aber frag mich jetzt nicht nach der Quelle.. die habe ich dazu leider gerade nicht.

edit: Oder anders, noch sind Bilder nicht verschlüsselt in der Cloud es könnte aber sein das Apple genau das vor hat und so eine Möglichkeit sucht vorher wenigstens noch sicherzustellen das hier keine Bilder von Kindesmissbrauch in die Cloud gelangen.
 
iSight2TheBlind schrieb:
Wenn diese NGOs kompromittiert werden tritt der nächste Schritt in Kraft - die Scanfunktion erzeugt von Bildern bei denen Hashkollisionen erkannt werden auflösungsreduzierte Stellvertreter die zusammen mit der Meldung von Apple abgerufen werden können.

Vergleichbar (aber wahrscheinlich noch stärker abstrahiert) dazu:

Anhang anzeigen 1114376

Der Mitarbeiter, der die Meldung prüft wird sehen, dass das eingebettete Bild kein Kindesmissbrauch ist.

Apple hat da schon ein bis zwei Schritte weitergedacht als die Forenkrieger hier...

Das ist doch das perfekte Beispiel für möglichen Missbrauch, den du da gebracht hast.

Sollte Apple dieses System in China, Taiwan oder Hongkong scharf stellen oder scharf stellen müssen! sind es genau solche Bilder die Probleme bereiten werden. Nachdem Apple die icloud in China bereits in chinesische Hände abgeben musste, werden auch die Überprüfungen der Fälle die markiert wurden, durch chinesische Firmen, Polizisten oder Regierungsmitarbeiter durchgeführt.

Und diese werden, bei dem von dir geposteten Bild, garantiert nicht sagen: "Ach, ist nur ein false/positive. Nein, die werden erstmal deinen social score um zwei Punkte nach unten regulieren. Genau das ist doch die Gefahr. Und Apple wird den chinesischen Markt niemals verlassen. Dort lässt sich nicht einmal die Zahlenfolge" 8964" auf Apple Geräte gravieren. Das entspricht nämlich dem Datum des Tian’anmen-Massakers, von dem dein Bild stammt

Was unbedingt verstanden werden muss ist, dass KiPo nur die löbliche, erste Zwischenstufe darstellen. Danach geht es weiter mit Terrorismusabwehr, Extremismus usw. So war es doch schon immer. Warum sollte es diesmal anders sein? Was hat Apple in petto bzw. was macht sie so sicher, dass sie immer und überall jede Begehrlichkeit durch Regierungen und ähnliches ablehnen können?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: chartmix
Das heißt die Apple Mitarbeiter schauen sich dann den ganzen Tag bei false postives Kinderpornografie an? Wie geht das, normal muss sowas ja von speziell ausgebildeten Fachkräften angeschaut und beurteilt werden.
 
chartmix schrieb:
Toller Diskussionsstil.

Sorry, was ist jetzt gerade dein Problem?

So eine Funktion führt man nicht einfach so ein und die möglichen Probleme die dadurch entstehen könnten wird man bei Apple ganz sicher bedacht haben.

Wie eben der Standardvorwurf: "Dann fügt China anti-chinesisches Material zu der Liste hinzu und kriegt von Apple eine Liste von Dissidenten geliefert, die dann in Lagern verschwinden".
Genau dafür hat Apple von Anfang an eine Lösung eingebaut...
Apple also said that the on-device database of known CSAM images contains only entries that were independently submitted by two or more child safety organizations operating in separate sovereign jurisdictions and not under the control of the same government.

Apple bezieht diese Hashes von separaten Kinderschutzorganisationen und wenn es jemand schafft dann dort wo diese zusammengeführt bzw. miteinander abgeglichen werden zusätzliche Hashes zu platzieren, die z.B. anti-chinesisches Material abbilden (was nebenbei gesagt momentan eh irrelevant wäre, da die Scanfunktion erstmal nur in den USA eingeführt wird), dann ist er so tief in Apples Netz drin, dass er auch einfach direkt in die (aktuell eben noch "unverschlüsselten") iCloud-Accounts solche Inhalte injizieren könnte und - da Schurkenstaat - die Person einfach grundlos verhaftet, dann für einen Schauprozess Zugriff auf den iCloud Account verlangt und dann - Überraschung! - solches Material dort vorfindet.

Before an image is stored in iCloud Photos, Apple said an on-device matching process is performed for that image against the unreadable set of known CSAM hashes. If there is a match, the device creates a cryptographic safety voucher. This voucher is uploaded to iCloud Photos along with the image, and once an undisclosed threshold of matches is exceeded, Apple is able to interpret the contents of the vouchers for CSAM matches. Apple then manually reviews each report to confirm there is a match, disables the user's iCloud account, and sends a report to NCMEC.
(Beide Zitate stammen von MacRumors)

HateyHate hat mich direkt angegriffen und meinen Kommentar diskreditiert, dabei aber selbst eine Aussage getätigt die faktisch falsch ist, da sie von den schon getroffenen Sicherheitsmechanismen des System unmöglich gemacht wird.
Ich habe aber auch schon mehr zu dem Thema gelesen als nur diesen Newsartikel oder Empörungkommentare anderswo, die eben doch nur ein einseitiges Bild wiedergeben.

Da ist der Begriff "Forenkrieger" noch ziemlich harmlos und zu einer Diskussion gehört eben auch, dass man informiert daran teilnimmt.
Denn oberflächliche Kommentare nach dem Motto "Es ist schon alles gesagt, nur noch nicht von jedem" helfen niemandem.
 
Neutronal schrieb:
Wenn es meiner Sicherheit dient warum nicht?
Und was willst du machen, damit dir zur Sicherheit kein Flugzeug auf den Kopf fällt, oder du nicht überfahren wirst ? Dich einkerkern ? GPS Überwachung am Körper ?
Ich finde, du könntest gut zu anderen Politischen Systemen passen, denn demokratische Werte scheinen dir fremd zu sein, wenn du bereit bist, alles für die Sicherheit zu opfern.

Nun gut, Diskussion sinnlos.
 
EJC schrieb:
Ich frage mich die ganze Zeit schon, ob Apple schlicht und einfach nicht die Bilder in der iCloud selber scannen kann, weil eben verschlüselt? Und es halt nur so geht, bevor bei der Übertragung die Bilder verschlüselt werden.
Hatte neulich bei Gamestar dazu ein Video gesehen, wo auch mal Zahlen genannt wurden, wieviel da so von Apple im Jahr gemeldet wird (um die 200 Vorfälle).

Ist wirklich nicht persönlich gemeint, aber wie viele davon sind Falschmeldungen, weil die KI nicht richtig arbeitet ? Und wie viele davon wurden tatsächlich bestraft, ohne das die viel zu laschen Kinderschutzsetze mal wieder eine Bewährung zulassen oder nicht greifen ? Als Vater bin ich schon lange sauer auf den Gesetzgeber, und jetzt kommt noch so eine "Scheinkontrolle", bei der ausnahmslos alle verdächtigt werden...Als wenn es tatsächlich darum gehen würde.

Kinder haben und hatten nie eine politische Lobby, sonst würden die Kiddies heute nicht immer noch in den Schulen auf eine Lüftungsanalage warten. Die Schulplätze verrotten, die Kinderspielplätze werden immer weniger, und strafen für Raubkopien fallen teilweise höher aus, als für Kindesmissbrauch. 😤😡

Ich muss mich nicht veräppeln lassen, ein bisschen Gehirn habe ich auch noch.

Dicke Strafen mit Abschreckung für KiPo hätten hier mehr geholfen, als dieser totalitäre Überwachungsmachanismus durch Konzerne und Staat. Aber dahingehend macht man gar nichts, nur diese Pseudo-Überwachung.

Deswegen ist das ganze auch mehr Vorwand, als das es die wirklichen Verbrecher angreift, die hinter fetten Netzwerken verschlüsselt Ihr Unwesen treiben, und ganz sicher nicht so etwas in die Cloud hochladen. Und dann sowieso wegen den milden Kinderschutzgesetzen meist davon kommen. Lächerlich das ganze...
 
  • Gefällt mir
Reaktionen: Cordesh
Ich gehörte früher auch zu der "ich hab doch nichts zu verbergen..." Fraktion.
Aber wenn man sich etwas informiert und sieht was z. B. gerade aktuell in Afghanistan passiert, dann sollte man diese Einstellung überdenken.

Sowas (scannen auf KiPo) ist möglicherweise erst der Anfang.
Apple wird das sicher technisch gut hinbekommen.
Die werden auch Wege finden, dass es nicht mehr so einfach sein wird das System zu täuschen.
Ich mag Apple zwar nicht, aber ich glaube denen schon, dass die keine unlauteren Absichten haben.
Aber dennoch machen die etwas, was einfach nicht deren Aufgabe ist.
Das ist die Aufgabe der Strafverfolgungsbehörden und nicht von privaten Unternehmen.
Wenn die das System erst mal am laufen haben kann das wunderbar trainiert werden und im nächsten Schritt dann für alle möglichen anderen Zwecke benutzt werden.
Und wenn man das Apple durchgehen lässt, dann machen andere es auch.
 
  • Gefällt mir
Reaktionen: chartmix und Janami25
ZikaEr schrieb:
Wir können nur den Druck auf Apple aufbauen und hoffen, dass in den nächsten Tagen/Wochen/Monate das Ganze so zu einem PR Desaster wird, dass Apple zurückrudert.
Dann wird das Ganze geheim genutzt ohne Wissen der Nutzer. Es wird schon einen Grund haben, wieso man das so publik macht, obwohl man genau wissen muss was das für ein Medienecho gibt.
 
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben