News Offener Brief: Bürgerrechtler kritisieren Apples Überwachungspläne

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Bonanca schrieb:
Ich Frage mich immer noch, wie sich Apple das dann mit den ganzen Selfies der 14-17 jährigen vorstellt...
Das würde unzählige false positives geben.

(Unabhängig von der moralischen fragwürdigkeit)
Wieso sollte es? Wie kommen die Selfies dieser Leute in die Datenbank für kinderpornografischen inhalt?
 
Zuletzt bearbeitet:
Rach78 schrieb:
Gleichzeitig ist die Regierung und die Parteien aber nicht Willens gewisse Gesetze zum Schutz für Kinder auf den Weg zu bringen. Ist ja nicht so dass gewisse Parteien auch in Deutschland Gesetzesänderungen gerne mal blockieren.
Was für Gesetze hast du da im Kopf?
 
Da ich nichts zu befürchten habe: Go for it! Sollen die Menschen, die das machen, entsprechend zur Rechenschaft gezogen werden. Meiner Meinung nach werden so Schläfer aufgespürt.
Wer solche Bilder beruflich zu Aufklärungszwecken nutzt, arbeitet eh nicht mit der iCloud.
 
Max007 schrieb:
Wenns bei der Aufspürung von illegalem Material bleibt, finde ich das ausdrücklich gut! Datenschutz ist keine heilige Kuh, es gibt sinnvolle Ausnahmen.
Problematisch finde ichs halt immer wenns um das anlasslose, automatisierte "Ausspähen" (falscher Ausdruck fürdas was hier gemacht wird aber mir fällt grad nix besseres ein) aller Nutzer geht. Erstens stellt sich immer die Frage, wie man Missbrauch vermeiden kann, zweitens hat man immer eine gewisse, (meist) unbekannte false positive rate, durch die unbescholtenne Bürger erstmal ins Visier geraten.
Das macht die Abwägung verdammt schwierig.

Stimme dir aber grundsätzlich zu, dass man bei jedem Grundrecht legitime Einschränkungen zulassen muss, weil sie in der Praxis immer mit anderen Grundrechten kollidieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xebone
shoKuu schrieb:
Das ist doch einfach absurd und heuchlerisch wie sich hier die Leute im Forum aufregen. Die Hälfte davon hat sicherlich Alexa zuhause, ein modernen PKW mit Online Anbindung, bezahlen täglich über Paypal, nutzen x Apps mit erhöhten Rechten, nutzen diverse Socialmedia Plattformen inkl. Foto Upload, gehen außer Haus, usw...Einfach verrückt.

Meiner Meinung nach vermischt du da zwei verschiedene Sachen.

Das eine Sache ist, dass Informationen ständig erfasst und potentiell anderen zugänglich gemacht werden. (Z.B. durch eine immer mithörende Alexa.)
Das ist kritisch genug und z.B. für sich genommen schon etwas, das die immer wieder versuchte "verdachtsunabhängige Vorratsdatenspeicherung" als unverhältnissmäßigen Eingriff in besonders geschütze Lebensbereiche verfassungswidrig macht.

Das andere ist, ob und wie diese gesammelten Daten tatsächlich ausgewertet und genutzt werden.
Darüber, was vielleicht heimlich (und illegalerweise) bei Apple, Google, Amazon und Co. passiert, kann man nur spekulieren.
Aber Apple macht in diesem Fall ja einen ganz offenen Schritt und verrät uns unverblümt, was sie mit den Daten vorhaben. Eine vollautomatische Analyse aller Bildinhalte auf Apple-Geräten und darauf basierend eine Übermittlung an Strafverfolgungsbehörden.

Wie gesagt ist schon der erste Schritt bedenklich genug, aber Apple geht hier ganz offiziell einen großen Schritt weiter.

Dass das zunächst auf Bilder von Kindesmissbrauch beschränkt sein soll, beruhigt nicht wirklich. Das Thema ist ein beliebter Türöffner, weil es den meisten Menschen halt schwer fällt, irgendetwas abzulehnen, wenn es um Bekämpfung solcher abscheulichen Taten geht. Wenn aber sowas erstmal akzeptiert wird, lässt sich eine Ausweitung auf andere Fälle praktisch nicht mehr verhindern.
Wie sollte man argumentieren, dass die selbe Maßnahme gegen kinderpornographisches Material in Ordnung ist, aber z.B. in Fällen von Terrorismus, Mord, Entführungen, Menschenhandel, organisierter Kriminalität usw. usw. nicht?
Das geht dann immer weiter und weiter und irgendwann reicht halt auch, wenn auf einem Foto jemand einen Joint raucht oder falsch parkt, und schon wird vollautomatisch die Polizei alamiert.

Man muss also irgendwo eine Grenze ziehen. Die schon bei bzw. vor der Erfassung und Übermittlung der Informationen zu ziehen wäre aus Datenschutzsicht natürlich die beste Lösung, würde aber auch diverse moderne, cloudbasierte Technologien wie z.B. Sprachassistenten komplett abwürgen.
Da fände ich eine Grenze bezüglich der erlaubten Nutzung der Daten praktikabler. Und Apple hat hier meiner Meinung nach diese zu ziehende Grenze klar überschritten. Da herrscht Handlungsbedarf.
 
  • Gefällt mir
Reaktionen: DirtyHarryOne, schneeland, Thrask und 2 andere
DekWizArt schrieb:
Und du bist der Meinung das ein smartphone aus China mit einem Betriebsystem von Google jetzt das neue Datenschutztelefon ist? Hm.. erleuchte uns doch bitte was Dich zu dieser wilden Theorie veranlasst.
Huawei haben sie gesperrt weil sie VERMUTLICH Nutzerdaten abgezwackt haben. Apple hat sich immer über Google lustig gemacht, dass sie weniger Daten als Google sammeln. Apple überwacht jetzt jedoch völlig offen sämtliche Bilder. Das hat mit Datensammeln nicht mehr viel zu tun und schlägt mMn weit über jede Stränge.
Android mag eine Datenkrake sein (Nutzerdaten, Nutzerverhalten), aber zumindest bisher noch kein vollüberwachtes Phone.
Gegenfrage, gibt es irgendwelche Beweise/Annahmen das Android ein Programm nutzen welches deine Fotos auf dem Telefon scannt, nein.
 
  • Gefällt mir
Reaktionen: schneeland, chartmix und Seven2758
mcsteph schrieb:
Als wenn das bei Google anders wäre. Wenn ich am digitalen Leben teilnehmen will möchte, muss ich das in Kauf nehmen. Keiner ist hier besser oder schlechter.
Bloß weil alle alternativen Grau sind heißt das ja nicht, dass sie die gleiche Schattierung von grau sind.
 
@Herdware
Heimlich? Es gibt tausende Dokumentation, die zeigen das gesammelte Daten ausgewertet werden. Es gibt Schaufensterpuppen mit Kameras in den Augen, es gibt Firmen die Personendaten an Firmen verkaufen (Axciom Deutschland als Beispiel), es gibt Analysetools für Überwachungssysteme, Amazon trackt auf die Millisekunden genau, wo du mit deinem Cursor bist und wie lange du dir etwas angesehen hast (kannst du selber anfordern), usw...

Ich zitiere mal einen 4 Jahren alten Artikel von Heise:
"Einer der größten Datenhändler Deutschlands ist die Firma Schober. In der Datenbank von Schober sind 50 Millionen Privatadressen mit jeweils hunderten Zusatzmerkmalen zu Konsumverhalten, der Wohn- und Lebenssituation und weiteren soziodemographischen Faktoren gespeichert. Mit diesen Daten wird der "Customer Lifetime Value" einer Person bestimmt
...
Während in Deutschland bereits 44 Millionen Bürger in den Datenbanken von Acxiom gespeichert sind, ist es in den USA fast jeder - mit über 1500 Merkmalen wie Alter, Wohnsitz, Geschlecht, Hautfarbe, politische Einstellungen, Urlaubsträume, Tiere, Kaufverhalten, Ausbildung, Einkommen, Krankheiten, Finanzen, Familienstand, Zeitschriftenabonnements."


Der Unterschied hier: Apple sagt nun das sie das tun. Sonst gibt es keinen.

Wie gesagt heimlich tut das niemand. Nur öffentlich wird das nicht mit der Welt kommuniziert. Bei Apple gibt es nur den Aufschrei, weil es Jahrelange Propaganda gab Datensicherheit zu bieten.
 
  • Gefällt mir
Reaktionen: knoxxi und BeBur
Schaby schrieb:
Schade das die Gesetzgeber das so mit machen, obwohl das ganz klar gegen die Verfassung bzw. Grundgesetze verstößt
Bist du Jurist, oder woher weißt du das so genau (wobei natürlich auch Juristen oft unterschiedlicher Meinung darüber sind, was gegen das Grundgesetz verstößt und was nicht)
 
Herdware schrieb:
Aber Apple macht in diesem Fall ja einen ganz offenen Schritt und verrät uns unverblümt, was sie mit den Daten vorhaben. Eine vollautomatische Analyse aller Bildinhalte auf Apple-Geräten und darauf basierend eine Übermittlung an Strafverfolgungsbehörden.
Stimmt dich so schlicht nicht. Es werden "nur" Bilder analysiert, die in die iCloud wandern. Wenn du schon die Differenzierung zwischen dem aufmachst, was offen kommuniziert wird und worüber man nur spekulieren kann, dann bitte auch akkurat bleiben.
Herdware schrieb:
Man muss also irgendwo eine Grenze ziehen. Die schon bei bzw. vor der Erfassung und Übermittlung der Informationen zu ziehen wäre aus Datenschutzsicht natürlich die beste Lösung,
Das ist doch genau was Apple hier macht oder verstehe ich dich falsch?
 
Miuwa schrieb:
Wieso sollte es? Wie kommen die Selfies dieser Leute in die Datenbank für kinderpornografischen inhalt?
"Beim zweiten Verfahren will Apple bei Familien-Konten die Option anbieten, dass Kinder gewarnt werden, wenn sie sexuell explizite Inhalte versenden. Ob das der Fall ist, soll Apples Software mittels Machine-Learning-Verfahren ermitteln. Bei unter 13-jährigen sollen zudem die Eltern eine Benachrichtigung erhalten (nicht aber Apple), bei 13- bis 17-jährigen nur die Kinder."

Apple plant also bereits die Bilder per Machine learning zu untersuchen.
 
FranzvonAssisi schrieb:
Google und Microsoft scannen einfach deinen Cloud-Speicher auf den Servern.

Lg

PS: Hab gerade nur was zu Mails gefunden. Sehr ähnlicher Ansatz: https://www.theverge.com/2014/8/5/5970141/how-google-scans-your-gmail-for-child-porn
OneDrive: https://www.drwindows.de/news/konto-sperrfalle-onedrive-vorsicht-vor-dem-upload-privater-fotos

Warum es jetzt einen riesigen Aufschrei bei Apple gibt? Keine Ahnung… Klar ist das nicht, was ich mir wünsche, aber die Gesetze in den USA lassen Firmen da an manchen Stellen auch nicht viel Wahl.

Nicht nur Google und Microsoft scannen in der Cloud auf KiPo-Material sondern auch Apple. Das System nennt sich Photo-DNA und wurde unter anderem von Microsoft entwickelt. Und dazu sind diese Firmen (und auch andere) in vielen Ländern der Welt gesetzlich verpflichtet.

Das was Apple vorhat, ist was völlig anderes und kommt zusätzlich. Und mWn. gibt es in den USA kein Gesetz welches die Hersteller zwingt, direkt auf den Geräten zu scannen. Dem Missbrauch sind dadurch durch staatliche Stellen und auch Privatfirmen (NSO-Group anyone?) Tür und Tor geöffnet.

Die Hashes kommen von zwei verschiedenen NGOs und Apple bekommt nicht das Material in Bildform. Wenn diese NGOs kompromittiert werden, sind auch die Hashes als kompromittiert einzustufen und dem System kann nicht mehr vertraut werden. Dieses System ist aber direkt in deinem iOS eingebaut und du hast keine Möglichkeit (außer Jailbreak) es zu deaktivieren.

Sollte dir der wochenlange Aufschrei aller möglichen Sicherheitsexperten, Bürgerrechtsorganisationen und ja, selbst der von massenweise Applenutzern, nicht irgendwie zu denken geben? Das @iSight2TheBlind sich das schönredet, war ja zu erwarten. Aber selbst er wird wissen, dass KiPo nicht das Ende der Fahnenstange ist, sondern nur der Anfang. Seine Wortwahl zeigt es ja - er "glaubt fest daran" das sich alles zum Guten wendet. Raus kommt er, selbst wenn er wollte, aus der Nummer mit Apple eh nicht mehr,

Und wenn Apple dieses System erstmal veröffentlicht hat und eventuell mit ein paar Erfolgen einen großen medialen Rummel erzeugt, kann dies schnell in Gesetzestexte einfließen. Und so sind durch das Vorpreschen von Apple auch die Nutzer aller anderen Hersteller am Arsch!
 
  • Gefällt mir
Reaktionen: Thrask, Helge01 und Seven2758
Apples Pläne sind eine technische Lösung für ein gesellschaftliches Problem, die auf der einen Seite nur einen Teilaspekt des gesamten Problems offenlegen kann (das Verbreiten derartiger Bilder, nicht aber deren Erstellung und den eigentlichen Missbrauch von Kindern), wobei nur bereits bekanntes CSAM detektiert wird, die auf der anderen Seite jedoch stark in Grundrechte der Nutzer eingreift und darüber hinaus immenses Überwachungspotenzial bietet, da der Gegenstand, auf den geprüft werden soll, ohne Weiteres ausgeweitet werden kann.
Wie so oft kann Technik keine komplexen sozialen Probleme lösen, ohne eklatante unerwünschte Nebeneffekte mit sich zu führen.
 
  • Gefällt mir
Reaktionen: chartmix, BeBur und ZikaEr
Miuwa schrieb:
Bist du Jurist, oder woher weißt du das so genau (wobei natürlich auch Juristen oft unterschiedlicher Meinung darüber sind, was gegen das Grundgesetz verstößt und was nicht)

Also grundsätzlich verstößt es wohl natürlich gegen die DSGVO, dafür muss man eigentlich kein Jurist sein.

Daher führt Apple diese Geschichte ja auch erst einmal nur in den USA ein, wenn es denn überhaupt kommen wird.
 
Miuwa schrieb:
Stimmt dich so schlicht nicht. Es werden "nur" Bilder analysiert, die in die iCloud wandern. Wenn du schon die Differenzierung zwischen dem aufmachst, was offen kommuniziert wird und worüber man nur spekulieren kann, dann bitte auch akkurat bleiben.

Ok. Da war ich wohl nicht ganz akkurat.
Wenn ich es richtig verstehe, wird aber nicht erst in der iCloud gescannt, sondern schon auf dem Gerät vor dem Upload.

So oder so, würde ich aber die erwähnte Grenze als überschritten ansehen. Apple hat nicht fremder Leute Fotos zu analysieren und die Ergebnisse dann mit Dritten zu teilen. Egal ob auf dem Gerät oder in der Cloud.
Ausnahmen davon dürfte es nur unter bestimmten Umständen geben, z.B. eventuell auf Anfrage von Strafverfolgungsbehörden bei konkretem Verdacht. Das müsste dann klar per Gesetz geregelt sein.

Miuwa schrieb:
Das ist doch genau was Apple hier macht oder verstehe ich dich falsch?

Ich glaube du verstehst etwas falsch. Die Datenschutzgrenze so früh zu ziehen, dass Apple erst gar nicht die Finger an die Daten bekommen kann, hieße z.B., dass die Daten überhaupt nicht auf die Cloud geladen werden können.
Oder wenn, dann nur in einem sicher verschlüsselten Format, das auch Apple selbst nicht entschlüsseln kann.

Letzteres wäre eventuell eine machbare, datenschutzfreundliche Option. Da wären aber auch in konkretem Verdachtsfall die Strafverfolgungsbehörden außen vor.
 
  • Gefällt mir
Reaktionen: Thrask und Seven2758
Ich bin ja gespannt darauf, ob Apple doch noch nen Rückzieher macht und das Ganze am Ende erst mal nicht einführt. So massiv wie der Gegenwind aktuell ist und so viel negative PR wie dass bringt, da muss man mehr machen als sich in minimalen Details des Ansatzes zu verlieren.

Am Ende entscheidet hier aber wieder die Kunden: sollte sich die nächste Generation iPhone Ende des Jahres schlecht verkaufen oder die Leute ihr IOS nicht updaten, dann wird Apple höchstwahrscheinlich einlenken. Passiert sowas nicht, dann werden sie es mit Sicherheit ausrollen, vielleicht auch nach einer weiteren Revision.

Am Ende hat man aber trotzdem die Büchse der Pandora geöffnet und ein Großteil der möglichen Konsequenzen z.B. über Druck dvon Regierungen hat man mit Sicherheit nicht bedacht, so dass sie die Konsequenzen davon erst ein gutes Stück später zu spüren bekommen werden.
 
Neutronal schrieb:
Sehe ich auch so. Deshalb befürworte ich auch das scannen von Geräten und wünsche mir, dass Microsoft das auch einbaut. Denn ich habe nichts zu verbergen. Ihr etwa? Sicherheit geht immer vor angeblichem Datenschutz. Was soll denn hier geschützt werden? Verbrechen?
Dann hättest du doch sicherlich nichts dagegen, wenn jederzeit deine Wohnung überwacht wird, vielleicht auch mit den Kameras oder Mikros an all deinen Geräten. Denn wenn du nichts zu verbergen hast, kann man da doch wunderbar Kameras drin installieren, oder es kommt regelmässig jemand zur Inspektion. Es ist ja nur zu deinem Vorteil, und bezeugt dann auch ganz sicher, wo du während eines Verbrechens warst und was du getan hast. Vielleicht auch gleich noch deine Surf- und Videogewohnheiten direkt übermitteln, weil du ja kein schlechtes Gewissen hast.

Immerhin heiligt ja anscheinend bei Dir / Euch jedes Mittel den Zweck. Wenn Euch die Privatsphäre nicht interessiert, gebt sie doch dann vollständig auf, denn: IHR HABT JA NICHTS ZU VERBERGEN.
 
  • Gefällt mir
Reaktionen: scryed, Bonanca und Seven2758
https://www.heise.de/news/EU-Parlam...nde-Scans-nach-Kinderpornografie-6130267.html

Zitat: "Verzichtet haben die Abgeordneten auf ihre Forderung, dass Algorithmen "nur bei Vorliegen konkreter Verdachtspunkte auf sexuellen Kindesmissbrauch filtern und durchsuchen“ sollten. Zudem darf Künstlicher Intelligenz (KI) genutzt werden, um unbekannte Fotos und Videos zu durchleuchten. Besonders geschützte Korrespondenz von Berufsgeheimnisträgern wie Ärzten, Psychologen und Anwälten wird nicht ausgenommen. Das Parlament legte aber besonderen Wert darauf, dass Nutzer, die ihre Rechte verletzt sehen, Klagen einreichen können."

Die frühere Richterin am Europäischen Gerichtshof, Ninon Colneric, hat gewarnt, dass die Verordnung nicht mit EU-Recht vereinbar sei. Die Grundrechte auf Achtung der Privatsphäre, Datenschutz und freie Meinungsäußerung würden damit unverhältnismäßig verletzt. Auch der Bundesdatenschutzbeauftragte Ulrich Kelber kritisiert das Vorhaben scharf. Die damit ermöglichte "flächendeckende und anlasslose Überwachung von digitalen Kommunikationskanälen" ist ihm zufolge "weder zielführend noch erforderlich".




https://www.euractiv.de/section/dig...tgehende-online-scans-nach-kinderpornografie/

Zitat: "Mit Beginn des Jahres 2021 hat sich die Definition von „elektronischer Kommunikation“ nach EU-Recht geändert und umfasst nun auch Messaging-Dienste. Das hat zur Folge, dass private Nachrichten nicht mehr in den Anwendungsbereich der Datenschutzgrundverordnung (DSGVO) fallen, sondern unter die ePrivacy-Richtlinie aus dem Jahr 2002."

Die Politik und Konzerne handeln hier emotional, statt sachlich, und öffnet Tür und Tor für Willkür.
Zumal "Verstösse" der Kunden durch die Provider jetzt direkt an die Behörden weitergeleitet werden können. Die KI's machen wohl keine Fehler....Da reicht ein falscher Satz, oder eine falsch zugeordnete Email.

Unschuldsvermutung gibt es nicht mehr.

Zitat: "Der EU-Abgeordnete Patrick Breyer (Piratenpartei) kritisierte den endgültigen Kompromiss hingegen. Die automatisierten Tools würden in 86 Prozent der Fälle nicht-relevante Inhalte melden und vermeintlich verdächtige Kommunikation an private Organisationen und Polizeibehörden weitergeben – ohne dass die betroffenen Nutzer:innen darüber informiert werden."

Wie schon gesagt, in meinen Augen gehts hier nur um die Überwachung, denn wenn die Gesetze zu lasch sind oder nicht umgesetzt werden, ist das ganze nur vorgeschoben, mehr nicht.

Es geht hier also nicht nur um Bilder, sondern um sämtliche Medien und Nachrichten. Man muss wirklich jedes Wort abwägen, was man noch mailt oder schreibt, oder welches Foto / Video man hochlädt. Klar, ich habe dahingehend ein ruhiges Gewissen, aber ein Unwohlsein beschleicht mich schon, wenn alle meine Nachrichten und Mails jetzt gescannt werden, und eine Fehlalarm mein Leben zerstören könnte.

Totalüberwachung Pur.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thrask, KitKat::new() und Seven2758
Penicillin schrieb:
Es werden schließlich 99,9 % (?) der Menschen nicht pädophil sein?
Mehr als du denkst, die Zahl ist erschreckend hoch und davon sind leider fast, ich betone fast, nur männliche Personen betroffen. Die Zahl derer, die dieses Bedürfnis tatsächlich "ausleben" ist natürlich deutlich geringer. Man kann es auch durchaus als Krankheit bzw. psychische Störung bezeichnen welches den Tatvorgang selbst natürlich nicht relativieren soll, um Himmels willen. Den Tätern sollten sie am besten ihr bestes Stück abschneiden. Und dass diese Jungs im Knast anscheinend nicht allzu viele "Freunde" haben ist ja nicht wirklich ein Geheimnis. Eine weitere Frage ist natürlich auch wie ausgeprägt dieses Verhalten ist.

Ich weiß ehrlich gesagt nicht wie sich ein Pädophiles verhalten überhaupt definieren lässt. Somit, definiert nun Apple ob ich in diese "Kategorie" theoretisch falle?? Naja, Kriminalpsychologie kam in meinem Studium auch nicht wirklich vor....
Bin ich das bereits wenn ich als 30jähriger mal eine 16 oder 17 jährige scharf finde? Schließlich stehts ja nicht auf der Stirn geschrieben. Oder bin ich das wenn ich 40 bin und ebenso mal eine 16 oder 17 jährige als sexy betrachte? Ein Spetzl von mir damals im Gymi war mit 15 mit einer knapp über 30jährigen zusammen. Somit der brutalste Hengst aufm Schulhof :D In welche Kategorie ist also sie damals gefallen? Ist immerhin schon oft genug genug passiert das ich auch im Club eine kennengelernt habe von der ich anfangs ausgegangen bin das sie locker 24+ ist. Hat man dann noch 4 Bier im Schädel... puh, da kann man sich täuschen!

Aber back to Topic, welcome big brother. George Orwell lässt grüßen
 
Zuletzt bearbeitet:
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben