News CSAM: Apple will Kinderpornografie-Erkennung nicht umsetzen

Pandora schrieb:
Dann können wir ja gleich in jeder Privatwohnung Kameras aufhängen, immerhin finden die meisten Übergriffe genau dort statt. Würde auch gleich noch eine Reihe anderer Straftaten wie Gewalt durch Partner, Einbruch etc. abdecken, also eine super Idee oder ?

Was soll dieser Whataboutism? Nicht alles was hinkt ist ein Vergleich..
 
  • Gefällt mir
Reaktionen: Dama, Bulletchief und xeonking
DFFVB schrieb:
Ernstgemeinte Frage: Ist das so? Ich hätte ja schon die Hoffnung dass die digitalen Mittel helfen, wenngleich das von Apple etwas zu weit ging...
Ja, das ist so. BKA Bericht zur Vorratsdatenspeicherung z.B. zeigte, in ihrer eigenen Statistik, dass sie nur im einstelligen Prozentbereich für die tatsächlichen Fälle relevant war und bei noch weniger (glaube es waren <1%) tatsächlich bei der Aufklärung geholfen hat.
 
  • Gefällt mir
Reaktionen: LukS, tritratrullala, [ACE].:SHARK:. und 7 andere
PHuV schrieb:
Wenn Du Unschuldige damit brandmarkst bzw. deren Accounts mit allen Bildern und gekaufter Software ohne jegliches ordentliches Gerichtsverfahren beschlagnahmt und gesperrt wird? Klares Nein!

Falsch, nennt sich Hausrecht. AGBs lesen hilft.
 
xeonking schrieb:
Genau wie dir und bei Ascer seine Antwort, Datenschutz ehrlich? Du redest von Täterschutz.
Wow da ist es auch schon. Darf ich bei dir in der Wohnung auch überall Kameras einbauen ? Und Mikrofone? Keine Angst alles wird gehashed und verglichen.

Absolut richtige Entscheidung von Apple. Mein Gerät gehört mir und da hat niemand zu scannen. Die Einführung von E2EE in der iCloud zeigt auch das sie es wohl ernst meinen.
 
  • Gefällt mir
Reaktionen: LukS, Wallwatcher, 7H0M45 und 5 andere
shy-Denise schrieb:
Schade, es wäre ein gutes Tool zur Verhinderung der Verbreitung von KiPos geworden.

Wenn man den Filter nicht will, dann nutzt man eben keine iCloud, da ja nur die Bilder gescannt werden, welche hochgeladen werden sollen.
Hm, fällt Dir nicht selber auf, daß der zweite Absatz bedeutet, daß der erste Absatz falsch ist?
 
  • Gefällt mir
Reaktionen: 7H0M45, Bhaal3010, tritratrullala und 6 andere
@nlr
Geht noch mehr Wertung und eigene Meinung in einem Artikel?

(...) war zur Ankündigung vielerorts missverstanden (...)
Sicher? Oder war es einfach berechtigte Kritik an einem automatischen Hashabgleich ALLE in der icloud gespeicherten Bilder?

Obwohl Apple lediglich mit Hashes arbeiten und keineswegs alle Aufnahmen des Anwenders auf dem Smartphone oder in der Cloud durchsuchen wollte
Quelle dazu? Apple wollte sehr wohl ALLE in die iCloud geladenen Bilder beim Upload prüfen.

Es hagelte Kritik, dass Apple eine Backdoor in die Geräte integrieren und automatisch die gesamte Fotobibliothek der Anwender durchsuchen wolle
Sagt wer? Die Kritik die ich gelesen habe hat sich sehr häufig mit der von Apple beschriebenen Mechanik beschäftigt, exakt so wie sie geplant war. Das Apple damit eine Mechanik zur persönlichen Identifizierung von Menschen welche spezifische Inhalte auf ihren Handys haben (und hochladen) ist ja wohl unbestritten.
Wenn dann von diversen Regimen dieser Welt die Hashlisten bearbeitet werden, iCloud Zang eingeführt wird haben wir identifizierbare Contentkontrolle auf den Geräten.

Und sowas soll es nicht geben? Willkommen in China, wo bereits diverse Anforderungen eines totalitären Regimes umgesetzt werden. Und von Apple in der Vergangenheit eine beachtliche Hörigkeit in entsprechende Richtungen zu vernehmen war.

Dass in diese Richtung laufende Sogtwarelösungen von Großkonzernen gerne auch mal zu Falschmeldungen, dem Verlust des Zugriffs auf eigene Daten etc führt, ist ja an Beispielen von z.B. google bereits dokumentiert.


Jede Software welche Contentscanner einführt kann missbraucht werden. Was nicht existiert, kann nicht von Regimen dazu benutzt werden ihre Bevölkerung zu unterdrücken.
 
  • Gefällt mir
Reaktionen: LukS, AbDeHi, Seven2758 und 2 andere
shy-Denise schrieb:
Falsch, nennt sich Hausrecht. AGBs lesen hilft.
AGBs, das sollte man wissen, enthalten auch viele Passagen, die rechtlich nicht gültig sind. Und Hausrecht gibt noch lange nicht das Recht, Unschuldige zu bannen! Lern mal bitte was über unsere Demokratie, da sind Legislative und Executive genau benannt, und die heißen weder Google noch Apple noch Microsoft oder sonstwer.
 
  • Gefällt mir
Reaktionen: LukS, DrTimeWaste, Bhaal3010 und 12 andere
Ich verstehe es nicht, wo ist das Problem. Man sollte doch froh sein das es solche Möglichkeiten gibt. Das tut niemanden weh oder der gleichen. Nein, es kann Opfern helfen.

Schränkt euch das irgendwie ein in euren leben? Selbst wenn damit nur ein kleiner Bruchteil an Gewalttaten verhindert werden kann, dann sollte man das machen.
 
  • Gefällt mir
Reaktionen: Hydrogenium
Apacon schrieb:
@nlr

Quelle dazu? Apple wollte sehr wohl ALLE in die iCloud geladenen Bilder beim Upload prüfen.
Aber nicht im Sinne von "Apple guckt sich alle meine Bilder an", also den tatsächlichen Inhalt.
 
  • Gefällt mir
Reaktionen: Bhaal3010, Kalsarikännit, Incanus und 3 andere
Ein Sieg für die Freiheit.

Da Apple sein Kinderporno iPhone ab dem heutigen Tage begraben hat und aktiv sagt, dass sie unsere Bilder weder scannen noch ohne Einwilligung verbreiten, wird deren Cloud-Dienst plötzlich interessant.
Der Heise Artikel zu MS OneDrive macht mich so nachdenklich. Wenn iCloud Multiplattform wird, werde ich vollständig zu denen gehen.
 
  • Gefällt mir
Reaktionen: LukS, bad_sign, Bhaal3010 und eine weitere Person
xeonking schrieb:
meiner Meinung nach geht kein Datenschutz über Opferschutz
xeonking schrieb:
Schwachsinn, das ist null komma nix vergleichbar.
Ja wie jetzt? Du sagst doch KEIN Datenschutz geht über Täterschutz, aber Kameras zuhause sind zu viel?

Ich bin jedenfalls sehr froh, dass das Vorhaben hier nicht umgesetzt wurde. Tatsächliche Täter speichern ihre Bilder dann einfach woanders und absolut niemandem ist geholfen. Als ob jemand in Zukunft noch blöd genug ist, seine Kinderporno-Sammlung auf iCloud abzulegen.

xeonking schrieb:
Das tut niemanden weh oder der gleichen.
Es tut mir schon weh, wenn aufgrund von Falschalarmen Personen in deinen privaten Fotos und Dokumenten wühlen. Zumal solche Sachen mit schöner Regelmäßigkeit von Firmen und/oder der Polizei missbraucht werden. Jedes zusätzliche Recht, in die Privatsphäre von Menschen einzudringen, sollte ganz genau abgewogen werden, wie viel es tatsächlich bringt. In diesem Fall ziemlich sicher gar nichts.
 
  • Gefällt mir
Reaktionen: LukS, qawas, 7H0M45 und 10 andere
Man muss da aber nochmal festhalten, das was z.B. Microsoft macht ist NICHT das was Apple machen wollte.
Apple wollte über Hashes bekannte im Umlauf befindliche KiPo Bilder wiedererkennen - nicht die Privatfotos per KI auswerten und auf nackte Kinder überprüfen.

xeonking schrieb:
Aber mal ehrlich, ist es nicht besser einmal zu viel gemeldet als ein Missbrauchtes Kind/Frrau etc.`?
Wenn dein Konto mit Windows und Office Lizenzen, gekauften Spielen, den kompletten OneDrive Daten, Passwortmanager, Email, Kalender, Kontakten usw. gesperrt wird und du trotz Beleg deiner Unschuld nicht mehr dran kommst dann sieht das evtl anders aus.

Über das Scannen der Fotos an sich kann man ja diskutieren, das Problem ist halt dass es bei MS einfach keinen Weg zur Reklamation gibt - wer gesperrt wird weil am Strand das 2 jährige Kind nackt war und das Foto automatisch in OneDrive gesynct wurde der hat keinen Weg wieder an seine Daten und Lizenzen zu kommen.

Meine Mutter hat letztens ein Galaxy A53 bekommen, das erste was passiert ist war dass eine Meldung kam dass die 15GB Google Drive aufgebraucht sind - es hat direkt mal versucht alle Bilder (die per SD mitgenommen wurden) hochzuladen. Da hängt man schneller drin als man schauen kann...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wallwatcher, qawas, Bhaal3010 und 5 andere
xeonking schrieb:
Ich verstehe es nicht, wo ist das Problem. Man sollte doch froh sein das es solche Möglichkeiten gibt. Das tut niemanden weh oder der gleichen. Nein, es kann Opfern helfen.
Du ignorierst meine vorher gezeigten Links.
xeonking schrieb:
Schränkt euch das irgendwie ein in euren leben? Selbst wenn damit nur ein kleiner Bruchteil an Gewalttaten verhindert werden kann, dann sollte man das machen.
Unsinn. Nur weil die Amis allgemein ein Problem mit Nacktheit haben, und eine KiPo-Hysterie überall geschürt wird, darf nicht alles, was möglich ist, automatisiert geprüft werden. All diese Systeme sind fehlerhaft, und ein harmloses Standfoto mit einem nackten Kind - was man dann mit Großeltern teilt- ist weder strafbar noch KiPo!
 
  • Gefällt mir
Reaktionen: LukS, 7H0M45, Bhaal3010 und 6 andere
nlr schrieb:
Aber nicht im Sinne von "Apple guckt sich alle meine Bilder an", also den tatsächlichen Inhalt.
Das hat auch niemand behauptet. Sie wollten aber alle Bilder scannen. Übertragen und angesehen werden dann alle Bilder, die Apple für interessant hält, also den tatsächlichen Inhalt.
 
  • Gefällt mir
Reaktionen: Thrask
shy-Denise schrieb:
Schade, es wäre ein gutes Tool zur Verhinderung der Verbreitung von KiPos geworden.
Nein. Nur Gelegenheitstäter würden meines Erachtens erfasst. Kriminelle wissen, wie sie so was umgehen können.

shy-Denise schrieb:
Wenn man den Filter nicht will, dann nutzt man eben keine iCloud, da ja nur die Bilder gescannt werden, welche hochgeladen werden sollen.
Man hat also nur die Wahl zwischen "Daten werden durchleuchtet" und "keine Cloud verwenden (nicht dass ich hiermit was pro Cloud sagen will, nur prinzipiell)?
 
  • Gefällt mir
Reaktionen: tritratrullala, Conqi und PHuV
1.21Gigawatt schrieb:
Das war Microsoft, das ein Konto eines Nutzers gesperrt hat, weil er Nacktfotos vom Neffen auf dem Telefon hatte und dies automatisch mit Onedrive synchronisiert wurde.

PHuV schrieb:
Die beiden oben verlinkten Beispiele zeigen doch deutlich, daß diese automatische Erkennung Mist ist.

Eure Beispiele haben aber nun mal absolut Null mit dem hier geschilderten Prozess bei Apple zu tun. Ist das Textverständnis mittlerweile schon dermaßen unter aller Sau? :freak:

Nochmal zur Sicherheit in fett markiert:

Bei der CSAM-Erkennung (child sexual abuse material) sollten Hashes der zu iCloud hochgeladenen Fotos mit den zu nachweislich kinderpornografischen Aufnahmen erstellten Hashes einer Datenbank des National Center for Missing & Exploited Children (NCMEC) verglichen werden. Beim Überschreiten einer Schwelle von rund 30 Treffern hätte Apple nach ursprünglichen Plänen die Strafverfolgungsbehörden eingeschaltet.

Das würde also nur zu einem Treffer führen, wenn das Nacktfoto Deines Kindes/Neffen/Tochter/... bereits in der NCMEC Datenbank gelistet wäre (und damit nachweislich als Kinderpornografie verifiziert) und es daher zu einem Hashtreffer käme...
 
  • Gefällt mir
Reaktionen: Dama, Kalsarikännit, Marflowah und 5 andere
ascer schrieb:
Erstens weiß man aus unzähligen Kriminalberichten, dass die weitaus größte Anzahl an Verhaftungen tatsächlicher Täter aus altmodischen Ermittlungen kommt. D.h. die effektivste Waffe ist gute alte Investigativarbeit und schlicht wenn man sich wirklich für den Kinderschutz einsetzen wollen würde, würde man (1) mehr Personal bei der Polizei in genau diesem Sektor einsetzen und (2) mehr präventive Maßnahmen (Elternschulungen, Kinderschulungen, ...) durchführen.
Naja, ich kann mir aber vorstellen, dass es sich dabei um solche Datenmengen handelt, die kannst du auch mit 1.000 Beamten nicht abdecken, es ist ja nicht nur das deutsche Internet, es ist global, da kann die kleine deutsche Polizei einfach nicht genug machen. Nicht bei der Menge.

Ob es da nur um gläsernen Bürger geht, ist mir auch zu pauschal und "die da oben sind alle böse".

Aber natürlich, man muss aufpassen was für Werkzeuge man zulässt und wie diese in der Zukunft genutzt werden können, vielleicht von ganz anderen Menschen die dann das Sagen haben.

Und ja, vielleicht müssen wir als Gesellschaft uns damit abfinden, dass einfach schlimme Dinge passieren werden, egal was man tut. Und das das jeden treffen kann und wird, auch Menschen die wir kennen. Das ergibt sich schon aus der reinen Masse an Menschen, die wir eben sind.

Aber jede technische Hilfe um sowas zu vermeiden direkt abzulehnen wegen Datenschutzbedenken, macht mir auch Bauchschmerzen und ist sehr pauschal. Denn natürlich ist Datenschutz Täterschutz, denn es schützt die Daten aller Menschen, auch die der Täter. Bis zu welchem Grad wir das aber eben erdulden müssen ist die sehr komplizierte Frage bzw. Abwägung.

PS: Ich prophezeie spätestens ab Seite 5 ne manuelle Freischaltung von Beiträgen. 🙈
 
  • Gefällt mir
Reaktionen: Alphanerd und Hydrogenium
Donald Duck schrieb:
Nein. Nur Gelegenheitstäter würden erfasst. Kriminelle wissen, wie sie so was umgehen können.
Eben. Die Szene dort - wie alle Kriteriellen - verwenden andere Dinge und verschlüsseln, da helfen nur langwierige Ermittlungen, die dann auch zum Ziel führen, siehe heise - Internationaler Internet-Kinderporno-Ring gesprengt:
Zudem hätten die Täter über neueste technische Möglichkeiten verfügt. Um ihren jeweiligen Standort zu verschleiern, hätten die Täter unter anderem hoch entwickelte Verschlüsselungstechniken benutzt.
Und das war ein Bericht von 2002, sprich vor 20 Jahren!
 
  • Gefällt mir
Reaktionen: tritratrullala, [ACE].:SHARK:., fox40phil und 3 andere
M@tze schrieb:
Das würde also nur zu einem Treffer führen, wenn das Nacktfoto Deines Kindes/Neffen/Tochter/... bereits in der NCMEC Datenbank gelistet wäre und es daher zu einem Hashtreffer käme...
Das ist tatsächlich nicht korrekt. Beachte das Stichwort "Neural Hash". Damit z.B. gespiegelte, farblich veränderte, ... Bilder nicht in der Auswertung als negativ entwischen kommt da eine KI Lösung zum Einsatz und NeuralHash bedeutet am Ende nichts anderes, als dass nur eine visuelle Ähnlichkeit gegeben sein muss, nicht aber tatsächlich das gleiche Foto schon in der Datenbank existieren muss.
 
  • Gefällt mir
Reaktionen: LukS, Wallwatcher, 7H0M45 und 7 andere
Zurück
Oben