News CSAM: Apple will Kinderpornografie-Erkennung nicht umsetzen

@KitKat::new()

 
Zuletzt bearbeitet von einem Moderator:
shy-Denise schrieb:
Schade, es wäre ein gutes Tool zur Verhinderung der Verbreitung von KiPos geworden.

Wenn man den Filter nicht will, dann nutzt man eben keine iCloud, da ja nur die Bilder gescannt werden, welche hochgeladen werden sollen.
Wenn ein Filter ausgeschaltet werden kann welcher sowieso nur in der iCloud greift, wieso wäre das dann ein gutes Tool?
 
xeonking schrieb:
Kann passieren, ist dumm gelaufen. Natürlich doof das man das nicht hinbekommt. Aber mal ehrlich, ist es nicht besser einmal zu viel gemeldet als ein Missbrauchtes Kind/Frrau etc.`? Es wird niemals das perfekte System dafür geben, aber man kann versuchen das ganze ein zu grenzen.

Einmal zuviel gemeldet kann das Leben einer Person ganz schön durch einander wirbeln.
Die Reputation einer Person kann von jetzt auf gleich zerstört werden, daran sollte man auch mal denken.
Es gibt natürlich gute Gründe, die dafür sprechen, die dieses CSAM gut aussehen lassen, aber
das Problem ist dann eben, wenn das System versagt und unschuldigen Menschen quasi plötzlich als Verbrecher dastehen. Egal ob sie nun unschuldig sind.

Ich sehe das nicht als Täterschutz, ich glaube eh, die einschlägigen Gruppen nutzen nicht wirklich die Cloud verschiedener Anbieter, um ihre Daten zu sichern und zu verteilen.

Und ich entschuldige mich jetzt auch, wenn ich das Wort Opferschutz noch einwerfe.
Bitte, versteht mich nicht falsch jetzt, aber dieses System schützt die Opfer nicht, es ist bereits passiert.
Ob es wirklich zur Aufklärung beitragen kann, wage ich zu bezweifeln.
Weil: siehe einen Absatz oben
 
  • Gefällt mir
Reaktionen: Cool Master
Zurück
Oben