News CSAM: Apple will Kinderpornografie-Erkennung nicht umsetzen

xeonking schrieb:
Kann passieren, ist dumm gelaufen. Natürlich doof das man das nicht hinbekommt. Aber mal ehrlich, ist es nicht besser einmal zu viel gemeldet als ein Missbrauchtes Kind/Frrau etc.`? Es wird niemals das perfekte System dafür geben, aber man kann versuchen das ganze ein zu grenzen.
"dumm gelaufen".

Ist ja nicht dein Ruf, der plötzlich dahin ist weil irgend ein Algorithmus dich fälschlicherweise als Kinderschänder bezeichnet hat.
 
  • Gefällt mir
Reaktionen: LukS, 7H0M45, tritratrullala und 5 andere
shy-Denise schrieb:
Schade, es wäre ein gutes Tool zur Verhinderung der Verbreitung von KiPos geworden.

Wenn man den Filter nicht will, dann nutzt man eben keine iCloud, da ja nur die Bilder gescannt werden, welche hochgeladen werden sollen.
Also Täter würden es nicht nutzen da sie iCloud aus machen und alle anderen würden gescannt da sie keine Täter sind und ihnen es egal ist? Also wieder alle unter Generalverdacht stellen und die Tater bleiben ohne Beweise weiter Täter? Ergibt für mich leider keinen Sinn
 
  • Gefällt mir
Reaktionen: tritratrullala und NJay
M@tze schrieb:
Eure Beispiele haben aber nun mal absolut Null mit dem hier geschilderten Prozess bei Apple zu tun. Ist das Textverständnis mittlerweile schon dermaßen unter aller Sau? :freak:
Dann schau mal bitte in den Spiegel, und lies nochmal meine Antworten zu den Kommentaren! Ich habe mich nur auf deren Kommentare bezogen, nicht auf den Artikel!
 
shy-Denise schrieb:

Weißt Du was das ist? Er hat nen Beispiel gemacht, und nicht gesagt, aber der auch - hast Du aber gut erkannt: Nicht alles was hinkt ist ein Vergleich....

shy-Denise schrieb:

Wie ist der Plural von Bedingung? Wo kommt das s her?

shy-Denise schrieb:

Das Hausrecht hat auch Grenzen, oder warum muss Facebook gelöshcte Beiträge wiederherstellen? Kleiner Tipp schau mal ins NetzDG

M-X schrieb:
t niemand zu scannen

Jo, war aber nur bei Uplaod?

Apacon schrieb:
Geht noch mehr Wertung und eigene Meinung in einem Artikel?

Wegen Dir hab ich den Artikel gelesen, wo ist das ne Wertung drinnen? Finde das relativ neutral geschrieben, da leuchten seine FanBoy Augen bei den Tests deutlich größer... ;-)
 
  • Gefällt mir
Reaktionen: akuji13, tritratrullala und latexdoll
shy-Denise schrieb:
Schade, es wäre ein gutes Tool zur Verhinderung der Verbreitung von KiPos geworden.

Wenn man den Filter nicht will, dann nutzt man eben keine iCloud, da ja nur die Bilder gescannt werden, welche hochgeladen werden sollen.
Damit findet man nur die dümmsten Täter und Unschuldige.

Wer lädt wohl seine Kinderpornos auf iCloud hoch, ein professionell agierender Täter, der das gewerblich im großen Stil macht oder eine Familie, die ihre Kinder nackt am Strand fotografiert?

Weiteres Problem: in der Standardeinstellung speichern die meisten Messenger erhaltene Bilder in der Galerie. Die Galerie wird bei iCloud Nutzern in der Standardeinstellung automatisch synchronisiert… wie lange es wohl dauert, bis es da extrem gefährliche Trollversuche gibt?
 
  • Gefällt mir
Reaktionen: 7H0M45, DrTimeWaste, tritratrullala und 3 andere
xeonking schrieb:
meiner Meinung nach geht kein Datenschutz über Opferschutz. Und eigentlich ist es nur ein Trauerspiel das dem nicht so ist.
Das kann man wohl schlecht so verallgemeinern. Es ist ein schmaler Grat... Für mich geht die Durchsuchung sämtlicher Uploads am Handy (o.ä.) zu weit, bei Kennzeichenerkennung auf Autobahnen dagegen hätte ich selbst wenig Bedenken wenn es darum geht schwere Straftaten wie Mord aufzudecken.
 
Erstaunlich wie viele es doch vorziehen dass Ihnen der Datenschutz von Privaten Bildern, Dokumenten etc. wichtiger ist als ggf. das Aufspüren von solchen Tätern. Was wiederum bedeutet das Opfern geholfen werden kann oder gar so abstruse Verbrechen unterbinden kann. Und wie schon gesagt, das schaut sich ja niemand erstmal die Bilder direkt an.

Natürlich ist nicht alles KiPo, da das System nicht zu 100% Arbeitet muss es nun halt verbessert werden damit auch unschuldige danach wieder normal weiter machen können.

Viele sagen das solche Verbrechen anders aufgespürt werden müssen, aber nur die kleinsten Einschränkungen sind schon zu viel. Naja.
 
floh667 schrieb:
Ist ja nicht dein Ruf, der plötzlich dahin ist weil irgend ein Algorithmus dich fälschlicherweise als Kinderschänder bezeichnet hat.
Ich glaube das Apple das hinkriegt einen Algorithmus zu schaffen der gekleidete Kinder von entkleideten unterscheidet. Wenn jemand durch dieses System auffällt und solche Bilder hat, aber kein Täter ist. Dann stimmt ohnehin etwas nicht mit dieser Person.
DFFVB schrieb:
Wie ist der Plural von Bedingung? Wo kommt das s her?
Wenn einem die Argumente ausgehen stürzt man sich auf die Gramatik. Glückwunsch.
 
  • Gefällt mir
Reaktionen: xeonking
Papalatte schrieb:
Das kann man wohl schlecht so verallgemeinern. Es ist ein schmaler Grat... Für mich geht die Durchsuchung sämtlicher Uploads am Handy (o.ä.) zu weit, bei Kennzeichenerkennung auf Autobahnen dagegen hätte ich selbst wenig Bedenken wenn es darum geht schwere Straftaten wie Mord aufzudecken.
Kennzeichen gehen? Ist auch deins oder nicht. Davon mal ab, natürlich sollte das gemacht werden. Dennoch darf man nicht vergessen das solche Opfer meistens ihr ganzes Leben ein Trauma haben, daher sollte so gut wie alles getan werden um sowas zu verhindern.
 
Sehr schade, ich hatte mich schon mental darauf vorbereitet tonnenweise unverfängliche Fotos mit gleichem Hashwert aufs Telefon zu laden und dann jeden Tag die netten Onkels in blau an der Tür zu begrüßen.

CSAM und vergleichbares sind unbeschränkt und unbedingt abzulehnen. Kinderpornographie wird wie immer nur vorgeschoben um jegliche Privatspähre sukzessive auszuhöhlen.
 
  • Gefällt mir
Reaktionen: Nowareeng, qawas, Seven2758 und 4 andere
PHuV schrieb:
AGBs, das sollte man wissen, enthalten auch viele Passagen, die rechtlich nicht gültig sind. Und Hausrecht gibt noch lange nicht das Recht, Unschuldige zu bannen!

Falsch. Hausrecht darf ziemlich viel.
Neulich hat ein Restaurant ein paar AfD Wähler vor die Tür gesetzt eben weil man keine strammen Rechten bewirten will - ist nicht gut fürs Image und andere Gaeste fühlen sich gestoert.

Und da ist natürlich vollkommen legitim, eine Firma kann sich seine Kund*innen aussuchendes du hast keinen generellen Anspruch darauf die Dienstleistungen in Anspruch nehmen zu dürfen.

Donald Duck schrieb:
Nein. Nur Gelegenheitstäter würden meines Erachtens erfasst. Kriminelle wissen, wie sie so was umgehen können.

Wo sind die evidenzbasierten Belege für deine Aussagen ?

Hermel88 schrieb:
Also Täter würden es nicht nutzen da sie iCloud aus machen und alle anderen würden gescannt da sie keine Täter sind und ihnen es egal ist? Also wieder alle unter Generalverdacht stellen und die Tater bleiben ohne Beweise weiter Täter? Ergibt für mich leider keinen Sinn

Hast du dich auch so beschwert als MS ihre Cloud durchleuchtet hat ? Nein ? Doppelmoral.
 
Nyvent schrieb:
Ich glaube das Apple das hinkriegt einen Algorithmus zu schaffen der gekleidete Kinder von entkleideten unterscheidet. Wenn jemand durch dieses System auffällt und solche Bilder hat, aber kein Täter ist. Dann stimmt ohnehin etwas nicht mit dieser Person.
nimm einfach das Beispiel von Microsoft, wo jemand bilder von seinem nackten kind in der cloud hatte und dafür gebannt wurde.
Man ist nicht automatisch Kinderschänder, weil man sein Kind/Neffe/nichte nackig in irgend einer form digital ablichtet. Oder ist man schon Täter wenn man das kind beim planschen im planschbecken ablichtet?
 
  • Gefällt mir
Reaktionen: 7H0M45, tritratrullala, KlaasKersting und 4 andere
Nyvent schrieb:
Ich glaube das Apple das hinkriegt einen Algorithmus zu schaffen der gekleidete Kinder von entkleideten unterscheidet. Wenn jemand durch dieses System auffällt und solche Bilder hat, aber kein Täter ist. Dann stimmt ohnehin etwas nicht mit dieser Person.
Also ich habe Bilder auf denen meine Kinder nackt im Planschi oder am Strand sind.
Magst du mir erklären was genau mit mir nicht stimmt?

Davon abgesehen hat Apple gar nicht versucht hier einen Algorithmus zur Interpretation der Bilder zu schaffen (siehe Artikel).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 7H0M45 und R4mses
KlaasKersting schrieb:
Wer lädt wohl seine Kinderpornos auf iCloud hoch, ein professionell agierender Täter, der das gewerblich im großen Stil macht oder eine Familie, die ihre Kinder nackt am Strand fotografiert?

Nur das viele Täter im Umfeld zu suchen sind. Häufig sind es Väter oder Opas, da ist nichts mit gewerblich.
 
KlaasKersting schrieb:
Wer lädt wohl seine Kinderpornos auf iCloud hoch, ein professionell agierender Täter, der das gewerblich im großen Stil macht oder eine Familie, die ihre Kinder nackt am Strand fotografiert?
Jetzt mal nur den Satz betrachtet, kann ich mir vorstellen, dass man damit eben solche Leute wie Prinz Andrew "erwischen" könnte. Leute die meinen, man könnte ihnen eh nichts und dann nachlässig sind. Ob es sich dafür lohnt, ist natürlich die Frage. Und ob man die Kinder nackig am Strand fotografieren muss kann man sich auch fragen. Nicht nur wegen Kinderpornografie und Spinner die sowas suchen, auch weil die Kinder das vielleicht nicht gut finden wenn sie dann mal erwachsen sind.

Es ist natürlich die Entscheidung des Einzelnen, aber ich bin auch kein Fan davon Kinderfotos massenhaft bei Insta & Co zu teilen. Egal was für Fotos.
 
  • Gefällt mir
Reaktionen: Hydrogenium
Gnah schrieb:
CSAM und vergleichbares sind unbeschränkt und unbedingt abzulehnen. Kinderpornographie wird wie immer nur vorgeschoben um jegliche Privatspähre sukzessive auszuhöhlen.
Selten sowas dummes gelesen, sorry.

Eigentlich ist es schlimm genug das es für sowas krankes überhaupt ein Angebot und eine Nachfrage gibt.
 
  • Gefällt mir
Reaktionen: shy-Denise
xeonking schrieb:
Selten sowas dummes gelesen, sorry.
Du hast deine eigenen Kommentar hier im Thema nicht gelesen? Wie hast du das denn hinbekommen? Mündlich diktiert und abschicken lassen?
 
  • Gefällt mir
Reaktionen: KitKat::new(), qawas, Seven2758 und 4 andere
habla2k schrieb:
Es ist natürlich die Entscheidung des Einzelnen, aber ich bin auch kein Fan davon Kinderfotos massenhaft bei Insta & Co zu teilen. Egal was für Fotos.
Ist eben die Frage, ob ein Cloudspeicher wie als Briefgeheimnis zu betrachten gilt oder nicht. Wenn ich per Foto das Ding automatisch in die Cloud als Sicherungskopie stelle, heißt es ja noch lange nicht, daß ich es irgendwo mit jemanden teile. Und selbst beim Teilen kann ich üblicherweise entscheiden, mit wem oder was ich diese Bilder teilen möchte.
 
  • Gefällt mir
Reaktionen: LukS, 7H0M45 und Hermel88
habla2k schrieb:
Naja, ich kann mir aber vorstellen, dass es sich dabei um solche Datenmengen handelt, die kannst du auch mit 1.000 Beamten nicht abdecken, es ist ja nicht nur das deutsche Internet, es ist global, da kann die kleine deutsche Polizei einfach nicht genug machen. Nicht bei der Menge.
Man sollte KI einsetzen, um das Problem in den Griff zu bekommen.
Aber es sollte Behörden vorbehalten sein und dann, wenn ein Verdacht besteht, muss ein Mensch das noch überprüfen. Zu wenin Beamten hin oder her.
Es kann nicht angehen, dass jetzt MS, Apple oder sonst wer Gesetzeshüter spielt und dabei digitale Identitäten zerstören UND sich dann so stur dagegen sind, es manuell nachzubearbeiten.

habla2k schrieb:
Aber natürlich, man muss aufpassen was für Werkzeuge man zulässt und wie diese in der Zukunft genutzt werden können, vielleicht von ganz anderen Menschen die dann das Sagen haben.
Ack. Siehe oben.
 
  • Gefällt mir
Reaktionen: PHuV
PHuV schrieb:
Wenn ich per Foto das Ding automatisch in die Cloud als Sicherungskopie stelle, heißt es ja noch lange nicht, daß ich es irgendwo mit jemanden teile
Das ist richtig, aber ich, der das mache, muss mir dabei auch im Klaren sein, dass es im Netz um eingies leichter zu erbeuten ist, als nur lokal auf dem Telefon oder gar nur als analoges Foto. Gibt ja immerwieder iCloud hacks etc. sowas lässt sich nicht vermeiden.

Geht ja auch nicht darum zu sagen "wie kannst du nur", aber man muss sich dessen eben bewusst sein und sich Gedanken machen darüber was man tut. Auch was man stellvertretend für andere tut.
 
Zurück
Oben