News CSAM: Apple will Kinderpornografie-Erkennung nicht umsetzen

shy-Denise schrieb:
Hast du dich auch so beschwert als MS ihre Cloud durchleuchtet hat ? Nein ? Doppelmoral.
Nein da ich es nicht Nutze. Wenn ich für Onlinedienste wie eine Cloud Geld zahle und meine Daten dort speichern lasse möchte ich es Verschlüsselt. Auf meine privaten Fotos sollte kein Externer zugriff haben.

https://www.heise.de/news/Nacktscan...den-Arzt-Google-Dienste-gesperrt-7238900.html

Sowas ist auch nicht Richtig meiner Meinung aber es ist Passiert.
 
Gnah schrieb:
Du hast deine eigenen Kommentar hier im Thema nicht gelesen? Wie hast du das denn hinbekommen? Mündlich diktiert und abschicken lassen?
Ich lese alles und verstehe meistens auch :-)! Allerdings, falls da irgendwas ironisch/sarkastische dran war, dann sorry, verstehe ich aber null bei solch ein Thema.

@DonaldDuck

ja, man sollte die KI dafür einsetzen. Und dein Vorschlag wie ergibt sinn.
 
shy-Denise schrieb:
Schade, es wäre ein gutes Tool zur Verhinderung der Verbreitung von KiPos geworden.
..
Wenn man den Filter nicht will, dann nutzt man eben keine iCloud, da ja nur die Bilder gescannt werden, welche hochgeladen werden sollen.
Genau das ist mein Problem mit der Thematik von Anfang an. Mal ehrlich, welcher Täter - egal um was es genau geht - nutzt denn einen Mainstream Dienst, wenn jeden 2. Tag vermeldet wird, dass er dort quasi zu 100% erwischt wird? Ja, es mag ein paar DAUs geben, die nix mitbekommen. Die sind aber gar nicht so wichtig. Aber die Strippenzieher, Insider, Produzenten, also die, die man wirklich erwischen will und muss, die laden doch nix auch irgendeine Cloud hoch. Dementsprechend hat man auch nie von irgendwelchen Erfolgen aus der Ecke gehört. Wohl aber einige Fälle, wo völlig Unschuldige in teils katastrophale Situationen kamen, weil sie ein Bild des eigenen, badenden Kindes an die Oma geschickt haben.

Es ist ein Muster - seit die Politik nicht mehr wirklich durchblickt und das tut sie z.B. bei IT-Themen einfach nicht -, dass man immer mehr 'Unfreiheiten' für den unbescholtenen User in Kauf nimmt, damit aber nicht einen Kriminellen fängt. Man macht dem Bürger auf allen Ebenen Schwierigkeiten und fängt nicht einen Schurken. Die wissen nämlich, wie man all die Maßnahmen umgeht!

Insofern, Nein, ich glaube nicht, dass Apple viele Kinderschänder entdeckt hätte. Übrigens glaub ich, die sehen das ähnlich und außerdem werden sie wohl ihre End-to-End Verschlüsselung OHNE 'Hintertür' für die Staaten einfach nicht durchbekommen haben.
 
Magellan schrieb:
Also ich habe Bilder auf denen meine Kinder nackt im Planschi oder am Strand sind.
Magst du mir erklären was genau mit mir nicht stimmt?

Davon abgesehen hat Apple gar nicht versucht hier einen Algorithmus zur Interpretation der Bilder zu schaffen (siehe Artikel).
Auf das wo ich geantwortet habe war von Algorithmus die Rede. Habe selbst keine Kinder daher kann ich mich nicht hineinversetzen. Das war zumindest meine Meinung, das ich das nicht tun würde. Heißt natürlich nicht das es falsch ist.
 
@Luthredon
Du hast recht, vielleicht nutzen sowas nur wenige. Aber zu sagen das diese nicht so wichtig sind, das kann man gerne mal dessen Opfern überbringen. Viel Spaß dabei.
 
Ach Cloud - Cloud - Cloud.
Im Grunde finde ich die Idee gut - wenn es zuverlässig funktioniert. Unzuverlässig ist es halt dumm, denn ich mache auch Fotos von meinen Kindern die je nach Situation auch freizügig sein können. Wäre dann irgendwie seltsam das SEK vor meiner Tür zu haben ;-)

Ich sehe das eigtl. unkritisch, denn von mir gab es wie wohl von vielen anderen auch die obligatorischen Badefotos. Solche Fotos schicke ich aber
a.) nicht herum
und
b.) nutze ich auch keine Cloud

Die landen im "irgendwann zum Babyalbum generier-Ordner" aufm PC und wenn die Kleinen mal 18 sind ist der vielleicht auch fertig.
 
  • Gefällt mir
Reaktionen: PHuV
shy-Denise schrieb:
Falsch. Hausrecht darf ziemlich viel.
Da liegst Du aber falsch. Das ist Interpretationsraum, der dann entsprechend rechtlich geklärt werden muß.
https://www.juraforum.de/lexikon/lokalverbot
Wenn es sich um Geschäftsräume oder eine Lokalität handelt, die für den allgemeinen Publikumsverkehr geöffnet sind (Supermarkt, Freizeitanlagen etc.), ist aufgrund des allgemeinen Persönlichkeitsrechts und dem Gleichheitsgrundsatz ein willkürlicher Ausschluss von Personen nicht möglich. In solchen Geschäften/Lokalen hat somit grds. jedermann Zutritt.
Sprich, wenn Edeka AfD Polikern und -Wählern das Einkaufen verbieten will, dürfen sie das nicht.
shy-Denise schrieb:
Neulich hat ein Restaurant ein paar AfD Wähler vor die Tür gesetzt eben weil man keine strammen Rechten bewirten will - ist nicht gut fürs Image und andere Gaeste fühlen sich gestoert.
Das ist auch wieder Interpretationsraum, was judikativ von Fall zu Fall unterschieden werden darf und muß. Wenn sie das einzige Restaurant weit und breit sind, keine Alternative vorhanden ist, und die AfD Wähler sich friedlich im Rahmen der Gesetze und des Anstandes verhalten, haben sie genauso das Recht dort zu essen wie jeder andere auch. Auch Deppen haben Rechte, und das muß eine Demokratie und müssen demokratischen Menschen bis zu einem gewissen Grad aushalten und dulden, so sehr es auch schmerzt.
shy-Denise schrieb:
Und da ist natürlich vollkommen legitim, eine Firma kann sich seine Kund*innen aussuchendes du hast keinen generellen Anspruch darauf die Dienstleistungen in Anspruch nehmen zu dürfen.
Das kommt darauf an. Nach der Begründung dürfte ein Dienstleister Personen mit Migrationshintergrund ausgrenzen, was aber tatsächlich Rassismus wäre, und ebenso in dieser Form rechtlich nicht erlaubt ist.

Daher, laß bitte Dein Laienwissen über Recht und Unrecht, wenn Du über keinerlei juristische Ausbildung hast, es ist müßig, hier darüber zu diskutieren.
 
  • Gefällt mir
Reaktionen: ZRUF, Seven2758, 7H0M45 und 3 andere
habla2k schrieb:
Ich stelle immer wieder fest, wie schmal der Grat zwischen Freiheit und Sicherheit ist und bin oft genug zwigesaplten oder einfach ratlos, was ich da jetzt für "besser" halte.

Sehr komplexe und komplizierte Themen, die uns da in nächster Zeit noch beschäftigen werden.

Es ist sehr komplex. Im Zweifel aber immer pro Freiheit, da man Freiheit deutlich schwerer als Volk und Individuum zurück gewinnen kann.
 
  • Gefällt mir
Reaktionen: Nickproof, PHuV und R4mses
Ich finde das Datenschutz Argument ziemlich heuchlerisch. Am Ende das Tages betrifft die Funktion nur Fotos welche in die iCloud gehen. Apple ist nun mal ein us Anbieter und die Daten liegen auf US Servern, damit ist es schonmal mit dem deutschen Datenschutz essig.

Wäre euch Datenschutz wichtig, dann würdet ihr einfach eine datenschutzkonforme Cloud benutzen, zB Mailbox.org wo alle Server auch in Deutschland stehen.

So ist das nur zahnloses Säbelgerassel um Apple zu bashen.
PHuV schrieb:
Das ist auch wieder Interpretationsraum, was judikativ von Fall zu Fall unterschieden werden darf und muß. Wenn sie das einzige Restaurant weit und breit sind, keine Alternative vorhanden ist, und die AfD Wähler sich friedlich im Rahmen der Gesetze und des Anstandes verhalten, haben sie genauso das Recht dort zu essen wie jeder andere auch. Auch Deppen haben Rechte, und das muß eine Demokratie und müssen demokratischen Menschen bis zu einem gewissen Grad aushalten und dulden, so sehr es auch schmerzt.

Falsch. Die AfD hatte soweit ich weis dagegen geklagt und verloren.

Dein edeka Vergleich hinkt. Auf einen Einkaufsladen für Lebensmittel kann man nicht verzichten - auf ein Restaurant oder einen Cloud Anbieter schon.

Parteien welche nicht auf dem Boden der FDGO stehen muss man nicht ertragen.
 
  • Gefällt mir
Reaktionen: Alphanerd
Nyvent schrieb:
Auf das wo ich geantwortet habe war von Algorithmus die Rede.
Ja aber das Problem ist doch dass die Algorithmen von Microsoft und Google bekanntermaßen laufend ganz normale, harmlose Privatbilder auf denen eben ein nacktes Kind zu sehen ist fälschlich unter KiPo einstufen und dann ist der Account und alles drum herum gesperrt und verloren.
Die Problematik mit der Einstufung ist auch unumgänglich, ob das Nacktbild jetzt ein Perverser gemacht hat um es zu verbreiten oder ob es ein harmloses Privatbild ist sieht man ja auf dem Bild nicht zwingend, nackt ist nackt und Kind ist Kind.

Nyvent schrieb:
Habe selbst keine Kinder daher kann ich mich nicht hineinversetzen. Das war zumindest meine Meinung, das ich das nicht tun würde. Heißt natürlich nicht das es falsch ist.
Nun ich versuche entsprechende Bilder mit möglichst harmlosen Perspektiven zu machen - so dass die problematische Zone hinter dem Beckenrand verdeckt ist, wenn das Kind von der Kamera weg rennt statt auf sie zu usw.
Aber ganz auf Bilder in solchen Situationen zu verzichten fände ich schade, die Strahlenden Gesichter bei der Arschbombe ins Planschi erklären warum. Ist ja auch kein Problem solange die Fotos eben privat sind.
Ein automatischer Cloud Upload wird dann aber eben schnell doch zum Problem.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PHuV und floh667
shy-Denise schrieb:
Falsch. Die AfD hatte soweit ich weis dagegen geklagt und verloren.
Das ist nicht falsch, genau das meine ich doch die ganze Zeit: Das ist ordentlich juristisch vor einem Gericht zu klären und eine Fall zu Fall-Entscheidung. Aber weder Du noch ich noch andere hier dürfen einseitig und gefühltsbetont Recht sprechen oder ausüben! Das willst Du wohl nicht kapieren.
shy-Denise schrieb:
Dein edeka Vergleich hinkt. Auf einen Einkaufsladen für Lebensmittel kann man nicht verzichten - auf ein Restaurant oder einen Cloud Anbieter schon.
Das ist Deine Meinung. Ich als IT-ler, der jeden Tag schon rein beruflich damit zu tun hat, und es sehr wohl unbedingt benötigt, hab dazu eine ganz andere Meinung.
shy-Denise schrieb:
Parteien welche nicht auf dem Boden der FDGO stehen muss man nicht ertragen.
Dann unterscheidest Du Dich in meinen Augen leider keinen Deut von den Deppen, die Grundrechte mit den Füßen treten. Ich empfinde das nicht als demoraktisch, weil Du damit diese Leute isolierst und in die Ecke drängst, was bei denen logischerweise zu aggressiven Selbstverteidigungsreflexen führt. Natürlich muß man nicht alles hinnehmen, aber trotzdem haben diese Menschen, so armseelig man deren Meinung auch finden mag, Rechte wie Du und ich.

Aber nochmals zum Thema, ich habe (da ich ja selbst in den Bereichen auch arbeitete) überhaupt nichts gegen Einsatz von KI, AI, ML, auch für die Strafverfolgung. Aber das sollte Behörden und Justiz vorbehalten sein, und nicht den Firmen selbst! Es darf (Stand heute) kein solches System automatisierend einen Menschen einteilen und kategorisieren, daß ist einfach falsch! Es müssen immer Menschen das letzte Wort haben und von Fall zu Fall unterscheiden. Und nochmals, es dürfen NICHT die Firmen hier per vermeidlichem Hausrecht selbst entscheiden! Dafür gibt es andere rechtliche Wege, und die sind bitteschön einzuhalten.

Sorry, wer hier nicht differenzieren kann, sollte weiter seine Blödzeitung lesen, aber bitte hier nicht mehr mitdiskutieren, weil ein gewissen Verständnis und Wissen für die Komplexität dieses Themas fehlt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GBi, ZRUF, Seven2758 und 3 andere
shy-Denise schrieb:
Nur das viele Täter im Umfeld zu suchen sind. Häufig sind es Väter oder Opas, da ist nichts mit gewerblich.
Das ist so eine abartige Verallgemeinerung der Sache.

Du versuchst hier mit einem Dampfhammer Feinmechaniken zu bearbeiten.

Irgend ein dummer Algorithmus wird nie erkennen können, ob die Bilder von einem perversen Onkel gemacht wurden oder von einem gewöhnlichen Familienmitglied.

Aber ganz dem heutigen Zeitgeist nach wird für alles ein Algorithmus gefordert und eine gestörte prüdigkeit gegenüber Nacktfotos an den Tag gelegt. Fehlt nur noch ein generelles Verbot vom fotografieren nackter Kinder.
 
  • Gefällt mir
Reaktionen: GBi, Seven2758, tritratrullala und 5 andere
Niyu schrieb:
Ich sehe das eigtl. unkritisch, denn von mir gab es wie wohl von vielen anderen auch die obligatorischen Badefotos.
Ist aber auch nicht ganz dasselbe, weil die (vermutlich wie bei mir), noch als analoge Fotos irgendwo im Album kleben.

Digital ist einfach ne andere Ebene, selbst wenn nur auf dem eigenen Telefon, weil das ja wiederum im Netz hängt.

Und wie gesagt, finden die Kinder das vielleicht nicht so toll, auch wenn es für einen selbst kein Problem darstellt. Kann man ja, wenn alt genug, auch mal mit denen besprechen.

floh667 schrieb:
Fehlt nur noch ein generelles Verbot vom fotografieren nackter Kinder.
Was genau würde dich daran stören? Nicht als Kritik, einfach weil ich den Punkt interessant finde.

Denn weder können Kinder sagen, wenn sie das nicht wollen, noch weiß man was mit diesen Fotos alles passieren kann. Die Welt ist heute eine andere als in den 80ern.
 
  • Gefällt mir
Reaktionen: Incanus
shy-Denise schrieb:
Schade, es wäre ein gutes Tool zur Verhinderung der Verbreitung von KiPos geworden.
Eben nicht, daß ist eben der Trugschluß an der Geschichte. Hashes sind nicht zuverlässig. Einmal das Bild anders abgespeichert, verändert, durch einen Bildverbesserer gejagt, und der Hash ist hinfällig. Daher, glaubst mir doch einfach als ITler, das ist eine blöde und einseitige Methode.
 
  • Gefällt mir
Reaktionen: ZRUF
habla2k schrieb:
Was genau würde dich daran stören? Nicht als Kritik, einfach weil ich den Punkt interessant find
Weil ich kein Freund einer Welt voller verbote bin. Wenn ich mein Kind fotografieren möchte dann tue ich das und wenn es dabei ein nackeschisser ist und Rum tobt, dann ist das eben so. Es geht ja nicht darum, die Bilder dann zu veröffentlichen oder zu verbreiten.

habla2k schrieb:
Denn weder können Kinder sagen, wenn sie das nicht wollen, noch weiß man was mit diesen Fotos alles passieren kann. Die Welt ist heute eine andere als in den 80ern.
Das stimmt..ich würde grundsätzlich solche Bilder in keine Cloud laden, da ich nicht wollte dass Bilder meines Kindes auf fremden Servern in fremden Ländern liegen wo ich keine Kontrolle mehr darüber habe.
 
Nyvent schrieb:
Wenn einem die Argumente ausgehen stürzt man sich auf die Gramatik. Glückwunsch.
Es war ein Punkt von mehreren - das war also Deienrseits ein klassicher Storhmann, mir sind die Argumente nicht ausgegangen. Wenn Du zum Diskurs beitragen willst gehe doch bitte auf diese ein, oder melde dich wieder ab - Dampfplauderer haben wir genug
 
  • Gefällt mir
Reaktionen: WiP3R
ascer schrieb:
Das ist tatsächlich nicht korrekt. Beachte das Stichwort "Neural Hash". Damit z.B. gespiegelte, farblich veränderte, ... Bilder nicht in der Auswertung als negativ entwischen kommt da eine KI Lösung zum Einsatz und NeuralHash bedeutet am Ende nichts anderes, als dass nur eine visuelle Ähnlichkeit gegeben sein muss, nicht aber tatsächlich das gleiche Foto schon in der Datenbank existieren muss.
Der NeuralHash ist ein DCT-Hash, der sehr restriktiv konfiguriert wurde. KI ist da sehr hoch gegriffen. Eine Hash-Kollision kommt nur zustande, wenn das selbe Bild schon vorhanden ist, unabhängig von Auflösung, Farbe, Ausrichtung und Dateiformat.


@Topic
Der CSAM-Check hätte lokal auf dem Device gegen einen Blind Hash stattgefunden. Zu keinem Zeitpunkt hätte irgendjemand (weder Apple, noch der Kunde) Zugriff auf PII Daten gehabt. Serverseitig sind sowohl Payload (also das Bild) also auch die Hashes cryptographisch gegen Zugriff Dritter geschützt. Von daher ist die Misinformation in den Medien und auch hier im Forum sehr ärgerlich.
 
Zurück
Oben