News CSAM: Apple will Kinderpornografie-Erkennung nicht umsetzen

xeonking schrieb:
Das tut niemanden weh

Wie bereits gesagt, es tut sehr wohl weh, wenn Du nicht mehr auf deine Xbox Spiele im Wert mehrerer hundert Euro zugreifen kannst, wenn Du Dich nirgends mehr einloggen kannst, weil dein 2FA nicht geht, oder wenn Deine Daten die auf OneDrive liegen weg sind - inkl. Bachelorarbeit etc. ... lies mal den Heise Artikel...
 
  • Gefällt mir
Reaktionen: NJay und Acrylium
shy-Denise schrieb:
Nein ich sage nur das was Opfer erzählen. Setz dich mal mit der Thematik auseinander.
Das ändert nix an der Tatsache, dass ein Algorithmus sie nicht hatte schützen können. Und genauso wenig präventiv wirken, da sie einfach nur jeden unter Generalverdacht stellen und das einem Verbot von solchen Bildern gleich kommt.
 
shy-Denise schrieb:
Meine Meinung als IT-ler*in: dann nutze von vornherein einen datenschutzkonformen Anbieter. Dazu gehört keine iCloud. Es gibt genug andere Anbieter aus Deutschland.
Du raffst es nicht, oder? Du bist bei zig Kunden oder Firmen unterwegs, oder arbeitest in einer Firma, die genau die benannte Cloud verwendet. Was interessiert es Deine anderen Clouds? Die schreiben in deren Richtlinien genau diese Cloud vor, und Du hast verloren mit Deinen Alternativen.
shy-Denise schrieb:
Sorry, dass ist ekelhafte Täter Opfer Umkehr.
Ich habe schon genug Gewalt- und hassverbrechen gegenüber Menschen wie mir AfD erlebt welche alle von dem genannten Spektrum ausgingen. Und jetzt sagst du ich bin die böse weil ich die Täter nenne?
Dann hast Du wirklich ein schlichteres Gemüt als vermutet, wenn Du mir das unterstellen willst. 🙄
shy-Denise schrieb:
Eine Partei in deren Spitze faschisten wie hoecke sind (den darf man laut Urteil so nennen), kann gar nicht auf dem Boden der FDGO stehen. Erst recht nicht wenn dann noch eine Storch Flüchtlinge an den Grenzen erschießen wil (*)l. So einen menschenfeindlichen Unsinn muss man nicht dulden.
Wo steht das im Widerspruch zu dem, was ich oben sagte? 🙄 Wisch Dir bitte mal den pseudoempörten Schaum vor dem Mund, trink nen Kaffee, und beruhige Dich bitte mal wieder, und dann reden wir bitte in Ruhe weiter, bevor wir uns jetzt hier verbal an die Gurgel gehen.

Alles was ich sage, das es keine einfachen Antworten gibt, und man IMMER differenzieren muß, erst recht in einer Demokratie und Freiheit, auch wenn es mühsam ist. Ansonsten ist man - aus meiner Sicht - keinen Deut besser als ein AfDler, Reichsbürger oder Querdenker. Und aufgrund der Differenzierung darf ein KI/AI/ML-System immer nur unterstützend verwendet werden, aber zu keinem Zeitpunkt automatisierend. Mir ist bisher kein solches System bekannt, was die Gesamtleistung eines Menschens für die Beurteilung und Einteilung in rechtlich, moralisch und humaner Sicht toppen kann. Als Inselbegabung für die Musterkennung unstrittig ja, aber der erweitere Kontext für Interpretationen fehlt bis heute. Genau das mahnen alle Kenner, Philosophen und Denker entsprechend zurecht an.
Ergänzung ()

SheepShaver schrieb:
Der NeuralHash ist ein DCT-Hash, der sehr restriktiv konfiguriert wurde. KI ist da sehr hoch gegriffen. Eine Hash-Kollision kommt nur zustande, wenn das selbe Bild schon vorhanden ist, unabhängig von Auflösung, Farbe, Ausrichtung und Dateiformat.
Gibts dazu schon Veröffentlichungen, wie gut oder schlecht das tatsächlich funktioniert?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GBi, ZRUF, Seven2758 und 2 andere
Man muss aber aufpassen, dass differenzieren, nicht zu relativieren wird.

Oder anders gesagt, bei der Aussage, dass immer differenziert werden muss, sollte man differenzieren. :p
 
  • Gefällt mir
Reaktionen: ComputerJunge und PHuV
Wofür gibt es KI... Apple hätte Möglichkeiten eine eigene Lösung zu entwickeln. Auch wenn es nur 50% Erfolg hätte, wären das 50% mehr als jetzt. Vielleicht kommt ja aber noch was.
 
Sehe ich schwierig... Ich habe auch schonmal meine unter der Dusche tanzenden Kinder gefilmt um es dann oma und Opa zu zeigen. Jo also schwieriges Thema.
 
  • Gefällt mir
Reaktionen: GBi und DDR5UltraFan
PHuV schrieb:
Du raffst es nicht, oder? Du bist bei zig Kunden oder Firmen unterwegs, oder arbeitest in einer Firma, die genau die benannte Cloud verwendet.

Wir waren bei der privaten Anwendung und nicht bei Firmen. Was haben Kinderfotos im Container der Firma zu suchen? Genau, gar nichts.

PHuV schrieb:
Schaum vor dem Mund, trink nen Kaffee, und beruhige Dich bitte mal wieder, und dann reden wir bitte in Ruhe weiter, bevor wir uns jetzt hier verbal an die Gurgel gehen.

Das ist literally gaslighting und außerdem bist du derjenige der mich in deinem Datenschutzwahn mit Schaum vor dem Mund angegangen bist - und nicht umgekehrt.🤷🏻‍♀️
 
DFFVB schrieb:
Es war ein Punkt von mehreren - das war also Deienrseits ein klassicher Storhmann, mir sind die Argumente nicht ausgegangen. Wenn Du zum Diskurs beitragen willst gehe doch bitte auf diese ein, oder melde dich wieder ab - Dampfplauderer haben wir genug
Da habe ich wohl einen Nerv getroffen, war nicht meine Absicht. Strohmann*
 
habla2k schrieb:
Ich stelle immer wieder fest, wie schmal der Grat zwischen Freiheit und Sicherheit ist und bin oft genug zwigesaplten oder einfach ratlos, was ich da jetzt für "besser" halte.

Sehr komplexe und komplizierte Themen, die uns da in nächster Zeit noch beschäftigen werden.

Das Problem an der Geschichte ist, dass häufig für mehr Sicherheit geworben wird und am Ende verliert man beides, Sicherheit und Freiheit.
 
SheepShaver schrieb:
Der NeuralHash ist ein DCT-Hash, der sehr restriktiv konfiguriert wurde. KI ist da sehr hoch gegriffen. Eine Hash-Kollision kommt nur zustande, wenn das selbe Bild schon vorhanden ist, unabhängig von Auflösung, Farbe, Ausrichtung und Dateiformat.
Soweit ich nichts falsch verstanden habe, würde ich das dementieren.

In der offiziellen TechDoku von Apple heißt es:
NeuralHash is a perceptual hashing function that maps images to numbers. Perceptual hashing bases this number on features of the image instead of the precise values of pixels in the image. The system computes these hashes by using an embedding network to produce image descriptors and then converting those descriptors to integers (...)
D.h. zuerst gibt es ein Encoding per AI und zwar per neuronalem Netz, denke mal das embedding wird eine ViT- oder AutoEncoder-Architektur als Basis nehmen und erst die Deskriptoren, also die Vektoren im latent space am Ende des Encoders gehen dann weiter den Weg über DCT-Hashes um beim finalen Integer anzukommen.

Damit würde das sehr wohl auf visueller Ähnlichkeit basieren und nicht nur bei exakt dem gleichen Bild anschlagen.
 
  • Gefällt mir
Reaktionen: AssembIer, WiP3R und 7r1c3
Pandora schrieb:
Dann können wir ja gleich in jeder Privatwohnung Kameras aufhängen, immerhin finden die meisten Übergriffe genau dort statt. Würde auch gleich noch eine Reihe anderer Straftaten wie Gewalt durch Partner, Einbruch etc. abdecken, also eine super Idee oder ?
Und mit den ganzen Wanzen in Privathäusern heutzutage (Alexa, OK Google & Co.) rückt die Verpflichtung zur Erkennung häuslicher Gewalt + automatischem Notruf ja auch in greifbare Ferne! Innenministerium war sich noch für keine verfassungswidrige Forderung zu Schade.
 
xeonking schrieb:
@Luthredon
Aber zu sagen das diese nicht so wichtig sind, das kann man gerne mal dessen Opfern überbringen. Viel Spaß dabei.
Was soll der Quatsch? Es geht um eine vernünftige Diskussion und der Abwägung von Kosten und Nutzen. Bist du auch dafür, das Autofahren abzuschaffen? Wenn nicht, wünsch ich dir viel Spaß beim Überbringen der Unfallnachrichten ...

Im Übrigen sprach ich nicht von 'wenigen', sondern von 'keinen'. Du hast sicher mal einen Link, wo beschrieben wird, wie Täter per Apple-Cloud gefunden wurden.
 
  • Gefällt mir
Reaktionen: ComputerJunge und PHuV
ascer schrieb:
Ein Gewinn für den Datenschutz.
Und für alle widerlichen Menschen dieser Welt, die jetzt fröhlich weiter ihre Hirnpfurze ausleben können. Ich wünsche mir ja nicht für viele Straftaten eine adäquate Bestrafung aus dem Mittelalter zurück, aber bei den geistig gestörten Freaks unter uns, wäre das mehr als angebracht.
 
DFFVB schrieb:
Ergo ist halt auch schnell die Frage wo man da ne Abgrenzung macht, ist in Europa halt anders als in USA...
Sag sowas nicht, "Wir" haben "westliche" Werte. ;)
xeonking schrieb:
Schwachsinn, das ist null komma nix vergleichbar.
Natürlich. Die Kameras nehmen alles nur verschwommen auf, aber erkennen diverse Handlungen - bei einer Straftat wäre dann direkt die Polizei vor Ort. Wäre doch klasse, deiner Ansicht nach, denn dann gibt es kaum noch Straftaten und "sicher" bist du trotzdem - toll oder?
PHuV schrieb:
Wenn die Firmen das als ein Indiz melden würden, so daß juristisch ordentlich ermittelt werden kann, ginge das in Ordnung. So spielen dann aber Microsoft und Google Executive und Legislative, und das darf so nicht sein!
Darf auch nicht, auch wenn die Unternehmen das natürlich so wollen.
shy-Denise schrieb:
Was soll dieser Whataboutism? Nicht alles was hinkt ist ein Vergleich..
Wenn man ein Wort gehört hat und verwenden möchte, dann sollte man dies auch richtig tun. Also lass mal dein "Whataboutism" stecken.
shy-Denise schrieb:
Falsch, nennt sich Hausrecht. AGBs lesen hilft.
Falsch - AGBs sind nicht immer 100% rechtens, dazu hat man selbst dann nicht das Recht willkürlich zu sperren. Gab schon einige Urteile gegenüber Youtube, weil User gesperrt wurden und das eben nicht rechtens war. Geht vor Gericht und Youtube schaltet dir deinen Account wieder frei.
Sich mal mehr informieren und lesen hilft vor Falschaussagen. ;)
Apacon schrieb:
Quelle dazu? Apple wollte sehr wohl ALLE in die iCloud geladenen Bilder beim Upload prüfen.
Wenn du schon nach einer Quelle verlangst und gleichzeitig vom Gegenteil überzeugt bist, dann liefer doch selbst erstmal Quellen um deiner Behauptung auch ein Fundament zu geben?
PHuV schrieb:
AGBs, das sollte man wissen, enthalten auch viele Passagen, die rechtlich nicht gültig sind. Und Hausrecht gibt noch lange nicht das Recht, Unschuldige zu bannen! Lern mal bitte was über unsere Demokratie, da sind Legislative und Executive genau benannt, und die heißen weder Google noch Apple noch Microsoft oder sonstwer.
Richtig. Dazu gab es schon Fälle von Youtubern die vor Gericht eben genau sowas bemängelt haben. Man kann seinen Acc wiederbekommen, man muss nur durchhalten.
xeonking schrieb:
Selbst wenn damit nur ein kleiner Bruchteil an Gewalttaten verhindert werden kann, dann sollte man das machen.
Aaaaaaaslo, nochmal. Mit Kameras und Mikros in JEDEM Haushalt - die natürlich nur Hashwerte auslesen - kann man bestimmt auch mehr als nur einen Bruchteil an Gewalttaten verhindern. Also - bei dir installieren wir als erstes Kameras und Mikrofone? Dient nur dem Schutz der Allgemeinheit und zu verbergen hast du ja nichts. =)
Magellan schrieb:
Meine Mutter hat letztens ein Galaxy A53 bekommen, das erste was passiert ist war dass eine Meldung kam dass die 15GB Google Drive aufgebraucht sind - es hat direkt mal versucht alle Bilder (die per SD mitgenommen wurden) hochzuladen. Da hängt man schneller drin als man schauen kann...
Na na na! Wer einfach nur "Ja, Ja, Ja, Akzeptieren, Akzeptieren, Ja, Ja" bei der Einrichtung des Smartphones drückt, der ist auch selbst schuld! Da hängt man nur schneller drin als man denkt, wenn man einfach "schnell schnell und los" will. Dann solltest du deiner Mutter das Smartphone einrichten oder sie eben belehren, aber nicht Google die schuld dafür geben das man sich nicht durchliest was man da eigentlich gerade akzeptiert hat.
 
  • Gefällt mir
Reaktionen: tritratrullala und PHuV
xeonking schrieb:
Kann passieren, ist dumm gelaufen. Natürlich doof das man das nicht hinbekommt. Aber mal ehrlich, ist es nicht besser einmal zu viel gemeldet als ein Missbrauchtes Kind/Frrau etc.`? Es wird niemals das perfekte System dafür geben, aber man kann versuchen das ganze ein zu grenzen.
Auf dem Onedrive liegt der Key für die Passwort-Datenbank, auf der alle Passwörter für SÄMTLICHE Systeme liegen, weil Microsoft das so empfohlen hat! Außerdem sind SÄMTLICHE Lizenzen nicht mehr zugänglich und alle auf dem Account gekauften Produkte vernichtet ... aber natürlich ist das okay, weil es hätte ja etwas sein können (was in 99,99% der Fälle aber nicht ist)...

Würdest du es auch okay finden, wenn von dir die Arbeit von mehreren Jahren und mehrere tausend Euro An Produkten zerstört werden? Obwohl du nichts auch nur annähernd verbotenes gemacht hast?
 
  • Gefällt mir
Reaktionen: ComputerJunge und Lan_Party94
PHuV schrieb:
Gibts dazu schon Veröffentlichungen, wie gut oder schlecht das tatsächlich funktioniert?
Das Berechnen von robusten Hashes für Bilder ist schon seit mehr als 20 Jahren ein Thema. Dazu gibt es unzählige IEEE Veröffentlichungen. Suche nach "robust image hashing" oder "perceptual hashing". Die Algorithmen sind primär dazu gedacht, Copyright-Material zu identifizieren und versuchen daher, möglich unempfindlich gegen Bildmanipulationen wie Spiegeln, Drehen, Skalieren, Farbänderungen etc. zu sein.

Hier wird das recht einfach erklärt. Alter Blog-Post, aber im Prinzip noch aktuell:
https://hackerfactor.com/blog/index.php?/archives/432-Looks-Like-It.html
Je nach den angewandten Parametern ist jede Methode entweder strikt und eventuell anfällig für false negatives oder umgekehrt zu lax und anfällig für false positives.
 
floh667 schrieb:
Irgend ein dummer Algorithmus wird nie erkennen können, ob die Bilder von einem perversen Onkel gemacht wurden oder von einem gewöhnlichen Familienmitglied.
Weil ich jetzt hier dauernd von 'Algorithmus' lese, es ging bei Apple, falls wir beim Thema bleiben wollen, nie um Algorithmen, die irgendwas erkennen können, oder auch nicht. Apple beschreibt explizit, dass sie lediglich "known material" entdecken können/wollen.
( https://www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdf )
D.h. es geht um altes, bekanntes Material, dessen Hashes vorliegen. Dazu braucht man keine Algorithmen.
 
  • Gefällt mir
Reaktionen: nlr
ascer schrieb:
Damit würde das sehr wohl auf visueller Ähnlichkeit basieren und nicht nur bei exakt dem gleichen Bild anschlagen.
Hab ich auch nicht behauptet? Ein DCT-Hash (oder DTC-II-Hash in diesem Falle) ist ein Perceptual Hash und natürlich muss er robust sein gegen Manipulation (ein JPG und ein PNG des selben Fotos sind nicht identisch, ein runterskaliertes Bild ist nicht identisch etc.). Ob zwei Bilder eine Hash-Kollision auslösen hängt vom Hamming-Abstand ab.

@Luthredon
Hashes werden durch ALGORITHMEN berechnet...
 
PHuV schrieb:
Darüber hatten wir hier vor einiger Zeit schon mal gesprochen:

MS sperrt willkürlich Konten

Mir zunehmender Zeit wird das anscheinend immer mehr als ernsthaftes Problem wahrgenommen.
 
Zurück
Oben