News Apple-Event: iPhone 13, Apple Watch 7, AirPods, iPad mini und mehr

DerMonte schrieb:
Wie schön dass man nur die Textstellen zitieren muss, auf die man am besten ätzen kann und sie komplett aus dem Kontext reißt. Aber ganz ehrlich ich hätte gerne die Ruhe von Merkel. Wäre gerade in Zeiten wie diesen wo sich eh ein Großteil der Bevölkerung eher Emotionen her gibt und die Fakten in den Müll wirft auch angebracht.
Nein, mir ging es nicht wirklich darum, sondern zu zeigen, dass genau diese Einstellung dazu führt, dass unsere Grundrechte irgendwann nicht mehr exisiteren. Und dafür hast Du halt, mit der Abwartenstrategie und es wird schon nicht so schlimm, die beste Steilvorlage geliefert.

Wie an meinen Beispielen schon erläutert, das Geldwäschegesetz sollte ursprünglich nur Terroristen und ähnliches betreffen, heute darf das BAföG Amt oder auch jegliche Sozialbehörde Deine Konten scannen. Gleiches gilt für die Mautbrücken, anfangs ausschließlich für die Mautpreller unter den LKW, ein paar Jahre später auch für Mord und Kindesentführung und seit der WM diesen Jahres werden alle Kennzeichen offiziell und anlasslos gescannt.

AbDeHi schrieb:
Der Anteil an Fals Positives liegt bei 3 von 100 Mio. Fotos.
Und du müsstest mindestens 30 False Positives auf deinem iPhone haben, damit eine Überprüfung von einem Apple-Mitarbeiter erfolgt. Wie wahrscheinlich ist dieses Szenario?

egal wie hoch die false positive Rate ist, solange sie nicht gleich null ist, werden Unschuldige verdächtigt, deren Leben zerstört und ganz ehrlich, erscheint mir die Rate die Du genannt hast als sehr, bzw. extrem niedrig, denn es gibt bisher noch nicht ein einziges Verfahren, dass bei Einsatz einer KI, eine Positivquote von mehr als 90% zuverlässig hat, die Realität wird wahrscheinlich anderes zeigen und selbst wenn man die von Dir genannte Rate zu Grunde legen sollte, dann wären das bei ca. 1 Mrd. iPhones mit jeweils durchschnittlich 100 Photos trotzdem, wenn ich mich nicht verrechnet haben sollte, über 3 Mio evtl. unschuldig Verdächtigte.

Egal wo auf diesr Welt, wenn man einmal der KiPo verdächtigt wurde, wird man dieses Stigma nie mehr los und ist somit gesellschaftlich vernichtet, selbst wenn sich die Unschuld erweisen sollte.

Außerdem solltest Du Dir mal z.B. die Gesetzgebung in Dtl. anschauen was alles unter KiPo fällt, eine 17jährige, die ihrem gerade 18 Jahre alt gewordenen Freund ein Nacktfoto sendet, ist lt. Gesetzestext KiPo. Es ist ein extrem schwammig formuliertes Gesetz und nicht umsonst betreffen derzeit in Dtl. 95% der Anzeigen Minderjährige, die freizügige Fotos von sich selbst versenden.

Von der Anscheinsminderjährigkeit wollen wir noch nicht mal anfangen, denn selbst wenn das Modell über 18 ist, aber jünger erscheint, ist es lt. Gesetz KiPo. Lt. Gesetz bist Du erst auf der sicheren Seite, wenn die Pornos die Du evtl. konsumieren könntest, maximal MILF oder Grannies zeigen, bei jüngeren (normalerweise legalen) hast Du halt das Problem, dass es Anschein - KiPos sein könnten, es muss nur ein Richter der Meinung sein, dass die Darstellerin jünger als 18 aussieht, obwohl sie meinetwegen schon Mitte 20 sein kann, um Dich wegen KiPo inhaftieren zu können.

Lt. der Schweizer Polizei sind über 90% der aus den USA gemeldeten "Straftaten" kein KiPo und von den 10 restlichen Prozent betrift es in 6 - 8 % Minderjährige die anderen Minderjährigen Fotos gesandt haben. Man darf nicht vergessen, in den USA ist ein Bild von einem nackten Kind in der Badwanne KiPo, was in unseren Landen noch als völlig normal gilt, ansonsten hätten schon meine Eltern wegen der Anfertigung von KiPo sich strafrechtlich verantworten müssen, denn auch von mir gibt es Nacktfotos in der Badewanne oder im Freibad.
Und wie schon gesagt, es ist erst die erste Stufe ... denn das werden sich die Reichen und Mächtige in aller Herren Länder nicht entgehen lassen ...

Denn wenn man sich die Politk und deren Gesetzesversuche der letzen Jahre, die zum Glück zumindest teilweise einkassiert wurden, merkt man, dass die Reichen und Mächtigen genau vor einwas richtig Angst haben und zwar das sich irgendwann der "Pöbel" erhebt und gegen die bestehenden Strukturen ankämpft und das gilt es auf jeden Fall zu vermeiden.

Das beste Beispiel ist ironischerweise die DDR, gegen die Masse der Bevölkerung, die demonstrierte hatten sie keine Chance, aber wie würde es ausschauen, wenn kurz nach Beginn der ersten Demonstrationen die "Rädelsführer" und deren Kontakte aus dem Verkehr hätten ziehen können? Evtl. würde es die DDR, mit den heutigen Möglichkeiten, noch geben.

Daher sage ich wehret den Anfängen, auch wenn Ihr denkt Ihr würdet Euch gesetzeskonform verhalten, denn wer garantiert Euch, dass eine Aussage von heute morgen noch bestand hat und nicht ins Gegenteil verkehrt wird - je nachdem wer die aktuelle Politik bestimmt?
 
  • Gefällt mir
Reaktionen: Zitterrochen, Toni_himbeere, Seven2758 und eine weitere Person
Mein moralischer Kompass ist anders als von anderen ;) . Sollen sie die Bilder scannen.

Bin gespannt, iPhone 13 wird wohl als diensthandy kommen, privat bleib ich erstmal beim 11 pro funktioniert einfach tadellos …
 
  • Gefällt mir
Reaktionen: Dirty_Harry und DerMonte
AbDeHi schrieb:
Es werden nämlich nur Bilder geprüft, die in die Cloud hochgeladen werden.
Ich verstehe nicht im geringsten wie das in der Praxis funktionieren soll. Denn: macht man direkt mit der Kamera Bilder von Minderjährigen -> erst mal keine Hashes, nichts passiert. Zieht man sich bereits bekannte Bilder aus dem Darknet, lädt man sich die wirklich in Fotos-App und synchronisiert sie per Cloud? Das wäre doch ausgesprochen dumm. Menschen mit dieser Neigung sind sich doch in der Regel bewusst das sie illegales tun, nehme ich an.

Sorry Apple, bin ja wirklich Fan eurer Produkte, aber da greift ihr grad echt richtig ins Klo.
 
  • Gefällt mir
Reaktionen: Zitterrochen, Earl Grey und knoxxi
Der Gesetzentwurf vom US Senat wird schon länger nicht mehr verfolgt ist da her irrelevant in diesem Fall. Steht aber auch als Update im Artikel.

"Update: It appears this bill, first proposed last year, is no longer likely to proceed."
 
Ich kann immer noch auf 90 oder 120Hz verzichten, für mich völliger Blödsinn. Mir ist das egal ob das besser aussieht beim Wischen oder Scrollen. Bei Samsung Android kann ich mit das schon vorstellen, verschleiert vielleicht das Ruckeln ein wenig :-)
Viel mehr muss die Notch irgendwie verschwinden und es muss Touch ID an der Seite haben, ansonsten wüsste ich jetzt nicht was ich brauchen könnte, finde mein Mini immer noch Perfekt und werde es auch nicht Tauschen.

Ich glaube aber nicht das es viele Änderungen geben wird, es wird sicher eher ein 12S mit bissl mehr Akku und neuen CPU.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dirty_Harry, mrhanky01 und getexact
Helge01 schrieb:
Die beobachten rund um die Uhr deine Bilder in der Wohnung, werden aber nicht aktiv. Erst wenn die Bilder in die iCloud geladen werden, hat die Auswertung auch Konsequenzen.
Und genau das ist eben nicht der Fall!

Wenn iCloud Photos deaktiviert ist, wird überhaupt nichts ausgewertet oder gescannt.

"Apple emphasizes that it’s exclusively looking at photos you sync with iCloud, not ones that are only stored on your device. It tells reporters that disabling iCloud Photos will completely deactivate all parts of the scanning system, including the local hash generation. “If users are not using iCloud Photos, NeuralHash will not run and will not generate any vouchers,” Apple privacy head Erik Neuenschwander told TechCrunch in an interview."
theVerge
 
  • Gefällt mir
Reaktionen: ComputerJunge und Dirty_Harry
Augen1337 schrieb:
Aber trotzdem finde ich dieses Vorgehen sehr transparent und offen gestaltet.
Schon, aber das Problem ist wie viele hier schon sagten, wie gehts weiter wenn das System erstmal da ist. Irgendwann wird dein Handy auf Gesellschaftskritische Nachrichten durchsucht und damit meine ich keine NS oder Querdenker sondern einfache Leute.

Die Idee dahinter mag ja wirklich gut sein aber es wird KPs nicht verhindern, gibts eigentlich eine geplante Trefferquote? Ich meine wenn das System bei 1-10 Leute anschlägt und ich dafür Millionen überwachen muss ist gerechtfertigt? Hilft das den Betroffenen oder verhindert es weitere? Ich glaube nicht, Leute die sowas machen werden damit auch weiter machen und/oder kaufen einfach Androidgeräte. Und wenn die das auch haben wirds wieder ne andere Möglichkeit gefunden. Ich seh das Kritisch.
 
Das Problem ist doch, die Täter kriegt man damit eh nicht. Bei Falsch positiven kann man sich auf ein Spießrutenlauf gefasst machen. Spätestens wenn man den Richter nach einer Hausdurchsuchung nachweisen muss, dass die Pornos von 25 Jährigen Frauen auf den Rechner nicht Minderjährig sind. Vor ein paar Jahren stand sowas mal in einer News, da wäre einer fast verknackt worden wegen Milfporns. Er konnte es dann allerdings doch noch nachweisen, dass die Frauen darin nicht Minderjährig sind.

Diese Funktion mag für vieles sein, aber ganz sicher nicht Kinderschutz. Das Apple Kinderschutz egal ist, sieht man ja schon wie deren Geräte produziert werden.
 
  • Gefällt mir
Reaktionen: Zitterrochen und JNS-K
JNS-K schrieb:
Außerdem solltest Du Dir mal z.B. die Gesetzgebung in Dtl. anschauen was alles unter KiPo fällt, eine 17jährige, die ihrem gerade 18 Jahre alt gewordenen Freund ein Nacktfoto sendet, ist lt. Gesetzestext KiPo. Es ist ein extrem schwammig formuliertes Gesetz und nicht umsonst betreffen derzeit in Dtl. 95% der Anzeigen Minderjährige, die freizügige Fotos von sich selbst
Ich frage für einen Freund :D

was ist, wenn man freizügige Fotos von jemanden hat, die aber halt schon 20+ ist. Woher weiß denn bitte die KI, ob sie 22 oder 17 ist? Wird man dann erstmal verdächtigt?

Darüber hinaus, es haben so viele freizügige Fotos, hier und mal da bekommen, also wie viele dann anschlagen würden. (also in meinem Alter)
 
AbDeHi schrieb:
Wenn iCloud Photos deaktiviert ist, wird überhaupt nichts ausgewertet oder gescannt.
Und im nächsten Schritt werden dann alle Fotos gescannt, man möchte ja die Kinder schützen.
 
Möge hätte vielleicht unter Umständen. Mehr ist die Diskussion darüber zur Zeit nicht.
 
  • Gefällt mir
Reaktionen: AbDeHi
JNS-K schrieb:
[…] dann wären das bei ca. 1 Mrd. iPhones mit jeweils durchschnittlich 100 Photos trotzdem, wenn ich mich nicht verrechnet haben sollte, über 3 Mio evtl. unschuldig Verdächtigte.
Apple sagt die Chance auf False Positives liegt bei weniger als 1:1 Billion pro Account pro Jahr.

Die Fotos werden ja nicht von Mashine Learning auf Inhalte abgesucht, nackte Mädchen oder so was. Sondern es werden Hashes der Bilder mit Hashes von bereits bekannten KiPo Bildern verglichen.

Von den ganzen anderen Cloud Foto Anbietern, Microsoft, Facebook, Google etc., die ja schon seit Jahren alle hochgeladenen Bilder direkt auf ihren Servern auf KiPo scannen, hört man ja auch wenig über false Positives.
 
  • Gefällt mir
Reaktionen: Dirty_Harry
@AbDeHi Ich habe mir nochmals das White Paper von Apple durchgelesen und dort steht alles detailliert drin, aber nicht wann das Scannen tatsächlich erfolgt. Vermutlich ist das nur Schadensbegrenzung von Apple, da der Artikel vom 10. August auch recht neu ist. Die merken das ihr über Jahre aufgebautes Image mit dem Datenschutz Risse bekommt und die Nutzer misstrauisch werden. Jetzt müssen alle wieder beruhigt werden.

Was passiert aber wirklich, wenn der Mechanismus in Betrieb geht? Pädophile benutzen keine Apple Gerät mehr, also wird es kaum/keinen Erfolg geben (außer vielleicht ein paar unschuldige, deren Existenzen man dadurch zerstört). Man hat eine Infrastruktur geschaffen, die viel Geld kostet und ohne Nutzen viele Jahre vor sich hingammelt. Glaubst du das wirklich? Investiert ein Unternehmen wirklich soviel Geld und Aufwand, wenn es schlussendlich keinen Nutzen hat?
 
Zuletzt bearbeitet:
Einzelne Fotos betreffend. Der Treshhold liegt dann aber bei 20 oder 30 Fotos auf einem Account, bevor irgendwas passiert. Also bevor noch einmal eine Human Inspection stattfindet.

Aus dem Paper:

Apple always chooses the match threshold such that the possibility of any given ac- count being flagged incorrectly is lower than one in one trillion, under a very conserva- tive assumption of the NeuralHash false positive rate in the field. As the system is initial- ly deployed, we do not assume the 3 in 100M image-level false positive rate we mea- sured in our empirical assessment. Instead, our conservative assumption builds in a safety margin that is two orders of magnitude stronger. Specifically, we assume a worst- case NeuralHash image-level error rate of one in one million, and pick a threshold that safely produces less than a one-in-one-trillion error rate for a given account under that assumption. Building in an additional safety margin by assuming that every iCloud Pho- to library is larger than the actual largest one, we expect to choose an initial match threshold of 30 images. Since this initial threshold contains a drastic safety margin re- flecting a worst-case assumption about real-world performance, we may change the threshold after continued empirical evaluation of NeuralHash false positive rates – but the match threshold will never be lower than what is required to produce a one-in-one- trillion false positive rate for any given account.
 
Bin selbst Apple-User, aber wenn CSAM kommt, werde ich alle meine Geräte verkaufen...

In der ersten Version mag CSAM noch ein zahnloser Tiger sein, aber es geht einfach um den Tabubruch seitens Apple. Wenn es kommt, ist die Büchse der Pandora geöffnet. Checkt das doch mal!

Sehr guter Kommentar dazu von Jürgen Schmidt:
https://www.heise.de/meinung/Kommen...-in-die-Totalueberwachung-fuehrt-6166219.html

Leider ist Android mit GApps auch keine Alternative. Muss ich wohl wirklich wieder mit Frickeln anfangen und auf GrapheneOS setzen...
 
  • Gefällt mir
Reaktionen: JNS-K, Fliz, anm256 und 2 andere
Helge01 schrieb:
Man hat eine Infrastruktur geschaffen, die viel Geld kostet und ohne Nutzen viele Jahre vor sich hingammelt. Glaubst du das wirklich? Investiert ein Unternehmen wirklich soviel Geld, wenn es schlussendlich keinen Nutzen hat?
Genau die gleiche Frage kannst du auf alle Cloud-Anbieter anwenden, die bereits jetzt alle Daten auf illegale Inhalte prüfen. Oder Facebook. Oder Twitter. Dass die Daten von den Diensten geprüft werden ist bekannt, also werden sie von Pädophilen nicht genutzt, also hat man eine Infrastruktur geschaffen, die viel Geld kostet und ohne Nutzen viele Jahre vor sich hingammelt.
Aber dass das eben nicht so trivial ist, sieht man am Beispiel Facebook, die allein 2020 20Mio. Fotos mit Kindesmissbrauch gelöscht haben. Wird bei Apple nicht anders sein.
Alles andere ist reine Spekulation.
 
SideEffect schrieb:
In der ersten Version mag CSAM noch ein zahnloser Tiger sein, aber es geht einfach um den Tabubruch seitens Apple. Wenn es kommt, ist die Büchse der Pandora geöffnet. Checkt das doch mal!

Die Büchse der Pandora ist schon sehr lange offen, spätestens seit Snowden.. und es hat sich nichts geändert, ganz im Gegenteil.
 
  • Gefällt mir
Reaktionen: mrhanky01 und Gizzmow
Zurück
Oben