News Apple-Event: iPhone 13, Apple Watch 7, AirPods, iPad mini und mehr

k0ntr schrieb:
Ich schaue mir gerne die Präsentationen Live an. Wenn da auch noch iOS15 vorgestellt wird, dann passt das.
Die Präsentation der neuen iOS und MacOS Versionen wird Klassischerweise auf der Apple-Entwicklermesse WWDC gemacht, die im Juni stattfindet. Du hast also die Keynote, die am 07.06. stattfand, um knapp 2,5 Monate verpasst ;)
Kannst sie dir aber noch auf der Apple Homepage oder auf YT anschauen.
 
  • Gefällt mir
Reaktionen: mrhanky01
Helge01 schrieb:
Von der KI, da man Hash Werte manipulieren kann. Ist das Ergebnis danach immer noch nicht eindeutig, wird sich das von einer Person angesehen.
Bitte was? Magst du das mal näher erläutern bitte? Ich halte das für groben Unfug.
 
  • Gefällt mir
Reaktionen: Kalsarikännit und mrhanky01
Ne flachere Apple Watch 7 würde bei mir wohl im Warenkorb landen und die Watch 5 ersetzen.
 
Woraus errechnet sich eigentlich der Hash?

Einfach Kinder die nackt sind?
Weil dann könnten doch ggf. auch folgende dinge Alarm schlagen:
  • Klassische Gemälde
  • Hentai
  • Eigene Familien/Kinderfotos aus dem Planschbecken whatever
 
DonConto schrieb:
Magst du das mal näher erläutern bitte? Ich halte das für groben Unfug.
Erst danach sollen Apple-Mitarbeiter überprüfen, ob die beanstandeten Fotos tatsächlich Missbrauchsmaterial enthalten. Quelle

Und ja, ich reihe mich ein: CB sollte dazu längst eine News gebracht haben. Denn seitdem ist es unter allen (?) News bzg. Apple Thema.
 
  • Gefällt mir
Reaktionen: Dirty_Harry, shaggy86, Earl Grey und 3 andere
Shelung schrieb:
Woraus errechnet sich eigentlich der Hash?

Einfach Kinder die nackt sind?
Weil dann könnten doch ggf. auch folgende dinge Alarm schlagen:
  • Klassische Gemälde
  • Hentai
  • Eigene Familien/Kinderfotos aus dem Planschbecken whatever

2 verschiedene Datenbanken wo es um Kinderpornografie geht, die stellen die Hashwerte.
 
DonConto schrieb:
Magst du das mal näher erläutern bitte?
Soweit ich es verstanden habe:

  • Die KI sieht sich das Foto an und erzeugt mehrere Samplingwerte. Diese werden gehasht. Wenn jetzt diese Hash-Werte (zum Teil!) auch in der CSAM-Datenbank sind, wird das Foto markiert.
  • Wenn du mehr als eine (mir unbekannte) Anzahl markierter Fotos in deiner iCloud hast, werden die Fotos von Apple Mitarbeitern persönlich ausgewertet.
  • Sind es dann wirklich Fotos, die eindeutig sind, wird eine Behörde informiert.
 
  • Gefällt mir
Reaktionen: eXenZ und Poati
DonConto schrieb:
Bitte was? Magst du das mal näher erläutern bitte? Ich halte das für groben Unfug.
Ganz einfach, man nimmt ein Bild und ändert seine Größe, Helligkeit, Kontrast und retuschiert noch paar Detail raus, danach hat das Bild nicht mehr den ursprünglichen Hash und würde durchs Raster fallen. Dagegen geht Apple mit KI vor damit auch solche Bilder erkannt werden. Rechenleistung ist auf den Geräten reichlich vorhanden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Roesi
frazzlerunning schrieb:
Soweit ich es verstanden habe:

  • Die KI sieht sich das Foto an und erzeugt mehrere Samplingwerte. Diese werden gehasht. Wenn jetzt diese Hash-Werte (zum Teil!) auch in der CSAM-Datenbank sind, wird das Foto markiert.
  • Wenn du mehr als eine unbekannte Anzahl markierter Fotos in deiner iCloud hast, werden die Fotos von Apple Mitarbeitern persönlich ausgewertet.
  • Sind es dann wirklich Fotos, die eindeutig sind, wird eine Behörde informiert.

30 Bilder
 
Grundsätzlich ist die Technik, die hier Apple verwenden will, die am wenigsten "schlimmst mögliche" die man sich vorstellen kann.
Die Fotos werden lokal sowieso schon länger gekennzeichnet - die Problematik dahinter eine andere
Kann mir vorstellen, warum CB keine News dazu gebracht hat, ist aber dennoch echt ein Unding.

Zu den Produkten:
Kann nur hoffen, dass sich das iPhone 13 Mini gut verkauft. Auch wenn ich das leider nicht glauben kann.
 
Helge01 schrieb:
Ganz einfach, man niemmt ein Bild und ändert seine Größe, Helligkeit, Kontrast und retuschiert noch paar Detail raus, danach hat das Bild nicht mehr den ursprünglichen Hash und würde durchs Raster fallen. Dagegen geht Apple mit KI vor damit auch solche Bilder erkannt werden. Rechenleistung ist auf den Geräten reichlich vorhanden.

Dazu hätte ich gerne einmal eine Quelle.

Da steht nämlich was anderes:

https://www.heise.de/news/Umstritte...erpornos-Apple-verteidigt-Plaene-6160638.html

Es werden die festen Hashwerte gegen die Hashwerte vor Ort gecheckt, bevor diese in die cloud geladen werden. Da steht aber nicht das die Bilder weiteren scans unterzogen werden.
 
ZikaEr schrieb:
Zu den Produkten:
Kann nur hoffen, dass sich das iPhone 13 Mini gut verkauft. Auch wenn ich das leider nicht glauben kann.
In Bezug auf die gesamte Supply chain ist sehr wahrscheinlich, dass jetzt schon entschieden ist ob es ein iPhone 14 Mini gibt oder nicht…und was man so hört ist eher negativ.
 
frazzlerunning schrieb:
Je nachdem wie die KI antrainiert wurde, könnten diese Fotos dann auch markiert werden.

? Du hast Dir aber schon durchgelesen was CSAM macht, oder?
 
Ich warte definitiv ab, was Apple mit ihrem Kinderporno iPhone nun macht. Damals bin ich zu Apple gegangen und nicht zu Android, eben weil der Datenschutz hochgehalten wurde und Android nur als Werbemaschine für Google dient.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne, Roesi und Akronos
ZikaEr schrieb:
Dann nur hoffen, dass sich das iPhone 13 Mini gut verkauft. Auch wenn ich das leider nicht glauben kann
Die Entscheidung über die Produktpalette für 2022 ist schon längst gefallen und nachdem was von verschiedenen Apple-nahen Quellen berichtet wird, wird es 2022 kein Mini-Modell mehr geben. Der weltweite Absatz ist im Vergleich zu den größeren Geräten einfach zu gering.
Btw. auch ein Grund, warum man das "normale" 12er auf die Maße des 12 Pro (bei gleicher Displaygröße wie das 11er) "zusammengeschrumpft" ist. Das 11er ging besser als das kleinere 11 Pro.

Zum Thema Kinderporno-Scan: Abwarten, was in der EU überhaupt möglich ist. Offizielle Aussage ist aktuell, dass das "Feature" US-only sein wird. In der EU fehlen (noch?) die rechtlichen Grundlagen.
 
Floxxwhite schrieb:
Ich bin da persönlich sehr zwiegespalten. Weil das eigentliche Ziel kinderpornografische Inhalte ausfindig zu machen und strafrechtlich zu verfolgen finde ich sehr gut. Für mich ist Kindesmissbrauch einfach mit das schlimmste.

Aber die Wahrheit ist: Die Täter werden dann einfach auf Android abweichen oder sich irgendwelche Festungen aus Linux-Material bauen. Und an die "Urheber" kommt man damit halt auch nicht dran.
Hab ich alles noch gar nicht so genau verfolgt. Werde ich dann bald abgestempelt, weil mir mein Bruder im Sommer Bilder seiner kleinen Tochter beim plantschen schickt? (Nichts sexuelles, so wie es von uns früher auch Bilder beim Baden oder sonst wo gibt..)

Ich warte auf das iPhone 13. mein Xs hält Akku technisch leider keinen Tag mehr durch…
Hoffe auch auf mehr Laufzeit/Effizienz.
 
Hanfyy schrieb:
Hab ich alles noch gar nicht so genau verfolgt. Werde ich dann bald abgestempelt, weil mir mein Bruder im Sommer Bilder seiner kleinen Tochter beim plantschen schickt? (Nichts sexuelles, so wie es von uns früher auch Bilder beim Baden oder sonst wo gibt..)

Nein, da die Bilder bzw. deren Hashwerte wohl kaum in Datenbanken in denen es um Kindesmissbrauch geht, auftauchen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kalsarikännit
Ich glaube ihr schweift etwas ab. Wie kommt man vom Thema Apple Event zu Kinderpornos?!
 
  • Gefällt mir
Reaktionen: sNiPe
Corpheus schrieb:
Euch ist aber schon klar, dass nur Hashwerte der Fotos mit einer Datenbank abgeglichen werden, oder?

Die Hashwerte kann man, wie ich schon schrieb ohne Probleme fälschen und z.B. via URL Shortener auf dein Gerät übertragen. Da nicht nur die Bilder in der Gallerie sondern in dem gesamten Dateisystem gescannt werden kann das durchaus zu Situationen führen die nie hätten eintreten dürfen.
 
  • Gefällt mir
Reaktionen: Seven2758 und ZikaEr
Zurück
Oben