Notiz Tone e20: Smartphone für Jugendliche verhindert Nacktaufnahmen

Mich würde ja interessieren ob der Markt in Japan überhaupt groß genug ist, gibt es denn dort überhaupt noch Kinder btw. Jugendliche?
 
Nein, die kommen alle als 80-jährige auf die Welt :freak:
 
  • Gefällt mir
Reaktionen: Benji21, Rangerkiller1, amorosa und 3 andere
Da bekommt der Begriff "Jugend forscht" eine ganz andere Bedeutung in dem Zusammenhang :lol:
 
  • Gefällt mir
Reaktionen: Rangerkiller1 und amorosa
Nette Idee für Helikoptereltern. :D
Ich dachte, in Japan hat man eher Probleme mit Prostitution unter jugendlichen Mädchen. Ein Freier oder 'Fotograf' wird sich das Gerät vermutlich eher nicht kaufen. ^^
Dass das Gerät nur gegen selbst fotografieren, nicht aber gegen fotografiert werden schützt, schränkt den Nutzen schon ordentlich ein. Bestenfalls ein Selbstschutz für exhibitionistisch veranlagte junge Damen oder etwas aufdringliche Herren.
Und die Erfahrung zeigt: Setzt man einem Kind/Jugendlichen eine Sperre vor, ist der Wille, diese zu umgehen umso größer. ;)
 
flaphoschi schrieb:
Erzieherischer Hinweis:
Kind kann mit Smartphone und Computern nicht umgehen? Kein Smartphone. Soll funktionieren, habe ich gehört.
Kind schafft es nicht nach zwei Gitarrenstunden "Through the Fire and the Flames" zu spielen? Direkt Gitarre wegnehmen.

Hier im Thread mal wieder nicht nur die ComputerBase Elite, sondern auch die ElternBase Elite.
 
  • Gefällt mir
Reaktionen: Benji21, Bowa48, Rangerkiller1 und eine weitere Person
Pupp3tm4st3r schrieb:
Weil pubertierende Kinder ja dafür bekannt sind, die Ratschläge der Eltern anzunehmen ;) Klar, Erziehung ist die eine Seite, aber es gibt immer wieder andere Reize etc. und da finde ich es schon mal nicht so schlecht, dass dieses Gerät dies zumindest zu verhindern versucht.
Oder anders: Das Mädchen will seinem Freund ein Nacktfoto schicken, der ist aber ein "Arsch" und verteilt es dann unter seinen Freunden. Und bumm, Mobbinggefahr. Wer jetzt sagt: "Dummes Mädchen, selber Schuld" sollte da vielleicht mal seine Einstellung überdenken...

Klar, er könnte vielleicht auch Fotos mit seinem Handy von ihr machen, aber als erste Maßnahme find ich das durchaus in Ordnung.

Ich bin heute 28, mein eigenen I-net zugang hatte ich mit 13 (also 2005), und ja meine Mutter hat mich darüber aufgeklärt dass wenn ich Videos im Netz verbreite, sie sich nicht mehr löschen lassen und sie auch gegen mich verwendet werden können.
Die versuchung war da, aber ich habs nicht getan. Wer aufgeklärt wurde und sich anders verhält ist halt dumm. Das selbe mit Klimawandel und Autofahren/Flugzeug Fliegen/Nach Öl/Kohle bohren/graben um schnell viel Geld zu verdienen. Erst isses witzig und dann gehts nach hinten los, obwohl mans besser wusste.

Nem Drogensüchtigen gibst du auch selbst die schuld, nicht den Drogen. Denn jeder hat die Wahl.
Ergänzung ()

lowrider20 schrieb:
Auf welchem Server zur KI-Bewertung werden denn die Bilder gesichert? :freak:

Wahrscheinlich werden die von der Katholischen Kirche gestellt.
 
Damien White schrieb:
Ach kommt … Der Schutz der Kinder ist doch wieder nur ein Vorwand um umfangreiche Bilderkennung, natürlich mit Clound, KI und Co. in der Bevölkerung zu etablieren ...

Wenn für dich die Menschheit böse ist, dann solltest du dir Gedanken über ein Leben im Exil zu machen.

Ich bin selbst Vater und erinnere mich noch daran auch solche Fotos erhalten zu haben (waren aber alle schon erwachsen).
Die Frage ist ob es nicht doch mit anderen Foto-Apps möglich ist
 
Coeckchen schrieb:
Die versuchung war da, aber ich habs nicht getan. Wer aufgeklärt wurde und sich anders verhält ist halt dumm.
[...]
Nem Drogensüchtigen gibst du auch selbst die schuld, nicht den Drogen. Denn jeder hat die Wahl.
Schon, aber bei Kindern ist das noch etwas anderes.
Nichtsdestotrotz sind solche Kindersicherungen immer mit Vorsicht zu genießen. Sie ersetzen keine vernünftige Erziehung und helfen auch nur begrenzt, weil sie Anreize schaffen, umgangen zu werden und auch selten mal nicht umgangen werden können. Insofern gehöre ich auch zur Fraktion, die dem Kind sowas eher nicht kaufen würde, lieber reden. Aber jeder ist anders, bei dem einen oder anderen kann das schon was nützen.
 
Cool Master schrieb:
Sollte man nicht eher mit seinen (jugendlichen) Kindern darüber sprechen und aufklären statt sich mal wieder auf Technik zu verlassen, die nicht wirklich eine 100% Quote haben wird?

Aber was sage ich da müsste man sich ja mit seinen Kindern unterhalten und sie auch noch erziehen...

Sage nur die verblödete Republik. 😉
 
kicos018 schrieb:
Kind schafft es nicht nach zwei Gitarrenstunden "Through the Fire and the Flames" zu spielen? Direkt Gitarre wegnehmen.

Hier im Thread mal wieder nicht nur die ComputerBase Elite, sondern auch die ElternBase Elite.

Kind überfährt mit Auto ein anderes Kind:
a) Schlüssel nicht dem Kind geben
b) Mercedes mit “PreSense” kaufen

:rolleyes:
 
  • Gefällt mir
Reaktionen: Rangerkiller1 und K3ks
Dann macht man halt ein Screenshot und speichert analog diesen statt des Bildes 😉😂🤣
 
Ähm, aber mal im Ernst jetzt. Wie trainiert man denn eine KI die uA Genitalien von Kindern erkennen soll?
 
Ich glaube, die KI schaut einfach nach Haut und nicht nach primären Geschlechtsorganen. Wer weiß, vielleicht blockt sie ja sogar Bilder in knappen Bikini oder kurzen Badehosen. ^^
Und ich wäre verwundert, wenn sie Kidner und Erwachsene unterscheiden könnte.
 
  • Gefällt mir
Reaktionen: Rangerkiller1
Spannende Frage die sich mir dabei stellt ist eher was denn so alles fälschlich als Nackt erkannt wird und was alles an legitimen Fotos verhindert wird.

Vermutlich kann man damit keine Fotos vom Musikvideo von Chandelier von Sia machen. (<- komischer Satz, ich glaub ich bin müde ^^)
Wenn das ding auch schon bei Bikini feuert gibts auch kein Nachfragen per foto ob der BH beim Einkaufen ok ist.
Ok, soweit fällt es mir tatsächlich schwer einen Fall zu finden wo es tragisch ist keine beinahenacktaufnahme mit einem Kinder-/Jugendlichensmartphone zu machen.
Aber wie das bei 'KI' so ist könnte auch ein Urlaubsfoto gesperrt werden weil der Hund links unten als nackt identifiziert wird. Oder ein Haus. Irgendwas. Weil 'KI' eben doch nur ein praktisch nicht nachvollziehbar trainierter vollkommen unintelligenter Algorithmus ist der pseudozufällig beim Test in der Entwicklung am besten abgeschnitten hat.

So sinnvoll es erstmal erscheint gleich im Ansatz zu verhindern dass Kinder Nacktfotos von sich produzieren und wahrscheinlich auch gleich danach verbreiten, so sehr widerstrebt es mir doch wenn 'dumme' und noch dazu bekannt unzuverlässige Technik über die menschliche Entscheidungsgewalt gestellt wird.
Ein Werkzeug soll tun was der Benutzer von ihm will. - kein Hammer hat zu entscheiden welchen Nagel er einschlägt.

Nebenfrage wäre auch welche langfristigen Auswirkungen es hat wenn Kinder lernen dass Maschinen bei Entscheidungsfragen das letzte Wort haben. Ist ja jetzt schon schlimm genug, wenn das OS ungefragt neustartet, aber das ist wenigstens offenkundiges Fehlverhalten.

edith fiel noch ein: was bin ich doch immer wieder froh mich mangels kinder nicht allzusehr mit solchen Problemen herumschlagen zu müssen.
 
  • Gefällt mir
Reaktionen: Sturmflut92
Zurück
Oben