-
Es gelten die Sonderregeln des Forums Politik und Gesellschaft.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AI-Fake-Porn von Taylor Swift: US-Administration will verschärfte Regeln gegen Deepfakes
- Status
- Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Blende Up
Commander
- Registriert
- Okt. 2020
- Beiträge
- 2.286
Moin,
wenn die Aufnahmegeräte, also die Videokammeras ihre erzeugten Inhalte gleich bei der Aufnahme signieren würden, dann könnte man zumindest schon mal sicherstellen, dass das Rohmaterial kein DeepFake ist. Würde der Inhalt verändert, passt die Signierung nicht mehr.
Ob man es schaffen kann, z.B. per Blockchain, das dann weitere Stellen das Rohmaterial weiterverarbeiten können, und es dann neu signieren können, wäre vielleicht möglich. Aber das kann ich nicht beurteilen, da fehlt mir einfach das nötige Wissen.
Eine nachträglich Kennzeichnung von Inhalten als AI halte ich aber für ziemlich aussichtlos, da man ungewünschte Inhalte natürlich sofort als AI generiert darstellen würde.
Ich hab mal gesucht, und tatsächlich eine aktuelle Meldung von Winfuture dazu gefunden.
Die Kamerahersteller denken da, zumindest für Photos, schon mal drüber nach.
https://winfuture.de/news,140390.html
und noch n paar
https://fotopro.world/news/sony-kam...er-mit-digitaler-signatur-gegen-faelschungen/
https://www.golem.de/news/no-fake-n...kameras-mit-c2ps-signatur-an-2401-180715.html
wenn die Aufnahmegeräte, also die Videokammeras ihre erzeugten Inhalte gleich bei der Aufnahme signieren würden, dann könnte man zumindest schon mal sicherstellen, dass das Rohmaterial kein DeepFake ist. Würde der Inhalt verändert, passt die Signierung nicht mehr.
Ob man es schaffen kann, z.B. per Blockchain, das dann weitere Stellen das Rohmaterial weiterverarbeiten können, und es dann neu signieren können, wäre vielleicht möglich. Aber das kann ich nicht beurteilen, da fehlt mir einfach das nötige Wissen.
Eine nachträglich Kennzeichnung von Inhalten als AI halte ich aber für ziemlich aussichtlos, da man ungewünschte Inhalte natürlich sofort als AI generiert darstellen würde.
Ich hab mal gesucht, und tatsächlich eine aktuelle Meldung von Winfuture dazu gefunden.
Die Kamerahersteller denken da, zumindest für Photos, schon mal drüber nach.
https://winfuture.de/news,140390.html
und noch n paar
https://fotopro.world/news/sony-kam...er-mit-digitaler-signatur-gegen-faelschungen/
https://www.golem.de/news/no-fake-n...kameras-mit-c2ps-signatur-an-2401-180715.html
Zuletzt bearbeitet:
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
Och da kollidieren so viele Dinge gleichzeitig.
1. Medienkompetenz ist etwas das gelehrt werden muss. Sowohl im Elternhaus als auch in Schule.
2. Gesetze sollten hier mit Bedacht und Voraussicht erstellt werden. Aber auch nicht Freifahrtsschein sein ein "Wahrheitsministerium" zu erzeugen. Insbesondere bei politischen/wirtschaftlichen Zusammenhängen.
3. X ist nur bedingt "schuldig". X braucht für sowas auch aktuell noch länger, da das früher alles Handarbeit von sehr vielen war. Selbstverständlich gehört das durch Automatismen ersetzt. Wären die Werbefirmen nicht teilweise abgesprungen wären, wäre Twitter inzwischen im Plus. Was zuvor durch die Personalkosten undenkbar schien.
Persönlich denke ich das ein Moderationssystem auf Community-Basis eine elegante Möglichkeit wäre Fakes zu entlarven. Fakes lassen sich so entlarven und sollten schnell handelbar sein.
Wahrheitsfindung bei politischen / wirtschaftlichen Problemen wird man aber bei bsp. X nicht einfach per Gesetz oder Moderation sicherstellen können, abgesehen von vielleicht Extremfällen wie in DE Holocaust-Leugnung. Den da greift auch zusätzlich das X eine weltweite Plattform ist und sich Gesetzen aller Länder beugen muss. Verschiedene Länder könnten verschiedene Wahrheiten oder Narrativa von X moderieren lassen.
1. Medienkompetenz ist etwas das gelehrt werden muss. Sowohl im Elternhaus als auch in Schule.
2. Gesetze sollten hier mit Bedacht und Voraussicht erstellt werden. Aber auch nicht Freifahrtsschein sein ein "Wahrheitsministerium" zu erzeugen. Insbesondere bei politischen/wirtschaftlichen Zusammenhängen.
3. X ist nur bedingt "schuldig". X braucht für sowas auch aktuell noch länger, da das früher alles Handarbeit von sehr vielen war. Selbstverständlich gehört das durch Automatismen ersetzt. Wären die Werbefirmen nicht teilweise abgesprungen wären, wäre Twitter inzwischen im Plus. Was zuvor durch die Personalkosten undenkbar schien.
Persönlich denke ich das ein Moderationssystem auf Community-Basis eine elegante Möglichkeit wäre Fakes zu entlarven. Fakes lassen sich so entlarven und sollten schnell handelbar sein.
Wahrheitsfindung bei politischen / wirtschaftlichen Problemen wird man aber bei bsp. X nicht einfach per Gesetz oder Moderation sicherstellen können, abgesehen von vielleicht Extremfällen wie in DE Holocaust-Leugnung. Den da greift auch zusätzlich das X eine weltweite Plattform ist und sich Gesetzen aller Länder beugen muss. Verschiedene Länder könnten verschiedene Wahrheiten oder Narrativa von X moderieren lassen.
Feligs
Banned
- Registriert
- Apr. 2013
- Beiträge
- 3.328
Früher hat man wenigstens fundierte Photoshop Kenntnisse gebraucht um Fakes halbwegs realistisch darstellen zu können. Jetzt kommt die KI um die Ecke und jeder Trottel kann ohne Wissen Fakes erstellen die unter Umständen hohen Schaden anrichten können. Wenn es nach mir geht kann das Zeug gerne verboten werden.
- Registriert
- Juli 2021
- Beiträge
- 2.721
Da muss man fair sein: Diese Nachteile gibt es, seit es die digitale Bildbearbeitung gibt. Es gibt genug Beispiele bereits seit den 00er Jahren, die manipulierte Bilder zeigen und ohne entsprechende Prüfung durch Forensiker fast nicht zu erkennen sind. Und damit sind wir schon bei einem Kernproblem: Fehlende Medienkompetenz. Jedoch nicht nur die, sondern auch teilweise "politischer" Willen Bilder erst mal als Wahr anzunehmen, wenn sie in den eigenen Kontext passen.R O G E R schrieb:Das sind halt die Nachteile der schönen neuen KI Welt.
Das wird sie auf jeden Fall haben. Vor allem, weil wir aktuell in einer Gesellschaft leben, die nur so nach Bestätigung der eigenen Ansichten sucht und ist dafür erst mal ein Bild da, dann kann man damit perfekt Ressentiments und Co befeuern.nighteeeeey schrieb:Ich glaube kurzfristig hat generative AI auf jeden Fall das Potenzial sehr viel mehr Schaden anzurichten
Das ist in diesem Fall etwas komplizierter. Nur weil X die Bilder nicht selbst erstellt hat, haben sie die Bilder verbreitet und genau da liegt das Problem.FR3DI schrieb:Klar, die schuld bei anderen suchen.
Man könnte jetzt anbringen, dass der Bote nichts für die Nachricht kann, gleichzeitig ist das aber immer von der Situation abhängig. Es gibt hier viele potenzielle Beispiele, bei der sich der Bote mitschuldig macht und eigentlich nichts dafür kann.
Das Thema ist komplex.
Weil eine Taylor Swift so bekannt ist und viele "hörige" Fans hat, so dass sie auch damit die Wahl dieses Jahr in den USA beeinflussen kann.tomgit schrieb:Warum hat es jetzt einen Vorfall mit Promis gebraucht, damit die US-Politik auf Bundesebene sieben (!) Jahre später mal endlich aktiv werden mag?
Gerade solche Stars mit so einem Personenkult um sich, können hier wirklich Einfluss nehmen.
Eigentlich können Sie gar nicht mehr wirklich eingreifen. Mit Stable Diffussion ist es relativ einfach nun eigene KI-Modelle darauf aufbauend zu trainieren und mit genug Trainingsdaten bekommt das jeder hin.DennisK. schrieb:Ein wichtiges Thema, dem sich Regierungen rund um den Globus annehmen müssen. Inwiefern hier aber sinnvoll eingegriffen kann in die Bildgenerierung ist jedoch zweifelhaft.
Man muss an der Stelle aktuell noch schreiben: Zum Glück sind es noch "nur" Pornos.
Nicht wirklich. Bildmanipulation ist seit der digitalen Bearbeitung von Bildern ein Thema, dass quasi seit dem immer wieder angesprochen wird. Jetzt mit KI benötigt man nicht mal mehr wirklich Fähigkeiten dafür.DennisK. schrieb:Die Katze ist aus dem Sack, ob man sie wieder hineinbekommt?
Das sind Probleme, die sich die Entwickler vorher hätten stellen müssen, denn im Nachgang lässt sich das nur noch sehr schwer einfangen.
Hat sie auch. Problem ist nur, dass es da die wenigsten bisher interresiert, weil es "Futter" für die eigenen Argumente ist.u-blog schrieb:die weit größere Gefahr sehe ich bei Deepfakes in der Politik.
Naja, wenn man sich ansieht, wie gewisse Menschen in politischen Lagern ticken und dass die sogar versuchen mit Fälschungen Menschen zu deskreditieren?kokiman schrieb:Wir hatten jetzt schon sehr viele AI-Fakes rund um Politiker, das schien weniger skandalös zu sein, als bei Taylor Swift? Irgendwie irre.
Ja, das ist es, aber es gibt leider auch keine Patentlösung dafür. Leider.Che-Tah schrieb:Es ist ein gesellschaftliches Problem wie heute mit Medien umgegangen wird.
Das wird recht schwierig.AlphaKaninchen schrieb:Man sollte lieber Kindern schon in der Schule zeigen wie man so etwas erstellt, muss ja nicht mit Nacktbildern sein. Das Ziel sollte sein das bei Bildern die eher abwegiges darstellen die Echtheit infrage gestellt wird.
Dazu müssten die Kinder erstmal wissen wie etwas ohne Bild KI ausschaut.
Fängt schon bei Selfies an - manche "Schönheitsfilter" kann man bei gewissen Smartphones gar nicht abstellen.
Ich kenne auch ein paar Kids, die basteln sich mit '"cooler Soundsoftware" voll hippe Musik zusammen (also klingt wirklich ganz ok für so populären Kram).
Nur das halt keiner von denen auch nur vom Quintenzirkel gehört hat oder gar ein Instrument stimmen könnte.
Gesang? ---> Autotune!
Da werden eben paar tausend vorgefertigter Loops und Melos durchgeklickt bis was zusammenpasst - und die Kids fühlen sich als die Oberproduzenten. Bisher händisch - ab gestern auch mit "KI".
Bei Bildern läuft es seit Jahren ebenso.
Lustige Baukasten Malprogramme.
Damit werden dann "voll coole Flyer und Plakate" erstellt. Für den nächsten Event mit den krassen Musikern aus dem vorherigen Absatz. Natûrlich mit Schönheitsfilter. Und gefakter Künstlervita.
Das Kind ist schon längst in den Brunnen gefallen!
Es gibt schon einen nicht zu vernachlässigenden Anteil an jungen Menschen, die es nicht mehr peilen was diesbezüglich abgeht. Das wird gar nicht hinterfragt.
Und das drückt schon auf die Kultur durch. Tagtäglich. Sobald man das Radio einschaltet, Musikclips anschaut oder nur ein Poster irgendwo hängen sieht.
Die schicke, gefakte Konsumwelt eben.
Und Kühe sind lila!
DaZpoon
Commander
- Registriert
- Dez. 2009
- Beiträge
- 2.985
Könnte man den Kram nicht eindämmen indem die Social Media Plattformen nur noch eindeutig signierte Medien beim Upload annehmen (dürfen)? So ähnlich wie diese NFT. Dann ist es natürlich vorbei mit der Anonymität, dämmt aber diese ganze Trash-Posterei ggf. mal ein. Natürlich problematisch in den Fällen wo diese Social Media zum Whistleblowing dienen.
Haldi
Admiral
- Registriert
- Feb. 2009
- Beiträge
- 9.757
Zuerst wollte ich mit "Schwachsinn!" Darauf antworten.nighteeeeey schrieb:Ich weiß nicht mehr genau wer es gesagt hat aber als die Möglichkeit von generativer so langsam absehbar wurden letztes Jahr und Adobe vor ein paar Jahren ja auch noch dieses AI Audio Editing Tool vorgestellt hat sagte jemand kürzlich, dass diese Technologie die gesamte westliche Welt ins Chaos (oder in bürgerkriegsähnliche Zustände) stürzen könnte.
Aber ich denke ein "ich möchte doch vehement widersprechen!" Passt besser zur Diskussionskultur.
Wir haben leider momentan eine Situation wo ein Grossteil der Bevölkerung die Schnauze voll hat von der "Medien Manipulation" einiger reichen Besitzer von Medienhäusern und daher lieber auf "reale" Menschen hören die auf TikTok ihren Schwachsinn verbreiten.
Seit der Mond Landung wird darüber spekuliert ob die Fotos Echt sind oder ob das alles nur gefaked ist.
Eigentlich bereits seit viel früher tauchen Fotos auf von Ufos. Sie existieren Tatsächlich!!!111elf
Aber wenn nun Person X auf Twitter oder TikTok ein Foto postet von Donald Trump der einen Hamburger isst, dann ist das definitiv genau so passiert!
Die AI ist NICHT das Problem hier! Das Problem bestand bereits seit Jahrzehnten. AI hat das Problem nur soweit vergrösster das wir nicht mehr einfach die Augen schliessen können um es zu ignorieren, weil Jedermann ohne Fachwissen oder Aufwand dies erledigen kann.
Richtig Schlimm wird das ganze nur bei RealTime Anwendungen.XCPTNL schrieb:die AI generierte Inhalte und per AI erstellte andere Fakes für alle Arten von Cyberkriminalität etc. verursachen werden.
Stell dir vor eine Tochter ruft ihre Grossmutter an und sagt sie Stecke am Bahnhof in X fest und habe keine Geld mehr für ein Taxi. Ob Oma ihr nicht 100.- zusenden könnte.
Oder die ganzen Video Calls.
Als Tech Support bekommst du einen Teams Video Anruf von einem Mitarbeiter aus dem Homeoffice der seinen PC neu aufgesetzt hat und dabei das Passwort vergessen hat. Bitte einmal zurücksetzen.
Wie willst du da wissen ob die Person echt ist oder nicht? Bei einem 3000 Personen unternehmen die sich noch nie persönlich getroffen haben wird das schwer.
Social Engineering wird da richtig gefährlich.
Ja.Neodar schrieb:Warum sollte ich mir irgendwelche Fake Taylor Swift Bildchen/Videos reinziehen, wenn mir eine KI doch theoretisch genau die absolute Frau meiner Träume kreieren kann?
Aber das ist dann die Frau DEINER träume.
Taylor Swift ist ein Star. Wenn du sexuelle Handlungen mit einem Star durchführst wirst du selbst wichtiger weil das ja sonst kaum einer hinbekommt. Und wenn man sich sexuelle Handlungen mit einem Star vorstellt helfen Pornos dazu.
Gibt auch die Theorie das man Dinge begehrt die man nicht haben kann. Da hilft Deepfakes dann.
3faltigkeit
Lieutenant
- Registriert
- Jan. 2017
- Beiträge
- 862
So sehr ich hier auch gern wieder das Problem und Versagen bei X suchen würde, wird das der Sache sicherlich nicht gerecht. Mag sein, dass die Plattform bei der Moderation keinen guten Job macht. Ich denke aber nur mit Moderation wirds nicht getan sein. Das Problem ist viel Größer und sitzt viel Tiefer. Das wird bei den zukünftigen Wahlen (bzw. Politik generell, Stichwort Manipulation) wahrscheinlich erst richtig relevant und das auch auf allen Plattformen. Ich bin gespannt wie man dem Herr werden möchte. Das auf ein "kleines" Symptom wie dieses hier zu Fokussieren, ist fast schon eine populistische Vereinfachung des Gesamtbildes. Die nächsten Jahre werden definitiv sehr spannend.
Ich hoffe einfach mal, dass du in dem Rahmen nicht bei so banalen Sachen wie Pornos hängengeblieben bist. Viel brisanter sind die Möglichkeiten im politischen Bereich und im sogenannten "investigativen" Journalismus ("Geheimtreffen" der AfD, Kriegsverbrechen, etc.).tomgit schrieb:Ich hab vor bald zwei Jahren meine Masterarbeit zu Deepfakes geschrieben. Fälle, wo Deepfakes verwendet wurden um zumindest den Versuch zu wagen, Menschenleben zu ruinieren, waren da schon umfänglich bekannt.
RizzoSpacerat
Lt. Junior Grade
- Registriert
- Okt. 2019
- Beiträge
- 265
Deepfakes werden seit 2 Jahren genutzt, auch um Hetzkampangen und Falschinformationen zu verbreiten, es juckt gefühlt keine Sau.
Jetzt wo es diese völlig überwertete Countrysängerin erwischt soll plötzlich was passieren? die Pressesprecherin des US Presidenten äußert sich persönlich dazu?
Bin ich im falschen Film oder was? Muss ich erst einer Prominenten das gleiche antun was mir angetan wurde damit sich was tut?????
Jetzt wo es diese völlig überwertete Countrysängerin erwischt soll plötzlich was passieren? die Pressesprecherin des US Presidenten äußert sich persönlich dazu?
Bin ich im falschen Film oder was? Muss ich erst einer Prominenten das gleiche antun was mir angetan wurde damit sich was tut?????
MrMorgan
Admiral
- Registriert
- Okt. 2006
- Beiträge
- 7.994
so interessant KI ist und so interessiert ich darauf bin, in welchen Bereichen KI uns sprunghaft nach vorne bringen wird (Medizin etc.) so besorgt kann man auch in Bezug auf diese Themen sein.
Deepfakes, IT Sicherheit sind nur 2 Bsp. dafür - Sicherheitsexperten werden in den nächsten Jahren eine Menge Arbeit vor sich haben.
Gesetzliche Regelungen sind hier unumgänglich aber leider vermute ich, das die Politik hier leider viel zu langsam sein wird um dieser rasanten Entwicklung Herr zu werden.
Deepfakes, IT Sicherheit sind nur 2 Bsp. dafür - Sicherheitsexperten werden in den nächsten Jahren eine Menge Arbeit vor sich haben.
Gesetzliche Regelungen sind hier unumgänglich aber leider vermute ich, das die Politik hier leider viel zu langsam sein wird um dieser rasanten Entwicklung Herr zu werden.
Pff. Manuelle Fotomontagen gibt es schon seit Jahrzehnten und die sind in der Regel glaubwürdiger als KI-Fälschungen.
KI-Fälschungen erkennt man relativ einfach daran, dass sie (quasi ähnlich wie PC-Spiele) unrealistisch wenige Details haben, also bspw. Hautunreinheiten, Leberflecke, Körperbehaarung, kantige Körperpartien usw., die durch die KI aber i.d.R. weich gezeichnet werden (so wie die Filter bei Instagram etc. es tun).
KI-Fälschungen erkennt man relativ einfach daran, dass sie (quasi ähnlich wie PC-Spiele) unrealistisch wenige Details haben, also bspw. Hautunreinheiten, Leberflecke, Körperbehaarung, kantige Körperpartien usw., die durch die KI aber i.d.R. weich gezeichnet werden (so wie die Filter bei Instagram etc. es tun).
AlphaKaninchen
Commander
- Registriert
- Mai 2018
- Beiträge
- 2.919
Ich bin mir grade nicht ganz sicher ob du auf so etwas wie Magix Music Maker oder diese App wo man Töne auf Knöpfe legen kann hinaus willst, von Musik habe ich wirklich keinen Plan...JensG schrieb:Ich kenne auch ein paar Kids, die basteln sich mit '"cooler Soundsoftware" voll hippe Musik zusammen (also klingt wirklich ganz ok für so populären Kram).
Nur das halt keiner von denen auch nur vom Quintenzirkel gehört hat oder gar ein Instrument stimmen könnte.
Gesang? ---> Autotune!
Da werden eben paar tausend vorgefertigter Loops und Melos durchgeklickt bis was zusammenpasst - und die Kids fühlen sich als die Oberproduzenten. Bisher händisch - ab gestern auch mit "KI".
AlphaKaninchen
Commander
- Registriert
- Mai 2018
- Beiträge
- 2.919
Wenn man in Darktable am richtigen Regler dreht, oder eine Lila Lampe beim Fotografieren zur Hand hat... das schwierige ist das es richtig aussieht also Farblich in die Lichtsituation passt. Mit KI ist aber auch das kein Ding.JensG schrieb:Und Kühe sind lila!
Auf eine gewisse sehr perfide weise finde ich das aber auch gut, bisher hängen an FKK Stränden oder auch in vielen Schwimmbädern Schilder die darüber informieren das Fotografieren verboten ist. Wenn solche Bilder so verbreitet sind das es nur noch ein Ackselzucken hervorruft kann man sich die Schilder sparen.
Oder einer großen Gruppe von Menschen, aber bei diesem Thema würde es sich dann wahrscheinlich von selbst lösen. Siehe Oben.RizzoSpacerat schrieb:Bin ich im falschen Film oder was? Muss ich erst einer Prominenten das gleiche antun was mir angetan wurde damit sich was tut?????
Zuletzt bearbeitet:
ownagi
Commander
- Registriert
- Jan. 2005
- Beiträge
- 2.088
Mir gefällt Deine Aussage überhaupt nicht. Stell Dir vor, Du kommst ins Büro und alle schauen Dich komisch an. Nach einigem hin- und her stellst Du fest, dass Du selbst Opfer von nem "Porno-Spaß" geworden bist und alle Dich "nackt gesehen" haben. Du siehst die Bilder und stellst fest: Sieht verdächtig echt aus. Na, auf einmal ist es nicht mehr so lustig, oder?SweetOhm schrieb:Für Fake Porn fände ich den "AI Krempel" ja noch in "Ordnung" und halbwegs vertretbar,
Und jetzt stell Dir vor, Du bist kein gefestigter Erwachsener, der das einordnen kann. Sondern ein Teenager, dem das in der Schule passiert. Das kann verheerende Auswirkungen auf einen jungen Menschen haben.
Übrigens finde ich es auch nicht in Ordnung, wenn jemand sagt: "Die Taylor steckt das schon weg, sie ist ja Promi". Nö. Promis haben auch Persönlichkeitsrechte.
Eine Idee, wie man das regulieren könnte, habe ich natürlich auch nicht. Aber es geht ja damit los, dass es von einer Mehrheit akzeptiert wird...
Zuletzt bearbeitet:
Gravlens
Commander
- Registriert
- Aug. 2022
- Beiträge
- 2.063
Besonders problematisch sehe ich mittlerweile bei AI erstellten Dingen das es so viele Leute gibt die nicht glauben können wie gut AI erstellter Inhalt sein kann.^^
Ich glaube vor einem halben Jahr ungefähr gab es einen Stream auf einer Messe wo ein bekannter deutscher Streamer sich mit einem "AI Roboter" unterhalten hatte, da kamen so viele Kommentare in dem seinem Chat das die AI (!) Fake wäre und er in Wirklichkeit mit einem echten Menschen spricht.^^
Es ist eine Sache davon zu wissen, aber eine ganz andere das dann auch wirklich zu glauben, also im umgekehrten Sinne das es Fake ist und nicht echt.^^
Man muss meiner Meinung nach an den Schulen bereits vermitteln das es zum Teil schlicht nicht mehr möglich ist zwischen Fake und echtem Inhalt zu unterscheiden und nicht nur das es Fakes gibt.^^
Ich glaube vor einem halben Jahr ungefähr gab es einen Stream auf einer Messe wo ein bekannter deutscher Streamer sich mit einem "AI Roboter" unterhalten hatte, da kamen so viele Kommentare in dem seinem Chat das die AI (!) Fake wäre und er in Wirklichkeit mit einem echten Menschen spricht.^^
Es ist eine Sache davon zu wissen, aber eine ganz andere das dann auch wirklich zu glauben, also im umgekehrten Sinne das es Fake ist und nicht echt.^^
Man muss meiner Meinung nach an den Schulen bereits vermitteln das es zum Teil schlicht nicht mehr möglich ist zwischen Fake und echtem Inhalt zu unterscheiden und nicht nur das es Fakes gibt.^^
- Status
- Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Ähnliche Themen
- Antworten
- 14
- Aufrufe
- 2.242