Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNeue Regeln und Tools: YouTube will generative KI-Inhalte kennzeichnen oder löschen
Wie man mit generativen KI-Inhalten umgehen soll, die Nutzer erstellen, beschäftigt sowohl die Entwickler der KI-Tools auch die Plattformbetreiber. YouTube hat nun neue Regeln erlassen. Diese verpflichten die Video-Creator, dass sie offenlegen müssen, wenn Videos KI-generierte Inhalte enthalten.
Kennzeichnen ja, aber löschen? Das ist hohe Kunst:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Alle Inhalte die gegen die Nutzungsbedingungen verstoßen werden gelöscht oder sanktioniert. Egal ob KI-generiert oder nicht. Verstehe nicht was diese Differenzierung soll.
Können sie auch gleich den ganzen Low-Quality-Content gleich mitsperren, wie z.B. irgendwelche "Produkttests" die mit ner KI-Stimme das Datenblatt mit ein paar Stockfotos runterrattern etc.
Markieren von KI generierten Inhalten halte ich für sehr sinnvoll.
Mehr aber nicht. Und es muss zuverlässig funktionieren, sowie bei Irrtum muss man die Möglichkeit haben dies richtig stellen zu können.
Für alles andere existieren bereits jeweilige Gesetze.
Trifft das nicht so gut wie auf jedes Video zu? Warum wird KI gesondert herausgegriffen?
Ich meine, der "KI-Spam" ist tatsächlich unerträglich geworden (bei Shorts fällt es mir besonders auf), aber das heißt ja nicht, dass KI generierte Videos per se schlecht sein müssen.
Man müsste dann ja eigentlich auch kennzeichnen, ob ein Greenscreen verwendet wurde, der/die Influencerin geschminkt / durch Filter gejagt wurde um schöner auszusehen, die Farben nachbearbeitet wurden um eine Außenszene "wärmer/sonniger" empfinden zu lassen, etc.
Ich denke, der eigentliche Treiber war der hier:
Auch im Copyright-Bereich wird YouTube tätig. Musikfirmen können KI-Inhalte melden, die Künstler imitieren.
Markieren von KI generierten Inhalten halte ich für sehr sinnvoll.
Mehr aber nicht. Und es muss zuverlässig funktionieren, sowie bei Irrtum muss man die Möglichkeit haben dies richtig stellen zu können.
Für alles andere existieren bereits jeweilige Gesetze.
Grundsätzlich schon. Aber diese Internetriesen interesieren sich ja heute schon nicht um irgendwelche Gesetze. zB das Einschränken und Löschen von Accounts weil dort angeblich irgendwas gezeigt oder gesagt wurde was gegen irgendetwas verstößt ohne genau expliziti es benennen zu können geschweige denn dem Creator die Möglichkeit zur stellungnahme einzuräumen was sie per Gesetz aber müssen. Da setzt man sich heute schon drüber hinweg.
In Zukunft wird es dann so laufen dass nach gutdünken irgendwelche Videos als "KI" generiert markiert werden und wenn du damit ein Problem hast und möchtest dass bestehendes Gesetz durchgesetzt wird du erstmal schön Geld in die Hand nehmen kannst und klagen....
Kurzum es muss auch empfindliche Strafen für Youtube dafür geben wenn sie irrtürmlich Dinge dann als KI generiert einstufen....einfach damit sowas nicht "ausversehen" zu häufig passiert...
Gleichzeitig hat KI generierter Inhalt vom Ersteller zu Kennzeichnen. Problem ist aber was ist mit Leuten die es Teilen und Verbreiten und vielleicht gar nicht wissen dass es KI Content ist?
Ich seh das schon kommen: "Kampf gegen KI Content" wird genauso ein Vorwand wie "gegen Kinderpornografie" um einfach zu löschen, zu zensieren und zu überwachen können. Man erzählt den Leuten halt irgendetwas damit sie etwas akzeptieren was sie sonst nie akzeptieren würden...
Kurzum die Idee an sich ist edel, an der Umsetzung wird es aber scheitern...
Warum ist KI so ein großes, geschweige denn ein Neues Problem? Man hat doch vorher schon Bilder sowie Audio- und Videoaufnahmen manipuliert, generiert oder schlicht aus dem Kontext gerissen.
Ob jemand den Kram noch händisch mit Buntstiften gefälscht hat oder ob es automatisch generiert wird, macht doch keinen Unterschied.
Habe schon einige dieser KI Videos gesehen in denen verschiedene Clips aus Tierrettungen zusammengeschnitten wurden samt KI generierter Stimme und Geschichte. In der Beschreibung findet man dann einen Link für irgendwelche Spenden.
Inzwischen nahezu alles nur zum kotzen im Internet.
Ich verfolge seit vielen Jahren IOTA. Das ist ein Projekt im Cryptospace, mit dem Unterschied dass es sich dabei nicht um den x-ten Abklatsch von irgendeinem Shitcoin handelt, sondern dass da wirklich an Technologien gearbeitet wird.
Zusammen mit Dell arbeitet IOTA innerhalb des Projekts Alvarium an einer Trust Fabric für vertrauenswürdige Daten. Ich hab keine Ahnung wie genau das funktioniert, aber irgendwie sollen Daten mittels Signaturen fälschungssicher gekennzeichnet werden.
Ich hab mich in der Richtung schonmal gefragt, wie in Zukunft Deepfakes und sonstige manipulierte Medien erkannt werden sollen. Das ist ja heute schon echt abartig, was man mithilfe von KI alles an Bildern und Videos erstellen kann.
Langfristig bleibt da doch nur die Möglichkeit, dass alles, was Bild oder Ton aufnehen kann mit Technologien zur digitalisierten Signatur versehen wird, die dem Original eben diese Signatur aufdrücken und alles, was ohne eine solche Sognatur im Netz verbreitet wird pauschal als Fälschung gelten muss, da nicht entscheidbar ob es nun echt oder manipuliert ist?
Youtube schaft es nichtmal fakenews und fakten und o. evidenzbasierte Videos zu händeln. Als ob die Ressourcen dafür freischaufeln und recharieren was KI inhalte sein könnten und was nicht. Die müssten dafür selbst eine KI dazu schalten. Das Schaft ja ein normaler Mensch gar nicht.