Neue Regeln und Tools: YouTube will generative KI-Inhalte kennzeichnen oder löschen
Wie man mit generativen KI-Inhalten umgehen soll, die Nutzer erstellen, beschäftigt sowohl die Entwickler der KI-Tools auch die Plattformbetreiber. YouTube hat nun neue Regeln erlassen. Diese verpflichten die Video-Creator, dass sie offenlegen müssen, wenn Videos KI-generierte Inhalte enthalten.
Das Ziel der Regeln ist zunächst Transparenz. Zuschauer sollen wissen, was für eine Art an Video sie sehen. Daher sollen KI-Inhalte künftig gekennzeichnet werden.
KI ermöglicht neue Formen des Storytellings und des kreativen Ausdrucks. Sie kann aber auch genutzt werden, um Inhalte zu erstellen, die das Potenzial haben, Zuschauer:innen in die Irre zu führen – insbesondere, wenn sie nicht wissen, dass das Video manipuliert oder synthetisch erzeugt wurde.
YouTube-Stellungnahme
Die Tools, die generative Inhalte markieren, sollen in den kommenden Monaten eingespielt werden. Video-Creator müssen dann mitteilen, wenn sie manipulierte oder synthetische – also völlig neu erstellte – Inhalte in die Videos einbauen. Das gelte laut YouTube insbesondere bei sensiblen Themen wie Wahlen, aktuellen Konflikten, Gesundheitsrisiken oder öffentlichen Amtsträgern.
Es ist also der klassische Kampf gegen Desinformation, der seit Jahren läuft und nun auf die KI-Inhalte übertragen wird. Täuschend echte Fälschungen wie Deepfakes von Politikern gelten als eines der größten Risiken. Aber auch gefälschte Audioaufnahmen können mit generativen KI-Tools ohne größeren Aufwand erstellt werden. Von so einem Fall war zuletzt die Tagesschau betroffen.
Banner als Aufklärung für die Zuschauer
Zuschauer werden über zwei Systeme informiert, wenn ein Video manipulierte oder synthetische Inhalte enthält. Der Videobeschreibung wird ein neues Label hinzugefügt, um zu kennzeichnen, dass Inhalte digital verändert oder generiert wurden. Wenn es bei den generativen Inhalten um eines der sensiblen Themen geht, enthält der Videoplayer ein noch besser sichtbares Label.
Sollten die generativen KI-Inhalte gegen die Nutzungsbedingungen verstoßen, werden diese von der Plattform entfernt. So kann etwa ein Video mit synthetisch erstellten Gewaltdarstellungen gelöscht werden. Ob ein Video tatsächlich fragwürdig ist, soll aber anhand verschiedener Faktoren bewertet werden. So spielt es etwa auch eine Rolle, ob es sich um eine Parodie oder Satire handelt.
Nutzer können künftig zudem Anfragen stellen, um KI-Inhalte entfernen zu lassen. Das gilt etwa, wenn mit den künstlichen Inhalten eine identifizierbare Person simuliert wird. Das Vorgehen wird dem Prozess bei Datenschutzbeschwerden entsprechen. Über die finale Löschung entscheidet dann YouTube.
Auch im Copyright-Bereich wird YouTube tätig. Musikfirmen können KI-Inhalte melden, die Künstler imitieren. Auch in diesem Fall will YouTube dann bewerten, ob diese Inhalte entfernt werden.
KI-Branche will KI-Inhalte kenntlich machen
Generell sind praktisch alle führenden Anbieter derzeit damit beschäftigt, Instrumente bereitzustellen, mit denen sich generative KI-Inhalte kennzeichnen lassen. Grundlage sind auch die Auflagen der US-Administration unter Präsident Joe Biden. Anbieter wie OpenAI, Google Deepmind oder Adobe integrieren daher etwa Wasserzeichen. Mit diesen lassen sich Inhalte erkennen, die mit den Tools der Firmen generiert worden sind.