Ein wichtiges Thema, dem sich Regierungen rund um den Globus annehmen müssen. Inwiefern hier aber sinnvoll eingegriffen kann in die Bildgenerierung ist jedoch zweifelhaft. Der Mainstream verwendet in der Tat Cloud-Programme von seriösen Anbietern (Adobe, Microsoft etc.), hier lassen sich Mechanismen einbauen, keine Frage. Doch das verhindert, nicht, dass die dahinterliegende Technik frei auf Github vor sich her vegetiert. Jeder, mit einer Grafikkarte, im Grunde reicht schon eine CPU, kann sich diese Bilder lokal zaubern.
Man müsste also an der Wurzel, an den KIs selbst Hand anlegen. Wie man das bei Open-Source machen soll? Offen gestanden keine Ahnung, man kann Regeln da ja nicht durchsetzen. Will man jeden Entwickler verklagen, der eine KI ohne Schutzmechanismen auf GitHub oder Google Drive hochlädt? Bisher ist die Auswahl an großen Modellen für KI-Bildern noch recht übersichtlich, da kann man sicherlich auch Personen zur Verantwortung ziehen, aber aufgrund der freien Verfügbarkeit würde das niemanden davon abhalten, anonym Schutzmechanismen wieder zu entfernen oder einfach den aktuellen Stand zu nehmen und selbst weiterzuentwickeln. Die Technik ist ja schon da – ganz ohne Schutz.
Die Katze ist aus dem Sack, ob man sie wieder hineinbekommt?