AI-Training für Sora-Konkurrenten: Adobe kauft Videos für rund 3 US-Dollar pro Minute

Andreas Frischholz
25 Kommentare
AI-Training für Sora-Konkurrenten: Adobe kauft Videos für rund 3 US-Dollar pro Minute
Bild: Adobe

Adobe kauft derzeit Video-Inhalte ein, um Trainingsmaterial für ein AI-Modell zu sammeln, das die Grundlage für einen Text-zu-Video-Generator bildet, berichtet Bloomberg. OpenAI hatte zuletzt mit Sora für Aufsehen gesorgt, Adobe sehe sich nun unter Zugzwang.

Bloomberg beruft sich auf interne Dokumente. Demnach bietet Adobe seinem Netzwerk an Fotografen und Künstlern derzeit 120 US-Dollar an, um Videos von Menschen einzureichen, die alltägliche Dinge tun. Dazu zählen etwa Spaziergänge oder Emotionen wie Wut und Freude, aber auch Aufnahmen von Händen und Füßen oder wie Personen ein Smartphone und Fitnessgerät nutzen.

Die Bezahlung pro Video unterscheidet sich. Im Durchschnitt soll Adobe laut Bloomberg 2,62 US-Dollar pro Minute eines eingesandten Videos bezahlen, es können aber auch bis zu 7,25 US-Dollar sein. Wie diese Preise mit den 120 US-Dollar zusammenpassen, geht aus dem Bericht nicht hervor.

Adobe warnt laut den Dokumenten explizit, keine urheberrechtlich geschützten Inhalte einzureichen. Dasselbe gilt für Nacktheit oder anderweitig „anstößige Inhalte“.

Reaktion auf Sora

OpenAI hatte im Februar mit Sora einen Video-Generator vorgelegt, der kurze Aufnahmen basierend auf Text-Prompts erstellt. Das Tool ist zwar noch nicht öffentlich verfügbar, das veröffentlichte Material sorgte aber für Aufsehen.

Adobe hat bereits angekündigt, an einer ähnlichen Technologie zu arbeiten. Details will man aber erst im Laufe des Jahres veröffentlichen. Auch auf den aktuellen Bericht angesprochen erklärte ein Adobe-Sprecher auf Anfrage von Bloomberg lediglich, dass man Video-AI-Funktionen entwickele.

Bei den generativen Bildgeneratoren zählt Adobe bereits zu den führenden Anbietern. Das Produktportfolio rund um die Creative Cloud sowie Programme wie Photoshop und Illustrator wurde bereits um generative AI-Funktionen ergänzt. Mit Firefly existiert zudem ein eigenständiger AI-Bildgenerator.

Adobes Strategie bei Trainingsdaten: Sichere Quellen

Was die Meldung aber schon zeigt: Adobe beachtet urheberrechtliche Vorgaben offenbar stärker als die Konkurrenz. Schon die bisherigen Modelle wurden in erster Linie mit dem eigenen Stockfoto-Archiv trainiert, darüber hinaus hat man Bilder direkt von Anbietern bezogen. Und auch bei dem Modell für den Videogenerator will Adobe offenbar klarstellen, aus welchen Quellen das Trainingsmaterial stammt.

Bei anderen Anbietern ist das indes nicht der Fall. Insbesondere OpenAI gibt sich verschlossen bei der Herkunft der Trainingsdaten. Bemerkenswert speziell im Fall Sora waren Aussagen von OpenAI-CTO Mira Murati. Sie konnte im Interview mit dem Wall Street Journal nicht ausschließen, dass auch YouTube-Videos für das Sora-Training verwendet worden sind. So etwas verbietet YouTube aber mit den Nutzungsbedingungen, erklärte zuletzt YouTubes CEO Neal Mohan.

Wie die New York Times am Wochenende berichtet, nutzte OpenAI YouTube-Videos aber nicht nur für Sora. Schon GPT-4 soll damit trainiert worden sein. Die Entwickler setzten dabei auf das hauseigene Transkriptionsmodell Whisper, um die Audiospuren der Videos zu transkribieren. Mehr als 1 Million Stunden von YouTube-Videos wurden so erfasst. In dem Team, das dieses Projekt umsetzte, hat sogar OpenAI-Präsident Greg Brockman mitgearbeitet.

OpenAI steht damit aber nur beispielhaft für die KI-Entwicklung der Big-Tech-Konzerne. Auch Google und Meta sollen laut dem New-York-Times-Bericht die Nutzungsbedingungen im Web ausreizen oder ignorieren, um an Trainingsdaten zu gelangen. Die Konzerne bezeichnen das Vorgehen aber als legal, die Datensammlung sei durch die Fair-Use-Klausel gedeckt.

Deswegen laufen auch Gerichtsverfahren. So klagen etwa die New York Times und weitere Inhalteanbieter wie Getty Images gegen OpenAI. Weitere Verfahren stammen von Künstlern und Kreativen.

Du hast rund um den Black Friday einen tollen Technik-Deal gefunden? Teile ihn mit der Community!