künstliche intelligenz (deeplearning) massentauglich auf youtube ?

  • Ersteller Ersteller ksjdgzagt
  • Erstellt am Erstellt am
Ja, könnte möglich sein @SpamBot

Ich will damit nur sagen, das die Quelle auch nachvollziehbar sein muss.

Die Arches morphen meißt wie blöde.
Du kannst aus einem Bild, durch das Programm locker 1000 weitere generieren.

Denk schon, wenn jemand dagegen angehen will, wird das bestimmt gehen.

Lg
 
  • Gefällt mir
Reaktionen: ksjdgzagt
Juristisch auf jeden Fall höchst interessant. Je nach Verwendung hat es vermutlich das Potential unter Identitätsdiebstahl zu fallen. Ein Verstoß gegen bestimmte Persönlichkeitsrechte dürfte das aber sicherlich sein.
 
  • Gefällt mir
Reaktionen: ksjdgzagt
Ein Verstoß gegen bestimmte Persönlichkeitsrechte dürfte das aber sicherlich sein.
Glaube ich eher nicht, siehe https://www.rechtambild.de/2000/05/bgh-paparazzi-fotos/
Hier wird klargestellt, dass für öffentliche Personen natürlich auch das Recht auf Privatsphere gilt, allerdings wird es wohl schwierig, das bei einem Film zB anzuwenden, welcher ja gerade für die Öffentlichkeit hergestellt wurde.

Die Frage ist dann wohl eher, ob man die Personen, deren Gesichter man übernimmt vergüten muss. Oder die Verlage, deren Bilder man genommen hat, um das Programm zu trainieren.
 
  • Gefällt mir
Reaktionen: ksjdgzagt
Es ist aber schon noch ein Unterschied, ob ich mir n Foto ausm Film ziehe und an die Wand hänge oder ich besagte Person etwas sagen lasse, was sie selber nicht gesagt hat. Das wird im Zweifelsfall ganz sicher nicht rechtens sein. Gerade, wenn es dann doch mal etwas heikles sein sollte...

bzg. dem Video: Dort wird am Ende ja jemanden gedankt fürs erstellen, ..also nicht direkt selber gemacht.
 
Zuletzt bearbeitet: (ausgebessert..)
  • Gefällt mir
Reaktionen: ksjdgzagt und Vigilant
@henpara
Stimmt schon. Es wird aber hoffentlich juristisch so sein, dass wenn mit den Gesichtern oder ggf. Körpern der betreffenden Personen Situationen simuliert werden, also ihren Ursprung nicht in der echten, realen Handlung der Personen ihren Ursprung haben, eine Grenze des Persönlichkeitsrechts deutlich und eindeutig überschritten und strafbar ist.
 
  • Gefällt mir
Reaktionen: ksjdgzagt
Ich kann keine Einzelheiten nennen, aber jemand, der wegen seiner DeepFakes vor Gericht musste, bekam Recht und durfte weiter machen.

Ich glaub, die Thematik hatte ich auch schonmal durch und mir den einen oder anderen Rechtsanwalt dazu angehört. Aber das ist knapp 2 Jahre her und mittlerweile kann sich diesbezügl. auch was getan haben.

Stand von vor 2 Jahren : Darfste machen, aber ist nen bisschen Richtung "Grauzone". Und wer weiß, wie/ob das schon präzisiert wurde.
 
  • Gefällt mir
Reaktionen: ksjdgzagt
@ amorosa: deine deepfakes bewegen sich ja nicht im ganzen durch die gegend wie die 2 bodybuilder aus dem referenzvideo. bei dir bewegt sich lediglich die mimik. hast du auch gesichts-deepfakes gemacht für bewegliche personen ?
Ergänzung ()

amorosa schrieb:
Ich kann keine Einzelheiten nennen, aber jemand, der wegen seiner DeepFakes vor Gericht musste, bekam Recht und durfte weiter machen.
worum ging es ? um einfache deepfakes für seinen eigenen youtube-kanal ? wie die beiden bvodybuilder ? denn im grunde verdienen die beiden geld damit und es wäre somit kommerzielle nutzung. ich kann mir schon vorstellen, dass sie das nicht einfach so machen und sich die erlaubnis von arnold und sly eingeholt haben....

ich kann ja auch nicht, das gesicht eines stars auf einem tshirt drucken lassen und es verkaufen oder ?

oder fällt deepfake im bereich künstlerfreiheit ?

denn auf die frage warum raper in deutschland in ihren videos lauter markannamen und fussballernamen
benutzen dürfen , hiess es : küntlerische freiheit halt.
 
Zuletzt bearbeitet von einem Moderator:
@ksjdgzagt : Ja, habe ich auch gemacht, jedoch noch nicht veröffentlicht.

Das ist nicht nur die Mimik, es ist der gesamte Kopf, den ich jedes mal nutze.
Ganzen Körper kannste eh nicht faken.

Entweder WF "WholeFace" oder FF "FullFace" oder eben "HEAD"

Am Ende setzen alle ihre Köpfe oder Gesichter drauf.

Und wenn es halt so ist, das man den Körper austauscht und seinen Kopf drauf setzt, ist es dasselbe. Sie nehmen also ein Video und packen da ihre Köpfe auf andere Körper.

Edit : Ja, irgendwas war auch mit künstlerischer Freiheit, ich bekomme das Urteil von vor 2 Jahren nur nicht mehr zusammen.

Wenn man damit Geld verdient, dann kommen die Haie irgendwann von alleine.
Wie das aussieht, wenn man das "commerziell" macht, weiß ich in der Tat nicht. Da könnten Gerichte "schärfer" urteilen. Irgendwann wird das auch mal so kommen.

Man faked immer nur Gesicht/Kopf. Körper geht noch nicht. Noch lange lange nicht.

Ich kann Trump auch Merkels Kopf verpassen und zusehen, wie er anstatt Sie zum Gipfel geht.
Oder eben andersrum. Ob nun bewegter Körper dabei, oder nicht, ist auch ganz egal. Das juckt das Programm kein bisschen. Ich nehme mich mit 30FPS auf, extrahiere dann die Pics, danach die Köpfe aus den Pics und klatsche einen der Köpfe meiner Wahl über meinen. Dasselbe machste mit jedem, der dir so in den Sinn kommt, ob bewegt oder nicht. Alles am Ende auch ne Frage, des Videoeditings.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ksjdgzagt
ich will mich in die Materie nicht einlesen oder es ausprobieren, zuviele andere Hobbies..

aber was mich interessieren würde:
wo liegt da der Hauptaufwand bei dem Prozedere ?

sprich: ich hab 1000 Bilder und Filmchen von Schwarzenegger, lass da dann "lernen"

ist dass der Hauptaufwand und im Anschluss kann das relativ schnell auf verschiedene User angewandt werden, also der Schwarzenegger drübergelegt werden?

@amorosa
wenn ich Amorosa richtig verstanden habe, wird das verheiraten mit dem User Bild für Bild gemacht
Posting war mir aber zu hoch :-)

ich kann mir aber ned vorstellen, dass bei jedem Bild nochmal die 1000 Bilder vom Schwarzenegger hergenommen werden, oder ?
"das" wird also vorher "gelernt" (?)

auch hab ich mal bei einer Talkshow gesehen, dass sie den Schwarzenegger "on-the-fly", also in Echtzeit über einen Schauspieler auf der Interview-Couch drübergelegt haben..

hier wars.. oder wurde das doch aufgezeichnet und nachträglich gemacht (?) (für den youtube channel?)
ist schon 2 Jahre her
Ergänzung ()

ksjdgzagt schrieb:
ich kann ja auch nicht, das gesicht eines stars auf einem tshirt drucken lassen und es verkaufen oder ?
bewegen sich die ganzen STraßenkünstler die das in Touristen-Städten machen dann eigentlich im illegalen bereich?
 
  • Gefällt mir
Reaktionen: ksjdgzagt
@Kraeuterbutter

Also :

Nehmen wir an, ich will Schwarzenegger faken.
Dafür suche ich mir also eine Quelle für die Bilder. Ein 4K Video, am besten nen Interview.

Das Video wird in .png oder .pgf Bilder zerlegt. Das kann nen bisschen dauern. (FFMPEG)
Danach kommt das "Leiden" :D

Und zwar muss man nun die Köpfe per Tool extrahieren. Das passiert alles autom. es sei denn, ich mach es manuell.

Das kann Ewig dauern. Denn dort schafft (NUR NVIDIA wegen Cuda) ne 2070S lediglich 2.12it´s. Bei sagen wir 40-80K Köpfen, sind das gute 6-8 Std. Zeit. Bei 1000 Fotos sind es ein paar Minuten.

Dann zeichnest Du Masken und lässt auf Basis deiner gezeichneten Masken ein Maskentrainingprogramm per KI laufen. Danach anwenden und kontrollieren. Kann auch nochmal gute 3-4 Std. Zeit in Anspruch nehmen, je nachdem wie viele Fotos. Bei 1000 Fotos kostet es mich ca. 30-40 Minuten für die Masken und nochmal 45 Minuten Maskentraining + Anwendung und Kontrolle der Autom. generierten Masken.

Danach kommt das Training. Da kommt es stark auf die Settings drauf an.
Ich arbeite am Limit einer 2070S mit einer Auflösung von 320 und einer Batchsize (Batchsize : Er vergleicht Bilder pro Iteration. Batchsize 6 = Es werden jede Iteration 6 Bilder miteinander verglichen) von 6.

Da dauert eine Iteration 700ms. Man sollte das Modell vorher "vortrainieren" oder ein "vortrainiertes" Modelfile von jemand anderen Laden. 600K Iterationen reichen für Vortraining. Danach sollte man gute Ergebnisse beim eigentlichen Training nach "schon" 350.000 Iterationen haben.

Meine von mir selbst gebaute Modelldatei hat mittlerweile 1 Million Iterationen Pretraining + 1.5 Millionen Iterationen Training intus.

Auch bei 1000 Bildern, sollte man also dennoch seine 600K Vortraining +300K Training haben.

Rechne selbst. 900.000x700ms
Und dann wären wir bei "Annehmbarer" Qualität.
Deswegen habe ich mein Modelfile auch deutl. höher trainiert. Auch mit verschiedenen Köpfen wie Will smith, Bruce willis usw. usf.

Mein Modellfile ist auf 12 Köpfe trainiert. Und irgendwann brauchst Du nicht mal mehr die Masken machen.
Und auch nicht mehr trainieren. Dann entpackste das Video, entpackst die Köpfe und gehst ohne Training ins Mergen über und machst dann ne .mp4.

Aber auch das kann dauern. Ein 20 Minütiges Gameplayvideo bei 30FPS (Also nur der Kopf bei 30FPS aufgenommen) hat ja schon enorm viele Fotos. Das Extrahieren kann da schon zur Geduldsprobe nehmen.

Ich hab den längsten DeepFake der Welt aufgestellt mit ganzen 45 Minuten am Stück. Waren irgendwas mit 89K oder 90K Fotos.


Das ist wohl der längste DeepFake der Welt. Und noch einer meiner älteren mit nem viel zu kleinem Kopf und ner niedrigeren Resolution.

Das alles ist auch für ein 20 min. Video ein enormer Aufwandt.

Nvidia vorausgesetzt.

LG

Edit : Per KI wird also nach Übereinstimmung der Bilder zwischen SRC und DST (Source und Destination) gesucht. Die am besten passenden Bilder werden dann benutzt, um das Bild nach zu Bauen. Von SRC auf DST, damit DST aussieht wie SRC. In meinem Falle Clinton ist SRC und mein Kopf ist DST.

Usw. Usf. Er vergleicht immer 6 Bilder. Nebenbei wird gemorpht, damit auch Gesichtsausdrücke gemacht werden, die dein SRC halt nicht im Quellmaterial hat. Merkel reißt nie ihren Mund auf. Grinst nie so wirklich.

In meinen Quellfiles zumindest. Und ? Sie kann es, aber sowas von. Sieht halt ulkig aus. Soll es auch, deswegen die LIAE Arch. Die ist verspielter und Morpht mehr und lässt viel mehr Freiheiten zu.

Dafür ist die DF-Arch besser, den Kopf hinterher wie SRC aussehen zu lassen. Sie wirkt kühler und morpht weniger, verzeiht aber auch weniger.

Mein DF-Arnie kann halt nicht wirklich Grinsen. Der Arnie in meinem Video ist der LIAE-Arnie. Der kanns viel besser, sieht mir aber manchmal halt nicht mehr so ganz nach Arnie aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BeBur, Kraeuterbutter, ksjdgzagt und eine weitere Person
amorosa schrieb:
Ja, irgendwas war auch mit künstlerischer Freiheit, ich bekomme das Urteil von vor 2 Jahren nur nicht mehr zusammen.

Vor zwei Jahren war dann vielleicht die Qualität noch nicht so toll, das macht dann schon einen Unterschied. Es geht dann bestimmt darum ob jeder sofort sehen kann das es Fake ist.

Künstlerische Freiheit hängt wohl dann auf jeden Fall damit zusammen was man macht. Als Witz und solange man sieht das es Fake ist wohl völlig ok, aber wenn man nicht mehr unterscheiden kann ob es wirklich Künstler XY ist oder nicht ist es wohl vorbei.

Ich hätte jeden Falls keinen Bock drauf das jemand Videos mit meinem Gesicht veröffentlicht.
 
  • Gefällt mir
Reaktionen: ksjdgzagt und amorosa
Ich kennzeichne meine DeepFakes auch immer.
Das ist das MINDESTE, was ich tun kann.

In der Beschreibung stehts dann auch nochmal drin, es sei denn, ich habs mal wieder vergessen in die Beschreibung zu knallen.

Vor 2 Jahren wäre diese Qualität auch mögl. gewesen ;). Und war sie auch. Gibt diverse gute Fakes die 2 J alt sind. Aber seltener.

LG
 
  • Gefällt mir
Reaktionen: ksjdgzagt und SpamBot
Kraeuterbutter schrieb:
hier wars.. oder wurde das doch aufgezeichnet und nachträglich gemacht (?) (für den youtube channel?)
wurde nachträglich gemahct von diesem speziellen youtuber, ich habe mir gerade das original angesehen und während der show gabs kein deepfake. das heisst dieser youtuber hat sein youtube kanal nur deshalb eröffnet um seine deepfake künste vorzuzeigen ... :-) seine qualität nachträglich sein deepfake auf tv-shows zu klatschen ist hochprofessionell !

Kraeuterbutter schrieb:
bewegen sich die ganzen STraßenkünstler die das in Touristen-Städten machen dann eigentlich im illegalen bereich?
eindeutig, strassenkünstler kann man ja nicht mit abmehungen per post belangen etc... :-)
 
  • Gefällt mir
Reaktionen: amorosa
Kraeuterbutter schrieb:
bewegen sich die ganzen STraßenkünstler die das in Touristen-Städten machen dann eigentlich im illegalen bereich?
Klar tun sie das!
 
  • Gefällt mir
Reaktionen: ksjdgzagt
amorosa schrieb:
Und noch einer meiner älteren mit nem viel zu kleinem Kopf und ner niedrigeren Resolution.
hast du mal überlegt die Stimmen zu verfremden?
 
  • Gefällt mir
Reaktionen: ksjdgzagt
@pitu

Ja klar, aber es gibt nur begrenzte Möglichkeiten. Es gab mal ein Programm, was auf Basis von Soundsamples (Je länger, desto genauer) und über die CudaCores dann eben ein anderes Soundfile sich so wie das Hauptsoundfile anhören. Also DeepVoiceFake.

Der Ersteller hat jedoch jeglichen Support eingestellt und zu bedienen ist es auch kaum, sofern man es überhaupt schafft, es zum Laufen zu bekommen. Ansonsten lediglich TextToSpeech, was ich aber als unproduktiv und unausgereift ansehe.

Also : Nein, momentan gibts keine Möglichkeit. Es gibt auch noch keine Möglichkeit DeepFakes in Live Videos zu machen, bis auf die paar Ausnahmen, wo die Qualität mehr schlecht als recht ist.

Aber kommt alles innerhalb der nächsten 2-3 Jahre. Und dann denke ich auch, wirds nen Riegel geben, sobald das "massentauglich" wird. Denn in 2-3 Jahren sind die Hardwareanforderungen deutl. niedriger.

LG
 
  • Gefällt mir
Reaktionen: ksjdgzagt
Wobei das mit Live-Videos hatte ich schon gesehen, war aber ne Doku oder Reportage. Die hatten einen Reporter durch seinen Kollegen ersetzt und dann Video-Calls gemacht um zu sehen ob es auffällt. Die Qualität war schon okay, wenn die Übertragung gerade nicht absolut scharf war, hat man es nicht direkt gesehen.

Rechtlich denke ich muss schon der Fake erkennbar oder gekennzeichnet sein und der Inhalt sollte wahrscheinlich in gewissen Grenzen sein.
 
  • Gefällt mir
Reaktionen: ksjdgzagt
ja, das gibts...
lol
"i am not a cat"
;)
 
  • Gefällt mir
Reaktionen: ksjdgzagt und BeBur
Ich hab nen paar von diesen Livetools ausprobiert und ich vergleiche sie natürl. automatisch mit meinen "richtigen" DeepFakes und da haben die Liveteile halt gar keine Chance. Aber sie sind auf einem guten Weg. Live wäre oberklasse für mich, wenn die Qualität genauso wäre wie bei einem KI gestützen Tool.

Mal sehen, wo uns die Reise hinführen wird.
 
  • Gefällt mir
Reaktionen: ksjdgzagt
Zurück
Oben