Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGANverse3D: Nvidia erzeugt 3D-Modelle aus nur einem 2D-Foto
Nvidias Forschungsabteilung zeigt zur GTC mit dem GANverse3D, wie sich aus nur einem einzigen 2D-Foto ein 3D-Modell erstellen lässt. Als Beispiel dafür muss KITT aus der Actionserie Knight Rider herhalten. Spieleentwickler, Künstler, Designer und Architekten sollen so mit geringem Aufwand neue 3D-Modelle importieren können.
Vieles hat Michael in seine Uhr geschrien! 😋
Würde ich es nicht wissen, würde ich sagen, NVidia ist knapp 2 Wochen zu spät für den 1. April.
Ja, kann man machen aber da ist man halt heute wirklich Besseres gewöhnt, mit ein bissl mehr Aufwand schaut's gleich um Welten besser aus.
Wird wohl noch viel trainiert werden müssen.
@habla2k
Na klar, Bonnie und später April waren doch super!
Wie das wohl mit anderen Sachen als Autos funktioniert? Und macht nicht der Flight Simulator schon etwas sehr ähnliches?
Für 3rd-, oder 1st-Person Spiele taugt das nichts (zumindest nicht für Autos) - Beim gezeigten müsste man so viel nachbearbeiten, dass man das Auto auch gleich von Grundauf erstellen kann. Bei z.B. nem City-Builder wäre das ggf. recht nett und grafisch ausreichend, aber da müsste man schauen, wie die Performance noch so ist (also wie ressourcensparend die KI diese Autos erstellt), wenn man von diesen erstellten Modellen ein paar hundert gleichzeitig herumfahren lässt.
Das für den Prozess benötigte Generative Adversarial Network (GAN) hat Nvidia zuvor mit 55.000 Bildern verschiedener Automobile aus mehreren Perspektiven trainiert,
Ich verstehe jetzt hier nicht ganz die Nachrichtenwuerdigkeit und auch nicht die algorithmische Neuerung.
Es ist gut vermarktet aber der Ansatz ist weit verbreitet unter dem Namen NerF (Neural Radiance Fields), i.e. neuronalen Renderern. Andere Leute haben hier die Pionierarbeit geleistet und NVIDIA skaliert hier den Ansatz nur..
Also ....mal gar nicht.
Das 3D Modell sieht keinesfalls aus wie das Original.
Es macht eher den Eindruck, als würde die Originaltextur einem "passenden" generischen 3D Modell übergezogen werden. (Modernes Chassis, keine Kanten mehr)
Wenns zu schön klingt um wahr zu sein, ist es das nicht.
Berechnung in Milisekunden? Eher Taschenspielertrick medienwirksam aufbereitet.
PS: Ich habe immer noch eine GTX980 bei mir am laufen. Tolle Karte.
Die letzten Marketingversuche von Nvidia aber wirken auf mich wie billige Manipulationsversuche.
No cool!
Wäre wohl der gleiche Aufwand für den Nutzer, bei deutlich besserer Qualität gewesen, wenn NVidia direkt 3D Modelle für alle 55.000 gelernten Autos hinterlegt hätte.
@oben. Genau! Dachte ich mir auch, im Grunde scheint die Software nur rekursiv und eher starr als flexibel auf ein (einst) vorhandenes Automodell zurückzurechnen. Wirkliche Erkennung der Grundstruktur und intelligente Weiterbildung kann man hier nicht sehen. Wenn KITT Das beste Beispiel war und das so ungenau ausfällt, ist die Software sicher noch im Alpha Stadium ( Oder sollte nie darüber hinauskommen)
Vielleicht.....nur vielleicht... hat bloß die Nachricht "Nvidia 2D to 3D ja mehr "Oha" Effekt" auf Investoren als das eigentliche Video selbst. Ich glaube fast gar nicht mehr daran, dass die Software wirklich eingesetzt anstatt nur von Investoren"registriert" werden soll.
sehen in etwa so aus wie die Autos aus Need for Speed 2 im Softwaremodus. Da fehlt noch eine Algorithmus , um die Kanten zu schärfen.
Aber dennoch grundsätzlich ganz coole Technik.