Test RTX Video Super Resolution im Test: Hübschere Videos via KI wollen Leistung sehen

Alleine wegen den höheren Stromverbrauch bleibt das Experiment deaktiviert.
 
  • Gefällt mir
Reaktionen: scootiewolff22, cookie_dent, Mcr-King und eine weitere Person
S.Kara schrieb:
Konvertierer nicht schlecht, mit dem ich Offline meine alten Videos überarbeiten lassen kann
Du könntest versuchen, einmal deine Quellen auf Youtube hoch zu laden dann zu konvertiereen ( es muss ja nur einmal in einem kompatiblen Browser vorliegen) das "Orignalvideo" dann löschen bzw. mit dem hochskallierten Material ersetzen. Wäre meine Antwort auf deinen Bedarf.

Grüsse.

Edit: mir fehtl der Win. 10 Treiber für einen eigenen Test mal absichtlich mit nativem 360p Material=).
Ergänzung ()

Crifty schrieb:
Gestern dann bei den Prozessoren wo der AMD 4% schneller als Intel war aber nur die Hälfte verbraucht hat(ich glaube ja immer noch das es mit Magie zutun hat:))
Das ist zumindest beim Gaming nicht wirklich Magie, da wird "nur mal eben" die halbe CPU deaktiviert laut PGHW Test. Im Gaming wird das Chiplet ohne Cache lahmgelegt, und das was nicht läuft......eben braucht auch keine Energie.

Und bei Anwendungen stehen bei Intel glaub auch mehr Kerne / Treaths zu Buche......Wenn ich mich nicht
irre......braucht wohl dann auch nicht unerheblich Saft.

Grüsse.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: S.Kara und Mcr-King
Wolfgang schrieb:
In der Tat zeigt VSR optische Verbesserungen gegenüber dem Original...
1. April?
'Verbesserungen gegenueber dem Original' - sorry, mein Abend ist gerettet!

Kommt gleich nach 'Weisser als Weiss'...
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich kann die Funktion auf meiner RTX A2000 auch aktivieren, das hätte ich ehrlich gesagt nicht erwartet, da überall nur etwas von RTX 3000 und 4000 steht und auch bei Nvidia selbst steht, dass "professionelle" Grafikkarten das Feature vorerst nicht bekommen sollen?

Leider bin ich doch ziemlich enttäuscht, damit sieht alles sehr künstlich, zum Teil schon fast comicartig aus. Videos in 720p und eher schlechter Qualität/niedriger Bitrate werden auf 1440p einfach komplett unscharf, als hätte man beim Filmen den Fokus nicht getroffen. Nicht, dass das Ausgangsmaterial auf 1440p gestretcht vorher besonders scharf gewesen wäre, aber mit RTX VSR sieht es einfach komplett glattgebügelt aus. Da schaue ich dann doch lieber ohne, schade :/

Edit: Moment, das war etwas vorschnell, das Video was besonders extrem aussah war nur in 480p und ohne VSR schon unscharf :D Da muss ich noch etwas weiter testen (der Comiceffekt war aber auch bei 1080p-Videos).

Edit2: Also ich hab grad nochmal ein 720p-Musikvideo mit einem eher Scifi-mäßigem Thema und einem Mix aus den mit Greenscreen gefilmten Musikern und Statisten und 3D-gerenderten Hintergründen und Elementen angeguckt und da ist es insgesamt schon schärfer und detailreicher. Zudem habe ich noch einen 720p Stream auf Twitch geschaut und auch da ist der größere Detailreichtum und die höhere Schärfe schon zu sehen, allerdings: Durch die schnellen Cuts im Musikvideo und die schnellen Bewegungen im Stream (First Person Shooter) sieht man sowieso die Details kaum, erst wenn das Bild statischer wird erkennt man gut einen Unterschied. Der deutlich gestiegene Stromverbrauch ist es mir daher eher trotzdem nicht wert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: J@kob2008
Ich habe mir die Bilder genau angeschaut. Ja die Bilder sind ein bisschen schärfer und es sind mMn weniger Artefakte. Aber sowas habe ich erwartet. Also wenn man am Decoder rum fummelt, erreicht man das Selbe. Mehr Glättung und mehr Schärfe. Kann man im VLC auch machen.

Denn wenn man sich FSR2 oder DLSS2 im Ultra-Performance Modus anschaut, dann sieht das Spiel für mich wie ein stark komprimiertes Videos aus. Daraus nehme ich mal an, dass H264, H265 usw. auf solche Technologie bereits basiert. Im Grunde wird ja auch die Auflösung reduziert und durch Vermutung wieder hoch skaliert und kaschiert.
Die Frage ist eher wie gut kann die Software Zwischenbilder berechnen? Da sehe ich tatsächlich viel Potenzial. TV-Geräte kriegen das ja echt gut hin. Verstehe nicht, warum das PC nicht schon seit 10 Jahren können?
 
  • Gefällt mir
Reaktionen: Eisenoxid, Qyxes und Mcr-King
Hab hier ne ältere Folge von Star Trek Voyager rumliegen bei der ich schon ewig mit Topaz AI versucht habe das Bild auf 1080p hochzuskallieren. Aber vor allem die noise im Bild macht Topaz AI immer noch starke Probleme. Man sieht einfach am Bild wo die KI etwas retuschiert hat. Werde es dann mal gleich mit dem neuen Treiber probieren.

edit: Merke gerade das weder Firefox noch Chrome mkv files abspielen können. Hat sich also erledigt:mad:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King und el_zoido
Ich weiß nicht, ob ich jetzt schon ein Alter erreicht habe in dem ich schlechter sehe, aber optisch kann ich in allen gezeigten Videos und Bilder überhaupt keinen Unterschied feststellen. Ich weiß überhaupt nicht was da gemacht wurde. Wofür ist das jetzt? Warum brauche ich das?

Ich weiß wirklich nicht ob ich es einfach nur nicht sehe ...
 
hier sieht man es denke ich ganz gut:

compare.png
 
  • Gefällt mir
Reaktionen: +++
Tenferenzu schrieb:
Stellt euch das mal im Akkubetrieb auf einem Laptop vor. Das macht doch (hoffentlich noch) niemand.
Ohne Netzteil hast du bei einem RTX Laptop ohnehin nicht genug Power.
chiller1986 schrieb:
Großer Wirbel um nichts.
Aktuell ja, in ein paar Jahren sicherlich top.


BTT:
Freue mich darauf.. Für YT wirds nicht aktiviert.
Aber wenn man mal nen Film/Serie schaut, kann das nice werden. Finde gerade manche Serien im Browser sehr hässlich im Gegensatz zum TV.

Aber Gamen und nebenbei Videos mit VSR4 wird auch nichts. Wartet mal die Forenbeiträge ab mit "GPU zu wenig Leistung in Fortnite/WoW/FF..." :D
 
  • Gefällt mir
Reaktionen: Qyxes
Also bitte korrigiert mich, aber machen das VLC oder MPC-HC vor allem mit madVR Plugin nicht schon seit 10 Jahren? Es kostet einen Berg an (GPU)-Rechenleistung und schärft + denoised etc. pp. das Bild.
 
  • Gefällt mir
Reaktionen: DerBandi, Qyxes und Mcr-King
Opera hat kürzlich etwas vergleichbares (wenn ich mich nicht täusche) implementiert und nennt es Lucid Mode.
Der positive Effekt hilft nicht jedem Video, bzw. es ist nicht bei jedem spürbar, aber wenn doch, dann halte ich die Wirkung für sehr positiv. Auch macht sich der Effekt nicht an der Steckdose bemerkbar... aber... natürlich gibt es ein aber ;)... das Video wird zumindest bei mir so ruckelig, dass "ruckelig" nicht im Ansatz der richtige Ausdruck ist, während "Stuttering of Doom" da schon eher passt, mittlerweile zwar nicht mehr so extrem (die "Pausen" wurden etwas kürzer), wie direkt bei release... aber... das macht mal gar keinen Spaß...

Wenn man also derzeit die Wahl hat zwischen Stuttering of Doom und zusätzlicher Energieverbrauch of Doom... der Maurer hat da ein Loch in der Wand gelassen und jemand anderes hat ein dickes Holzbrett mir Scharnieren dran gezimmert... und das beste ist... das Teil kann man sogar von außen schließen...

Beide Nachteile beider Herangehensweisen sind gemessen an "einfach mal ein Video schauen", jeweils ein extrem starkes No Go. Die dürfen sich aber gerne wieder melden, wenn deren Probleme behoben sind (bei Nvidia kommt natürlich noch das No Go "Proprietäre Hardwarelösung" dazu... solange die "das nicht beheben" noch ein fröhliches [fʌk jʊ] an Nvidia)
 
  • Gefällt mir
Reaktionen: Mcr-King
Also mich würde ja ein Vergleich zum Lucid mode für Videos der im Opera auch Videos verbessern soll zu dem hier interessieren.
Ergänzung ()

catch 22 schrieb:
das Video wird zumindest bei mir so ruckelig, dass "ruckelig" nicht im Ansatz der richtige Ausdruck ist, während "Stuttering of Doom" da schon eher passt, mittlerweile zwar nicht mehr so extrem (die "Pausen" wurden etwas kürzer), wie direkt bei release... aber... das macht mal gar keinen Spaß...
Muss ich ehrlich sagen habe ich null Problem das es irgendwie ruckeln würde. Genauso flüssig wie ohne.
 
  • Gefällt mir
Reaktionen: catch 22
Draco Nobilis schrieb:
machen das VLC oder MPC-HC vor allem mit madVR Plugin nicht schon seit 10 Jahren? Es kostet einen Berg an (GPU)-Rechenleistung und schärft + denoised etc. pp. das Bild.
Ungefähr so, ja... Auch mit Daum PotPlayer und KMPlayer usw - überall wo madVR integrierbar war... Ab ca. gtx780 gab's auch genug Leistung und ab RTX2xxx auch 4K kein Problem...
Habe auch seit vielen Jahren SVP Bildfrequenz-Hochrechnung benutzt... Es gibt dort Plugin namens "SVPtube 2" - hängt im Tray neben dem eigentlichem SVP. Es reicht einfach die Adresse eines YT-Videos in die Zwischenablage zu kopieren und schon popt das Auswahlfenster auf für die Streaming-Quality und den Player. Man kann auch Autoplay mit bevorzugter Auflösung voreinstellen. Und auch den bevorzugten Player - so kann man in dem mitgelieferten mpv-Player abspielen lassen oder von mir aus im MPC-HC mit madVR. Wenn man keine fps-Hochrechnung möchte, kann man natürlich die "soap-opera" ausschalten. Je nach Hardware funktioniert die "Verflüssigung" aber recht gut, auch "nVidia Optical Flow"-Beschleunigung wird unterstützt - seit dem ist auch keine besonders starke Mehrkern-CPU von Nöten.
 
  • Gefällt mir
Reaktionen: Draco Nobilis, Tyl und Mcr-King
anappleaday schrieb:
Klar wäre das besser, schreib mal jeden Uploader an, dürfest nun dein ganzes Leben damit verbringen 😂

VSR ist eben keine Lösung, Stromverbrauch hoch, während die Bildqualität je nach Video sogar sinken kann.
Youtube wird früher oder später sicher eine AI-Upscaling-Lösung für Uploader anbieten ;)

nr-Thunder schrieb:
Das Bottleneck sind Twitch (Amazon) und Youtube (Alphabet), nicht die Uploader. Was traurig ist, ist dass man als Uploader nicht mal die Möglichkeit eines native Uploads hat mit verringerter Bitrate, jedes Youtube Video ist so doppelt komprimiert.

Ist schon richtig, wobei die meisten Streamer nur ihre Twitchstreams speichern und diese werden dann auf YT geladen, welche eine ohnehin bescheidene Auflösung (max. 1080p)+Bitrate haben, da helfen auch AI-Upscaler nur noch begrenzt.

fdsonne schrieb:
Ja, sicher, die Frage ist aber, wenn die Quelle das nicht her gibt?

Bspw. schaut FHD Kontent auf nem UHD Screen ohne Integer Scaling scheiße matsch aus.

Klar, auch AI-Upscaler haben nur begrenzte Möglichkeiten, die Ergebnisse dürften trotzdem über dem liegen was VSR in Echtzeit abliefert und das ohne erhöhten Stromverbrauch.
 
  • Gefällt mir
Reaktionen: nr-Thunder und Mcr-King
Uff, lieber höhere Bitraten. Manche wären erstaunt wie ein 1080p Video aussehen kann.
 
  • Gefällt mir
Reaktionen: Brrr
Aller Anfang ist schwer und ich bin mir sicher, das dies in Zukunft ausgebaut wird. Ob AMD oder NVidia spielt keine Rolle......
 
  • Gefällt mir
Reaktionen: Coenzym
Also ich finde es gut so weit. Etwas bei Twitch geschaut und YouTube. Bisher "Qualität 2" nur probiert.
Aber der Mehrverbrauch ist halt schon unschön. Meine 3090 Ti FE wird halt bei YouTube gut 20 Grad wärmer.
Warte ja förmlich darauf das die Lüfter anspringen der Karte. Höchste Temp war 56 Grad, ohne dieses KI-Feature war die Karte bei 35 Grad bei YouTube. Ab 60 Grad gehen die Lüfter glaube ich an.
Da hoffe ich, Nvidia arbeitet daran weiter und senkt vor allem den Stromverbrauch.
Aber so lange es Optional ist, sehe ich das entspannt bisher.
 
Zuletzt bearbeitet:
Beg1 schrieb:
Youtube wird früher oder später sicher eine AI-Upscaling-Lösung für Uploader anbieten ;)
Joa irgendwann, vielleicht, evtl, maybe. Dat kann dauern 😏
 
Titina schrieb:
Muss ich ehrlich sagen habe ich null Problem das es irgendwie ruckeln würde. Genauso flüssig wie ohne.
Echt? dann muss ich mal schauen, woran das bei mir scheitert.
Weil vom Ergebnis her ist das Nachschärfen, wenn es denn optisch greift, durchaus schick, übrigens gerade auch bei Twitch Streams, wo es auch als Option angeboten wird (hatte ich vergessen zu erwähnen)
 
Zurück
Oben