Test RTX Video Super Resolution im Test: Hübschere Videos via KI wollen Leistung sehen

Beg1 schrieb:
Sorry, aber da ist es doch sinnvoller das Video 1x vernünftig aufzuwerten und zwar entweder durch den Uploader vor dem oder durch Youtube beim Upload, genug Möglichkeiten gibt es dafür ja.
Das Bottleneck sind Twitch (Amazon) und Youtube (Alphabet), nicht die Uploader. Was traurig ist, ist dass man als Uploader nicht mal die Möglichkeit eines native Uploads hat mit verringerter Bitrate, jedes Youtube Video ist so doppelt komprimiert. Und was die Qualität angeht, ist Youtube sogar zurückgerudert, nach der Testphase mit 5k und 8k (welche auch eine höhere Bitrate zugelassen haben). Und all die anderen Plattformen sind da nicht besser. Wenigstens mit AV1 tut sich mal wieder etwas.

Wäre also eine schöne Sache gewesen wenn es so gut funktioniert hätte wie angepriesen. Was mich persönlich interssieren würde, wäre wie es im Vergleich zum Upscaling eines Nvidia Shield performt, davon "schwärmen" ja viele Nutzer. Ich glaube zwar nicht dass es besser ist, aber vielleicht doch auf einem ähnlichen Niveau bei geringerem Verbrauch.
Ergänzung ()

Anti-Monitor schrieb:
Die AI unterstützte Software von Topaz fetzt um eigene Videos (oder Fotos) aufzumotzen
Topaz soll erst mal davon hören dass es die 4090 gibt. Man kann sich über den Energieverbrauch beim Upscaling beschweren, aber wenigstens bedeutet es dass die GPU ausgelastet wird. Bei Topaz gurkt eine 4090 mit 5% rum (auch selbst getestet) https://community.topazlabs.com/t/nvidia-rtx-4090-performance/35673
 
Zuletzt bearbeitet:
Schwieriges Thema, 3080 nimmt dafür zusätzliche 60W in Anspruch. Muss anderen Content testen :)

Level aus
Screenshot (225).png


Level 4
Screenshot (227).png
 
  • Gefällt mir
Reaktionen: DerBandi und Admiral Awesome
basic123 schrieb:
Irgendwie muss man ja die Grafikkartenpreise jenseits von 1000€ rechtfertigen können. Dieses Feature ist wieder so ein "Argument".
Aber sowas in Zeiten von Energie Preisen jenseits von Gut und Böse naja NVIDIA meant to Pay vielleicht. 😉
 
OK, das ganze scheint mit lokalen MP4 Dateien in Edge zu funktionieren, zumindest basierend auf der GPU Auslastung. Man kann es anscheinend auch Live während der Wiedergabe an/-ausschalten, wenn man im Treiber die Einstellung ändert, ändert sich auch die GPU Auslastung.
Ich habe es jetzt mal mit ein paar DVD Remux getestet (Realfilm und Anime) und bin enttäuscht, man muss schon sehr genau hinsehen um überhaupt einen unterschied während der Wiedergabe zu sehen. Ein guter Schärfefilter gefällt mir persönlich optisch deutlich besser; bei Anime is Anime4k um Welten besser. Basierend auf meinen Erlebnis behaupte ich, dass das NVIDIA Promo Video gefälscht ist :evillol:, da es Real da bei weitem nicht an das dort gezeigte Ergebnis ran kommt.
Mal abwarten, vielleicht reift es ja noch beim Kunden zu was Brauchbaren, wie es auch DLSS tat.
 
  • Gefällt mir
Reaktionen: DerBandi und sleepdisorder
Wolfgang schrieb:
Nein, irgendwas auf High Performance muss man nicht stellen. Es ist wirklich nur Treiber installieren, VSR im Treiber anschalten, Browser aktualisieren und loslegen. Und normales YouTube hat ja auch keinen DRM-Content, wobei der generell zumindest laut Nvidia auch gehen sollte. Ist aber natürlich gut möglich, dass es da bei irgendwelchen Fällen noch Probleme gibt.
https://www.reddit.com/r/nvidia/com...ndroidcss&utm_term=1&utm_content=share_button

Steht im offiziellen Nvidia.FAQ mit dem high Performance mode

_-----------------------------------------------------

Q: Why do I need to enable High Performance on Chrome/Edge?

A: RTX Video Super Resolution requires that your browser access your RTX GPU to enhance video playback

-----------------------------------------------

Ich weiß nur noch nicht ob es nur für Notebooks oder auch für Desktops gilt




-----------------------------------------------------------
Q: What video will RTX Video Super Resolution enhance?


A: Most video played in supported browsers can be enhanced by RTX Video Super Resolution. RTX Video Super Resolution supports video input resolutions from 360p to 1440p. Video we have identified as not supported includes some DRM protected content, YouTube shorts, and HDR content.

Hier steht das mancher DRM content und HDR nicht funktionieren..

Ergo HDR =kein RTX VSR
 
  • Gefällt mir
Reaktionen: mdPlusPlus
xxlhellknight schrieb:
Was ich immer noch viel finde.

Ich schaue Youtube-Videos am liebsten mit mpv+yt-dlp.
Der Verbrauch liegt dann laut HWINFO bei meiner 4080 unter 9 Watt mit WQHD.
 
Zuletzt bearbeitet:
Also bei den marginalen (wenn überhaupt) Verbesserungen so viel mehr Strom "durch die Karte zu jagen" ist imho ein fail.
 
Also lohnen tut es sich auf jeden Fall.
Endlich sehen die 1080p-Twitch-Streams auf meinem 42" OLED in 4K richtig vernünftig aus im Gegensatz zu vorher. Ob man es dauerhaft benutzen will, ist angesichts des Stromverbrauchs aber sicher diskussionswürdig.

Meine RTX 4090 steigt bei Stufe 4 auf 1800-1900MHz und zieht ca. 135W. Die Auslastung liegt bei 30-35%. Im Idle sind es 42W. Kleiner Wermutstropfen: Hat man in Chrome andere Tabs offen und switch auf einen anderen, wird im Hintergrund auch nicht weiter berechnet und die GPU Usage sinkt sofort wieder auf 1-3% runter.

Wenn man dann übrigens wieder in den Tab reingeht, braucht VSR kurz zwei Sekunden. Dabei sieht man sehr stark den Unterschied.
 
Wolfgang schrieb:
Das wird es aber nicht so ohne weiteres geben, GPUs haben ja anders als in Spielen keine Daten von Bewegungen innerhalb eines Videos.
Klar haben sie das - sie haben Zugriff auf tendenziell alle vorhergehenden Bilder.
Die Zwischenbildberechnung im TV funktioniert auch 1a indem man das Delta zwischen zwei Frames nutzt. Es wird dabei "nur" die Ausgabelatenz erhöht, was ohne Interaktion aber auch völlig irrelevant ist. Anders als beim Zocken bspw.
Beg1 schrieb:
Sorry, aber da ist es doch sinnvoller das Video 1x vernünftig aufzuwerten und zwar entweder durch den Uploader vor dem oder durch Youtube beim Upload, genug Möglichkeiten gibt es dafür ja.
Ja, sicher, die Frage ist aber, wenn die Quelle das nicht her gibt?

Bspw. schaut FHD Kontent auf nem UHD Screen ohne Integer Scaling scheiße matsch aus. Wenn man hier wie auf den Screens zu erkennen ist, die Schärfe wieder zurück bekommt, ist das schon ne nette Sache. Ob es den Aufwand lohnt, ist ne andere Frage. Wahrscheinlich wirds die Leute, die mit dem dicken RTX Trümmer im PC Videos schauen, nur bedingt stören.

Sinnig ist es natürlich, möglichst Quellseitig so gute BQ zu möglich zu liefern. Aber meist ist das eben nicht gegeben oder auch nur bedingt möglich.
 
Was ein bescheuerter Ansatz! Ein Youtube video, dass evtl Millionenfach geschaut wird, wird nun bei allen Usern nochmal mit 200w optimiert um minimalste Verbesserungen zu erzeugen, die mehrheitlich vom bescheidenen YouTube Algorithmus verursacht wurden.
 
  • Gefällt mir
Reaktionen: sleepdisorder und Celinna
ne danke, hoffentlich ist der Grampf ned automatisch an, kein Bock im Browser 200Watt zu verschwenden nur damit mir 1080p Video schöner erscheint.
Versteh das ganze eh nicht wirklich. Jeder vernünftige Youtuber und co. hat doch auf ordentliches Equipment umgestellt und bietet 4k an, selbst süße Katzenvideo sind meist in 4k... Was brauch ich da ne upscaling funktion im Browser die unnötig Strom verballert.
Chrome geht mir eh schon aufn Sack, weils der einzige Browser ist der hart am RAM nuckelt und beim starten die CPU kurz aufheizt.
 
Dlss3 für Videos wäre mir lieber gewesen. Kommt bestimmt auch noch.
 
Andere Lösung, statt Monitor ein modernen Fernseher verwenden und man hat automatisch hübschere Videos. :D
Schon seltsam das es bei Grafikkarten so schwer ist das Bild aufzuhübschen.
 
Hmm, bei mir hat sich der Installer jetzt drei mal hinternander mit "Blackscreen" aufgehängt.
 
Also bei mir Gesammt Stromverbrauch an der Steckdose gemessen 400W bei einem Youtube 1440p Video Quality Stufe 4 :mussweg:
Zum Vergleich ohne upsampling sinds 115W aus der Steckdose.

GPU Takt liegt entweder bei den üblichen 2730Mhz oder 3GHz im OC Profil bei 40% Auslastung.

Aber das Bild sieht jetzt traumhaft schön aus ohne Artefakte.
 
Also mit dem neuen Treiber flackert der Monitor bei mir ohne Ende, als wenn der laufend Verbindung verliert und wiederbekommt
 
Foxel schrieb:
Also bei mir Gesammt Stromverbrauch an der Steckdose gemessen 400W bei einem Youtube 1440p Video Quality Stufe 4 :mussweg:


GPU Takt liegt entweder bei den üblichen 2730Mhz oder 3GHz im OC Profil bei 40% Auslastung.

Aber das Bild sieht jetzt traumhaft schön aus ohne Artefakte.
Wer den Unterscheid zwischen Peaks und Durchschnitt nicht kennt, könnte meinen RTX VSR verbraucht so viel.
Tatsächlich sind es 60W mehr GPU-Last im Schnitt.
 
Zurück
Oben