Test RTX Video Super Resolution im Test: Hübschere Videos via KI wollen Leistung sehen

HansDetflefAndi schrieb:
Wer den Unterscheid zwischen Peaks und Durchschnitt nicht kennt, könnte meinen RTX VSR verbraucht so viel.
Tatsächlich sind es 60W mehr GPU-Last
Teste doch selbst bei 1440p 60fps zieht die GPU fast 250W und meine Steckdose lügt nicht.
1677608229299.png


bei 1080p und 30 FPS sinds bei mir auch nur 60W

EDIT: du musst auch auf Fullscreen umschalten sonst ist der Verbauch auch nicht so hoch.
 
  • Gefällt mir
Reaktionen: Jan und Mcr-King
ragnarok666 schrieb:
Basierend auf meinen Erlebnis behaupte ich, dass das NVIDIA Promo Video gefälscht ist :evillol:, da es Real da bei weitem nicht an das dort gezeigte Ergebnis ran kommt.

Das Nvidia Video IST gefälscht. Jeder der mal 5 Minuten investiert, um sich das genau anzusehen, wird das schnell entlarven können.

Man erkennt es daran, dass bei dem unbearbeiteten Originalvideo beim hineingezoomten Bildvergleich deutlich mehr Details sichtbar sind, als beim herausgezoomten Vergleich.

Soll heißen, man erkennt sehr deutlich, dass beim herausgezoomten Bildvergleich das Originalvideo nachträglich unscharf gezeichnet wurde, um einen größeren Unterschied zur verbesserten Version zu suggerieren.

Die haben vergessen, auch beim zoom-in Vergleich die originalseite unschärfer zu zeichnen. Hätten sie das nicht vergessen, wäre es schwer gewesen, einen Fake zu unterstellen, aber so haben sie sich selbst entlarvt.


Aber gut, letztendlich sieht man es ja auch am tatsächlichen Endergebnis. Die Unterschiede hier im Test sind um eine Größenordnung geringer, als im Promo Video. Mehr Beweise braucht es dann auch nicht, der Fake ist überdeutlich.
 
  • Gefällt mir
Reaktionen: sleepdisorder, Qyxes, Sly123 und 2 andere
Foxel schrieb:
Teste doch selbst bei 1440p 60fps zieht die GPU fast 250W und meine Steckdose lügt nicht.
Anhang anzeigen 1330772

bei 1080p und 30 FPS sinds bei mir auch nur 60W
Bruh, bei mir läuft Goverlay seit gestern und 3 Tagen im Hintergrund immer mit (kurzer Blick nach links unten) Kenne meine Daten auswendig. In jeder Situation.
VSR hat nur einen Impact auf die GPU + 60W. Auf nichts anderes.
torrent.jpg
 
HansDetflefAndi schrieb:
Welche Monitor Auflösung hast du überhaupt und du hast auch nur eine 3080. Der Treiber ist doch seit heute erst raus vlt. boostet meine GPU auch einfach noch unnötig hoch.
 
Freue mich über die Funktion - nettes Gimmick. Muss noch etwas wachsen bis es brauchbar wird. Würde mich über eine Standalone Software ala Topaz Video AI oder Waifu2x freuen. Beschäftige mich gerade mit Video AI Upscale von alten Animes. Es ist klar das Realtime die Ergebnisse noch nicht so gut sind. Hier Mal nen Upscale von mir. Der mich ca 3h gekostet hat:

 
  • Gefällt mir
Reaktionen: Coeckchen, vidarv, Celinna und 2 andere
Die 4090 Laptop GPU im Artikel liegt ja auch auf ca. 160W bei 1440p 60.
Denke mal die Desktop 4090 hat da noch ein zu aggressives power target.

Meine Tests soweit:
Stufe 4Verbrauch
1080/30fps60W
1440/30fps115W
1440/60fps250W
 
Zuletzt bearbeitet:
mhh..
also wenn ich mir bei amazon prime n video ansehe sehe ich zwar durchaus eine leichte bildverbesserung.. (zumindest meine ich sie mir einzubilden..

aber in hwinfo zeigt es mir nur ganz minimal mehr stromverbrauch und gpu auslastung auf der rtx4080

mh.. entweder es ist nicht an..
oder es ist an und es wird was anderes gemessen
 
Blackfirehawk schrieb:
https://www.reddit.com/r/nvidia/com...ndroidcss&utm_term=1&utm_content=share_button

Steht im offiziellen Nvidia.FAQ mit dem high Performance mode

_-----------------------------------------------------
Komisch...ist der denn standardmäßig an?
Ich kann dir sagen, dass im Guide den ich hab von Nvidia das nicht steht. Und ich das auch nicht gemacht habe und es sofort funktioniert.
fdsonne schrieb:
Klar haben sie das - sie haben Zugriff auf tendenziell alle vorhergehenden Bilder.
Die Zwischenbildberechnung im TV funktioniert auch 1a indem man das Delta zwischen zwei Frames nutzt. Es wird dabei "nur" die Ausgabelatenz erhöht, was ohne Interaktion aber auch völlig irrelevant ist. Anders als beim Zocken bspw.
Aber bei Videos gibt es doch keine Motion Vectors wie bei Spielen. Ich gebe zu, ich kenne mich da nicht aus, aber wie soll das funktionieren. Bei temporalem Upsampling melden die Spiele quasi, wohin sich (einige) Pixel bewegen. Wie soll das bei Videos gehen. Darum kann man temporales Upsampling oder auch normales TAA ja auch nicht einfach so auf ein Spiel aufzwingen, es muss richtig implementiert werden. Oder hakt mein Kopf hier irgendwo?

Die Zwischenbildberechnung auf dem TV macht ja was anders als DLSS SR / FSR 2, das ist ja quasi wie DLSS 3 (wenn auch etwas anders). Da geht es ja um FPS und nicht um Bildqualität.
 
  • Gefällt mir
Reaktionen: BGnom
Wolfgang schrieb:
Komisch...ist der denn standardmäßig an?
Ich kann dir sagen, dass im Guide den ich hab von Nvidia das nicht steht. Und ich das auch nicht gemacht habe und es sofort funktioniert.
ne.. steht auf windows entscheiden lassen..

wahrscheinlich kannste mit der funktion den aktuellen powerplan überschreiben für genau dieses programm

und da ist default ja Balanced..


ich hab im moment noch meine problemchen das ans laufen zu bekommen.. teilweise sehe ich unterschiede im bild.. teilweise nicht.. bilde ich mir zumindestens ein

was ich allerdings nicht sehe ist ein höherer verbrauch.. das höchste was ich so gesehen hab war mal 80w laut hwinfo

und das auf nem 3440x1440 monitor mit ner rtx4080

kann mir mal jemand so n videolink schicken wo die karten wirklich 200+w verbraten damit ich weis ob das jetzt funktioniert oder nicht?




Edit:
ah okay.. hab den Rechner neu starten müssen danach gings.. dann frisst n 1440p@60fps video auch seine 240+watt


okay.. je höher die original auflösung desto mehr frisst es leistung.. wärend 720p@30fps der verbrauch fast makulatur ist.. kann man bei 1440p@30fps bereits einen 4fachen stromverbrauch feststellen..
bei mir skaliert das ganze recht sauber.. 4 fache auflösung.. 4 facher stromverbrauch.. doppelte framerate.. doppelter stromverbrauch


HDR videos funktionieren gar nicht


was ich mir jetzt noch wünschen würde wäre erstens..
eine adaptive einstellung (bei bildauflösung = monitor auflösung sollte RTX VSR aus sein.. ist es aber nicht

und noch eine framegeneration komponente um den video judder zu entfernen
 
Zuletzt bearbeitet:
Bemerkenswert, dass Nvidia es überhaupt auch für die letzte Generation frei gibt. Hätten ja auch wieder behaupten können, es sei tEcHnIsCh nIcHt mÖgLiCh auf der älteren Gen ;)
 
  • Gefällt mir
Reaktionen: Mcr-King
Interessant, was Nvidia da macht.
Aber der Verbrauch steigt schon sehr. Mal sehen, ob da zukünftige Treiber noch das ganze verbessern und wann Turing das Feature bekommt und wann AMD es kopiert. ;)
 
Wolfgang schrieb:
Aber bei Videos gibt es doch keine Motion Vectors wie bei Spielen. Ich gebe zu, ich kenne mich da nicht aus, aber wie soll das funktionieren. Bei temporalem Upsampling melden die Spiele quasi, wohin sich (einige) Pixel bewegen. Wie soll das bei Videos gehen.
ich hatte es schon geschrieben -> https://en.wikipedia.org/wiki/Motion_estimation - das ist elementarer bestandteil von video-codecs, um speicherplatz zu sparen. man speichert nicht mehr jeden block in jedem frame ab sondern nur initial und dann den vektor, wohin sich dieser block im nächsten frame hinbewegen wird.

kann man sich auch selbst mit ffmpeg ansehen -> https://trac.ffmpeg.org/wiki/Debug/MacroblocksAndMotionVectors

Code:
ffplay -flags2 +export_mvs input.mp4 -vf codecview=mv=pf+bf+bb
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DerBandi, BGnom und Mcr-King
Beachtlich, dass Nvidia noch ein Entwickler-Urgestein gefunden hat, um die Einstellung in die Nvidia Systemsteuerung zu integrieren.

1677612191758.png
 
  • Gefällt mir
Reaktionen: ComputerJunge, cookie_dent, Mcr-King und 2 andere
Ich nutze selber Topaz Video Enhance AI.
Die Ergebnisse sind sehr gut, aber das upscaling dauert je nach Quelle lange.
Das gute an Nvidias Lösung ist, dass es einfach so auf Videos im Browser angewandt wird, in so gut wie Echtzeit.
 
  • Gefällt mir
Reaktionen: Celinna und painomatic
duskstalker schrieb:
mit av1 ist sowas mehr oder weniger hinfällig, weil die Qualität so gut ist.
Was voraussetzt, dass die Videoanbieter die gleiche Bitrate bei AV1 einsetzen. Ich denke es wird eher darauf hinauslaufen, dass man die Effizenzgewinne durch AV1 dazu verwenden wird die Bitrate bei halbwegs gleichbleibender Bildqualität zu senken, um so letztendlich Storage und Traffic zu sparen.
 
  • Gefällt mir
Reaktionen: JohnDeclara
Also auf Twitch funzt es auch aber auch dort gönnt sich die Grafikarte einen ordentlichen schluck Leistung aber ich finde man sieht den Unterschied im Fullscreen. Ich brauche es gerade nicht aber nice to have !
 
Danke, für den aktuellen Artikel. Habe gerade das Treiber-Update gesehen und mich gefragt was "Video Super Resolution" sein soll. Und schwups, hab ich den Artikel gefunden. Dann kann ich mir die Aktivierung ja sparen! ;)
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben