Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestRTX Video Super Resolution im Test: Hübschere Videos via KI wollen Leistung sehen
Zusammengefasst für mich, optisch schwer zu identifizierende Verbesserungen gepaart mit deutlich mehr Energieverbrauch und mit lauteren Rechner.
Klingt wie ein lose lose.
Vor allem wenn ich keine 2000er Jahre Videos sehen will.
Die Technologie ist halt auch nicht dafür gedacht, UHD-Videos zu verschönern. Das geht gar nicht, wenn das Video in UHD vorliegt, macht VSR gar nichts.
Sicher? Also auch keine Verschönerung wegen der Bitrate? Es gibt 4k 10 Mbps über Twitch, oder 4k 40-50Mbps über Youtube, ist es bei einem 4k Video wenn 4k als Auflösung eingestellt ist wirklich inaktiv?
Nein, irgendwas auf High Performance muss man nicht stellen. Es ist wirklich nur Treiber installieren, VSR im Treiber anschalten, Browser aktualisieren und loslegen. Und normales YouTube hat ja auch keinen DRM-Content, wobei der generell zumindest laut Nvidia auch gehen sollte. Ist aber natürlich gut möglich, dass es da bei irgendwelchen Fällen noch Probleme gibt.
nr-Thunder schrieb:
Sicher? Also auch keine Verschönerung wegen der Bitrate? Es gibt 4k 10 Mbps über Twitch, oder 4k 40-50Mbps über Youtube, ist es bei einem 4k Video wenn 4k als Auflösung eingestellt ist wirklich inaktiv?
Würde mir noch eine ordentliche Zwischenbildberechnung für Videos wünschen die simpel zuschaltbar wäre.
Wenn ich Netflix und co. am Rechner anmache dann nervt das 24p geruckel teilweise schon stark was jeder 08/15 TV etwas entschärfen kann. Aber wer weiß... eventuell ja der nächste Step.
Ich weiß nicht so recht aber mir kommt es im Heimanwender Bereich so vor, als würde man in letzter Zeit immer öfter Techniken oder Leistungssprünge mit überproportional mehr Strom erzwingen wollen. Will sagen, der eigentliche Nutzen steht im keinen Verhältnis zum jeweiligen Aufwand. Wie kann man das noch schönreden, ohne sich selbst zu belügen
Im Januar bei den Grafikkarten 4080 vs 7900xtx wo dann 70watt im Durchschnitt für 1% mehr Performance verpulvert werden. Gestern dann bei den Prozessoren wo der AMD 4% schneller als Intel war aber nur die Hälfte verbraucht hat(ich glaube ja immer noch das es mit Magie zutun hat) . Heute dann die Grafikkarte die mir ein minimal Schöneres Bild zaubert aber dabei die Grafikkarte zum glühen bringt…
Gefühlt vergaloppiert sich die Plattform „PC“ gerade total.
Sorry, aber da ist es doch sinnvoller das Video 1x vernünftig aufzuwerten und zwar entweder durch den Uploader vor dem oder durch Youtube beim Upload, genug Möglichkeiten gibt es dafür ja.
Ist zwar cool, dass es auch in Echtzeit geht, aber sowohl Ergebnis als auch Stromverbrauch scheinen keine gute Alternative zu der o.g. Methode zu sein.
Jahre lang hat man damit gekämpft, dass wir endlich Hardware-/GPU-Beschleunigung für Videos im Internet bekommen, um den Stromverbrauch der CPU zu reduzieren, weil die GPU das mit der linken Arschbacke macht und jetzt soll ich die Videos per Grafikkarte hochskalieren lassen und dafür auch noch fast 200 Watt verblasen?
Fazit: Quatsch. Gäbe es andersrum eine Technologie, die 2/3 der elektrischen Leistung einspart, aber nur wenige Pixel im Video verschlimmert, würde man es feiern
Fazit: Man sieht einen Unterschied. Obs den Mehrverbrauch wert ist? Nicht unbedingt. Habs gerade mit einer der besonderen Seite getestet die bei den Deutschen sehr beliebt ist für "Privatvideos"
Bei 480p ist es schon cool was man hier an Qualität raus bekommt.
Die AI unterstützte Software von Topaz fetzt um eigene Videos (oder Fotos) aufzumotzen aber das hier gezeigte ist mir noch zu wenig Aha-Effekt. Mal schauen wo sich das hin entwickelt. Richtig interessant wird es für mich erst, wenn die alten Metal-Bootlegs aus der alten Zeit knackscharf werden obwohl sie nur 360p VHS Rips sind.
Ich bin verwirrt. Sollte diese Technologie nicht dafür genutzt werden, eine kleinere Auflösung hochzuskalieren? D.h. ein 720p Quell-Material optisch für eine 1080p Anzeige zu verbessern? Wenn ja, dann hätte ich hier eher ein Vergleich zwischen 720p nativ, 1080p KI-hochgerechnet und 1080p nativ genommen. (Sehe aber nur Vergleiche ohne 720p nativ ... d.h. ich sehe nicht wovon ausgehend etwas verbessert wurde.)
Ich schaue Twitch-Streams in 1080p auf 1440p Monitor und habe eine RTX 3060. Denke Qualität 2 würde mir etwas helfen, ohne das die Grafikkarte zu laut wäre.
WÜnschte, es gebe diese Verbesserung auch bei z.B: Media Player Classic für altes 1080p Material oder gar für DVD!
die informationen gibt es schon und zwar in form der motion estimation. allerdings auf macroblock-ebene und nicht pro pixel wie in einem spiel. k.a. wie hilfreich sowas bei einem temporalen upscaler wäre.
Sorry, aber da ist es doch sinnvoller das Video 1x vernünftig aufzuwerten und zwar entweder durch den Uploader vor dem oder durch Youtube beim Upload, genug Möglichkeiten gibt es dafür ja.
könnte natürlich youtube bzw. der content-provider auch selber machen. die suchen doch sicher nach einem guten grund, für ein feature geld zu verlangen