News RTX Video Super Resolution: Nvidia skaliert Videos in Chrome in Echtzeit auf 4K

Oggy666 schrieb:
Upscaling... wenn ich sowas schon lese... wozu eigentlich?
ASO! JA! Die Monitore mit ihren monsterauflösungen können ja kein PAL-Video oder kleiner vernünftig darstellen... is ja dann wohl alles PixelGatsch... da braucht's dann schon "KI-Upscaling"... was für ein Müll 🤪
...genau wie dieser DLSS-Mist - sowas braucht kein Mensch bitte...

Nur weil DU es nicht brauchst, brauch es die ganze Welt nicht? Du bist mir einer...

1. Upscaling in Videos ist verdammt stark für Leute die Videos bearbeiten wollen und eine höhere Qualität der Videos benötigen.

2. DLSS ist für mich und andere ein MUST HAVE in bestimmten Spielen wie z.b. Cyberpunk.

Wenn DU das nicht brauchst ist das schön und gut aber du kannst nicht von dir auf andere schließen.

Das wäre genauso wenn ein Diesel-Autofahrer sagen würde "warum gibt es andere Tankbefüllungen, ich brauche doch nur Diesel", merkst hoffentlich selbst wie bescheuert deine Aussage ist.
 
Da nvidia die Hochskalierung mit Spielmaterial und wenig aufgelösten Texturen gezeigt hat, ist das wohl weniger ein Problem. Topaz AI verarbeitet den Comicstyl auch schnell ab. Viel anspruchsvoller sind reale Aufnahmen.

Mal schauen wie die feinen Kirschblüten hoch skaliert aussehen und wenn die GPU bei solch Matrial auf Volllast mit maximaler Leistungsaufnahme geht, dann wird das ziemlich ineffizient. Muss da noch die CPU unterstützen, mir wären da 300W aus der Steckdose viel zuviel. Mehr als 100W will ich bei meiner PC Konfiguration nicht bei der Videowiedergabe verbraten.
 
 
Looniversity schrieb:
Höhere Qualität... Diese Lüge lebt immer weiter.
Hier muss man gleich mal richtig reingrätschen, weil ich gerade Portal RTX auf einer 3090Ti gespielt habe und muss sagen, dass DLSS Quality in WQHD besser aussieht als Nativ.
Die Qualität ist durch das Sammeln von Bildinformationen, sogenanntes Supersampling eben doch höher, obwohl es weniger Leistung kostet.
Looniversity schrieb:
Uprising bleibt upscaling, die Qualität wird nicht besser nur weil es nicht mehr interpolieren heißt, will man Information, die nicht da ist, nicht generieren kann.
Video Super Resolution erspart dir den Download des Videos in höherer Auflösung und spart effektiv Bandbreite, bei "quasi" selber Qualität.

Ich kann nicht verstehen wieso und weshalb diese absolute Gamechanging Technologie so abgelehnt wird.
Gerade bei den teuren Grafikkarten kann man damit auch mit einer RTX 4070 12GB eine High End Karte der letzten Generation im Längen schlagen.

Oggy666 schrieb:
dann wohl alles PixelGatsch... da braucht's dann schon "KI-Upscaling"... was für ein Müll 🤪
...genau wie dieser DLSS-Mist - sowas braucht kein Mensch bitte...
Bitte mehr KI, DLSS und FSR.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: painomatic
Beim Schauen des PR-Video's entstand dieses Suchbild: Finde den Fehler :D
 

Anhänge

  • Bild1.jpg
    Bild1.jpg
    536 KB · Aufrufe: 245
  • Gefällt mir
Reaktionen: Onkel Föhn und HageBen

hier auch in 4k. trotzdem bin ich skeptisch. wenn man das modell spezifisch auf dieses spiel trainiert hat, mag das funktionieren. aber ein generisches modell, das aus einem beliebigen spiel, film oder animation diesen detailgrad rausholen soll? eher nicht.
 
  • Gefällt mir
Reaktionen: Yibby und Redundanz
Looniversity schrieb:
Höhere Qualität... Diese Lüge lebt immer weiter. Uprising bleibt upscaling, die Qualität wird nicht besser nur weil es nicht mehr interpolieren heißt, will man Information, die nicht da ist, nicht generieren kann.
www.madvr.com

Es gibt durchaus Algorithmen, die die Bildqualität steigern können. Ist im Grunde wie DLSS und Co.
Teure TVs haben seit Jahrzehnten extra Bildverbesserungs-Hardware eingebaut. Das ist de facto der Unterschied zwischen einem 1800€ TV und einem 4000€ TV.

Ich habe schon vor mehr als 10 Jahren die Grafikkarte benutzt, um Filme "schönzurechnen".

Heute allerdings nutze ich extra dafür entwickelte Hardware. Weil der Stromverbrauch einer High End Karte viel zu viel ist. Spezialhardware (Die teuerste OLED Serie von LG oder neue Vu+ Set Top Boxen) benötigt dafür nur 10-20 Watt anstatt 300W eines PCs...
 
Virtramp schrieb:
Ich hoffe TV hersteller bauen es ein. Hab so die schnauzze voll von tv sendern mit 1080i auflösung
Vorausgesetzt man zahlt dafür zusätzlich Geld, damit man 1080i50 bei den privaten TV Sendern bekommt. Sonst hat man ja sogar nur 720p (öffentlich rechtliche TV Sender) oder 576i (Private TV Sender, SD).

Ein guter Deinterlacer im Fernseher kann aus 1080i50 problemlos ein "quasi 1080p25" machen, wenn das Quellmaterial eh nicht mehr als 25 Bilder pro Sekunde hat (zum Beispiel die meisten Serien, Shows oder Filme). Sportübertragungen sind eigentlich das einzige Problem für das Interlace Verfahren.
 
Zuletzt bearbeitet:
Hab überlegt diesmal AMD zu nehmen wegen meinen neuen UWQHD OLED Monitor, der nur Freesync Premium hat....

Aber man wird immer mehr gezwungen Nvidia zu nehmen.
 
  • Gefällt mir
Reaktionen: Pleasedontkill
0x8100 schrieb:
Das sieht, insbesondere in der Detailansicht so aus, als hätte man einfach FSR1 auf das Videobild geworfen.
 
Dieses Topaz AI ist völlig überbewertet.

NGU ist das Mass der Dinge und die aktuelle Speerspitze im professionellen Bereich.
 
Highspeed Opi schrieb:
....
Solche Fragen musst du mit einer Gegenfrage beantworten:
Was bekommt sie von der teureren Marke Schminke, Handtasche, Kleidung, etc. ;)
....
Schätze das sehr das man als Gamer voll und ganz hinter mir steht🖖, aber tatsächlich hinterfrage ich mein Handeln immer wieder im Leben.
So eine Reflektsion empfehle ich jedem.

Tatsächlich hat Sie jetzt einen Tesla Y der Sie JEDEN Monat 800-900Fr. kostet ohne das er Ihr gehört.
Sie hat fast nichst gespart im Leben. Ich wiederum könnte den oder einen X morgen shopen gehen.

Aber meine Einkäufe sind wohl überlegt und müssen weit über das Flexen vor Freunden und Familie gehen.
Wenn ich nicht so ein Mensch wäre, könnte ich mir auch nichts leisten.
 
  • Gefällt mir
Reaktionen: DieRenteEnte
🤣 🤣 Geil, die ersten comments schon wieder Schaum vor dem Mund, nice.

Obwohls eine super Sache ist, die Nvidia ungefragt und unerwartet für lau rausbringt 👌👍

Und dann die Besserwisser sofort, geil.

Also ein Standard upscaling tool in Chrome oder Edge (das verwende ich) von einem Graka-Hersteller
wäre mir neu, von daher auf jeden Fall top 👍

Und dann noch das Monitor Gebashe 🤣
Genau das ist in der Tat Scheisse bei Monitoren im Vergleich zu fortgeschrittenen TVs,
dass sie kein upscaling what so ever an Bord in der Software haben.

Ich spiele auf meiner Switch nur noch auf dem LG OLED weil der ein geniales und auch scharfes,
artefakt freies upscaling des 1080p Signals auf 4k hinkriegt.

Mein Monitor kackt natürlich bei reinem 1080p Inhalt wie zu erwarten ab und es sieht letztlich ziemlich
schwammig aus. Wenn nun meine RTX solche Inhalte standard mäßig in Edge auf meine
3440x1440 hochskalieren kann -> nichts geiler als das! 👍👌

Im übrigen, man muss nichtmal bei Netflix, Disney+ und Co. nur "HD" abonniert haben, es gibt meines
Wissens auch einfach Inhalte, die auf den streaming Plattformen nur in Full HD verfügbar sind.
Auch für diese wäre ein Grafikkarten basierten upscaling auf die Monitor-Auflösung genial.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
0x8100 schrieb:

hier auch in 4k. trotzdem bin ich skeptisch. wenn man das modell spezifisch auf dieses spiel trainiert hat, mag das funktionieren. aber ein generisches modell, das aus einem beliebigen spiel, film oder animation diesen detailgrad rausholen soll? eher nicht.
DLSS funktioniert doch mittlerweile auch ohne dass es speziell für games trainiert wird und liefert für manche Details schärfere Ergebnisse als nativ 4k.
 
M-X schrieb:
AMD Grafikkarten nutzen doch nur die hard Fans, alle anderen sind auf Nvidia Grafikkarten umgestiegen :p

FInde ich ein gutes Feature von NV und hoffe das es auch für Firefox kommt.
Ich Frage da mein Notebook von Arbeit eine AMD CPU/GPU hat. Da ich keinen Desktop brauche, werden damit auch private Dinge gemacht wie Videos gucken. Da wäre das Feature schon wünschenswert. Deine Aussage basiert auf Unterstellung, meine auf Fakten.

Most popular browsers 2022: Chrome 65.84%, Safari 18.7%, Edge 4.44% und dann Firefox mit 3.04%

Die Firefox base besteht nur noch aus die hard fans und ein paar wenig verirrten.
 
Yibby schrieb:
DLSS funktioniert doch mittlerweile auch ohne dass es speziell für games trainiert wird
in spielen kann dlss aber auch auf wesentlich mehr informationen zurückgreifen, die von der spiele-engine geliefert werden, wie z.b. die bewegungsvektoren der objekte (in videos nur auf blockebene) oder die höher aufgelösten texturen. in einem video hat man diese informationen nicht.

wie sie aus diesem low-res bild ohne extra-informationen selbst die schrift rekonstruieren wollen, erschliesst sich mir nicht, aber ich lasse mich gerne überraschen :) dauert ja nicht mehr lange, bis man sich das anschauen kann.

1673166056058.png
1673166007893.png
 
tox1c90 schrieb:
Der Witz von KI-Upscalern ist doch, dass gerade nicht einfach nur interpoliert wird. Es wird neue Information von der KI generiert und eingefügt, welche zu den bestehenden Daten passt.
Das ist doch exakt die Definition einer Interpolation. "KI" bzw. NN können in der Regel keine neue Information erzeugen, nur verdammt gut (manchmal auch verdammt schlecht) interpolieren.
 
haimarik schrieb:
Das ist doch exakt die Definition einer Interpolation.
Wahrscheinlich hast du da Recht, es müsste evtl. einen neuen Begriff geben um von der schon recht alten klassischen "Interpolation" abzugrenzen...
 
haimarik schrieb:
keine neue Information erzeugen
Ich denke, der Begriff "zusätzliche Information" trifft es bessere. Wenn man aus existierenden Daten Erkenntnisse zieht, die aus der Verschränkung der getrennt vorliegenden Ursprungsdaten, nennt man das vereinfacht auch Data Mining
Ist in meinen Augen aber alles Haarspalterei. Wir sind hier nicht in einem Wissenschaftsforum. Als Verbraucher will ich letzten Endes die Vor- und Nachteile für mich bewerten/gewichten.
"Wenn's schee macht", ist es mir nur recht.
 
Zurück
Oben