Test FidelityFX Super Resolution im Test: AMD FSR kann was, schlägt Nvidia DLSS aber noch nicht

Draco Nobilis schrieb:
Es wird wohl in 3 Jahren so sein, das eine DLSS KI später einfach für alle Spiele angewendet werden kann, man also nicht mehr für jedes Spiel eigene Profile braucht, bzw. die Implementation dessen vereinfacht wird.
Je weniger Mannstunden und Rchenzentrum Power/(und Zeit) man braucht, desto rasanter geht es.
Ja, je hoeher die Aufloesung (und Framerate), desto mehr Sinn macht es, bestimmte Luecken irgendwie approximativ zu schliessen. Das sieht man jetzt schon bei FSR, wo 4k Quality wesentlich ueberzeugender zu sein scheint als 1440p Quality.

Aber, je komplexer die Methode ist, desto unvorhersehbarer sind auch die Situationen, in denen sie fehlschlaegt, und sie kann potentiell auch viel extremer fehlschlagen. Auch das sieht man bereits ein wenig, wenn man FSR und DLSS vergleicht: Laut dem HUB-Video zu FSR scheint FSR generell existierendes Flimmern zu verstaerken, allerdings immer in einer "vorhersehbaren" Weise. DLSS hingegen flimmert haeufig relativ wenig, schlaegt aber in bestimmten, seltenen Situationen, ganz besonders extrem fehl. In anderen Situationen wiederum produziert DLSS Ghosting, was bei FSR rein prinzipiell nicht passieren kann.

Bei Facebooks Methode wuerde ich daher dann davon ausgehen, dass z.B. blinkende Lichter, schnell rotierende Objekte oder feine Partikeleffekte zu besonders auffaelligen Grafikfehlern fuehren wuerden.

Aber wer weiss... wenn man es schafft, die Methode soweit zu optimieren, dass sie eben in 99% der Faelle wesentlich besser aussieht, und die letzten 1% dann irgendwie so abgefangen werden, dass das Bild nicht "komplett kaputt" geht, wuerde das fuer Computerspielgrafik ja voellig ausreichend sein.
 
Also selbst die Performance Einstellung finde ich optisch ei
Screenshot 2021-06-22 175937.png
gentlich sehr akzeptabel. Screenshot bitte als Vollbild anschauen. Außerdem schön, dass es wohl recht leicht zu implementieren ist und allen Spieleherstellern offen steht, ohne dafür eine Gegenleistung liefern zu müssen.

Die nächste Karte, ich bin auf Nvidia Turing, wird dann wieder eine AMD Karte. Screenshot ist aus einem 4K Video.
 
  • Gefällt mir
Reaktionen: flappes
Bright0001 schrieb:
DLSS ist seit mehr als zwei Jahren auf dem Markt, und hat wie viele Spiele mit Unterstützung? 40?
Große Töne gegenüber FSR sind zumindest in diesem Aspekt nicht wirklich angebracht. :p
Richtig Anklang gibt's erst seit DLSS 2.0, aber egal. Schaut man sich die Titel an, sind die meisten AAA Titel. Wieviele AAA Titel gibt es seit DLSS release? Und wie viele davon unterstützen DLSS?
 
Mumusud schrieb:
Noch gar nicht lange her da wollte ein Großteil der Nutzer hier im Forum lieber gar nicht mehr spielen als eine nicht native Auflösung zu akzeptieren ;)
Das für mich Interessante an diesen Aussagen ist immer, dass die Renderergebnisse in diesen "nativen" Auflösungen auch nur aus einer Kombination von vielen in Software implementierten optischen Tricks und Näherungen resultieren. Da ist nicht viel nativ im Sinne von "rein".

Jetzt kommt eine neue Generation von "Tricks" - und das ist gut so.

Hoffentlich wird das in das Witcher 3 NextGen eingebaut (erwarte ich zumindest beim kolportierten geringen Aufwand). Dann behalte ich die Vega56 zwei weitere Jahre und verkaufe sie beim übernächsten Mining-Boom zum dreifachen Kaufpreis.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Danke für den Test.
Sieht ja doch deutlich besser aus als in der AMD Präsentation.

Was ich jedoch NICHT verstehe:
Wieso müssen Entwickler das noch in ihre Spiele integrieren, wenn es doch scheinbar pures Post-Processing ist, das ohne Vektoren und Tiefeninformationen auskommt?
Das sollte sich doch im Prinzip auf jedes x-beliebige Bild inkl. Videos anwenden lassen.

Wieso geht das nicht?
 
flappes schrieb:
Bei Ultra Quality muss man die Unterschiede mit der Lupe suchen, beim Zocken merkt man davon 0...
Danke AMD!

Du warst doch der Typ der hier noch über DLSS gelästert hat, dass sich die Leute nur blenden lassen. Und bei AMD ist es jetzt plötzlich alles top, obwohl die Qualität eben nicht die Konkurrenz erreicht.
flappes schrieb:
Die Leute lassen sich halt gerne blenden.
 
  • Gefällt mir
Reaktionen: Fallout667, squadric, adAstra und 2 andere
JohnDeclara schrieb:
Sieht wirklich gut aus. In Anno hab ich es auch mal getestet, allerdings ist es bei einer 6900XT in WQHD nicht so entscheidend, ob ich 80 oder 120FPS habe.

Weiß man denn, wann der erste Raytraycing-Titel FSR-Unterstützung haben wird (und vielleicht welcher)?

Und dann eventuell auch noch OpenWorld oder Shooter. Denn gerade da wäre ein Leistungsplus von zweistelligen Prozentwerten ja wirklich gut.
Du könntest ja vsr aktivieren und in 5k zocken, und dann fsr aktivieren. Ob es DIN macht keine Ahnung, aber ausprobieren kann man ja. :)
 
Bright0001 schrieb:
Das stimmt so aber nur, wenn beide Technologien sich im Gleichschritt weiter entwickeln und den Abstand halten. Dass AMDs Ansatz in Theorie DLSS 2 nicht schlagen kann, ist gar nicht mal so selbstverständlich; Selbst bei "stupidem" Upsampling ist noch nicht aller Tage Abend, da geht noch ordentlich was.
Mit dem "stupiden upsampling" wirst du halt prinzipbedingt niemals mehr aus dem Bild rausholen, als Nativ da war, du kannst nur versuchen möglichst nah ran zu kommen. Genau das hat DLSS hier FSR voraus, indem man im Quality Mode durchaus auch ein besseres Bild rausbekommen kann, was bei FSR schlicht nicht möglich ist.


Bright0001 schrieb:
DLSS ist seit mehr als zwei Jahren auf dem Markt, und hat wie viele Spiele mit Unterstützung? 40?
Große Töne gegenüber FSR sind zumindest in diesem Aspekt nicht wirklich angebracht. :p
55, wie du in dem Screenchot sehen kannst, den ich zitiert habe.
Und wenn ich mal ein wenig google, finden sich mindestens 15 weitere Spiele, die in der nächsten Zeit DLSS bekommen werden
 
  • Gefällt mir
Reaktionen: .Sentinel., Klever und foo_1337
Ich kann mich dem Fazit der meisten nur anschliessen: Besser als gedacht, vor allem gemessen daran, dass es "offen" ist und keine weitere Hardware braucht.

Wenn man sieht, was zum Beispiel das Handy aus dem ersten Schnappschuss mittels "KI" rausholt, ist NVIDIAs Weg sicher zukunftsweisend und perspektivisch immer stärker / schneller. Die Frage ist, ab welchem Entwicklungsstand dieser Technologien die zusätzlichen Recheneinheiten wirklich so viel besser sind, dass es sich lohnt, sie immer mitzuschleppen.

Die Komplexität der NVIDIA GPUs ist ja durch die verschiedenen Cores höher und wird immer weiter zunehmen müssen, um die DLSS wieder weiter von FSR abzuheben. Lohnt sich das, wenn DLSS für den Laien nur wenig besser aussieht? Aktuell vielleicht kaum, daher guter Schachzug von AMD.

Auf Dauer vermute ich aber, dass auch AMD hardwareunterstütztes Upsampling umsetzen wird / muss. Spätestens bei 8k mit RT wird es sonst schwierig mit 120+ Frames, so langsam wie die Rechenleistung zuletzt zugelegt hat bei physikalischen Grenzen mit 400w in 7/8nm
 
  • Gefällt mir
Reaktionen: 8087
USB-Kabeljau schrieb:
Wieso müssen Entwickler das noch in ihre Spiele integrieren, wenn es doch scheinbar pures Post-Processing ist, das ohne Vektoren und Tiefeninformationen auskommt?
Weil der komplett FSR Code quasi im Spiel integriert ist, damit es Treiber- & Hersteller-unabhängig nutzbar ist. Ansonsten müsste Nvidia ja Treiber mit FSR-Support bringen und wie schwer Nvidia sich damit tut, konkurrierende Technologien zu unterstützen hat man ja an FreeSync gesehen, dass sie irgendwann dann doch mal in begrenzter Form mit "G-Sync compatible" integriert haben.
 
  • Gefällt mir
Reaktionen: AssembIer und 8087
Noch ein Beispiel. 4K nativ gegen 4K "Performance".
Vielleicht bin ich ja alt, aber ich vermag da praktisch keinen Unterschied (Minimaler Schärfeunterschied) zu sehen und falls ich im Standbild einen zu erkennen vermag, ist das spätestens dann vorbei, wenn das Spiel in Bewegung ist. Auch hier ist der Screenshot aus einem 4K Video von LTT.

Die Ergebnisse des AMD Upscalers halte ich als Nvidia Turing Benutzer für ausgezeichnet.
 

Anhänge

  • Screenshot 2021-06-22 180545.png
    Screenshot 2021-06-22 180545.png
    2,3 MB · Aufrufe: 408
  • Gefällt mir
Reaktionen: danyundsahne, Ned Flanders, Legalev und 2 andere
USB-Kabeljau schrieb:
Danke für den Test.
Sieht ja doch deutlich besser aus als in der AMD Präsentation.

Was ich jedoch NICHT verstehe:
Wieso müssen Entwickler das noch in ihre Spiele integrieren, wenn es doch scheinbar pures Post-Processing ist, das ohne Vektoren und Tiefeninformationen auskommt?
Das sollte sich doch im Prinzip auf jedes x-beliebige Bild inkl. Videos anwenden lassen.

Wieso geht das nicht?
Weil es Hardware unabhängig ist. D.h. unabhängig von Grafikkarte oder Treiber. Wenn du es nicht ins Spiel einbauen würdest, dann müsste das der Treiber machen und dann wäre FSR darauf angewiesen, dass Z.B. Nvidia es unterstützt.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Für mich bleibt erneut NVIDIA erst einmal der Platzhirsch, wobei die AMD Fanboys mit dem schmalen Geldbeutel sich schnell wieder setzen können, bevor sie nun wieder zu einem Verteidigungsschlag mit nicht vergleichbaren Dingen ausholen, denn die Hersteller sind mir mangels Aktienbesitz herzlich egal.

Man ist aber immerhin bei AMD dran, denn eine brauchbare Konkurrenz wird früher oder später allen zu Gute kommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RichieRich
foo_1337 schrieb:
Richtig Anklang gibt's erst seit DLSS 2.0, aber egal.
Und nun sehen wir FSR (1). Wo ist also das Problem?

foo_1337 schrieb:
Schaut man sich die Titel an, sind die meisten AAA Titel. Wieviele AAA Titel gibt es seit DLSS release? Und wie viele davon unterstützen DLSS?
Das ist dein Argument; Sag du es uns.
 
dasbene schrieb:
Nice. Dann kann ich ja bei Anno 1800 mit meiner RX 580 nochmal aufdrehen:D
Das dachte ich mir auch. Wobei ich mir mal Benchmarks mit der RX 580 und evtl der GTX 1060 wünschen würde, wenn man bedenkt wie weit verbreitet die zwei Karten heute immer noch sind.
 
USB-Kabeljau schrieb:
Was ich jedoch NICHT verstehe:
Wieso müssen Entwickler das noch in ihre Spiele integrieren, wenn es doch scheinbar pures Post-Processing ist, das ohne Vektoren und Tiefeninformationen auskommt?
Das sollte sich doch im Prinzip auf jedes x-beliebige Bild inkl. Videos anwenden lassen.

Wieso geht das nicht?

Geht schon, hat AMD wohl auch bestätigt, man könnte es z.B. in Reshade integrieren. Aber für eine korrekte implementierung will man FSR aufs Bild anwenden, BEVOR das Postprocessing stattfindet und bevor das Userinterface übers Bild gelegt wird.
Man möchte ja vermeiden, dass das UI skaliert wird, weil man das ohne Leistungsverlust auch in nativer Auflösung berechnen kann.

Damit man das machen kann, muss es eben der Entwickler selbst integrieren und praktisch an die richtige Position in der Render Pipeline bringen.
Wenn du nur von außen per reshade injecten würdest, dann wäre das nicht möglich.
 
  • Gefällt mir
Reaktionen: uli_2112, Celinna, Der Nachbar und 2 andere
Excel schrieb:
Auch wenn es nicht ganz so gut wie DLSS sein mag (was im Vorfeld auch nicht erwartet wurde):
Es wird DLSS langfristig den Rang ablaufen. Läuft auf fast jeder Hardware, einfach zu implementieren, open Source.
Genau so sieht es aus, und mit der Unterstützung durch die Konsolen wird das Feature eh ein selbst Läufer und DLSS wird es künftig extrem schwer haben.
 
Zurück
Oben