Test FidelityFX Super Resolution im Test: AMD FSR 2.0, 1.0 und Nvidia DLSS im Vergleich

Laphonso schrieb:
Bei Minute 1:52 und Minute 2 fällt mir sofort das Schimmern/die auftretende Bildunruhe bei FSR an jeweils derselben derselben Stelle auf
Hab mir das ganze jetzt nochmal genau angesehen.

Ab 1:00, also in Bewegung (genau da wo es darauf ankommt) sieht man da dann doch deutlichere Unterschiede (Ketten, großes Fenster hinten links).
Schade dass der eigentliche Angstgegner temporaler Rekonstruktion, nämlich Seitwärtsbewegung mit hohem, verästeltem Detailniveau im Vordergrund (z.B. Zaun), nicht demonstriert wird.
 
  • Gefällt mir
Reaktionen: foo_1337, Zer0Strat und Laphonso
Meine 1080ti im HTPC freut sich :-) Mal sehen wie Intel das löst. Wollten die nicht auch was bringen was Vendorunabhängig ist?
 
Plastikman schrieb:
Damit zeigt sich dann doch irgendwie, dass dieses Tensorkernegedöns von NVidia einfach nur wieder blabla war, um mehr Geld zu kassieren.
Too soon.
Wir schauen uns dann mal die fps + Qualitätstests an und DLSS 3.0 vs FSR 2.0 im Herbst im RDNA 3 vs Lovelace/Ada Duell, inkl. Raytracing on+off.
Sofern das Tensorgedöns nämlich 20%-30% schneller ist als FSR, wird aus blabla messbar fps Zuwachs.

FSR 2.0 muss bis dahin in viel viel mehr Games.
Ergänzung ()

.Sentinel. schrieb:
Schade dass der eigentliche Angstgegner temporaler Rekonstruktion, nämlich Seitwärtsbewegung mit hohem, verästeltem Detailniveau im Vordergrund (z.B. Zaun), nicht demonstriert wird.
Exakt ;) Das war schon sehr selektiv hier. Warten wir ab.
 
Laphonso schrieb:
In dem Video findet ja schon direkt FSR Bildunruhe+Flimmern, das ich im DLSS nicht habe.
Was sich allerdings durch stärkeres Ghosting erkauft wird. DLSS verwirft hier in Bewegung wohl weniger aggressiv Pixelinformationen, was eben sowohl Vor- als auch Nachteile mit sich bringt. In niedrigen Ausgabeauflösungen <=1080p bietet DLSS insgesamt noch leichte Vorteile, darüber hinaus ist FSR 2.0 zumindest im ersten Vergleich auf Augenhöhe, insbesondere ohne den direkten Vergleich.
 
  • Gefällt mir
Reaktionen: Whoracle, Lamaan, eXe777 und 2 andere
Plastikman schrieb:
Damit zeigt sich dann doch irgendwie, dass dieses Tensorkernegedöns von NVidia einfach nur wieder blabla war, um mehr Geld zu kassieren.
Nö tut es nicht. Es beschleunigt den DL Aspekt.
RT geht auch ohne RT Kerne, aber schön ist das nicht ;)
 
  • Gefällt mir
Reaktionen: Coeckchen
piccolo85 schrieb:
Bravo AMD, von "nicht nutzbar" zu "Unterschiede muss man mit der Lupe suchen" in relativ kurzer Zeit.


"Nicht nutzbar" ist doch völliger Blödsinn. Habs auf meinem Laptop mit 5500U z.B. genutzt, damit FH5 läuft und noch annehmbar aussieht. Deutlich besser als nativ mit deutlich niedrigerer Auflösung zu spielen war es schon immer.

Ansonsten bin ich gespannt und hoffe dass es zeitnah in CP2077 kommt. DLSS fand ich da ziemlich hässlich, vor allem wegen des Ghostings. Ich hoffe, dass FSR2 dann, sollte es kommen, für MEINEN Geschmack besser aussieht. Auch wenn ich CP2077 erst mit dem ersten großen Story-DLC nochmal durchspiele, das ist für mich der einzige Titel momentan wo solche Technologien relevant sind. Die 6700XT bzw. die 3070 davor beißen sich mit maximalen Details auch in 1080p schon ein bisschen die Zähne aus. Es bleibt spannend!

Ansonsten große Arbeit, und dürfte DLSS mal wieder zeitnah obsolet machen. Wenn es dank Konsolen ohnehin in allen relevanten Spielen drin ist und auch auf nVidias Karten läuft muss wahrscheinlich wieder massig Geld von nVidia fließen, damit noch DLSS genutzt wird...
 
  • Gefällt mir
Reaktionen: Unnu und Solavidos
Mal eine Frage zu FSR 2.0.
Heißt das, dass auch z.B. der Ryzen 3400G in der Lage sein wird FSR 2.0 zu Nutzen, bei entsprechenden Spielen?

1652363931041.png
 
Wäre schön, wenn man davon auch in VR profitieren könnte.
 
  • Gefällt mir
Reaktionen: Termy und Laphonso
@andronom Ja, wir brauchen definitiv mehr Games. FSR 2.0 "bringt" nicht viel, wenn es mit DLSS mithält aber nicht "verfügbar" ist. Selbst DLSS fehlt mir in zu vielen Games, weil es fast nur mit den Ratyracing Nvidia Games korrespondiert.


In The Division 2 z.B. könnte ich FSR und DLSS jeweils gerne gebrauchen.
 
Echt ein super Ergebnis.

Nun fällt der "Vorteil" DLSS für Nvidia Karten weg, da beide Technologien nun auf einem ähnlichen Niveau sind.
 
  • Gefällt mir
Reaktionen: boypac007, Inxession, h2f und eine weitere Person
Ihr redet von FSR-"Vorzeigetitel".
Etwas hoch gegriffen!
Das ist das ERSTE Spiel mit FSR2.
Holt mal das erste Spiel mit DLSS raus und schaut, wie gut das abschneidet.
Die Spieleprogrammierer müssen doch erst einmal Erfahrung sammeln mit dem neuen System.
Das es von der Programmierung DLSS her ähnlich ist, ist vorteilhaft, aber eben nicht 1zu1.
Also muss man noch üben.
 
  • Gefällt mir
Reaktionen: ThePlayer
Sieht super aus.

Die Problemstellen meistert DLSS wie erwartet meist besser, aber als zweite Wahl, wenn DLSS nicht verfügbar ist würde ich es ohne Bedenken nutzen wollen. Ist halt kein Vergleich zu FSR 1.0 (das war einfach komplett unbrauchbar und kaum besser als einfach selbst die Auflösung niedriger zu stellen) und es ist nah genug an DLSS.

Würde schätzen, dass FSR 2.0 sich irgendwo zischen gängigen TAAU Lösungen und DLSS platziert.
Zumindest in 4K auf dem TV hat mir TAAU meist auch schon gereicht. Wenn FSR2.0 besser ist, dann immer her damit.

Dank Open Source Ansatz dürften wir künftig viel mehr Spiele mit FSR2.0 und DLSS sehen. (Synergieeffekte)
Damit würde dann auch 4K für nahezu alle aktuellen GPUs kein Problem mehr darstellen, denn der Qualitätsgewinn zwischen FSR2.0 Performance @ 4K (intern 1080p) und nativen 1080p dürfte trotz vergleichbarer Performance immens sein (war bei DLSS auch der Fall).

Stellt sich dann nur noch die Frage, ob man sich bei Deathloop in Zusammenarbeit mit AMD Extra viel Mühe gegeben hat, oder ob man das Niveau auch in künftigen Titeln halten kann. DLSS hatte auch Qualitätsschwankungen. Das wird FSR2.0 nicht erspart bleiben.


Laphonso schrieb:
In The Division 2 z.B. könnte ich FSR und DLSS jeweils gerne gebrauchen.

Division 2 hat schon einen sehr guten TAA Upsampler. (Das ist die Option wo du die Prozentwerte für die Renderauflösung einstellen kannst).

Vielleicht wären FSR 2.0 und DLSS da nochmal nen Tick besser, aber große Sprünge braucht man da auch nicht erwarten, weil die integrierte Lösung wie gesagt schon sehr gut ist.


EDIT: Und an der Stelle auch mal vielen Dank für den Test. Der Aufwand mit den Videos hat sich gelohnt! Danke. 👍
 
Zuletzt bearbeitet:
Bierliebhaber schrieb:
und auch auf nVidias Karten läuft muss wahrscheinlich wieder massig Geld von nVidia fließen, damit noch DLSS genutzt wird...
Fürs Protokoll: AMD blockt DLSS in den AMD sponsored Titeln wie Resident Evil und Far Cry. Ironisch, oder? ;)
 
Muss meinen Senf dazugeben bevor ich die anderen Kommentare lese und mit dem Artikel durchbin, aber swiw ist AMD ja was Rasterizing perfomance betrifft vorne. und ich erinnere mich gut an die zeit wo die rohleistung der amd karten, die durchaus über NV lag, einfach nicht ins game kam. von daher ist der ansatz super interessant und ich bin gespannt wie sich upscaling die kommenden jahre entwickeln wird.

edit: nach dem lesen bleibe ich dabei: sehr spannende entwicklung und evtl nutzt es die den radeons zur verfügung stehenden resourcen besser
 
Zuletzt bearbeitet:
bad_sign schrieb:
Einmal Metro Exodus mit FSR2.0 in Well done, zum Mitnehmen bitte :)
Das built-in TAAU macht bereits einen sehr guten Job. Ich denke nicht, dass FSR 2.0 das großartig toppen würde.
 
  • Gefällt mir
Reaktionen: Laphonso und .Sentinel.
Laphonso schrieb:
Exakt ;) Das war schon sehr selektiv hier. Warten wir ab.
Ja- Mir ist nochwas aufgefallen. Teilweise gibt es starkes Moiree und teils bricht die gesamte Rekonstruktion bei FSR2 in sich zusammen...

Links FSR2- Rechts DLSS2. Links ist das Threshold wohl so klein, dass FSR2 nicht mehr richtig "entscheiden" kann, welcher Farbwert jetzt zum Tragen kommen soll. Das Gitter verschwindet im Schwarz.

1652364295593.png


Dennoch- Ich bin der Meinung, dass wir mit DLSS2 und FSR 2 auf dem absolut richtigen Weg sind.
Wäre für NVIDIA auch ein Armutszeugnis gewesen, wenn sie trotz deutlich höherer Rechenleistung nicht mehr Details hätten rausarbeiten können.
 
  • Gefällt mir
Reaktionen: Coeckchen, Pro_Bro, Blekota und 5 andere
Ging es ursprünglich nicht mal um Nativ+TAA* vs. DLSS/FSR ? :confused_alt:

*oder irgend ein anderer AA Modus der fast keine Leistung kostet
 
Dann haben die elendigen Diskussionen um DLSS als das Wunderfeature und Alleinstellungsmerkmal schlechthin hoffentlich langsam mal ein Ende.
 
  • Gefällt mir
Reaktionen: Solavidos, Lamaan und Tritom73
kann das mal jemand auf einer Nvidia 10xx Karte oder RX 5xx testen?
 
Taurus104 schrieb:
Dann haben die elendigen Diskussionen um DLSS als das Wunderfeature und Alleinstellungsmerkmal schlechthin hoffentlich langsam mal ein Ende.
Was stört Dich an derlei Innovation? Ist doch wie wir sehen für alle gut wenn jemand ein sinnvolles Feature vorantreibt bzw. in den Markt drückt.
 
  • Gefällt mir
Reaktionen: Convert und Pro_Bro
Zurück
Oben