Test FidelityFX Super Resolution im Test: AMD FSR 2.0, 1.0 und Nvidia DLSS im Vergleich

Lazy-Joe schrieb:
Ist schon besser. Aber an DLSS vor allem in Bewegung kommt es meines Erachtens nicht heran.
Wie kommst Du darauf, dass FSR 2.0 nicht an DLSS herankommt? Guckst Du hier:

Das Video einfach mal anhalten und die Details vergleichen. Da sieht DLSS 2.3 aber ganz schön alt aus!
 
  • Gefällt mir
Reaktionen: JJJT, Celinna, Supercub und 2 andere
Freiheraus schrieb:
Erstaunlich, dass Ghosting für FSR 2.0 kein Thema zu sein scheint, ausgerechnet etwas womit man DLSS oft auf dem falschen Fuß erwisch
Nicht unbedingt. In einem "klassischen" Algorithmus kann man - sofern es findige Entwickler gibt - einiges noch erreichen und zum Beispiel mit Grenzwerten bei den Bewegungsalgorithmen arbeiten, um ein Pixel zu verwerfen. Genau so kann man auch mit "Indizes" für die Pixel arbeiten und prüfen, ob man gewisse Pixel gesetzt hat und wenn ja, setzt man sie nicht noch mal usw.

Plastikman schrieb:
Damit zeigt sich dann doch irgendwie, dass dieses Tensorkernegedöns von NVidia einfach nur wieder blabla war, um mehr Geld zu kassieren.
DAS kann man an der Stelle sicher so sagen, wird der Thematik aber nicht gerecht.

Hier muss man nämlich unterscheiden zwischen den Ansätzen: AMD geht bei beiden FSR-Versionen einen "klassischen" Weg und arbeitet mit verschiedenen Algorithmen, die die Bilder rekonstruieren. AMD betreibt hier einen sehr hohen Aufwand, um die Algorithmen "schnell" zu machen und ebenso auch eine hohe Qualität zu erlangen. Das hat den Vorteil, dass AMD nur mit den SIMD-Einheiten zurechtkommt.

NVIDIA hat sich bei DLSS aber von Anfang an überhaupt nicht um die klassischen Ansätze gekümmert, sondern hat bei DLSS1.0 alleine auf die KI vertraut und merkte, dass das nicht geht. In DLSS2.0 hat NVIDIA dann eine "temporale" Komponente eingeführt und das grobe "Gerüst" von klassischen Rekonstruktionen gewählt. Die KI bei DLSS2.x eine "Blackbox", die die "Algorithmen" weitgehend ersetzen in den Bestandteilen, um "schnell" zu sein. Das funktioniert auch sehr gut, hat aber - gegenüber AMDs Ansatz erst mal "klassisch" ran zugehen - ein paar Nachteile, weil man nicht unbedingt direkt in die "Blackbox" eingreifen kann und die KI sehr gut trainieren muss. NVIDIAS Weg hat auch einige Vorteile, gerade was die "Komplexität" des ganzen Konstruktes angeht.

Laphonso schrieb:
Sofern das Tensorgedöns nämlich 20%-30% schneller ist als FSR, wird aus blabla messbar fps Zuwachs.
Auch wenn ich ein Stück weit deine Intention hinter deinen Beiträgen verstehe und hier manche Beiträge auch nicht unbedingt "gut" finde, was jetzt die Aussagen über DLSS angeht: Deine Beiträge sind da kein Deut besser und gerade solche Aussagen wie die von mir zitierte, sind einfach nur unnötig provokativ und dazu noch mit einer gehörigen Portion Spekulation verbunden. Ganz ehrlich, du benimmst dich mit solchen Beiträgen wie ein Kleinkind, dass nicht einsehen kann, dass seine Lieblingsmannschaft im Fußball gerade nicht gewonnen hat, sondern ein Unentschieden kassiert hat und nicht damit klarkommt, dass alle für den Kontrahenten lobende Worte finden.

Was DLSS 3 liefern wird, dass werden wir sehen, wenn DLSS 3 kommt. Ob es schneller wird, werden wir auch dann sehen.

Der primäre Leistungsvorteil bei FSR 1, FSR 2, DLSS 1 und DLSS 2 kommt daher, dass die eigentliche Auflösung "massiv" reduziert wird. Man reduziert die Menge der Pixel um knapp 66 % und man bekommt je nach Spiel ca. 60 - 66 % an Performance heraus. Klar, NVIDIA kann DLSS 3 "noch" weiter beschleunigen, aber selbst wenn NVIDIA DLSS 3 - also den DLSS-Teil - um 100 % beschleunigen würde, käme NVIDIA nur an die 66 % heran und würde nicht 30 % auf die 66 % mehr Leistung herauf packen. Dafür muss NVIDIA die Renderauflösung weiter reduzieren. Man müsste also das aktuelle Ergebnis im Modi Quality mit der Auflösung des Modus Performance schaffen. Da ist dann eher die Frage, wie viele Samples NVIDIA mit allen Daten dann vorhalten müsste, um wirklich die gleiche Qualität zu schaffen, wie jetzt mit 1440p bei 2160p.

NVIDIA wird sich mit DLSS 3 vermutlich dem Ideal von 66 % weiter annähern im Quality-Modus. Ob NVIDIA es aber schafft, mit 1080p Material die gleiche Qualität zu bekommen, wie aktuell mit 1440p? Das kann man bezweifeln.

Weniger reißerisch, etwas realistischer ist an der Stelle angebracht.
 
  • Gefällt mir
Reaktionen: Jurial, Unnu, MiG001 und 18 andere
Replay86 schrieb:
Die Unterschiede sind kaum vorhanden. Teilweise sehen auf den Bildern FSR 1.0 am besten aus.
Hast du das alles auch im Vollbild, vielleicht sogar in ZoomIns, betrachtet?
Fighter1993 schrieb:
Ich glaube du hast einen anderen Test gelesen wie ich...
Das wäre nämlich mein einziger Erklärungsansatz...
 
  • Gefällt mir
Reaktionen: foo_1337
Mich macht die Entwicklung sehr glücklich. In meinem Zweitrechner arbeitet eine RX 480 8gb. Ich hoffe mit RSR, FSR (2.0) ist der noch ein langes und glückliches leben voraus. Es ist wirklich toll, dass es das für die älteren Karten gibt. Jetzt fehlt nur noch der umgekehrte modus für die High End karten, wo die Auflösung Nativ oder. sogar höher als nativ bleibt und das ganze als AA genutzt wird :)
 
Zer0Strat schrieb:
Hast du du mal Bespiele? Fiel mir nie wirklich auf...
Ich meine das war ganz zu Beginn, im Außenareal wo auch immer die DLSS Bilder der Brückenkabel gezeigt wurden.
Mit TAA und glaube 0,7 oder 0,8 als Auflösung, hatte ich nicht lange an.
Bin dann gleich zurück auf Bilinears Upscaling (sprich 3200x1800 auf UHD) umgestiegen

Das dürfte am/kurz nach Release der Enhanced gewesen sein.


Ich bin schon schwer gespannt, wie mir FSR2 nativ auf meine Bildschirm gefällt.
In UHD ist Unschärfe selten ein Problem, da genug Pixel da sind, ghosting habe ich nicht unbedingt ein Problem mit, aber Bildfehler finde ich fatal.
 
Zuletzt bearbeitet:
@Wolfgang: In Text und Video taucht ständig DLSS 2.0 auf --- dabei geht es die ganze Zeit um DLSS 2.3 oder um alle Iterationen von DLSS 2 / 2.X! Bitte entsprechend korrigieren...
 
Zuletzt bearbeitet: (Ausdetailliert)
  • Gefällt mir
Reaktionen: Taxxor
Laphonso schrieb:

Bei Minute 1:52 und Minute 2 fällt mir sofort das Schimmern/die auftretende Bildunruhe bei FSR an jeweils derselben derselben Stelle auf..

Und das im FSR 2.0 "Vorzeigetitel"...? 🤔

DLSS hat das da nicht btw...
Dafür ist DLSS 2.3 aber auch sehr unscharf, was die Darstellung auf großen Monitoren aus meiner Sicht sehr beeinträchtigt. Aber grundsätzlich finde ich beide Systeme besser als keines.

Hinzu kommt, dass für FSR 2.0 keine extra Hardware benötigt wird, sondern dass das auch auf älteren AMD und NVIDIA Karten läuft. Der Open Source Ansatz von AMD ist hier klar zu loben!
 
  • Gefällt mir
Reaktionen: JJJT, Celinna, Illithide und 3 andere
Laphonso schrieb:
Vor allem: Ohne Nvidia DLSS gäbe es gar keine FSR Lösung.
Naja- Das ist halt immer die Frage. Es ist immer irgendeiner der Erste, der ein Risiko auf sich nimmt.
Auch AMD hat schon ein par feine Dinge auf den Markt geworfen und ausprobiert.

Ich schnalze da immer mit der Zunge, wenn sich da auch nur irgendwas tut und jemand den Mut aufbringt, was neues auszuprobieren (z.B. primitive shaders)... Das hatte Potenzial.

Insofern ist neidloses Anerkennen angesagt. Es geht ja schließlich um die Technik, die begeistert. Einem Markenfetisch kann ich einfach wenig abgewinnen. Ich sehe das als eine Abart unserer heutigen Zeit.
 
  • Gefällt mir
Reaktionen: Illithide, karl_laschnikow, Gnodab und 5 andere
EasyOneX schrieb:
Dafür ist DLSS 2.3 aber auch sehr unscharf, was die Darstellung auf großen Monitoren aus meiner Sicht sehr beeinträchtigt. Aber grundsätzlich finde ich beide Systeme besser als keines.

Hinzu kommt, dass für FSR 2.0 keine extra Hardware benötigt wird, sondern dass das auch auf älteren AMD und NVIDIA Karten läuft. Der Open Source Ansatz von AMD ist hier klar zu loben!
Schwierg. Sowas immer aus der miserablen YouTube Kompression abzuleiten. Hast du keine eigene RTX Karte? Für die Unschärfe benutzt ja auch einen Nachschärfer wie CAS via Reshade. Das sowas immer noch nicht bei jedem angekommen ist, verwunderlich.
 
Laphonso schrieb:
Vor allem: Ohne Nvidia DLSS gäbe es gar keine FSR Lösung.
Am Ende stellt sich irgendwann immer die Frage, welche Lösung war die Nachhaltigste.

Ich bin gespannt ob sich FreeSync Hust* meine FSR durchsetzen wird.

PS: Nichts für ungut, aber vor nicht all zu langer Zeit gab es überhaupt den Standpunkt, ohne Tensor Cores könnte AMD sowieso den Gaming-Markt aufgeben, weil mit DLSS ist man sowieso King.

Ich ziehe mein Fazit. Hoffentlich mehr mit FSR 2.0. Das tut meiner SteamDeck gut ;)

Und was wieder absolut spannend ist. FSR 2.0 funktioniert bei den 1000 GTX Serie, während DLSS ab 2000 GTX Serie läuft. Bei AMD finde ich es schade, dass es erst ab RDNA geht. Ginge das bei GCN auch, wäre das der absolute Kracher gewesen. Nicht nur wegen den älteren Grafikkarten, sondern auch älteren Konsolen.

Folglich. Nintendo Switch wird immer von DLSS geträumt. Würde mich schlapp lachen, wenn dann FSR 2.0 auf der NV GPU am Zug kommt... Gut jetzt lass ich es mit dem weiterdenken. (Gut Maxwell ist pre 1000 Serie ;) )
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dittsche, Lamaan, Illithide und 2 andere
Habs mir eben mal selbst im Spiel angesehen.

Es ist schon erstaunlich, wie nah FSR 2.0 an DLSS herankommt. Gerade im Performance Modus trennt sich die Spreu vom Weizen, und FSR2.0 kann mithalten.

Aber wie gesagt, Problemstellen die zum Flimmern neigen, meistert DLSS teilweise besser, manchmal sogar deutlich besser.

In den meisten Fällen ist die Charakteristik aber so ähnlich, dass es kaum einen Unterschied macht.
 
  • Gefällt mir
Reaktionen: Sun-Berg
bad_sign schrieb:
Ich meine das war ganz zu Beginn, im Außenareal wo auch immer die DLSS Bilder der Brückenkabel gezeigt wurden.
Mit TAA und glaube 0,7 oder 0,8 als Auflösung, hatte ich nicht lange an.
Bin dann gleich zurück auf Bilinears Upscaling (sprich 3200x1800 auf UHD) umgestiegen
Hab gerade mal ein paar Bilder gemacht. Das interne TAAU ist saustark meiner Meinung nach.

https://imgsli.com/MTA3NTIz/0/2
 
  • Gefällt mir
Reaktionen: guzzisti
Da muss mein Marketing Vokabular dann ja doch um "Tensor" und "KI" erweitert werden, das hab ich so nicht erwartet - aber es ist sehr willkommen.
 
pipip schrieb:
PS: Nichts für ungut, aber vor nicht all zu langer Zeit gab es überhaupt den Standpunkt, ohne Tensor Cores könnte AMD sowieso den Gaming-Markt aufgeben, weil mit DLSS ist man sowieso King.
Ja- Das lastet einem Mythos an, dass Tensor- Cores für DLSS notwendig seien. Alle Operationen von Tensor- Cores lassen sich aber auch softwaretechnisch abbilden. Es ist alles eine Frage der Geschwindigkeit.

NVIDIA selbst hat DLSS nie von Tensor- Cores abhängig gemacht und auch nie Aussagen getätigt, dass das Verfahren ohne diese nicht funktioniere. Sie haben lediglich gesagt, dass die Tensor Cores DLSS beschleunigen würde.
Sie haben sogar selbst eine software- emulierte Version von DLSS für Control veröffentlicht (1.9), die nicht auf die Tensor Cores angewiesen war.
 
  • Gefällt mir
Reaktionen: Unnu

.Sentinel.

Ich sag auch nie was. Ich suggeriere nur... Was du denkst ist ja eh deine Geschichte. So denkt sich das Marketing das bestimmt auch :D
Ich nenne nur 1000 Mal KI und Tensor Cores und DLSS in einem Absatz aber der Zusammenhang ist eigentlich nicht da. Ich erwähne nur zufällig diese Wörter dutzende mal. Dass jemand da einen Zusammenhang macht. Pfft, was für ein Idiot :D

Spaß beiseite. Es gab ja auch andere Studios die gezeigt haben, was ohne KI beschleunigende Cores möglich ist. Früher oder später wird aber KI immer wichtiger werden. Ich denk dass stellt keiner in Frage.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Illithide, DannyA4 und .Sentinel.
G00fY schrieb:
@Wolfgang danke für den Test! Wirds auch noch einen Test/Beitrag zum Preview Driver May 2022 geben?
Das ist aktuell leider nicht geplant.
Laphonso schrieb:
Fürs Protokoll: AMD blockt DLSS in den AMD sponsored Titeln wie Resident Evil und Far Cry. Ironisch, oder? ;)
Das mag ja in Ausnahmefällen gelten, generell aber auf jeden Fall nicht. Deathloop zum Beispiel ist auch ein AMD sponsored Titel und kann trotzdem DLSS.
.Sentinel. schrieb:
Ja- Mir ist nochwas aufgefallen. Teilweise gibt es starkes Moiree und teils bricht die gesamte Rekonstruktion bei FSR2 in sich zusammen...

Links FSR2- Rechts DLSS2. Links ist das Threshold wohl so klein, dass FSR2 nicht mehr richtig "entscheiden" kann, welcher Farbwert jetzt zum Tragen kommen soll. Das Gitter verschwindet im Schwarz.



Dennoch- Ich bin der Meinung, dass wir mit DLSS2 und FSR 2 auf dem absolut richtigen Weg sind.
Wäre für NVIDIA auch ein Armutszeugnis gewesen, wenn sie trotz deutlich höherer Rechenleistung nicht mehr Details hätten rausarbeiten können.
Genau dasselbe passiert mit DLSS in Deathloop übrigens auch. Dafür benötigt es nur andere Entfernungen von der Kamera zum Objekt. Damit will ich nur sagen, dass die meisten Probleme, die FSR 2.0 hat, im Prinzip auch DLSS hat. Nur meistens in leicht anderer Form, mal mir Vorteilen für den ein und mal den anderen. Da passieren dann teils auch lustige Sachen das in Entfernungen, wo FSR 2.0 Moire zeigt, DLSS keins hat, aber in denen DLSS es zeigt, FSR keines hat.
 
  • Gefällt mir
Reaktionen: Unnu, JJJT, Celinna und 7 andere
Lazy-Joe schrieb:
Schwierg. Sowas immer aus der miserablen YouTube Kompression abzuleiten. Hast du keine eigene RTX Karte? Für die Unschärfe benutzt ja auch einen Nachschärfer wie CAS via Reshade. Das sowas immer noch nicht bei jedem angekommen ist, verwunderlich.
Mit Sicherheit ist es schwierig sich selbst ein Bild zu machen bei einem YouTube Video. Dennoch ist es so, dass ja das gesamte Video der Kompression unterliegt und nicht nur die rechte Seite vom Video mit DLSS 2.3.

Somit kann man durchaus Schlussfolgerungen daraus ziehen, auch wenn diese natürlich nicht vollständig sind. Alles Weitere wird sich zeigen, wenn das erste Spiel mit FSR 2.0 Unterstützung, den Weg auf meine Festplatte findet.
 
  • Gefällt mir
Reaktionen: DannyA4 und McTheRipper
Lazy-Joe schrieb:
Schwierg. Sowas immer aus der miserablen YouTube Kompression abzuleiten. Hast du keine eigene RTX Karte? Für die Unschärfe benutzt ja auch einen Nachschärfer wie CAS via Reshade. Das sowas immer noch nicht bei jedem angekommen ist, verwunderlich.
DLSS ist in Deathloop deutlich unschärfer als FSR 2.0 (solange nicht das Nachschärfen völlig abgestellt wird), das sieht man auch wunderbar in den unkomprimierten Screenshots im Artikel. Auf YT ist es wirklich was schwerer, geht aber auch.

Leider sieht man in meinen Videos die ich hier erstellt hab die Vor-/Nachteile von FSR/DLSS noch viel besser, die dann wirklich die Kompression auf YT kaputt macht...nur was will man machen? Die Videos hier sind 4, 5, 6GB groß, die kann man so nicht zur Verfügung stellen.
 
  • Gefällt mir
Reaktionen: Illithide und McTheRipper
Laphonso schrieb:
Wir schauen uns dann mal die fps + Qualitätstests an und DLSS 3.0 vs FSR 2.0 im Herbst
dürfen wir uns dann auch noch irgend wann später DLSS 3.0 vs FSR 3.0 anschauen, oder ist da dann auch das "rennen" schon beendet, weil ein Stichtag erreicht ist

scnr
 
  • Gefällt mir
Reaktionen: Unnu, karl_laschnikow, F4711 und 2 andere
Zer0Strat schrieb:
Hab gerade mal ein paar Bilder gemacht. Das interne TAAU ist saustark meiner Meinung nach.

https://imgsli.com/MTA3NTIz/0/2
Liegt das an der Wolke oder ist das Gebüsch viel zu stark in der Kontur?
Aber TAA sah auf Bildern immer ganz gut aus :)


Leider ist Deathloop viel zu teuer, nur um FSR auszuprobieren
 
Zurück
Oben