Test FidelityFX Super Resolution im Test: AMD FSR 2.0, 1.0 und Nvidia DLSS im Vergleich

Payne19 schrieb:
FPS schön und gut.. Wieviele MS mehr lag kommen denn bei dem Spaß dazu?
Das wäre mal interessant zu wissen.

Nein, du bekommst keinen „Lag“. Was du anhand der gesteigerten FPS ja schon direkt siehst. Da der Effekt direkt von der Grafikkarte berechnet wird sind die Rechenkosten und die Zeit die dafür notwendig sind schon in der gleichung enthalten, an dessen Ende die FPS bzw. Frametime stehen.

Und ich weiß ja nicht, ob es klar ist, Frametimes und damit Latenz durch das Berechnen eines Bildes sowie FPS hängen direkt zusammen. Du kannst also wie gesagt aus den gesteigerten FPS schon eine verbesserte Latenz aufgrund kleinerer Frametimes ablesen.

Mal ganz grundlegend FPS = Kehrwert der Frametime
(aus der Physik f = 1/T. Also Frequenz = 1/Periodendauer)

Bei 16,6 ms Frametime also 1 Bild / 0,01666 s = ~60 Bilder/s

Frametime (=Latenz aller Grafikberechnungen) und FPS hängen also Direkt zusammen über den Kehrwert.

Wenn du also FSR oder DLSS aktivierst bzw. Nicht aktivierst würde das in etwa so aussehen.

Ohne FSR:
Ein Bild braucht z.B. 16.6 ms bis es gerendert wird. Hättest also 60 FPS.

Mit FSR:
Die interne Renderauflösung wird pro Achse halbiert, die Frametime halbiert sich auf 8,88 ms.
FSR benötigt nun zusätzliche sagen wir mal 2 ms um seine Aufgabe zu machen. Ergibt dann in Summe eine Frametime von 10,88 ms, womit du bei ca 92 FPS landest.

Und da sollte auch klar sein, 10,88 ms Frametime (92 FPS) bedeuten im Vergleich zu 16,6 ms (60 FPS) eine um ca 1/3 verringerte Renderlatenz.

Also ja FSR kostet für sich genommen Leistung und Latenz, aber die holst du ja über die verringerte Renderauflösung locker wieder rein.


Du bist vermutlich davon ausgegangen, dass FSR Latenz zur gesamten Latenzkette addiert, wie es eine Maus oder ein Monitor macht, aber das ergibt hinsichtlich der Funktionsweise von FSR und der Tatsache, das sich mit höheren FPS ja zugleich die Latenz reduziert, überhaupt keinen Sinn.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dunkelbunter, Unnu, Michael vdMaas und 4 andere
Ich habe es gerade mal aufm SteamDeck ausprobiert. Und FSR2 ist der nativen Auflösung und FSR1 vorzuziehen. Mein Test war mit Proton experimental.
 
  • Gefällt mir
Reaktionen: Czk666, leonM und Laphonso
KuroSamurai117 schrieb:
Siehe es dir bei DF an die es sehr gut veranschaulichen wo FSR noch seine Probleme hat:

Kurios finde ich, dass FSR 2.0 auf den Nivida Karten etwas sauberer läuft als auf dem AMD GPUs frametime bezogen.

Wenn die Option FSR 2 neben DLSS 2 nun ein "weiteres Argument" wird für Nvidia GPUs , ist der circlejerk komplett 😂
Ergänzung ()

Czk666 schrieb:
Nochmal am 4k TV getestet.1080p mit fsr2 sieht besser aus als 4k nativ. Verrückt.
Nunja, fullhd sollte ggf. nicht die Vision hier sein. Das kam in dem Computerbasebericht hier ja auch rüber: "Wer in Full HD spielt, sollte ohne Not dagegen auf Upsampling verzichten".
Zu viel Informationsverluste und auch Artefakte+ Jittering mit FSR. DLSS ist da aber auch kein lupenreiner Joker btw.

1652516597052.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rumpeLson
"Etwas" ist gut. Die Berechnung für FSR 2.0 dauert auf den aktuellen Nvidia GPUs nur halb so lange, wie bei AMD (und DLSS ist nochmals schneller).

Macht man einen Benchmark, bei dem eine Nvidia und eine AMD GPU gleichauf liegen, sorgt das Hinzuschalten von FSR dafür, dass Nvidia am Ende schneller ist (wenn kein CPU Limit dazwischen kommt).


Gut, in absoluten Zahlen macht das nicht so viel aus, da FSR gemessen an der gesamten Renderzeit nur nen geringen Anteil hat. Aber es ist schon kurios, dass Nvidia damit besser zurecht kommt, als die AMD Karten.

Und da es aktuell schon über 150 DLSS Games gibt... ja. circlejerk trifft es ganz gut @Laphonso

Man darf halt nicht vergessen, dass es aktuell nur ein FSR 2.0 Spiel gibt. Bis das DLSS Argument für Nvidia zumindest etwas abgeschwächt wird (qualitativ ist es ja immernoch besser) müssen erstmal genug FSR 2.0 Spiele kommen.
Da wird man also nochmal 1-2 Jahre warten dürfen, bis man FSR in genug Spielen nutzen kann, damit man das DLSS Argument bei Nvidia bei einer Kaufentscheidung geringer gewichten kann.

Das ist ja auch der Punkt, warum ich es kritisch fand, dass AMD erst so spät eine verlgeichbare Lösung veröffentlicht. Es ist ja nicht einfach mit dem Release getan. Die Technik muss auch in den Spielen ankommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
Weil die AMD Karten keine Tensor-Cores haben kostet FSR "mehr Leistung" als wie bei den Nvida Karten. Ich denk mal das bei der neuen Generation von AMD auch Hardware für FSR vorhanden ist.
 
Laphonso schrieb:
Wenn die Option FSR 2 neben DLSS 2 nun ein "weiteres Argument" wird für Nvidia GPUs , ist der circlejerk komplett 😂
Lach...

Noch schlimmer wirds, wennn die Leute herausfinden, dass das "böse" NVIDIA für Entwickler eine Open- Source- Lösung gebaut hat, um alle zukünftigen Upscaling- Verfahren (auch 3rd Party) durch eine einzelne Schnittstelle einbinden zu können und man sogar die unterschiedlichen Verfahren "mischen" könnte....
Das wird für eine weiteren Verbreitung noch einmal den Turbo zünden.

Stichwort "Streamline"
 
  • Gefällt mir
Reaktionen: foo_1337 und Laphonso
@W0dan Ja, auch das war ja Quintessenz des Computerbase Fazits.
Und: FSR muss nicht "besser" sein als DLSS!
Sondern einfach gut genug als Option.
FSR 2.0 ist das, hier, in diesem EINEM Spiel.

Und nun müssen viel VIEL mehr Games kommen.
DLSS und FSR müssen prevalent werden, dann kann man irgendwann auch mal die top 20 FSR und DLSS Games gegeneinanderstellen mit diversen Hardwaregenerationen (bei DLSS ab Turing, natürlich", und DANN kommt noch die Intel Upscaling Lösung, auf die ich ebenso gespannt bin!
 
Wenn der Microsoft Flugsimulator unterstützt wird, BITTE, BITTE, BITTE auch einen VR Test machen.
 
Mich würde mal interessieren ob die Heuristik Parameter bei FSR 2.0 von den Entwicklern manuell getuned werden müssen wie auch bei TAA.
Bei DLSS gibt es keine handkodierte Heuristik mit Parametern, das übernimmt das trainierte Neuronale Netz.

EDIT:
Das DF video ist super interessant, scheinbar hat FSR noch größere Probleme mit transparenten Texturen und Partikeln.
 
Zuletzt bearbeitet:
Was mir abgeht an Info: welche Grafikkarten unterstützen dieses Feature?
 
neuhier08 schrieb:
Was mir abgeht an Info: welche Grafikkarten unterstützen dieses Feature?

The second cavitate is GPU support. According to AMD, there are limits to what FSR 2.0 can do on older hardware. AMD recommends an RX 5700 or RTX 2070 as a baseline for 4K upscaling with FSR 2.0. For 1440p, AMD recommends at least an RX 5600 XT or GTX 1080 for optimal performance, and at 1080p AMD recommends an RX 590 or GTX 1070.

AMD says FSR 2.0 will still work on even older GPUs, but your mileage may vary. Due to FSR 2.0's additional computing requirements on the GPU, you might not get a performance uplift at all when using FSR 2.0 on older GPUs, especially if you try running at higher resolutions. As we showed with our GTX 970, GTX 1080, RX 480, and RX Vega 64 testing, you should expect lower performance gains if you use FSR 2.0 on older hardware.


https://www.tomshardware.com/news/amd-fsr2-deathloop-vs-dlss
 
  • Gefällt mir
Reaktionen: neuhier08
.Sentinel. schrieb:
Lach...

Noch schlimmer wirds, wennn die Leute herausfinden, dass das "böse" NVIDIA für Entwickler eine Open- Source- Lösung gebaut hat, um alle zukünftigen Upscaling- Verfahren (auch 3rd Party) durch eine einzelne Schnittstelle einbinden zu können und man sogar die unterschiedlichen Verfahren "mischen" könnte....
Das wird für eine weiteren Verbreitung noch einmal den Turbo zünden.

Stichwort "Streamline"
lach das ist schlicht nur ein binary loader um nicht gänzlich mit ihrem geschlossenem proprietären sch... im abseits zu laden. AMD und Intel sind OS nur nvidia nicht, dumm gelaufen.
 
janeeisklar schrieb:
lach das ist schlicht nur ein binary loader um nicht gänzlich mit ihrem geschlossenem proprietären sch... im abseits zu laden. AMD und Intel sind OS nur nvidia nicht, dumm gelaufen.
...sprach derjenige, der wahrscheinlich noch nie einen Beitrag für die OS Community geleistet hat.
Einfaches Weltbild. Und klar- In den Augen einiger kann NVIDA per se auch einfach garnichts richtig machen.

Proprietär=Schlecht/Das Böse
Open Source (was im Übrigen auch proprietär sein kann)=Gut/Das Gute

99,99% der Leute, die Open Source Software nutzen, haben überaupt keine Vorteile von der Offenheit.
Da geht es vornehmlich um Prinzipienreiterei und der völlig egozentrischen Hoffnung, dass irgendjemand für einen das geliebte Projekt weiterentwickelt- Natürlich kostenlos.
Alles muss offen und wennmöglich gratis sein, damit die "bösen" Hersteller nicht dem "armen Konsumenten" das Geld aus der Tasche zieht.

AMD- Der Robin Hood der armen Leute, möchte man fast meinen.

Aber dieses Thema berührt das Threadthema wirklich nur mehr am Rande. Hier gehts um die Technik und Vor- bzw. Nachteile von DLSS und FSR. und hier schlägt der proprietäre sch... wie Du ihn nennst, die andere Variante.
Fast alle geben überhaupt nichts drauf, wie der Quellcode aussehen könnte.
Hauptsache das Zeug tut das, wofür es gebaut wurde, genauso wie es für die überwältigende Mehrheit der am Markt befindlichen Software gilt.

Edit:
Zur Antwort unten...
Kindergarten. Es wird nicht mehr besser und führt auch zu nichts...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Millennial_24K, Bademeister69, Affe007 und 2 andere
Du scheinst kein Entwickler zu sein. Es geht darum kontrollieren zu können was in "meinem Projekt" los ist, da brauche ich keine pseudo OS Anbiederung, die nur benötigt wird um nvidias Binary Blackbox rein zu friemeln.

Edit:
Zur Antwort oben...
kopfschüttel OS API für Binary Blob. Das problem hat nvidia ja immerhin erkannt. ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AssembIer
.Sentinel. schrieb:
Umgekehrt- Alle Informationen, die in Ghosting münden, können nicht wirksam als Sample an der richtigen Stelle wirken. Ghosting vermindert also die Rekonstruktionsleistung.
Das ist bei seinem Argument aber nicht der Punkt. Wie auch aus der FSR 2.0 Präsentation hervorgeht, muss eben ein Kompromiss aus Rekonstruktion durch verrechnen vieler Samples und dem verwerfen von Information gefunden werden. Einstellungen, die bessere Rekonstruktion ab Objekt A bewirken, führen unter Umständen zu Ghosting/Smearing an Objekt B. Somit kann man schon davon reden, dass sich eine bessere Rekonstruktion durch stärkerer Neigung zu Ghosting/Smearing erkauf werden kann. Die Rekonstruktion von DLSS wäre also dann die von dir beschriebene "höhere Liga", wenn diese ohne Nachteile erreicht werden würde, was aber nicht der Fall ist. Übrigens zeigen verschiedene DLSS Versionen genau das gleiche Verhalten: Teilweise gibt es ein stabileres Bild mit mehr Artefakten und teilweise das genaue Gegenteil.
 
andronom schrieb:
Das ist bei seinem Argument aber nicht der Punkt. Wie auch aus der FSR 2.0 Präsentation hervorgeht, muss eben ein Kompromiss aus Rekonstruktion durch verrechnen vieler Samples und dem verwerfen von Information gefunden werden. Einstellungen, die bessere Rekonstruktion ab Objekt A bewirken, führen unter Umständen zu Ghosting/Smearing an Objekt B.
Genau deswegen geben einem die Rekonstruktionsbibliotheken Werkzeuge wie Masken und Attributierungen an die Hand, dass der Vorgang bei entsprechenden schwierigken Objekten anders wirken kann.

Nutzt man diese Werkzeuge nicht, kommt es zu entpsrechenden Problemen.
 
Zurück
Oben