Test FidelityFX Super Resolution im Test: AMD FSR kann was, schlägt Nvidia DLSS aber noch nicht

Taxxor schrieb:
Dem möchte ich heftigst widersprechen^^ FSR sieht durch das Kantenflimmern in Bewegung oft sehr viel schlimmer aus, als auf Screenshots, zumindest in den Spielen die es aktuell nutzen.

Terminator habe ich nicht, hab es nur in Anno, Kingshunt und Riftbreaker getestet.
In Riftbreaker empfand ich es nicht als sehr störend, bei den anderen hab ich nur UQ und Q getestet. sehe aber auch nicht die notwendigkeit für balanced und performance.

Taxxor schrieb:
Was die Unterschiede in der Bildqualität betrifft, sähe aber auch der Vergleich zu FSR Balanced, welches in Terminator ca so viel FPS bringt( ca 70%), wie TAA 50% in Metro(ca 75%), nicht so viel besser für FSR aus.

Performance ist schon wichtig, man kann auch ein verfahren entwickeln, dass eine Stunde pro Frame braucht und super aussieht, bringt dann halt nichts.
Wenn man also upscale verfahren vergleicht, dann sollte man neben der Bildqualität auch den Performance boost berücksichtigen, denn beides zählt am Ende.
 
whyme schrieb:
In Riftbreaker empfand ich es nicht als sehr störend, bei den anderen hab ich nur UQ und Q getestet. sehe aber auch nicht die notwendigkeit für balanced und performance.
Gerade in Riftbreaker hat es mich sehr gestört, und das auch nicht in Performance sondern bereits in UQ
 
Mal ne Frage, Checkerboarding eingeführt auf der PS4 pro ist doch vergleichbar mit TAAU oder nicht? Man rendert 50% der Pixel, rekonstruiert temporal Details. Klingt für mich erstmal sehr ähnlich.

Ich frag nur deswegen, weil in dem Fall ja die allermeisten Studios schon seit fünf Jahren mit der Technik vertraut sein sollten. Oder ist das eher so ein Sony Ding, das man ähnlich wie DLSS implementiert?

Da fragt man sich eben, was FSR dann am Markt noch reißen soll. So schön der Upscaler für sich genommen funktioniert, aber gegen andere Verfahren hats ja echt keine Chance, gerade wenn man mit 50% skalierung ordentlich performance rausholen will.
 
Laphonso schrieb:
Fürs Protokoll müssen wir bitte noch festhalten - da wir das auch Nvidia vorgeworfen haben zum DLSS Launch - dass FSR derzeit nicht existiert in den "fps brechen ein" relevanten Games.

In der gesamten Liga der AAA Titel fehlt FSR, bei RDR2 (hier steht DLSS auch noch aus) , bei Cyberpunk, bei den Ubisoft Franchise Titeln (The Division hat auch noch kein DLSS, Watchdogs aber schon).

Während DLSS zumindest bereits mehrere Hände voll an Titeln bedient, finde ich FSR nicht mal dort, wo ich DLSS vermisse.
Dass Anno hier ein "Vorzeigetitel" wurde, ist schon tragisch-komisch. Ich hätte da ja eher einen mainstream fps Killer Titel genutzt, 2,5 Jahre nach DLSS, und zwar "ausgerechnet" dort, in dem insbesondere DLSS absent ist.
Ich gebe Dir vollkommen recht, das "DLSS wird doch von keinem relevanten Spiel unterstützt" von vor einem Jahr, trifft momentan noch viel stärker auf FSR zu.

Aber AMD kann da wenig machen als anklopfen und um Zusammenarbeit bitten. Es sind die Spieleentwickler die entscheiden.
Laphonso schrieb:
Dieses Defizit ist relevanter als die Optimierung, die wird nach und nach auf für FSR folgen wird.
Die Optimierung muss doch auch mit/in den Spielen stattfinden. Und zu früh über ein FSR 2 zu reden könnte einige Spieleentwickler dazu veranlassen, mit der Einbindung zu warten. Unter dem Motto "Wartens wir es ab, dann sparen wir uns Arbeit".
 
  • Gefällt mir
Reaktionen: Laphonso
@Wolfgang Interessanterweise bin ich über den FSR-Test auf einer polnischen Seite gestolpert (mit die beste Hardware-Testseite in PL, oftmals "krank" ausführliche Tests...) und die haben sich die Stromverbrauch-Einsparungen unter FSR genauer angeschaut und ich finde dieser Aspekt sollte in einem Update nachgereicht werden.
Mit FSR lässt sich also @ Ultra Quality bei noch sehr guter Bildqualität (wobei das Flimmern schon negativ auffallen könnte...) und noch guter/akzeptabler Qualität (Quality) merklich Storm sparen...
Man stelle sich vor, bei ähnlicher Bildqualität verbraucht die übertaktete GPU so viel wie @ stock :)

Ja gut, 35-50W Einsparung (UQ-Q), nicht die Welt und bestimmt kompensiert man damit nicht den Mehrverbrauch einer vernünftigen Übertaktung, aber dennoch erwähnenswert und vielleicht einen Extra-Test wert (einmal eine Nvidia und einmal eine AMD nehmen, 3080 und 6800XT; leistungstechnisch passend).

Da ich mir nicht sicher bin ob man einfach Texte aus anderen Tests hier reinkopieren darf, stell ich nur den Link zur Verfügung. Google translate oder deepl macht den Rest.

PL-Test mit FSR Stromverbrauch-Einsparung

Auch würde mich interessieren ob FSR in jedem Szenario Downsamping+RIS überlegen ist (FPS-Zuwachs und Bildqualität)?

In diesem Test @ Techspot hat man festgestellt, das RIS sehr gute Ergebnisse liefert, wenn man von nativer 4k auf 1800p downsamled (ingame 0.7x) und RIS dazupackt um der Unschärfe entgegenzuwirken.

Sweetspot liegt angeblich bei 70-80% resolution scale...

Ob nun FSR (sowohl was den FPS-Boost als auch eine bessere Bildqualität angeht) eine bessere Performance abliefert als 4k @ 1800p + RIS ???
 

Anhänge

  • FSR_geringerer_stromhunger.PNG
    FSR_geringerer_stromhunger.PNG
    72,5 KB · Aufrufe: 252
Zuletzt bearbeitet:
@5hred Diese Einsparungen kommen in dem Fall aber auch nur davon, dass das Spiel einfach immer weiter ins CPU Limit rennt.
Es wird ja auch gesagt, dass es in 1440p und 4K so gut wie kein unterschied beim Verbrauch gab, weil genau das hier nicht passiert.
Solange die GPU in der gerenderten Auflösung noch ausgelastet werden kann, wird auch ihr Verbrauch nicht sinken.

Will man diese Einsparungen also generell mit DLSS oder FSR haben, muss man seine FPS schon selbst limitieren.

Und dass man bei höheren möglichen FPS entsprechend weniger Verbrauch hat, wenn man die FPS manuell fesetsetzt(oder wie in dem verlinkten Fall die FPS durch die CPU limitiert werden), ist ja logisch.

Solange die GPU aber die FPS auch weiterhin voll auf den Schirm bringen kann, sinkt auch der Verbrauch nicht.

Hier mal ein Vergleich mit und ohne Limiter
Screenshot 2021-06-28 000912.png


Wie man sieht, hat man mit FSR Performance hier die Chance auf etwas mehr als die doppelte Leistung bei gleichem Verbrauch, oder eben auf die gleiche Leistung bei halbem Verbrauch.
Ergänzung ()

5hred schrieb:
Auch würde mich interessieren ob FSR in jedem Szenario Downsamping+RIS überlegen ist (FPS-Zuwachs und Bildqualität)?

In diesem Test @ Techspot hat man festgestellt, das RIS sehr gute Ergebnisse liefert, wenn man von nativer 4k auf 1800p downsamled (ingame 0.7x) und RIS dazupackt um der Unschärfe entgegenzuwirken.

Sweetspot liegt angeblich bei 70-80% resolution scale...
Das ist in der Tat so, siehe meinen Vergleich hier.
Und das ist 1440p, in 4K wäre das Ergebnis noch besser.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA
Also ist FSR eine brauchbare Weiterentwicklung und ein Fortschritt zu RIS (was ja nur ein Sharpening-Tool ist).

WAIT, habs missverstanden. Erst gecheckt, nachdem ich den Link geprüft habe:

Also ist eventuell normales downsampling + RIS besser in der Bildqualität als die FSR-Lösung....
Hoffe, AMD fixt das mit FSR-Feintunung...Wäre ja keine gute Werbung, wenn FSR RIS unterlegen bleibt (Bildqualität, denn von der Performance sollte FSR mehr FPS bieten als DS+RIS, korrekt?
Du und andere haben schon mit RIS als Zugabe getestet und bleibt es bei den 10% @ RIS oder muss man von Spiel zu Spiel schauen wie man RIS dosieren sollte um die Unschärfe von FSR wegzubügeln?

@Taxxor danke für deinen input zu diesem Thema; deine Erkenntnisse sind echt hilfreich und ergänzend zum CB-Test. Gummibärchen geht raus ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA
5hred schrieb:
Also ist FSR eine brauchbare Weiterentwicklung und ein Fortschritt zu RIS (was ja nur ein Sharpening-Tool ist).
Das würde ich unterstreichen, wenn man die Schärfe hier eben auch in den Spielen einstellen könnte. Ansonsten ist auch hier das Bild nach wie vor besser, wenn man zusätzlich zu FSR einfach nochmal mit RIS drüber geht.
Das sollte nicht notwendig sein, da man den Nutzern auch die option bieten kann, die Stärke der in FSR integrierten Schärfung zu bestimmen.
Dadurch verhindert man dann auch, dass Dinge zweimal geschärft werden(einmal von FSR, einmal von RIS), was unter Umständen auch unschöne Effekte haben kann.


5hred schrieb:
Du und andere haben schon mit RIS als Zugabe getestet und bleibt es bei den 10% @ RIS oder muss man von Spiel zu Spiel schauen wie man RIS dosieren sollte um die Unschärfe von FSR wegzubügeln?
Ich habe hier ja ohne FSR 100% genommen, einfach um zu schauen ob ich damit an die Schärfe ran komme, die FSR am Ende bietet. Das war der Fall.
Wenn ich RIS allerdings zusammen mit FSR nutze, dann hab ich es meistens zwischen 30 und 50%, genau wie ich es ohne FSR auch standardmäßig nutze, global eingestellt ist 50% für alles, egal ob mit oder ohne FSR.
Je nach Spiel dreh ich dann auch schon mal etwas runter.
 
  • Gefällt mir
Reaktionen: NMA
Am meisten stört mich das aliasing von Linien und Texturen werden ja auch nicht geglättet (bestes Beispiel der fiese Maschendrahtzaun)...das lob ich mir an Supersampling...aber wieder ein anderes Thema (bin da leider raus, soviele Methoden, SSMA, whatever...)

Würde mich freuen, wenn AMD da eine Lösung bzgl. des aliasing findet.....
DLSS next-revison steht ja bestimmt schon vor der Tür und da wird bestimmt geglättet wie Weltmeister...
Wenn Nvidia noch das Problem mit dem Ghosting wegen den move vectors lösen kann, dann können die mit DLSS ein Bild liefern, welches dem nativen auch in Bewegung überlegen ist...und das wäre etwas, was man sich vor noch einiger Zeit gar nicht zu träumen gewagt hat (weil lächerlich, ha, besser als nativ, lol...)
 
5hred schrieb:
Wenn Nvidia noch das Problem mit dem Ghosting wegen den move vectors lösen kann
Ist in Version 2.2 schon stark verbessert worden.


Was das Glätten angeht, FSR arbeitet halt komplett anders, daher wird man das Problem mit z.B. Zäunen auch so nicht beheben können.
Während DLSS 2.2 damit überhaupt kein Problem hat, weil man hier eben nicht nur auf ein einziges Bild zurückgreift und daraus was machen muss.
 
whyme schrieb:
Wie verhalten sich die FPS bei FSR in Terminator? Sehe da nur FPS von Metro.

Wie sieht das ganze in Bewegung aus? Temporäre verfahren sind gut bei Standbildern, haben aber deutlich mehr Probleme bei Bewegung bzw. wird viel Arbeit benötigt um Artefakte zu beheben. FSR sieht bei Bewegung und Standbildern gleich gut/schlecht aus.

Ich habe bei meinem Test in 1440p ca
50 FPS Nativ gehabt. Mit FSR Ultra waren es ca 70 FPS. Und ich muss sagen das es wirklich gut aussieht. Man sieht praktisch keinen Unterschied. Also ich müsste wirklich lange suchen.
Und Kantenflimmern kann ich nicht bestätigen. In Bewegung ist auch alles sehr sauber.
 
Jesterfox schrieb:
Jo, das mit "meinen Spielen" ist bei mir momentan so ein Punkt sowohl bei DLSS als auch bei FSR... das einzige Spiel das zumindest DLSS bietet und es gebrauchen könnte ist Cyberpunk... bei FSR käme Riftbreaker in Frage, aber das braucht es nicht wirklich (außer Raytracing zieht bei dem Spiel dann noch entsprechend an, kann ich mit meiner Seven aktuell nicht testen)

Wobei FSR natürlich ne coole Sache für Notebooks mit ner APU ist... plane da ja mir demnächst n neues zu kaufen (wobei... kann Carrizo nicht auch FSR? aber bei dem gibt eh so langsam die CPU auf was die Performance angeht...)

Verstehe es sowieso nicht warum immer auf Boliden getestet wird.
Beide Techniken sehe ich eher im Mid und Lowrange Bereich. Um alter Hardware ein zweites akzeptables Leben zu gönnen.
RT lohnt sich einfach immer noch nicht.
 
Pleasedontkill schrieb:
Verstehe es sowieso nicht warum immer auf Boliden getestet wird.
Beide Techniken sehe ich eher im Mid und Lowrange Bereich. Um alter Hardware ein zweites akzeptables Leben zu gönnen.
RT lohnt sich einfach immer noch nicht.
Funfact, NVIDIA will ja eigentlich gar nicht das es in der Low/Midclass kommt. Man würde ja das eigene High-End Portfolio kannibalisieren, wenn eine 1050/1060 plötzlich wie eine 2060 performt?
Daher gibts DLSS erst ab 2060 aka 400-500€.
Dann kommt plötzlich AMD daher und macht für alle Low Budget Gamer so ein Geschenk, weil ehrlich, welcher Max Mustermann fängt an selbst rumzubasteln?
Aber recht hast du, auch die Stromeinsparung finde ich im Sommer interessant.
Den das muss ja alles gekühlt werden und mancher hats gerne ohne 200€ Wakü ruhig.
 
  • Gefällt mir
Reaktionen: Pleasedontkill
Draco Nobilis schrieb:
Man würde ja das eigene High-End Portfolio kannibalisieren, wenn eine 1050/1060 plötzlich wie eine 2060 performt?
Daher gibts DLSS erst ab 2060 aka 400-500€.
Seit wann ist eine 2060 High-End? Das ist die gleiche Klasse wie die 1060 auch, und deren UVP lag bei 369€ mit Marktpreisen nach Relase zwischen 300 und 350€ (Die 1060 FE kam für 319€ UVP)

Und nochmal, ohne Tensor Cores funktioniert DLSS halt nicht, die 1060 könnte es gar nicht nutzen.
 
  • Gefällt mir
Reaktionen: foo_1337
Taxxor schrieb:
Seit wann ist eine 2060 High-End? Das ist die gleiche Klasse wie die 1060 auch, und deren UVP lag bei 369€ mit Marktpreisen nach Relase zwischen 300 und 350€ (Die 1060 FE kam für 319€ UVP)

Und nochmal, ohne Tensor Cores funktioniert DLSS halt nicht, die 1060 könnte es gar nicht nutzen.
Das ist dann natürlich sehr praktisch dann keine Tensor Cores unterhalb der 2060 anzubieten^^
Es ist ja nicht so, als ob es genau da maximal helfen würde mit DLSS ran zu gehen.
Es hilft einer neuen Technologie bei der Verbreitung auch ungemein wenn sie Stand heute, mehrere Jahre nach Release, 80% der Steam Nutzer nicht haben.
Das hat bei PhysiX schon so gut geklappt, das man das direkt nochmal machen muss.
Bin eigentlich eher nicht der Trickle-Down Theorie Vertreter.

400-500€ sind aber für Leute außerhalb des Forums und der Technikbegeisterung aber eher auch nicht realistisch.

Also ja, außerhalb der Foren kann 2060 schon "High-End" bedeuten.
Vor allem weltweit gesehen. Es gab Zeiten, da kostete High-End nicht 3000€
 
Pleasedontkill schrieb:
Verstehe es sowieso nicht warum immer auf Boliden getestet wird.
Beide Techniken sehe ich eher im Mid und Lowrange Bereich. Um alter Hardware ein zweites akzeptables Leben zu gönnen.
RT lohnt sich einfach immer noch nicht.

Gerade im Low End Bereich wenn man bei 1080p möglichst viel Leistung herausholen möchte ist FSR mit Abstand am schwächsten und die denkbar ungünstigste Lösung.

Das was alter Hardware ein zweites Leben einhaucht ist wenn dann TAAU.
FSR eher weniger.

Aber wir wiederholen uns mittlerweile ständig. Von mir solls das zu dem Thema dann auch gewesen sein.
 
  • Gefällt mir
Reaktionen: ZeroStrat, foo_1337 und Taxxor
Draco Nobilis schrieb:
Das ist dann natürlich sehr praktisch dann keine Tensor Cores unterhalb der 2060 anzubieten^^
Es ist ja nicht so, als ob es genau da maximal helfen würde mit DLSS ran zu gehen.
Ja, da hätte Nvidia wirklich nachdem man DLSS fertig hatte nachträglich alle 1060er zurückrufen und noch schnell Tensor Cores in den Chip einlöten sollen....

DLSS wurde in erster Linie dazu gemacht, um Raytracing spielbar zu machen, daher finden sich die dafür benötigten TensorCores eben auch nur auf den RT fähigen Karten.
Ergänzung ()

Draco Nobilis schrieb:
400-500€ sind aber für Leute außerhalb des Forums und der Technikbegeisterung aber eher auch nicht realistisch.
Nochmal, 2060 UVP 369€, 1060 UVP 319€

Draco Nobilis schrieb:
Vor allem weltweit gesehen. Es gab Zeiten, da kostete High-End nicht 3000€
Kostet es auch heute nicht, die 3080 ist High End und hat eine UVP von 700€, den aktuell kaputten Markt mit den Preisen zur Zeit der 1060 zu Vergleichen, ist Unsinn, denn dafür können die Hersteller auch nichts.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bademeister69 und foo_1337
Taxxor schrieb:
Sag mal.. dein ernst? Ach, dein Nick, ja ok, Diskussion beendet. Sollen andere für sich entscheiden...

Hir also mein Letzter Kommentar zu deinen Unsinn:
UVP spielt keine Rolle, Straßenpreise spielen eine Rolle.
UVP hat die 3080 noch nie 700€ gekostet.

Es ist inzwischen sogar klar das nicht mal die Shops zu UVP einkaufen können.

NVIDIA hätte ja auch nen 2050/2030 Chip machen können. Haben Sie aber nicht.
Diese hätten alles bis 2070 überflüssig für alle Normalos mit FHD gemacht. Vor allem wäre die Halbwertszeit dann bei den entsprechenden Karten viel viel höher als NVIDIA das möchte.
Der Speicher ist doch nicht aus Spass so knapp. Sondern weil mit der nächsten Konsolengen direkt alle Karten Schrottreif werden.
Mir ist klar das die meißten Null Ahnung von Markt im Sinne der Hersteller haben, aber denk doch etwas mit.
Ich meine wieviel PhysiX, CUDA und GSYNC braucht es noch um zu erkennen wie NVIDIA Features nutzt?

Um zum Thema zurückzukommen.
AMD bietet es jetzt für "alle", Pech für NVIDIA, auch wenn deren Lösung klar besser für die Zukunft ist.
Schlicht ca. 80% der Landschaft (Steam) haben keine Hardware für DLSS.
 
Draco Nobilis schrieb:
UVP spielt keine Rolle, Straßenpreise spielen eine Rolle.
UVP hat die 3080 noch nie 700€ gekostet.
Stimmt, die UVP lag einen Euro drunter, 699, für die man sie auch zu Release teilweise kaufen konnte.
Das gleiche gilt auf AMDs Seite, eine 6800XT bekommt man auch regelmäßig auf deren Webseite für ~650€, wenn man zur passenden Zeit reinschaut.

Die Differenz zu den Straßenpreisen landet komplett in den Taschen der Händler, AMD verdient an einer für 1300€ auf Mindfactory verkauften 6800XT kein bisschen mehr als an einer für 650€ verkauften 6800XT aus ihrem Shop.

Wären Corona und der Mining Boom 2016 passiert, hättest du dann 2018 damit argumentiert, wie viel günstiger Nvidia doch geworden ist, weil der Straßenpreis einer 2060 bei 350€ liegt und der der 1060 damals bei 500€ lag?
 
  • Gefällt mir
Reaktionen: foo_1337
Taxxor schrieb:
AMD verdient an einer für 1300€ auf Mindfactory verkauften 6800XT kein bisschen mehr als an einer für 650€ verkauften 6800XT aus ihrem Shop.
Ich würde sogar davon ausgehen dass sie an der 650€ Karte aus ihrem Shop mehr verdienen...
 
  • Gefällt mir
Reaktionen: foo_1337 und Taxxor
Zurück
Oben