Test FidelityFX Super Resolution im Test: AMD FSR kann was, schlägt Nvidia DLSS aber noch nicht

Mich wuerde ja interessieren, ob sich FSR und DLSS in Reihe schalten lassen und was sich damit erreichen ließe. :utpulsegun:
Gab's da schon irgendwelche Statements seitens nVidia?
 
NVIDIA May Cry schrieb:
Also wenn ich Probleme habe Division 2 mit 144 hz und Ultra Settings zu spielen. Ist es sicherlich besser individuell an Schatten, Reflexionen und weiß der Geier was rumzuschrauben bis ich meinen persönlichen Optik / Hz sweetspot gefunden habe. Das ich durch Up Downsampling getrickse im Zusatz oder alleinig etwas schöneres geliefert bekomme, wage ich stark zu bezweifeln.

Hier wurde dazu mal ein schöner Vergleich in Godfall gemacht, der zeigt, wie weit man die Grafik runterschrauben müsste, um nativ auf die gleiche nFPS wie mit FSR zu kommen und wie das dann im Vergleihc zum FSR bild aussieht.

 
  • Gefällt mir
Reaktionen: iSight2TheBlind, Unnu, Ratlos83 und 5 andere
Taxxor schrieb:
Auf der anderen Seite regt man sich auf reddit die ganze Zeit über Digital Foundry auf, da sie als einzige bekannte Reviewer FSR runtermachen, während alle anderen sagen, dass es bis zum Quality Mode gut ist ^^
Bezüglich Digital Foundry habe ich auf Reddit diesen Thread gefunden:
https://www.reddit.com/r/Amd/comments/o6skjq/digital_foundry_made_a_critical_mistake_with/

Darin wird beschrieben, dass DF paar Fehler in seinen Vergleichen gemacht hat bezüglich dem Depth of Field und deswegen FSR schlechter aussieht als mit TAAU.
 
  • Gefällt mir
Reaktionen: Unnu und cbmik
ZeroStrat schrieb:
Gerne, passt. Für solche interessanten Detailvergleiche (Zoom-Ins) hatte ich keine Zeit mehr.

Klasse :daumen:
Ich nehm eben immer gerne kleine Ausschnitte, weil die dann garantiert sauber 1:1 im Browser bzw. auf dem Display dargestellt werden, so als würde man selber spielen. (zumindest wenn der Browser Zoom auch auf 100% steht)

Finde das bei den riesigen 4K Screenshots gerade jetzt bei Computerbase immer etwas problematisch.
Wenn der User die Bilder auf seinem 1080p oder 1440p Display betrachtet (oder auf 4K nicht im Vollbild) und der Bildviewer die großen Bilder kleiner zoomt, damit sie aufs Display passen, wird man eben niemals nen Unterschied zwischen FSR Ultra und FSR Performance sehen können, weil der Unterschied im Downsampling untergeht. Damit wäre der Bild Eindruck völlig falsch und hätte nichts mit dem zu tun, was man im Spiel sieht.

Finde das allgemein ein Problem zum Haareraufen, wenn dann Leute Videovergleiche z.B. auf dem Smartphone ansehen.... :p
Dass man selbst beim Bilder betrachten so vieles falsch machen kann... ist schon irgendwie ärgerlich...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: ComputerJunge und ZeroStrat
perfekt auch für die 400er/500er Karten

nur dumm dass auch mit diesem Treiber wie mit jedem anderen AMD Treiber aus dem Jahre 2021 der driver timeout, restored wattman settings nicht lange auf sich warten lässt

AMD hat halt null bock auf support für alte Karten
 
ZeroStrat schrieb:
@B3nutzer Hab deine Bilder mal auf Twitter gepostet, prompt hat DigitalFoundry mit mir "geschimpft". :D

Interessant :)

Aber ich bin mir gerade nicht ganz sicher, ob deine Beschreibung missverständlich sein könnte.

Ich hab ja links immer nativ und rechts einmal FSR oder DLSS.
Du schreibst FSR links und DLSS rechts.
Das passt für die Reihenfolge der Bilder aber nicht für die Bilder selbst :D

Nimmt man das erste Bild, dann würde man denken, Nativ ist FSR und das FSR Bild ist DLSS Q.

Oder steh ich jetzt aufm Schlauch?

Ich würds vielleicht irgendwie so Formulieren:

Bild1 (native vs FSR UQ)
Bild2 (native vs DLSS Q)


Dass FSR keine "reconstruction" macht wie Digital Foundry sagt ist ein valides Argument. Trotzdem steht FSR in Konkurrenz zu DLSS und wird den selben Usecase haben. Daher: What you see is what you get. Ganz einfach...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: cbmik und Mracpad
B3nutzer schrieb:
Bild1 (native vs FSR UQ)
Bild2 (native vs DLSS Q)
Ja, so wäre es besser gewesen. Aber man sieht ja auch, was was ist oder kann es sich zumindest denken. Leider kann man Tweets nicht editieren.
Ergänzung ()

B3nutzer schrieb:
Dass FSR keine "reconstruction" macht wie Digital Foundry sagt ist ein valides Argument. Trotzdem steht FSR in Konkurrenz zu DLSS und wird den selben Usecase haben. Daher: What you see is what you get. Ganz einfach...
AMD sagt selbst über FSR:
"Advanced Edge Recontrustion Algorithm recreates source image at high resolution"
"Sharpening further improves quality by enhancing texture detail"
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: B3nutzer
Balikon schrieb:
Open Source schließt weder Pflege noch Investitionen aus. Es ist ja z.B. wohl kaum anzunehmen, dass es AMD jetzt dabei belassen wird und nie mehr Geld bzw. Manpower darin investiert.
Leider ist das Wunschdenken, denn gerade AMD hat eine lange Historie fallengelassener Techniken. Im Gegenteil sogar, AMD bietet es als Open-Source an, um so wenig Arbeit wie nötig in FSR zu investieren.

Der Ball wird quasi den Entwicklern zugespielt und AMD ist dann aus dem Schneider.

Balikon schrieb:
Im Gegenteil: Wenn eine Open Source Lösung auf der eigenen Umgebung gut funktionieren soll, wird eine Firma darin Investieren, insbesondere, weil man sich gerade wegen Open Source in einer Konkurrenzsituation befindet, in der man sich von Wettbewerbern abheben möchte.
Sagen wir es doch, wie es in Wirklichkeit ist:
-AMD hat zu wenig Marktmacht, um eigene Features durchzusetzen. Daher müssen sie ihre Technik verschenken.

Wenn Open-Source wirklich in einer Konkurrenzsituation abheben könnte, wären wir alle auf Linux und nicht auf Windows. Bei FSR zählt hingegen aber nur "billig = will ich".

Balikon schrieb:
Apropos Wettbewerb: Dass gerade die User von GTX-1XXX-Karten ausgerechnet von AMD mit FSR beglückt werden, könnte Nvidia beflügeln, DLSS auch in niedrigeren/älteren Klassen funktionsfähig zu machen.
Das ist meiner Meinung nach mehr Wunschdenken und Placebo-Effekt von Leuten, die nicht aufrüsten können oder wollen. Die meisten Modelle davon haben eh nicht genug Performance für 4k oder gar 1440p.

Bei FSR sieht nur Ultra Quality gut aus. In jedem Review wird die Technik bei 1080p als nicht ausreichend betitelt. Vor allem mit schwacher Hardware und FSR wird man kaum darüber hinaus kommen.

Ich frage mich deshalb ernsthaft, weshalb so viele Nutzer plötzlich Wunder erwarten.

Balikon schrieb:
Das positive Feedback vieler GTX-Nutzer hier im Forum ist auffällig. Denen dürfte auch die schwächere BQ egal sein, denn sie haben ja nix anderes. Wenn ich Nvidia wäre, würde ich das schleunigst ändern.
Nvidia DLSS liefert bessere FPS und Bildqualität.
AMD FSR liefert nur bessere FPS und schreddert prinzipiell die Bildqualität.

Was soll Nvidia da bitte tun? Etwa Qualität senken?

Wie ich bereits sagte, ist FSR nur ein Lückenfüller. Sobald die aktuellen Grafikkarten wieder zu erträglichen Preisen erhältlich sind, fängt die große Upgradeorgie an. Dann ist der FSR-Spuck über Nacht vorbei.
-> Wer dann mit den neuen Karten trotzdem FSR mit Abstrichen nutzt, braucht mir dann nie wieder von wegen "Bildqualität" kommen!!!

Auf Forenmeinungen sollte man außerdem nicht zu viel geben. Der allgemein Voreingenommenheit ist in vielen Fällen einfach zu einseitig.

Balikon schrieb:
Wer ein Spiel nur wegen einem Technikfeature kauft, hat die Kontrolle über sein Leben verloren.
Beleidigungen werden deine Argumente nicht zugünglicher machen. So weit würde ich nicht gehen!

Mich stört eher wie wenig hochkarätige Titel FSR soweit anbietet. Außer aktuell Anno und angekündigt Balduar's Gate III und Farcry 6 ist da alles Schrott.

Wen interessieren diese 0815-Titel, die niemand kennt? Das haut mich eigentlich um! Wenn das so weiter geht und kaum Spiele unterstützt werden, ist FSR eine regelrechte Todgeburt.

Balikon schrieb:
BTW, ich möchte nicht wissen, wieviele BF-Kopien zum RTX-Release nur wegen RTX über die Theke gegangen sind.
Hier gibst du RTX zu viel Kredit. Battlefield hat genauso seine Fanboy-Jünger wie Call of Duty. Die Reihen werden von immer denselben Leuten gekauft, egal wie gut oder schlecht der aktuelle Ableger ist.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
FSR ist ja auch kein AA. Klar, dass dann Aliasing nicht weniger wird.
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi und .Sentinel.
Gewuerzwiesel schrieb:
Mich wuerde ja interessieren, ob sich FSR und DLSS in Reihe schalten lassen und was sich damit erreichen ließe.
Was soll das bringen, außer das Bild eher zu verschlechtern, weil man 2x mit reduzierter Auflösung rendert und dann hochrechnet?
 
@mibbio Man kann ja noch VSR/DSR dazu nehmen und dann halbe auflösung zwei mal verdoppel und dann wieder halbieren :daumen:
 
DOTA 2 scheint es übrigens wirklich mit einem Slider statt mit Menüpunkten zu machen, ich lade mir das gleihc auch mal runter um zu schauen.
So ist es natürlich auch theoretisch möglich, FSR mit 85% der Auflösung zu nutzen, wenn man z.b. nur etwas Performance braucht, statt der 75% die durch Ultra Quality genommen werden
 
  • Gefällt mir
Reaktionen: up.whatever, rumpeLson und foo_1337
Hardware_Hoshi schrieb:
Sagen wir es doch, wie es in Wirklichkeit ist:
-AMD hat zu wenig Marktmacht, um eigene Features durchzusetzen. Daher müssen sie ihre Technik verschenken.

Wenn Open-Source wirklich in einer Konkurrenzsituation abheben könnte, wären wir alle auf Linux und nicht auf Windows. Bei FSR zählt hingegen aber nur "billig = will ich".
LOL
Und was hat bitteschön NV in den letzten Jahren mit all seiner Marktmacht durchgesetzt ?
Gsync : fehlanzeige
DLSS : gibt es nur für Tensor core Karten..Fehlanzeige
Physix : Fehlanzeige..
Bei NV gibt es statt dessen immer nur proprietären Rotz , der zu höheren Kosten geführt hat und dadurch nicht
in die Breite geht.

Durchgesetzt haben Sie lediglich höhere Preise und das hilft nur NV und seinen Aktionären aber den Gamern nicht.

Du tust echt so, als hätte NV etwas Tolles für die gamer community bewirkt. Nix haben sie.. aber rein gar nix.
Sie haben ein gut funktionierendes Marketing Team, die es verstanden haben mit buzz words wie Deep Learning blabla und Raytracing Kunden zu fangen (und die Produkte sind als solches auch die letzten Jahre besser gewesen als von AMD, das stimmt). DLSS war am Anfang nur Rotz und Raytracing wird wie eine Sau durch jedes Dorf getrieben, in der Hoffnung das etliche Bauern hinterher laufen.
 
Hardware_Hoshi schrieb:
Das ist meiner Meinung nach mehr Wunschdenken und Placebo-Effekt von Leuten, die nicht aufrüsten können oder wollen. Die meisten Modelle davon haben eh nicht genug Performance für 4k oder gar 1440p.
Und doch ist 1440p und sogar auch 4k Grafik nicht erst seit Ampere / Turing und RDNA(2) ein Thema, sondern war bereits zu Zeiten von Pascal schon sehr lange Zeit ein Thema...

Wie kommt es eigentlich, dass der vorherigen GPU Generation immer alles mögliche abgesprochen wird, kaum dass die Folge Generation da ist ...?
 
  • Gefällt mir
Reaktionen: cbmik
catch 22 schrieb:
Wie kommt es eigentlich, dass der vorherigen GPU Generation immer alles mögliche abgesprochen wird, kaum dass die Folge Generation da ist ...?
Naja, weil sich parallel zur Folgegeneration eben die Spiele auch weiterentwickeln.

Das tun sie nur etwas langsamer als die GPUs und das führt dazu, dass man beim Erscheinen neuer GPUs mit diesen erstmal ne Auflösungsstufe höher gehen könnte, 2-3 Jahre später aber in dieser Auflösung schon wieder Probleme bekommen kann.
Ja, mit der 1080Ti war 4K ein Thema, aber nur bezogen auf die Spiele die eben 2015/2016 rauskamen und dann mit der 2017er Karte in 4K ganz gut gespielt werden konnten.
Spiele, die dann aber 2018/2019 rauskamen, degradierten eine 1080Ti dann wieder mehr zu einer 1440p Karte
 
Also ich konnte mit meiner 1080TI auch im Jahr 2020 ganz gut in 2160p spielen
 
BTW hier wurde ein sehr detaillierter Image Slider für Dota erstellt, bei dem FSR in 10% Schritten eingestellt und auch RIS einmal mit 10% und einmal mit 60% drübergelegt wurde
https://imgsli.com/NTg3MTE

Wenn ich mir da z.B. den Unterschied von Native + 10% RIS und FSR 50% + 60% RIS anschaue, dann ist es sehr schwer, hier einen Unterschied zu sehen, selbst in einem Slider Bild, und das bei halber interner Auflösung und damit vmtl doppelter Framerate.

Auch interessant, wie es dort in den Optionen gelöst wurde. Man hat den Renderscale Slider, der vorher schon drin war, einfach genau so beibehalten und dann nur eine Checkbox für FSR drunter gesetzt
Ergänzung ()

bad_sign schrieb:
Also ich konnte mit meiner 1080TI auch im Jahr 2020 ganz gut in 2160p spielen
Und ich würde sagen dass meine 6800XT für 1440p ausreicht, aber ich nicht auf 2160p damit gehen wollen würde ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu und rumpeLson
F4711 schrieb:
Gsync : fehlanzeige
Gsync ist für Enthusiasten die überlegene Technik
F4711 schrieb:
DLSS : gibt es nur für Tensor core Karten..Fehlanzeige
...und ist inzwischen in allen großen Engines lauffähig...
Zudem sind sie Impulsgeber dafür, dass so etwas wie ein FSR entwickelt wurde.
F4711 schrieb:
Physix : Fehlanzeige..
Über 700 Titel laufen mit Physx
F4711 schrieb:
Bei NV gibt es statt dessen immer nur proprietären Rotz , der zu höheren Kosten geführt hat und dadurch nicht
in die Breite geht.
Wenn Du an der Entwicklungsfront stehst, wirst Du proprietär entwickeln müssen, da noch keine einheitlichen Standards dafür existieren. Wann geht das mal in die Köpfe rein?
F4711 schrieb:
Durchgesetzt haben Sie lediglich höhere Preise und das hilft nur NV und seinen Aktionären aber den Gamern nicht.
Was verdient NVIDIA denn an einer GPU? Die Geschäftszahlen sind doch für jeden einsehbar und dort kann man sehen, dass die Marge von NVIDA schon seit Ewigekeiten bei um die 30% liegt.
Sie sind also KEIN Preistreiber. Genausowenig wie AMD.

F4711 schrieb:
Du tust echt so, als hätte NV etwas Tolles für die gamer community bewirkt. Nix haben sie.. aber rein gar nix.
....damit outest Du Dich insofern, als dass Du damit beweist, Dich mit den Innvationen der Firma nicht auseinandergesetzt zu haben.
Und das wiederum ist das Indiz dafür, dass Dein Post einfach ein hilfloses Bashing ist.
Warum Du das machst, weisst wohl nur Du selbst.

F4711 schrieb:
Sie haben ein gut funktionierendes Marketing Team, die es verstanden haben mit buzz words wie Deep Learning blabla und Raytracing Kunden zu fangen
Ja- Weil zumindest die informierten Kunden begriffen haben, was für ein heisses Eisen NVIDIA da angefasst hat und wie wichtig das für eine zukünftige Entwicklung des Renderings sein wird.
F4711 schrieb:
DLSS war am Anfang nur Rotz
Nein- Es war nur eine weitere Option ein Upscaling durchzuführen. Also Performance gegen Qualität zu tauschen.
F4711 schrieb:
und Raytracing wird wie eine Sau durch jedes Dorf getrieben, in der Hoffnung das etliche Bauern hinterher laufen.
Die dümmsten Bauern haben bekanntlich die größten Kartoffeln....
 
  • Gefällt mir
Reaktionen: adAstra, iSight2TheBlind, PeriQue1337 und eine weitere Person
Taxxor schrieb:
degradierten eine 1080Ti dann wieder mehr zu einer 1440p Karte
Was er den Karten aber auch abspricht.
Versehentlich durch einen Formulierungsfehler / einem verwechseln der Reihenfolge in der Auflistung (gemeint war wohl erst 1440p und dann das "gar 4k"), sogar in größerem Maße.

Ähnliches konnte man bei in den Foren aber auch z.B. bei der 2070 (Super) beobachten. Eine wunderbare, wenn auch chronisch überteuerte Karte für 1440p, die auch Heute noch für 1440p ausreichend ist. Kaum aber ist Ampere da, reicht die Performance höchstens noch für FHD, weil die Performance der einer 3060 gleicht, und "eine xx60 konnte ja nie mehr als FHD!!!"
Natürlich stimmen nur wenige solch ein Lied an... aber es wird gesungen, in den Foren verbreitet und fließt gelegentlich bei den Kaufempfehlungen für Hardware ein mit einem engen Budget mit ein, was mir immer wieder die Zehennägel aufrollen lässt.
 
  • Gefällt mir
Reaktionen: adAstra
Zurück
Oben