Test FidelityFX Super Resolution im Test: AMD FSR 2.0, 1.0 und Nvidia DLSS im Vergleich

WebBeat84 schrieb:
Wenn Nvidia nicht schnell was einfällt sind die wie Intel bei CPUs bald obsolet. AMD macht alles in allen Bereichen richtig.
Too soon ;) Mit 79% marketshare hat Nvidia durchaus noch nicht den Stress.
 
Laphonso schrieb:
Die Weichenstellung erfolgt im Herbst mit den neuen GPUs. Und DLSS 3.0 und der Frage, ob das noch einen weiteren Schritt vorwärts macht oder doch nur ein DLSS 2.5 ist.
Ich will Dir ja nicht Deine Illusionen rauben, aber ein DLSS 3.0 ist vorerst nicht in Sicht, esseidenn NVIDIA vollführt einen Marketing- Stunt und wählt eine Bezeichnung 3.0, ohne dass es einen wichtigen Meilenstein gäbe.

Die Möglichkeiten und der Funktionsumfang der aktuell erhältlichen DLSS Bibliotheken werden von Entwicklern schon kaum genutzt und die Funktion oft nur schlampig integriert.
Das wird sich auch mit einer höheren Versionierung schwer beseitigen lassen.

Einen Fortschritt könnte ich mir dahingehend vorstellen, dass NVIDIA eine KI integriert, die Objekttypen unterscheiden kann und dann automatisch mit entsprechenden Behandlungsmasken versieht.

Dann wäre das Ghosting- Problem, welches NVIDIA plagt, weil Entwickler es nicht hinkriegen (zeitlich) entsprechende Objekte zusätzlich mit Flags zu versehen erstmal obsolet. Auch die Nutzung von 3d motion- vectors sollte grundsätzlich bei einigen verbleibenden Problemchen helfen.

Hilft aber alles nichts. Sowohl bei NVIDIA, als auch AMD muss der Entwickler mitmachen und Arbeit investieren um den Titel entsprechend sauber für FSR&DLSS vorzubereiten.
Wenn nun grundsätzlich aber einen 100% Möglichkeit bezüglich der Install- Base besteht, dass jemand die Funktion nutzen kann, dann werden die Entwickler auch eher angehalten sein, die Features sauber zu integrieren.
 
  • Gefällt mir
Reaktionen: Markenprodukt, Fuchiii, F4711 und 3 andere
.Sentinel. schrieb:
Ich will Dir ja nicht Deine Illusionen rauben, aber ein DLSS 3.0 ist vorerst nicht in Sicht,
Nach dem techpowerup Artikel wähne ich Jensen Huang hier mit einer neuen ..."Priosetzung" ;)
Da wir die dritte "RTX" Generation erhalten, lehne ich mich aus dem Fenster und sage, dass mit Lovelace im September auch passend DLSS 3.0 mit "next sophisticated AI" blabla etc. präsentiert wird.
 
  • Gefällt mir
Reaktionen: anappleaday und .Sentinel.
.Sentinel. schrieb:
Einen Fortschritt könnte ich mir dahingehend vorstellen, dass NVIDIA eine KI integriert, die Objekttypen unterscheiden kann und dann automatisch mit entsprechenden Behandlungsmasken versieht.
Aus früheren Postings:
Meine Prognose für DLSS 3 ist ja, dass dann FrameRateTarget und QualityTarget miteinander verknüpft werden, weil der Einfluss der temporalen Komponente so weit gewachsen sein wird, dass alles andere keinen Sinn mehr hätte.
Also dann würde der DLSS-Algorithmus sehr davon abhängig sein, sowohl von vielen Elementen Informationen zu der Bewegung zu erhalten, (hohe Renderres) als auch viele Aktualisierungen der Bewegung (hohe Framerate) zur Verfügung zu haben. Dazwischen ein Optimum zu finden wäre dann die ständige Herausforderung für die dynamische Anpassung der Renderres.
Es sind zwei Gedanken nacheinander:
  1. Es gibt ein Optimum an Bildqualität, das mit grundsätzlich mit (einer bestimmten Form) temporaler Verrechnung erreichbar ist.
  2. Und es gibt ein Optimum der Bedienbarkeit durch Menschen.
Erstmal Gedanke #1: Zum Herantasten an das Optimum der Bildqualität muss der Algorithmus zwei Aspekte gegeneinander abwägen:
  1. Wie viel Zugewinn an Bildqualität gibt es durch mehr Bilder, durch eine Erhöhung der Framerate bzw. einer Verringerung der Frametimes. Letzterer Blickwinkel ist entscheidend. Die zeitlichen Lücken werden verringert, das Verschieben der virtuellen Kamera bringt mehr vorher fehlende Informationen.
  2. Und wie viel Zugewinn gibt es durch mehr Infos pro Bild? Also welche Auflösung wird gewählt, vielleicht sogar für einzelne Teilbereiche des Bildes? Das wäre die umgekehrte Variante von der heutigen Verwendung von VRS: Teile des Bildes werden in höherer Qualität berechnet.
Da lässt sich ein Optimum finden. Aktuell wird die Auflösung normalerweise bei DLSS statisch gewählt, bis auf ganz wenige Ausnahmeimplementierungen. In den Ausnahmeimplementierungen wird die Framerate statisch gewählt und die Auflösung dynamisch. Nur beides dynamisch findet das Optimum an Bildqualität.

Doch jetzt Gedanke #2: Das hilft alles nichts, wenn sich das Spiel dann nicht mehr anständig steuern lässt. Dafür braucht es Mindest-FPS, ganz klar. Gleichzeitig kommen Monitore auch nicht mit unfassbar vielen FPS klar, dafür braucht es also auch Max-FPS. Und der Mensch reagiert selbst mit VRR noch recht allergisch auf Schwankungen. Dafür bräuchte es am besten auch einen Wert, einen Varianzwert.

Mit allem in Kombination kann ein Algorithmus gebaut werden, der ein sich stets flüssig anfühlendes Ergebnis erzeugt, das gleichzeitig schlicht und ergreifend „so gut wie möglich“ anfühlt.
Stammt von hier...
https://extreme.pcgameshardware.de/...t-bald-auch-nvidia-dlss.603131/#post-10726154
...und dort:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12946223#post12946223

Die gleiche grundsätzliche Idee gilt jetzt natürlich auch für ein FSR 3.X
 
Nemesis200SX schrieb:
bitte noch Forza Horizon 5 updaten
FH5 nutzt allerdings kein TAA sondern MSAA. Dürfte es doch schwierig sein FSR 2.0 oder DLSS zu nutzen. Zumal es auch so programmiert wurde dass es von der Latenz selbst bei 30fps sehr gering ist. Forward-Plus-Renderers genannt. Könnte auch eher dagegen sprechen auch wenn ich da jetzt technisch nicht ganz drin stecke.
 
Die meisten Leute werden sich auch mit 80 % der Qualität zufriedengeben, wenn wenigstens in 1440p oder 2160p spielen können. Diese Garantie kann man bei Nvidia nur gegen Aufpreis bieten. Letztlich ist alles eine Frage der Adoption und da hat Nvidia einen zeitlichen Vorsprung. Allerdings sehe ich sowohl DLSS und FSR als Brückentechnologien, bis die jeweils angepeilte Auflösung auch nativ die angestrebte Performance aufweist.
 
  • Gefällt mir
Reaktionen: Do Berek
GERmaximus schrieb:
Um Gottes Willen,
Das gsync Modul war doch auch wichtig.
Außer in den Nvidia Laptops da ging es ohne.
Ach und der Underdog hat es auch mal wieder ohne Zwang und Zusatz geschafft.

Und fsr 2.0 ist das nächste „mal wieder“ ohne Zwang.
Ja, weil AMD der Underdog ist können sie es sich auch nicht erlauben. Ihr tut immer so, als würde AMD das aus reinster Nächstenliebe machen.

WebBeat84 schrieb:
Wenn Nvidia nicht schnell was einfällt sind die wie Intel bei CPUs bald obsolet. AMD macht alles in allen Bereichen richtig.
Dieser Unfug wurde auch schon zum Release von RDNA2 behauptet und was war? Ampere verkauft sich besser als RDNA2. :freak:
 
  • Gefällt mir
Reaktionen: MyFlashDrive
scootiewolff22 schrieb:
Es gibt DLSS 2.4.0 und hier wird mit 2.0 getestet, kann ich nicht ernst nehmen den Test
Es wird mit der aktuellen DLSS-Version von Deathloop getestet, also Version 2.3 irgendwas.
Taxxor schrieb:
Ich hab das Video mal in 0.5x Geschwindigkeit angeschaut und zwischen FSR 2.0 und DLSS hin und her gewechselt. Für mein Empfinden sehe ich nicht wirklich einen Unterschied beim Zaun, das flimmern sieht sowohl mit DLSS als auch mit FSR für mich ähnlich ausgeprägt aus.
Im CB Video war das für mich übrigens auch recht ähnlich, daher konnte ich die Aussage im Text, dass FSR hier besonders Probleme hätte und DLSS nicht, eingentlich gar nicht so nachvollziehen. Kann aber auch an der Kompression liegen....
Die YT-Komprimierung macht etwas von den Unterschieden kaputt. In den Original-Videos (und natürlich live auf dem Bildschirm) sieht man es etwas besser. Aber das ganze ist natürlich auch abhängig vom subjektiven Empfinden. Manche sehen vermutlich recht große Unterschiede an der Szene, andere dagegen kaum welche oder gleich gar keine.
Zer0Strat schrieb:
Hab noch was entdeckt. FSR 2.0 hat ein Problem in Bewegung (in diesem Fall). Die weißen Schriftzüge verschmieren mit der Umgebung. DLSS hat das gar nicht.
Oi, gut aufgepasst, ist mir nicht aufgefallen. Hätte die Schrift im Spiel vielleicht nicht ignorieren sollen :D Aber interessant, denn davon abgesehen arbeitet FSR 2.0 finde ich mit erstaunlich wenigen Fehlern.
noxon schrieb:
Ergo war DLSS 2.0 also schon immer viel besser als FSR 1.0. Seltsamerweise hat man das in den bisherigen Artikeln auf CB noch nie so zu hören bekommen. Das hätten die AMD-Fans wohl nicht verkraftet.
Erst jetzt wo es eine echte Alternative gibt, darf man die Wahrheit offen aussprechen, wie es scheint.
DLSS 2 heute ist völlig anders als DLSS 2 rauskam, damals gab es noch zig mal mehr Fehler als heute, die es ja auch immer noch genügend gibt. Wenn du die letzten Spiele-Tests mit einem FSR/DLSS-Vergleich gelesen hättest, wäre dir vermutlich aufgefallen, dass dort eigentlich nur noch stand: FSR 1.0 ist Murks.

Zer0Strat schrieb:
Ich auch nicht, zumal 2.39 teils drastische Verbesserungen mitbringt. Hatte das schon in Dying Light 2 getestet. Für mich ein No Brainer.
Also mein Gefühl ist eigentlich, dass es zwischen den einzelnen DLSS-Versionen zwar auch Updates gibt, dass diese primär aber einfach andere Gewichtungen haben bezüglich ihrer Eigenschaften. Also ala tausche Bildschärfe gegen Bildruhe oder tausche Ghosting gegen Rekonstruktion und der Entwickler muss sich dann entscheiden, was er will. Darum sind "neuere" Versionen in manchen Spielen dann auch ganz gerne mal schlechter als alte. Ist aber nur so ein Gefühl.
 
  • Gefällt mir
Reaktionen: Jan
Laphonso schrieb:
Nach dem techpowerup Artikel wähne ich Jensen Huang hier mit einer neuen ..."Priosetzung" ;)
Da wir die dritte "RTX" Generation erhalten, lehne ich mich aus dem Fenster und sage, dass mit Lovelace im September auch passend DLSS 3.0 mit "next sophisticated AI" blabla etc. präsentiert wird.
Dass das (DLSS 3.0 bei Ada) passieren wird ist eigentlich klar. Nur was sich ändern wird nicht. Das muss ja auch nichts großes sein. Kann auch ein Mini-Update sein und man dann sagt, dass sich seit der Ur-Version von DLSS 2.0 so viel geändert hat, dass man es jetzt problemlos DLSS 3.0 nennen kann. Oder vielleicht gibt es ein Speed Up oder andere neue Features. Ich denke nicht, dass DLSS 3.0 unbedingt deutlich besser aussehen muss als DLSS 2.x, damit es eine neue Hauptnummer geben kann.
 
  • Gefällt mir
Reaktionen: Jan, .Sentinel. und Laphonso
Ich finde es einen riesen Schritt dass DLSS und somit Nvidia endlich ernstzinehmende Konkurrenz bekommt mit Fsr 2.0.

jetzt braucht es Zeit um zu sehen wie schnell sich Fsr 2.0 in weiteren Spielen etabliert. hoffentlich entsteht hier ordentlich Bewegung. und wenn dann irgendwann noch Intel dazu kommt (seufz) dann haben wir endlich einen normaleren Wettbewerb und kein Duopol mehr.

das wird uns Kunden sicher helfen. und für Fans und Lager bleibt genug Platz. wie im Fussball ;-)

ich bin optimistisch
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Wolfgang schrieb:
Also mein Gefühl ist eigentlich, dass es zwischen den einzelnen DLSS-Versionen zwar auch Updates gibt, dass diese primär aber einfach andere Gewichtungen haben bezüglich ihrer Eigenschaften. Also ala tausche Bildschärfe gegen Bildruhe oder tausche Ghosting gegen Rekonstruktion und der Entwickler muss sich dann entscheiden, was er will. Darum sind "neuere" Versionen in manchen Spielen dann auch ganz gerne mal schlechter als alte. Ist aber nur so ein Gefühl.
Das Gefühl trügt Dich nicht. Denn genau so ist es.
Ausnahme sind die generischen DLSS Bibliotheken z.B. aus der Unreal- Engine. Die haben immer den maximalen Funktionsumfang. Aber auch da sind von Version zu Version andere Defaults gesetzt.

An sich entscheidet der Entwickler, welche Optionen in der Bibliothek angesprochen oder grundsätzlich aktiviert werden. Integriert man DLSS aber on Top, kannst Du auch DLSS selber diverse Settings automatisierend überlassen.

Funktioniert mal, funktioniert mal nicht. Siehe z.B. Auto- Exposure. Kann in einem Falle Ghosting verhindern, in anderen Fällen führt es zu Ghosting.

 
  • Gefällt mir
Reaktionen: Wolfgang und Jan
Der Anfang ist gemacht, jetzt müssen nur dringend mehr Spiele her.

Ich freue mich schon auf den nächsten FSR / DLSS Vergleich, Landwirtschafts-Simulator 2022.. :D
 
  • Gefällt mir
Reaktionen: Tritom73
Ich hab mir mal die Mühe für einen Vergleich mit einer Kamerabewegung von rechts nach links gemacht.
Dazu habe ich Motion Blur komplett deaktiviert, die Schärfefilter deaktiviert und die Kamera mit einem Controller bei einer Kameraempfindlichkeit von 20 und Stick auf Anschlag links bewegt.

Die Kamerageschwindigkeit ist somit immer exakt gleich gewesen.
Den Performancemodus hab ich genutzt, damit man die Artefakte etwas besser sieht (vorhanden sind die auch im Quality Modus)


DLSS 1440p Performance Modus
DLSS_P.jpg


FSR 1440p Performance Modus
FSR_P.jpg


FSR Artefakte
FSR_P2.jpg



Man sieht recht gut, dass FSR noch Probleme hat mit den Stellen, die einen kurzen Augenblick vorher noch verdeckt waren. Wie z.B. der Linke Bildrand oder die Bildbereiche, die zuvor durch den Kameraschwenk von rechts nach links von der Hand oder der Waffe verdeckt waren.

Zumindest am linken Bildschirmrand hat DLSS aber auch Probleme und zeigt Ghosting. Ist beides unschön, aber das Ghosting ist mir ehrlich gesagt lieber, weil es die Bildruhe nicht stört und in der Bewegungsunschärfe (bedingt auch durch Pixelreaktionszeit des Monitors oder Unschärfe durch Sample and Hold im Auge) nicht so stark auffällt, wie das verpixeln von FSR.


Auch sieht man gut, dass im Torbogen der Blaue Laser nicht geglättet wird.

Allgemein sieht das Graß am Boden mit FSR in Bewegung etwas detaillierter/hochauflösender aus, jedoch flimmert FSR hier auch stärker als DLSS.


Aber alles in allem Meckern auf ziemlich hohem Niveau. Nvidias Deep Learning Vorteil ist vielleicht kleiner, als man glauben mag, aber gerade bei den typischen Problemstellen, wo schlichtweg Daten fehlen, macht DLSS einen deutlich besseren Job. Auch wenn die Auswirkungen aufs Gesamtbild vergleichsweise gering sind. Die letzten 10% zu holen ist halt immer am schwierigsten.
 
Ghosting Moiree Smearing :freak:
was es nicht alles gibt...
Das mit so viel Kinderkrankheiten so ein Gewese gemacht wird...
Wenn ich mir das geblubber von NV anschaue... und jetzt geht das alles easy ohne extra Kosten.
Die meist genutzten Spiele die hohe FPS brauchen... im Multiplayer. Die laufen auf einem Toaster.
Selbst bei 4K brauch man da keine über Hardware.
Na bleibt doch als einziges sinnvolles Anwendungsszenario, 4K bei einem Single Player AAA Titel wo die FPS über ein erträgliches Niveau gehievt werden muss.
Den kaum verbreiteten, sinnvollen RT performance Fresser mal außen vor gelassen.
Wie so oft wurde eigentlich versprochen, das schwächere Hardware hier geboostet wird.
Und jetzt haten sich highend und höher, Grafikkartenbesitzer was nun besser ist.
1080p ist ja quasi die kleinste Auflösung die genutzt wird. Da ist man ja Oldschool mit!
Da muss man schon was sehr seeehr altes und schwaches sein eigen nennen um das zu brauchen.

Egal was NV und AMD machen... letztendlich sind es die Spieleentwickler die hier gute Arbeit leisten müssen.
Also könnte man nen Entwickler oder eine Engine feiern. Da muss man dann auch nicht so ein Ding draus machen. Nach nen paar Monaten redet über das Spiel niemand mehr...
Es braucht Innovationen die immer was bringen.
Leider wird hier sooo viel geblubbert und wenig geliefert...
Wo bleibt direct storage?

MfG
 
jonderson schrieb:
Das ist FSR1.
Wird unter Linux auch ohne viel Auifwand in jedem Vulkan und DX Spiel eingesetzt.

Das was du meinst ist der FSR Algorithmus. Um FSR1 in seiner Qualität zu begutachten musst du das spielinterne FSR nutzen. Da hier z.b. HUD nicht beeinträchtigt wird und somit auch eine andere Qualität darstellt.

Das FSR was du meinst, welches man unter Linux und unter Windows mit anderen Programmen, egal für welches Spiel , dazuschalten kann, ist eher RSR. Es wird nachträglich auf das gesammte Fenster angewendet. Ob RSR aber jetzt einen anderen Logarithmus als FSR benutzt weis ich nicht.

Das sollte man im Hinterkopf behalten wenn man über FSR1 spricht. Das spielinterne FSR ist dem externen FSR Qualitätsmässig vorzuziehen.
 
Lazy-Joe schrieb:
Ist schon besser. Aber an DLSS vor allem in Bewegung kommt es meines Erachtens nicht heran.

Da ich seit 2018 eine RTX Karte habe, kenne ich DLSS vor allem in Kombination mit DLDSR sehr gut, und möchte es nicht mehr missen.
Diese Aussage ist stand heute Quatsch - Falsch - Müll....
Denn Ghosting tritt gerade und nur in Bewegung auf... Und in dem einzigen Spiel heute das es gibt das sowohl DLSS als auch FSR 2 bietet - sagt CB doch ganz klar... solche Bewegungsfehler gab es bei FSR 2.0 nicht.
Also stimmt insbesondere deine Aussage genau 0,0%....

Wobei auch da gebe ich CB recht... Gerade weil es nur ein Game bisher gibt ist das absolut mit Vorsicht zu genießen... Denn wie DSLSS bisher gezeigt hat - auch da kommt es drauf an welches Spiel man sich anschaut. Manche haben es "verkackt" andere sind geradezu Paradebeispiele was die Technik im Stande ist zu leisten...
 
Krasses Pferd!

Ich bin aber auch immer wieder erstaunt wie viele Leute die Zeit haben, kleinste Qualitätsunterschiede in flüssigen Szenen herauszu-sehen.

Respekt.

Ohne Tensor Cores quasi gleichauf.

In Anbetracht der schwierigen Zeit die AMD hinter sich (?) hat, kann man eigentlich nur den Hut ziehen.
 
  • Gefällt mir
Reaktionen: daknoll
Entscheidend wird eigentlich sein, wie viel Aufwand muss ein Entwickler rein stecken um welche Technik umzusetzen. Und da liegt laut eigener Aussage AMD vorne...
Wobei eine echte Bewertung von Null an [also Spiel ohne eine der beiden Techniken wieviel Tage X Entwickleraufwand um sie zu implementieren] da entscheidend sein wird.

Nicht zu verachten: AMD`S Technik läuft auf allen Grafikkarten und wird - vermute ich auch auf den Konsolen nutzbar werden... Meine Entscheidung stand heute als Entwickler wäre klar... da muss NV was zahlen das ich die NV Technik umsetze....

Der Angriff hier für AMD kommt von Intel oder war es MS [die ja was ähnliches machen wollen].
 
  • Gefällt mir
Reaktionen: Tritom73
Artikel-Update: ComputerBase hat weitere Benchmarks mit FSR 2.0 durchgeführt. So müssen Radeon RX 6800 XT sowie GeForce RTX 3080 nun nicht mehr nur die Performance der Upsampling-Varianten in 3.840 × 2.160, sondern ebenso in 2.560 × 1.440 und auch 1.920 × 1.080 über sich ergehen lassen. Darüber hinaus wurden mit der Radeon RX 6700 XT und der GeForce RTX 3060 Ti zwei weitere Grafikkarten hinzu gefügt.
 
  • Gefällt mir
Reaktionen: gustlegga, leonM, PietVanOwl und eine weitere Person
Zurück
Oben