Test God of War im Test: Das dritte Duell zwischen AMD FSR 2.0 und Nvidia DLSS

Katzerino88 schrieb:
DLSS Performance rechnet bei einer 4K Ausgangsauflösung mit 1920x1080 Pixel, also Full HD.
Das entspricht grob DLSS Qualität (1706x960), ausgehend von einer WQHD Auflösung und sieht besser aus.
Diese Angaben sind im Review somit widersprüchlich.
Erreicht DLSS/FSR somit die native Qualität, oder nicht? Nach dem Wortlaut im Review einmal ja, einmal nein.
Warum widerspricht sich das?
Nativ sieht in GoW besser aus, das gilt für Ultra HD, WQHD und Full HD. Wer in den Auflösungen FSR/DLSS nutzt reduziert die Bildqualität. Bei gleicher Renderauflösung sehen FSR/DLSS dagegen immer teils deutlich besser aus als die native Auflösung. Also Full HD nativ sieht schlechter aus als Ultra HD im Performance-Modus oder WQHD im Quality-Modus.
 
  • Gefällt mir
Reaktionen: Celinna und rumpeLson
habla2k schrieb:
Das hieße dann über den Treiber DSR auf UHD aktivieren und im Spiel UHD mit DLSS Quality einstellen? Wäre mal ein Experiment, ob das dann optisch besser aussieht.
Genau :)
Klappt eigentlich immer und sollte eigentlich die beste Grafik bringen.
 
  • Gefällt mir
Reaktionen: Kuestennebel79 und [wege]mini
Wolfgang schrieb:
Das ist übrigens generell in jedem Spiel durchaus sinnvoll, wenn genug Leistung vorhanden ist und man mehr Bildqualität haben möchte.

Es gibt Situationen, da missbraucht man seinen 4K Monitor als 1080p Gerät, arbeitet mit downsampling in der Renderauflösung (intern gerechnet mit irgendwas) und das Endergebnis sieht besser aus, als ein nativ gerechnetes Bild und hat mehr FPS.

Downsampling statt Pixelwahn.

Was für eine schöne Welt, diese doch sein könnte.

Aber ganz klar, in unserer heutigen Welt kling es einfach geil, 4K oder 8K zu haben.

Ich muss dann immer die Brille aufsetzen um zu verifizieren, ob es wirklich stimmt, was mit erzählt wird. :heilig:

Und unangenehm nah an den Monitor gehen.

Braucht kein Mensch.

Evtl. sind die jüngeren Menschen aber unglaublich viel besser geworden, als meine Wenigkeit war, als sie jung war.

mfg
 
  • Gefällt mir
Reaktionen: guzzisti, Deinorius, h2f und 2 andere
Auf nem 4k Oled bei mit einer Auflösung von 3840x1620 [21:9] ist das Bild Bombe, und bei meinem Vergleich mit ner 3080 ists mit FSR | DLSS definitv schärfer. Allerdings flackert FSR tatsächlich hier und da unangenehm, und ja, bei FSR ensteht eine art "smearing", besonders bei sichtbar bei Ästen oder Schneeflocken. Unabhängig der Performance ziehe ich absolut DLSS vor, in Verbindung mit nen "ticken" extra nachschärfen sieht native echt verwaschen aus. Was mir noch aufgefallen ist, das FSR stellenweise überschärft [man beachte zb die Baum|Hauttexturen im Menü].
 
[wege]mini schrieb:
Braucht kein Mensch.
Naja, du brauchst es schon, denn nur darüber holt DLSS ja seine Details. Gäbe es keine 8k, 16k usw. Varianten, könnte DLSS auch nicht mehr Details ins FHD Bild "zaubern" als bei UHD.

Was man aktuell vielleicht nicht braucht, ist native Ausgabe von UHD. Das wird aber dann irgendwann kommen, wenn man bei 8K landen will und das von UHD per DLSS erreicht. Dürfte wohl noch 5-10 Jahre dauern.
 
Zer0Strat schrieb:
Hihi, hat DLSS das Problem nicht? Beobachte das immer bei älteren DLSS Versionen.
Ist mit den aktuellsten DLSS-Versionen aber auch noch so (bspw. Cyberpunk). Hängt wahrscheinlich von mehreren Faktoren, also nicht nur von der DLSS-Version ab.
 
Wolfgang schrieb:
Warum widerspricht sich das?
Weil DLSS Performance ausgehend von 4K mit DLSS/FSR Performance besser aussieht als WQHD nativ.
WQHD hat eine deutlich höhere Auflösung als 1920x1080. Wenn es so gut wie WQHD wäre, wäre es konsistent.
Wolfgang schrieb:
Bei gleicher Renderauflösung sehen FSR/DLSS dagegen immer teils deutlich besser aus als die native Auflösung.
Die Native Auflösung wäre ja in dem Fall WQHD, die interne Renderauflösung von DLSS Full HD.
Wolfgang schrieb:
Also Full HD nativ sieht schlechter aus als Ultra HD im Performance-Modus oder WQHD im Quality-Modus.
Die Angabe ist doch, dass Ultra HD im Performancemodus ( Full HD) besser aussieht als WQHD nativ.
Und das wäre ja eine Vorraussetzung dafür, dass DLSS/FSR mit der richtigen Einstellung in der Lage sind die BQ auf das Niveau eines nativen Bildes zu steigern.
Wir haben in WQHD nativ 70,5 Frames einer 3070Ti, mit Ultra HD Performance aber 71 Frames und die bessere BQ, trotz deutlich niedrigerer Auflösung.(ähnlich wie DLSS Qualität von WQHD ausgehend)
Beeindruckend.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bensen und Tanzmusikus
habla2k schrieb:
Naja, du brauchst es schon

Ganz sicher nicht.

Nahe an einen Monitor zu gehen, um dann mit einer Lupe die Pixel erkennen zu können :D

Wer sich einbildet, er würde 4k brauchen, hat theoretisch schon sein "Recht" verloren, sich mit mir zu unterhalten. Trotzdem bin ich hin und wieder herablassend und gehe auf solche Gespräche ein.

Die Auflösung ist schneller gestiegen als die Rechenkraft, da die Marketingheinis es geschafft haben, armen Opfern einzureden, sie würden etwas erkennen.

So schauts aus.

Aber du darfst mir gerne, mehr erzählen, was du so glaubst.

mfg

p.s.

Ich schaue mir auch gerade die Prozession für die Queen an. Man muss wissen, was die anderen Menschen glauben zu wissen.

p.s.

[wege]mini schrieb:
natürlich kann man grafik karten, mit digitalen systemen bauen die ohne strom sind (unfassbar langsam und groß) oder mit digitalen systemen, die im zweifel sogar von menschen angetrieben werden wie in einem hamster rad. ^^

An diesen Spruch muss ich die ganze Zeit denken. :heilig:
 
Zuletzt bearbeitet:
habla2k schrieb:
Das hieße dann über den Treiber DSR auf UHD aktivieren und im Spiel UHD mit DLSS Quality einstellen? Wäre mal ein Experiment, ob das dann optisch besser aussieht.
Geht das auch iwie im AMD Treiber?
Kann da nur "Superresolution" auswählen - Das wird aber nur aktiviert wenn man eine Auflösung unter der nativen auswählt, dann downsampled er wieder auf nativ inkl. Schärfe (oder so^^).

Spiele zwar auf 3840x1600 aber noch mehr einstellen bei manchen Gammelgames würde hier und da mehr Schärfe bringen und wahrscheinlich besser aussehen als die normale "Nachschärfe"Funktion
 
Caramelito schrieb:
Kann da nur "Superresolution" auswählen - Das wird aber nur aktiviert wenn man eine Auflösung unter der nativen auswählt, dann downsampled er wieder auf nativ inkl. Schärfe (oder so^^).
Dann hast du entweder die falsche Option erwischt oder die deutsche Übersetzung ist murks. Es gibt "Virtual Super Resolution" was genau für den Fall gedacht ist. Man kann im Spiel eine höhere Auflösung wählen und das wird dann downgesampled auf die normale Auflösung des Monitors.
1654253922763.png
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Danke für den Test. Auch hier finde ich es interessant, wie nah FSR an DLSS heran kommt und das ohne zusätzliche / aufwendige KI-Vorberechnung.
 
  • Gefällt mir
Reaktionen: Unnu und sven_011
Ich nutze teilweise NVidia DSR, um eine doppelte Renderauflösung in den Spielen einzustellen und packe dann in den Spielen DLSS drauf.
Das heißt am Ende komme ich wieder bei der nativen Auflösung an, habe aber
  • einmal ein Upsampling von nativ auf die Doppelte Auflösung
  • und danach ein Downsampling zurück zur nativen.

Hört sich verrückt an, aber ich bekomme damit ein teilweise ein schärferes Bild, als wenn ich einfach nur native Auflösung nutze. Dafür allerdings mit den bekannten Upsamling Schwächen (Ghosting etc.) , aber je nach Spiel ein Versuch wert.

Das Gleiche sollte mit FSR2 und Virtual Super Resolution von AMD ja eigentlich auch gehen !?
 
  • Gefällt mir
Reaktionen: BlueBringer und Katzerino88
Conqi schrieb:
Dann hast du entweder die falsche Option erwischt oder die deutsche Übersetzung ist murks. Es gibt "Virtual Super Resolution" was genau für den Fall gedacht ist. Man kann im Spiel eine höhere Auflösung wählen und das wird dann downgesampled auf die normale Auflösung des Monitors.
Anhang anzeigen 1224430
1654254945459.png


Bei mir gibt es die Option nicht (?) :D
Vllt wegen der ohnehin schon hohen Auflösung bzw. Bildformat?
 
habla2k schrieb:
Machen das tatsächlich manche? Wenn ich mit meinem 1440p Monitor in FHD spiele sieht das nicht gut aus. Sehr unscharf und verwaschen.
Du mußt unterscheiden, ob du 1440p ausgibst und der Monitor hochskaliert, oder ob du ingame die Renderauflösung reduzierst, aber trotzdem UHD ausgibst. Ich glaube letzteres ist hier gemeint.
Wenn der Monitor skaliert kommt fast immer ein unscharfes Bild raus.
 
  • Gefällt mir
Reaktionen: habla2k
[wege]mini schrieb:
Trotzdem bin ich hin und wieder herablassend und gehe auf solche Gespräche ein.
Herablassend bist du in der Tat.

Was du meinst nicht zu brauchen ist ein natives 4K Bild an deinem 27" Bildschirm 30cm vor deiner Nase. Das kannst du auch weiter meinen. Aber ein 4K Bild hat einfach mehr Details als ein FHD Bild. Die Leute sagten auch "mehr als 720p brauch ich nicht!" Schau dir mal mit deinem FHD gewöhnten Auge ein 720p Bild an auf der gleichen Ausgabe.

Sicherlich nimmt die Sichtbarkeit ab, wenn du nicht auch Sitzabstand oder Displaygröße erhöhst, trotzdem bietet das Bild mehr Details. Gerade bei Spielen. Und damit DLSS dein Bild eben auch schon bei FHD mit mehr Details befüllen kann, braucht es 8K und höher Quellmaterial. Wenn es das, wie du dir wünscht, also nicht gibt, kann da nicht viel passieren.

Caramelito schrieb:
Geht das auch iwie im AMD Treiber?
Das kann ich dir mangels AMD Karte leider nicht sagen ^^
 
  • Gefällt mir
Reaktionen: Oudenstekelig
Wäre es nicht sinnvoller hier ältere GPUs zu testen. Die letzte Generation war ja kaum erhältlich zu guten Preisen weshalb eine Vergleich mit älteren Modellen mMn sinnvoll wäre
 
  • Gefällt mir
Reaktionen: Meldok, Haxor, coral81 und 2 andere
Da bei WQHD als Ziel-Auflösung die prozentuale Reduzierung der Renderpixel mit Upsampling geringer als in Ultra HD ist, fällt auch der Leistungsgewinn geringer aus.
Der Satz ist aber eindeutig falsch. Rechnet entweder selber nochmal oder schaut z.B. auf GPUOpen nach...

Der Grund dafür, dass Upsampling bei 1440p für die Performance weniger bringt als bei 2160p muss also woanders liegen.

fsr2_qualitymodes[1].png
 
habla2k schrieb:
Was du meinst nicht zu brauchen ist ein natives 4K Bild an deinem 27" Bildschirm 30cm vor deiner Nase. Das kannst du auch weiter meinen. Aber ein 4K Bild hat einfach mehr Details als ein FHD Bild. Die Leute sagten auch "mehr als 720p brauch ich nicht!" Schau dir mal mit deinem FHD gewöhnten Auge ein 720p Bild an auf der gleichen Ausgabe.
Sich an einer Auflösung festzuhängen ist völliger Blödsinn.
Relevant ist die DPI pro Entfernung zum Bildschirm.
Wenn der Bildschirm klein ist, hoch auflösend und man 1m oder noch weiter weg sitzt, muß schon hoch skalieren um überhaupt etwas zu erkennen. Hat man nur FullHD auf 27" oder mehr, 50cm vor der Nase, kann ich selbst ohne Brille die Pixel zählen.

WQHD auf 27" (~110DPI) für die typische Entfernung von 80cm ist ein guter Sweet Spot. Wird der Monitor größer bei gleicher Entfernung, zb 32" wollte ich auch UHD haben.
 
  • Gefällt mir
Reaktionen: h2f und ShiftyBro
Da die Tiefenunschärfe weg ist mit beiden Verfahren finde ich es besser als ohne.
 
@SavageSkull
Ich würde trotzdem drauf wetten, wenn du ein paar Wochen auf 27" mit 80cm Entfernung UHD nutzt und dann zurückgehst auf WQHD, kommt dir das unscharf vor und nicht wie der bisherige Sweet Spot. Das Auge gewöhnt sich einfach dran. Ne DVD sieht heute auf nem 40" auch nicht mehr so gut aus wie 2003 auf nem 40".
 
  • Gefällt mir
Reaktionen: ThePlayer
Zurück
Oben