Test God of War im Test: Das dritte Duell zwischen AMD FSR 2.0 und Nvidia DLSS

nn|none schrieb:
Ich bin wirklich verunsichert, ob mein Verständnis von Up-/Downsampling richtig oder falsch ist.
Wenn man die Intention von Wolfgang verstanden hat, dann kann sich der erste Teil des Satzes nur auf DSR/VSR beziehen, die bekanntlich Downsampling verwenden. Die Formulierung ist einfach unglücklich und wenn man "von" und "auf" im Satz vertauscht, verschwindet der scheinbare Widerspruch.
 
Ich hab die Intention an einigen Stellen tatsächlich nicht verstanden, weil der Artikel meiner Meinung nach nicht besonders gut geschrieben ist. Recht herzlichen Dank für die Bestätigung, dass es zumindest an dieser Stelle missverständlich ist.
 
Sehr nice, danke für den Test. AMD ist hier auch ohne KI offenbar nicht zwingend im Nachteil. Da bin ich sehr auf die Weiterentwicklung gespannt und ob es in der Perspektive gelingt die nächste proprietäre Technik von Nvidia abseits der Fangruppe obsolet zu machen.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Celinna schrieb:
ich sitz 60cm von meinem 27 Zöller entfernt und da merkt mans schon heftig
Da merkst du es.
Bin mir 100% sicher, dass 9 von 10 Personen keinen Unterschied zw. 2160p und 1440p auf nem 27 Zöller in Spielen (nicht Desktop!) bemerken.

Selbiges für div. andere Settings wo andere pingelig sind.
Bei mir sinds Refresh Rates. Unter 120hz und es stört mich. Manche bemerken da keinen Unterschied.
 
Caramelito schrieb:
Da merkst du es.
Bin mir 100% sicher, dass 9 von 10 Personen keinen Unterschied zw. 2160p und 1440p auf nem 27 Zöller in Spielen (nicht Desktop!) bemerken.

Selbiges für div. andere Settings wo andere pingelig sind.
Bei mir sinds Refresh Rates. Unter 120hz und es stört mich. Manche bemerken da keinen Unterschied.
Immer wieder lustig wie pc-Gamer die mehr oder weniger sichtbaren Unterschiede zwischen wqhd und 4k diskutieren, während die wahrgenommene Auflösung bei Bewegung komplett einbricht und das Bild für jeden erkennbar nur noch vermatscht.
Stellt man nen crt daneben, sieht man den Unterschied direkt, Schriften bei moderater Seitwärtsbewegung sofort unleserlich, bei Kameraschwenks wird eh alles zu Grütze.
Mit 120fps schon besser dank niedrigerer Frame-Holdtimes, aber 240p noch mal sichtlich schärfer.
Ich beziehe mich wirklich nur auf die Bewegtbildschärfe, nicht Motion Smoothness und Inputlag.
 
  • Gefällt mir
Reaktionen: Infi88, Tanzmusikus und Deinorius
Hä. Gerade bei Bewegung fällt es doch am wenigsten auf? Finde schade dass AMD boost nicht länger verfolgt.
 
Radeon Boost ist es vollständig anderes und bringt am meisten etwas in schnellen Spielen.
Während Upscaling in Bewegung natürlich weniger auffällt, gibt es dennoch ruhige Momente selbst in Action-reichen Spielen und die mögen doch bitte auch mit akzeptabler Framerate gut aussehen.
 
Czk666 schrieb:
Hä. Gerade bei Bewegung fällt es doch am wenigsten auf? Finde schade dass AMD boost nicht länger verfolgt.
Natürlich assoziieren wir mit Bewegung auch Unschärfe, allerdings übertreiben die Holdtype-Dsiplays den Effekt maßlos unrealistisch.
Es genügt bereits moderate Seitwärtsbewegung um das Bild zu verschmieren, und Bewegtbilder machen in Games nun Mal einen großen Teil aus.
Also 120fps + 120hz scanning (back)light/ bfi und das Problem ist beseitigt

Schade, dass nun lg displays die 120hz bfi 2022 aufgegeben hat, samsung displays hat auch keine, daher bis auf Weiteres keine oleds mit 120hz bfi mehr.
 
@Suspektan Sample and Hold unschärfe oder BFI sind nur optische Effekte im Auge und Gehirn, die nichts mit der eigentlichen Displaydarstellung zu tun haben.

Einfach gesagt ist Sample and Hold Unschärfe einfach nur die Tatsache, dass geringere Bildfrequenzen in Bewegung (im Auge) ein unschärferes Bild erzeugen als hohe Bildfrequenzen.

Am deutlichsten sieht man das bei OLED. Die Reaktionszeiten sind so schnell, dass es praktisch keine Unschärfe durch die Pixel und dessen Schaltzeiten gibt. Wenn du Fotos von sich bewegenden Bildinhalten machst, sind die immer perfekt abgebildet.
Die Unschärfe entsteht erst im Auge innerhalb eines Bewegungsablaufs.
Je mehr Bilder/sec das auge sieht, desto schärfer ist die Abbildung der Bewegung.

Einfaches Beispiel:
Stelle dir vor man bewegt auf einem 4K Display einen 1Pixel großen weißen Punkt innerhalb 1sec von links nach rechts.

Hat das Display eine Frequenz von 120 Hz, dann würde nur jedes 32. Pixel aufleuchten. Der weiße Punkt springt also alle 8,33 ms um 32 Pixel weiter.
Genau das erzeugt im Auge eine Unschärfe.
Bei 60 Hz würde der Punkt sogar nur alle 16,6 ms um 64 Pixel weiter springen.

Um diese wahrgenommene Bewegungsunschärfe komplett zu beseitigen, wäre es ideal, wenn der Punkt jeden der 3840 Pixel auf dem Weg von links nach rechts einmal zum Aufleuchten bringen könnte.
Um das zu erreichen, wären jedoch 3840 Hz notwendig.

Man muss jetzt natürlich sagen, dass das Auge Bewegungen nicht beliebig scharf sehen kann (wedel mal mit der Hand vor deinem Gesicht - das ist unscharf wie sonst was) Aber man kann wohl sagen, dass wir ca. 1000 Hz erreichen sollten, um eine möglichst gute Schärfe zu erreichen.

Das ganze jetzt immer auf die Displays schieben zu wollen halte ich für Unsinn. BFI und die Austastphase eines CRT helfen dem Auge natürlich, man nimmt weniger Unschärfe wahr, aber eine Lösung ist es trotzdem nicht, da die Bewegungen dann eben hakeliger erscheinen. Um irrsinnig hohe Bildfrequenzen werden wir auf Dauer nicht herum kommen.

Techniken wie FSR und DLSS sind ein erster Schritt um da hin zu kommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DannyA4 und Taxxor
Wolfgang schrieb:


Qualitativ ist die Grafik besser, wenn du von einem WQHD-Monitor auf UHD downsamplest und dann mit DLSS (oder FSR 2.0) wieder upsamplest. Die Performance wird aber eben geringer sein, das liht sich also nur, wenn du genug FPS hast.

Das ist übrigens generell in jedem Spiel durchaus sinnvoll, wenn genug Leistung vorhanden ist und man mehr Bildqualität haben möchte.
Also ich hatte mehrere spiele so gespielt:
1440p monitor.
Virtual super resolution 4k
Und das dann damals mit FSR 1.0 in quality.

Dann wird renderauflösung 1440p auf 4k upsampled und dann reduziert dargestellt. Fast identische performance, aber wesentlich bessere Darstellung. Ist wie ein supersampling ohne großen performance verlust.
Seltsamerweise lief godfall sogar gefühlt performanter als nativ auf 1440p.
 
Auf dem Bild links das ist Goliath (Nvidia) und rechts David (AMD). Wir wissen ja wie die Geschichte ausgegangen ist.
 
@W0dan
Ich kenne den Unterschied zwischen Display Blur und Visual motion blur, schrieb ja "wahrgenommene Auflösung bei Bewegung".

W0dan schrieb:
Das ganze jetzt immer auf die Displays schieben zu wollen halte ich für Unsinn. BFI und die Austastphase eines CRT helfen dem Auge natürlich, man nimmt weniger Unschärfe wahr, aber eine Lösung ist es trotzdem nicht, da die Bewegungen dann eben hakeliger erscheinen. Um irrsinnig hohe Bildfrequenzen werden wir auf Dauer nicht herum kommen.

Techniken wie FSR und DLSS sind ein erster Schritt um da hin zu kommen
Ich nehme 60fps mit 75% Dunkelphasen 60hz bfi (entspricht 4ms mprt) nicht als ruckeliger wahr, auch nicht mit lcd.
Ist also subjektiv, die höhere Bewehtbildschärfe hingegen erkennt jeder direkt.

Sehr hohe fps werden auch weiterhin nur mit älteren Games möglich sein, 60fps begleiten uns noch lange als zu erreichender Standard.
Mögliche fps Steigerungen mit Dlss und fsr sind begrenzen sich selbst durch die benötigte Rechenzeit, wird sich also schon deshalb nicht beliebig steigern lassen.

Und ältere Spiele werden sowieso nicht profitieren, viele sind zudem eh auf fixe 60fps begrenzt.
Da bleibt dann nur ne 60hz bfi und die flimmert und reduziert die Helligkeit deutlich.
 
W0dan schrieb:
BFI und die Austastphase eines CRT helfen dem Auge natürlich, man nimmt weniger Unschärfe wahr, aber eine Lösung ist es trotzdem nicht, da die Bewegungen dann eben hakeliger erscheinen.
Warum sollten die Bewegungen hakeliger erscheinen? Ein CRT ist in Bewegung aktuell noch unschlagbar und CRTs mit schnellem grünen Phosphor weisen praktisch bereits bei 60Hz keine nennenswerte Bewegungsunschärfe mehr auf. Es ist auch nicht die Austastlücke, die für die Bewegungsschärfe eines CRT verantwortlich ist. Bei einem CRT wird jeder Bildpunkt mit einem Blitz von ca. 1-2ms Dauer auf die Netzhaut belichtet wenn der Phosphor vom Elektronenstrahl getroffen wird. Mit BFI oder besser ULMB kann man sich diesen Zeiten annähern und damit eine ähnliche Bewegungsschärfe erreichen indem man die Leuchtdauer pro angezeigtem Bild reduziert.
W0dan schrieb:
BFI und die Austastphase eines CRT helfen dem Auge natürlich, man nimmt weniger Unschärfe wahr, aber eine Lösung ist es trotzdem nicht, da die Bewegungen dann eben hakeliger erscheinen. Um irrsinnig hohe Bildfrequenzen werden wir auf Dauer nicht herum kommen.
Ich sehe es eigentlich genau andersherum. Es macht keinen Sinn immer höhere Bildraten erzeugen zu müssen, wenn man die gleiche Bewegungsschärfe eines 500-1000Hz Displays auch z.B. bei 240Hz erreichen kann, wenn man das Bild nur ein Viertel der Zeit zeigt. Es hängt natürlich davon ab, ob Displays zukünftig hell genug sein werden, um das zu ermöglichen. Bis das mit HDR funktionieren kann dauert es sicher noch.
 
Wolfgang schrieb:
Ich bin mir ziemlich sicher, dass God of War in irgendeiner Form ein TAAU nutzt, also rein vom optischen Eindruck aus. Ansonsten würde das Bild erfahrungsgemäß eigentlich anders aussehen. Aber wissen tue ich es jetzt explizit nicht.
Wahrscheinlich im Menüpunkt "Renderskalierung" (50-100% in 5%-Schritten) unter [Anzeige], nehme ich an.

PCGH und Reddit/Nvidia sprechen (schreiben) auch von TAAU:
https://www.pcgameshardware.de/God-.../God-of-War-FSR-20-Test-Benchmarks-1396278/2/
https://www.reddit.com/r/nvidia/comments/v2h7rn/analysing_god_of_wars_image_quality_native_dlss/
https://www.reddit.com/r/nvidia/comments/osqyv7/dlss_vs_taau_vs_fsr_in_necromunda_just_a/

Grüße
 
Nolag schrieb:
Warum sollten die Bewegungen hakeliger erscheinen?
Ich kann den Eindruck in der Praxis nicht bestätigen, aber mit einer bfi werden die sichtbaren Frames durch Dunkelphasen über einen längeren Zeitraum voneinander abgegrenzt, was zmdst. theoretisch die Bewegung abgehackter erscheinen lassen könnte.
Muss jeder wohl für sich austesten
Nolag schrieb:
Warum sollten die Bewegungen hakeliger erscheinen? Ein CRT ist in Bewegung aktuell noch unschlagbar und CRTs mit schnellem grünen Phosphor weisen praktisch bereits bei 60Hz keine nennenswerte Bewegungsunschärfe mehr auf.
Crts bauen das Bild zeilenweise auf und zeigen im Gegensatz zu heutigen holdtype-Displays nur mehrere Zeilen des Bildes zur gleichen Zeit an, wobei die zeitlich weiter zurückliegenden schwach nachleuchten.
Die darzustellenden Bildbereiche bzw. Zeilen gehen also viel weicher ineinander über, weshalb trotz der sich ergebenden Dunkelphasen die Bewegungen geschmeidig bleiben.
100% von crt auf holdtype Panels übertragen lässt sich daher der Effekt glaube ich nicht, die Bewegtbildschärfe allein aber recht gut und drückt sich in der mprt aus.

Das scanning backlight bzw. Rolling Scan lässt bei lcd/ oled nen schwarzen Balken vertikal das Bild durchlaufen, ein crt tut quasi das Gegenteil, er lässt den Frame in der höhe beschnitten durchlaufen, während der Rest dunkel bleibt.
 
Zuletzt bearbeitet:
Suspektan schrieb:
100% von crt auf holdtype Panels übertragen lässt sich daher der Effekt glaube ich nicht, die Bewegtbildschärfe allein aber recht gut.
Laut Blurbusters funktioniert das sehr gut. Es geht wirklich nur um die Dauer mit der das Bild angezeigt wird. Das muss halt im Bereich von ca. 1-2ms liegen und man bekommt den CRT Effekt.
Blurbusters: PHOTOS: LightBoost 10% vs 50% vs 100%
LightBoost 10% = 1.4ms strobe flash = about ~1 pixel of motion blurring.
 
Bewegtbildschärfe JA, aber Geschmeidigkeit des Bewegtbildes nicht unbedingt, sofern die überhaupt problematisch ist.
 
W0dan schrieb:
Um das zu erreichen, wären jedoch 3840 Hz notwendig.

Man muss jetzt natürlich sagen, dass das Auge Bewegungen nicht beliebig scharf sehen kann (wedel mal mit der Hand vor deinem Gesicht - das ist unscharf wie sonst was) Aber man kann wohl sagen, dass wir ca. 1000 Hz erreichen sollten, um eine möglichst gute Schärfe zu erreichen.
Ja was jetzt? 3840Hz sind technisch notwendig und dann aus der Luft plötzlich 1000Hz greifen?, nur weil das Marketing dann verspricht, dass es "optimal wäre".
Kommt mir wie die "legato link conversion" nur in Monitorform vor. Es scheint einigen schwer zu fallen akzeptieren zu können, dass unser Sehapparat zwar sehr leistungsfähig ist, aber weit davon entfernt zeitlich und schon garnicht gleichmäßig auf alle Helligkeits- und Farbspektren auf 1000Hz auflösen zu können.
 
Nolag schrieb:
Wenn man die Intention von Wolfgang verstanden hat, dann kann sich der erste Teil des Satzes nur auf DSR/VSR beziehen, die bekanntlich Downsampling verwenden. Die Formulierung ist einfach unglücklich und wenn man "von" und "auf" im Satz vertauscht, verschwindet der scheinbare Widerspruch.

Up - und Downsampling macht vom Verständnis soweit gut Sinn, wenn man einfach nur bedenkt, dass eine Auflösung auf die native Auflösung des Panels entweder hoch- oder runterskaliert wird.
Also einfach nur die Panel-Auflösung in Bezug zum Up- und Downsampling-Vorgang sehen.

4K auf einem WQHD (2K) Moni: Downsampling, da 4K runter auf 2K.
2K auf einem 4K-Moni: Upsampling, da hochskaliert.
 
W0dan schrieb:
@Suspektan
...

Am deutlichsten sieht man das bei OLED. Die Reaktionszeiten sind so schnell, dass es praktisch keine Unschärfe durch die Pixel und dessen Schaltzeiten gibt. Wenn du Fotos von sich bewegenden Bildinhalten machst, sind die immer perfekt abgebildet.
Die Unschärfe entsteht erst im Auge innerhalb eines Bewegungsablaufs.
Je mehr Bilder/sec das auge sieht, desto schärfer ist die Abbildung der Bewegung.
Nein, das ist kein Unterschied der erst im Auge entsteht.

Der Unterschied entsteht da das Auge der Bewegung folgt, die Kamera aber fix vor dem Monitor ist. Würde die Kamera auch wie das Auge dem sich auf dem Bildschirm bewegenden Objekt folgen nimmt es die gleiche Unschärfe auf die auch das Auge sieht. Und man würde auch die Schärfeverbesserung durch z.B. BFI aufnehmen.
 
Zurück
Oben