God of War im Test: Original- vs. PC-Grafik, AMD FSR und Nvidia DLSS
3/4Sämtliche Benchmarks auf dieser Seite sind aus Zeitgründen noch mit dem GeForce 497.29 beziehungsweise dem Adrenalin 21.12.1 durchgeführt worden. Die Bildqualität wurde von der Redaktion mit den neueren Treibern überprüft, diesbezüglich hat es keinerlei Änderungen gegeben.
PC-Grafik mit kleinen Verbesserungen
God of War bietet auf dem PC eine bessere Grafik als auf PlayStation 4 und PlayStation 5, wobei die Unterschiede in manchen Szenen ganz gut zu sehen sind, in anderen dagegen nur eine kleine Rolle spielen. Der direkte Vergleich ist dadurch möglich, dass das Spiel im Grafik-Preset „Original“ die Konsolengrafik nutzt.
Die zwei größten Unterschiede sind in der Schattendarstellung und der Detailschärfe zu suchen. Auf dem PC zeigt das Spiel zwar nicht mehr Details, sie werden aber stellenweise schärfer dargestellt. Dies ist dabei stark vom Objekt abhängig. Während manche keinen Unterschied zeigen, sind andere wiederum sichtbar schärfer.
Die Verbesserungen bei den Schatten sind in zwei unterschiedliche Kategorien einzuteilen. Die Schatten an sich sind auf dem PC höher aufgelöst und deutlich konturreicher als auf den Konsolen. Deswegen wird auf dem PC auch manch ein Schatten mehr geworfen, der auf der Konsole teils im Nichts verschwindet. Zugleich macht die Umgebungsverdeckung einen sichtbaren Schritt nach vorne. Sie trägt in der Konsolenversion nur sehr zaghaft auf, weswegen viele Objekte kaum einen Eigenschatten haben und es immer mal wieder so wirkt, als würden Objekte in der Luft schweben. Das funktioniert auf dem PC besser.
Einen sichtbaren Schritt nach vorne macht auf dem PC zusätzlich die Darstellung volumetrischer Leuchteffekte. Sie wirken bei intensivem Einsatz auf der PlayStation ziemlich blockig, auf dem PC dagegen feiner. Die Screenspace-Reflexionen werden zudem mit einer höheren Auflösung berechnet, sodass sie sichtbar schärfer sind.
Darüber hinaus haben die Entwickler auf dem PC offenbar auch die Tessellation-Faktoren einzelner Objekte erhöht, die optisch nun wuchtiger und weniger flach wirken. Dies ist aber längst nicht immer der Fall und fällt generell nur minimal auf. Davon abgesehen sind der Redaktion beim direkten Vergleich keine nennenswerten Unterschiede aufgefallen.
Hoher Leistungsverlust für die bessere Grafik (Update)
Die bessere Grafik kostet in God of War massiv Leistung. Das liegt auch daran, dass die Engine vielleicht ein paar Sachen tun muss, für die sie einfach nicht entwickelt worden ist. Auffällig ist dabei, dass der Leistungsverlust in niedrigen Auflösungen höher ist als bei vielen Pixeln. Entsprechend scheinen viele der Änderungen längst nicht nur die Grafikkarte, sondern auch den Prozessor zu belasten.
In Zahlen ausgedrückt bedeutet dies, dass die GeForce RTX 3080 in 1.920 × 1.080 mit maximaler PC-Grafik um 47 Prozent geringere Durchschnitts-Frameraten hat als mit der originalen PlayStation-Grafik bei derselben Auflösung – das ist nur ein wenig mehr als die Hälfte! In 2.560 × 1.440 beträgt der Geschwindigkeitsverlust dann 43 Prozent, in 3.840 × 2.160 sind es „nur“ noch 37 Prozent.
Zwischen Radeon und GeForce gibt es keinen Gleichflug
Die Radeon RX 6800 XT verhält sich ähnlich, aber nicht ganz identisch. In Full HD liegt der Leistungsverlust bei quasi identischen 46 Prozent, hier gibt es also keine Unterschiede zwischen einer AMD- und einer Nvidia-GPU. In WQHD sind es 40 Prozent weniger FPS, auch das ist noch ähnlich, zeigt aber bereits eine Tendenz. Sie ist in Ultra HD dann am größten. Bei vielen zu rendernden Pixeln wird die Radeon mit der besten PC-Grafik um 31 Prozent langsamer, das sind immerhin 6 Prozent weniger als bei der GeForce. Ob nun die Radeon RX 6800 XT Probleme bei wenigen Pixeln oder die GeForce RTX 3080 Probleme bei vielen Pixeln hat, lässt sich nicht feststellen.
Mit PlayStation-Grafik muss es kein High-End mehr sein
Mit der originalen PlayStation-4-Grafik sind hohe Frameraten kein wirkliches Problem mehr. Die GeForce GTX 1060 und die Radeon RX 580 tummeln sich mit leichten Vorteilen für die AMD-Grafikkarte um die 50-FPS-Marke, was zwar kein perfektes Spielerlebnis in Full HD bedeutet, aber God of War so zumindest spielbar ist. Alle anderen Grafikkarten, egal ob Neu oder Alt, überschreiten die 60-FPS-Marke locker.
In 2.560 × 1.440 liefern dann auch die Radeon RX 5700 XT und die GeForce RTX 2070 Super spielend mehr als 60 FPS, mit der besseren PC-Grafik ist ersterer dagegen überfordert und letztere erreicht nicht ganz 50 Bilder pro Sekunde. In 3.840 × 2.160 sind mit dem Original-Preset dann auch Radeon RX 6700 XT und GeForce RTX 3060 Ti spielbar, wobei die AMD-Grafikkarte knapp weniger als 60 FPS liefert und das Nvidia-Gegenstück etwas mehr.
AMD FSR und Nvidia DLSS im Vergleich
God of War bietet sowohl Nvidias DLSS in der Version 2.3.4.0 als auch AMDs konkurrierendes FidelityFX Super Resolution 1.0. Was bei beiden Funktionen jedoch fehlt, ist ein manuelles Nachschärfen des Bildes. Das ist mit den spieleigenen Mitteln des Bildes nicht möglich.
Und bei DLSS ist das auch nicht nötig. Denn das spieleigene TAA bietet zwar eine sogar in niedrigen Auflösungen immer noch gute Bildstabilität, die Bildschärfe ist dagegen keine Stärke der temporalen Kantenglättung. In Full HD ist das Bild sehr unscharf, was ab WQHD besser wird, aber selbst in Ultra HD ist der Effekt dann nicht gänzlich verschwunden. Und da DLSS die spieleigene Kantenglättung ersetzt, gibt es das Problem nicht.
DLSS macht das Bild schärfer und repariert Objekte
Das hat zur Folge, dass selbst DLSS auf Performance in Ultra HD und damit einer Renderauflösung in gerade einmal Full HD ein schärferes Bild bietet als bei nativer Auflösung. DLSS auf Quality setzt dem dann nochmal knapp einen drauf, ein schärferes Bild ist in God of War derzeit nicht möglich. Dabei wirkt es zu keiner Zeit überschärft, sondern schlicht so, wie es auch mit dem TAA schon hätte sein sollen.
Ein zweiter Pluspunkt von DLSS ist die Bildrekonstruktion. Auch die temporale Kantenglättung liefert diesbezüglich in 3.840 × 2.160 eine gute Arbeit ab, DLSS ist aber schlicht nochmal ein wenig besser, sodass zu feine Linien wie bei dünnen Ästen vom DLSS gelegentlich „neu aufgebaut“ werden. Der Vorteil ist in dem Spiel zwar nur gering, aber dennoch erwähnenswert.
In Sachen Bildstabilität kommt DLSS dagegen nicht ganz an die native Kantenglättung heran, die diesbezüglich aber auch einen wirklich guten Job erledigt. Mit DLSS auf Quality flimmern einige wenige Kanten etwas mehr als mit TAA, was jedoch immer noch Meckern auf hohem Niveau ist. Erst mit DLSS auf Performance wird das Bild dann an mehreren Stellen unruhiger. Das Flimmern ist zwar nicht störend, auf vergleichbarem UHD-Niveau ist die Stabilität dann aber nicht mehr.
Smearing ist in GoW zurück – und wie
Trotz der kleinen Schwächen von DLSS bei der Bildstabilität konnte DLSS bei der Analyse bis jetzt in God of War mit einem sehr guten Ergebnis überzeugen. Und bis hierhin muss gesagt werden, dass DLSS auf Quality qualitativ in dem Spiel schlicht besser aussieht als die native Auflösung, trotz deutlich weniger Render-Pixel. Allerdings kehrt aus unerklärlichen Gründen ein altes Schreckgespenst von DLSS in God of War wieder zurück und das auch gleich noch ziemlich heftig. Die Rede ist vom Smearing, das es mit den neuesten DLSS-Versionen eigentlich kaum noch gibt.
In God of War ist das Verschmieren aber plötzlich wieder deutlich ausgeprägt, man sieht es mal mehr und mal weniger in vielen Sequenzen. Dünne Objekte, primär Äste, sind dabei das Problem, von denen es in God of War nun mal eine Menge gibt. Doch auch Haare sind problematisch, die bei gewissen Bewegungsvektoren der Kamera so sehr verschmieren können wie DLSS zu den schlimmsten Smearing-Zeiten.
FSR ist erstaunlich stabil, aber unscharf
AMDs konkurrierendes FSR bietet anders als Nvidias DLSS keine eigene temporale Komponente, was zwar durchweg ein teils großer Nachteil, aber dafür auch weniger problembehafteter ist. Und das gilt so ebenfalls in God of War. Erstaunlich gut ist dabei die Bildstabilität, was schlicht an dem diesbezüglich sehr guten TAA liegt.
Mit FSR auf „Ultra Quality“ flimmert das Bild quasi nicht mehr als mit nativer Auflösung, was FSR in anderen Spielen eigentlich nie gelingt. Und selbst mit FSR auf Quality ist die Bildstabilität immer noch gut, auch wenn Schwächen erkennbar sind. Sogar mit noch aggressiveren FSR-Modi hält sich das Flimmern erstaunlich zurück.
In Sachen Bildstabilität ist FSR DLSS damit kaum unterlegen. Da FSR aber nun mal das TAA des Spiels benutzt, wird die Bildschärfe mit geringerer Auflösung sichtbar schlechter. Und da DLSS bereits gegenüber nativer Auflösung bezüglich der Bildschärfe punktet, ist sie der von FSR klar überlegen. Schon mit FSR auf „Ultra Quality“ lässt die Bildschärfe gegenüber nativer Auflösung nach, DLSS schneidet in dieser Disziplin entsprechend deutlich besser ab. Ab FSR auf Quality wird das Spiel ziemlich unscharf, DLSS auf „Quality“ ist bei gleicher Renderauflösung massiv schärfer.
Probleme gibt es dafür keine
Da FSR keine temporale Komponente besitzt, kann FidelityFX Super Resolution anders als DLSS auch keine verloren gegangenen Details wiederherstellen. Das ist in God of War aber wie bereits beschrieben kein Problem. Auf der Gegenseite gibt es jedoch auch keine Grafikprobleme, so verschmiert das Bild zu keiner Zeit. Und da die Entwickler offenbar auch nur den CAS-Anteil von FSR geringfügig zum Nachschärfen nutzen, entstehen dadurch ebenso keine Nachteile.
Ohne Smearing wäre DLSS fast schon perfekt
Und was sollte nun in God of War genutzt werden? DLSS oder FSR? Mit einer Radeon ist die Frage sofort beantwortet, DLSS gibt es da bekanntlich nicht. Und da FSR in God of War einen guten Job erledigt, ist das auch kein direkter Beinbruch. FSR auf „Ultra Quality“ liefert ein überzeugendes Ergebnis auf den Monitor, vielleicht das beste, was FSR je in einem Spiel geschafft hat. Nur die fehlende Bildschärfe ist ärgerlich, hier sollte per AMD CAS nachgeschärft werden – was aber potenziell andere Probleme mit sich bringen kann. Bei Leistungsproblemen kann FSR bedenkenlos benutzt werden – die Bildqualität ist besser als bei einer schlicht reduzierten Auflösung.
Nvidias DLSS liefert dann eigentlich ein fast perfektes Ergebnis in GoW ab und hat das Potenzial dazu, in dem Spiel das native Rendern klar zu übertreffen. Das ist schon beeindruckend, wenn bedacht wird, wie viel weniger Render-Pixel dem Bild zur Verfügung stehen. Doch das sehr ausgeprägte Smearing trübt das bis dahin hervorragende Ergebnis leider. Solange es nicht auffällt, ist DLSS auf Quality der nativen Auflösung klar überlegen. Fällt es dagegen auf, kann das Nachziehen nur noch schwer ignoriert werden. Und für die meisten Spieler wird daher weiterhin die native Auflösung schlussendlich die Einstellung der Wahl sein, DLSS dagegen bei FPS-Problemen. Wenn Nvidia aber das Smearing in God of War per Treiber oder Patch reduziert, wird es einen neuen, klaren Gewinner geben. So lange ist DLSS auf Quality der Modus der Wahl, wenn DLSS genutzt wird, denn damit verschmiert das Bild noch am wenigsten.
Die FPS-Gewinne von DLSS und FSR
Der Leistungsgewinn der Upscaling-Techniken hält sich in God of War zumindest bei einer High-End-Grafikkarte in Grenzen. FSR auf Quality und damit einer Renderauflösung von WQHD beschleunigt die Radeon RX 6800 XT um nicht allzu hohe 37 Prozent, bei der GeForce RTX 3080 sind es noch geringere 29 Prozent. Das ist zwar durchaus ein guter Leistungsschub, jedoch bringt die Stufe in anderen Spielen meistens einen etwas größeren Schub. Das liegt aber nicht an FSR, denn das spieleigene Scaling zeigt keine bessere Leistung. God of War skaliert schlicht nicht allzu gut mit weniger Render-Pixeln.
Wird FSR höher gedreht, fällt auch der FPS-Schub entsprechend höher aus, qualitativ ist das aber einfach nicht empfehlenswert. FSR auf Performance und damit eine Full-HD-Renderauflösung beschleunigen die Nvidia-GPU um 48 Prozent und das AMD-Gegenstück um 63 Prozent. FSR bringt in dem Actionspiel auf einer Radeon damit mehr Leistung als auf einer GeForce, was sich so bis jetzt noch in keinem anderen Titel gezeigt hat. Dabei ist es aber wahrscheinlich, dass die Radeon in God of War einfach deutlich besser mit weniger Pixeln zurechtkommt als die GeForce – was im Duell RDNA 2 gegen Ampere nicht selten der Fall ist.
DLSS sieht besser aus, bringt aber weniger Performance
Der FPS-Gewinn durch Nvidias DLSS ist wie gewohnt geringer als der von AMDs FSR, da die Berechnungszeit des neuralen Netzwerkes deutlich länger ist als die des Spatial-Upscalers. DLSS auf Quality beschleunigt die GeForce RTX 3080 um 19 Prozent, sodass FSR bei selber Renderauflösung 8 Prozent schneller ist – um so viel ist die Rechenzeit von DLSS länger als die von FSR. DLSS auf Performance beschleunigt die GeForce dann um 34 Prozent, hier liegt der Abstand zu FSR auf Performance (beides mit Full-HD-Auflösung) bei leicht höheren 10 Prozent.