Guardians of the Galaxy im Test: Raytracing und Nvidia DLSS im Detail

 2/4
Wolfgang Andermahr (+1)
231 Kommentare

Marvel's Guardians of the Galaxy nutzt Raytracing, beschränkt sich dabei aber auf einen Effekt: die Reflexionen. Zur Konfiguration stehen dem Anwender zwei Optionen zur Verfügung. Der Menüpunkt „Raytracing-Reflexionen“ nimmt mit den Einstellungen „Hoch“, „Sehr hoch“ und „Ultra“ Einfluss auf die generelle Qualität der Reflexionen und mit „Transparente Raytracing-Reflexionen“ lassen sich Reflexionen auf transparenten Oberflächen wie zum Beispiel Fenstern separat an- oder abstellen.

Raytracing sieht bei den Guardians richtig gut aus

Spiele, die Raytracing ausschließlich für die Reflexionen nutzen, haben bis dato selten überzeugt. Der Effekt kostet in der Regel viel Performance und wird von den Entwicklern gerne mit der Vorschlaghammer-Methode verwendet. Das Ergebnis ist eine Effekthascherei, aber kein realistisches Abbild der Wirklichkeit. Watch Dogs: Legion (Test) ist solch ein Fall.

Marvel's Guardians of the Galaxy zeigt dagegen, wie es richtig geht. Ja, auch in dem Spiel gibt es RT-Reflexionen in Massen, aber hier passt das immerhin ins Bild: Fremde Welten dürfen eben auch fremd aussehen. Noch viel wichtiger ist aber, dass es zwar von Spiegeln zu erwartende Reflexionen gibt, selbige jedoch eine Seltenheit sind. Meist sind eher diffuse Reflexionen zu sehen, weil Oberflächen eben keine Spiegel, sondern matter sind. Trotz der vielen RT-Reflexionen wirkt RT in diesem Titel damit alles andere als übertrieben.

In der Kurzfassung lässt sich sagen, dass Marvel's Guardians of the Galaxy die mit Abstand beste Integration von Raytracing-Reflexionen bietet, die ein Spiel bis dato in der Redaktion gezeigt hat. Wer auf Raytracing verzichtet, verliert trotz ordentlicher Screenspace-Reflexionen in diesem Titel so einiges an Grafikqualität.

Die drei Qualitätsstufen „Hoch“, „Sehr hoch“ und „Ultra“

Die Qualitätsstufe der RT-Reflexionen ist aus optischer Sicht dabei gar nicht so wichtig. Sämtliche Effekte bietet auch schon mit der Hoch-Einstellung ein sehr gutes Resultat, „Sehr hoch“ und „Ultra“ drehen dann primär etwas an der RT-Auflösung (ein Viertel, ein Drittel und die halbe Renderauflösung dürften hinter den Stufen stehen). Darüber hinaus scheinen die Strahlen etwas häufiger zu „bouncen“, also zu springen. Letzteres sieht man aber ohnehin nur an wenigen Objekten und das fällt dann eigentlich nie auf. Ersteres wird durch die matten Reflexionen ebenfalls zum Randthema. Fazit: Mehr als RT auf „Hoch“ bedarf es eigentlich nicht.

Hat man zu viel GPU-Leistung übrig, sind die sehr hohen Raytracing-Reflexionen noch sinnvoll. Die Ultra-Einstellung ist wiederum eine ziemliche Ressourcenverschwendung: Selbst bei klaren Reflexionen tut sich dann kaum noch etwas.

Deutlich wichtiger als die höheren RT-Einstellungen sind dagegen die transparenten RT-Reflexionen, die Raytracing auch auf transparenten Oberflächen ermöglichen. Das ist ein Effekt, der zwar wirklich nur ziemlich selten zu sehen ist, dann aber oft einen recht großen Unterschied macht. Ob sich in einem großen Fenster nun nichts von der Umgebung spiegelt oder quasi alles, fällt auf. Diese Option sollte also unabhängig von der RT-Stufe aktiv sein.

Die Performance von Raytracing

Wer Raytracing in Guardians of the Galaxy aktiviert, muss auf ein gutes Stück Leistung verzichten. Die Hoch-Einstellung kostet in 2.560 × 1.440 auf einer GeForce RTX 3080 18 Prozent Performance, auf einer Radeon RX 6800 XT sind es deutlich höhere 39 Prozent – die Radeon erreicht aber immer noch locker mehr als 80 Bilder pro Sekunde. Wer auf „Sehr hoch“ wechselt, verliert auf der GeForce weitere 17 Prozent und auf der Radeon 27 Prozent FPS, mit „Ultra“ noch einmal 15 respektive 22 Prozent.

Raytracing – 2.560 × 1.440
  • FPS, Durchschnitt:
    • RX 6800 XT @ Kein Raytracing
      131,1
    • RTX 3080 @ Kein Raytracing
      118,1
    • RTX 3080 @ RT Hoch
      97,1
    • RTX 3080 @ RT Hoch + Trans
      95,5
    • RTX 3080 @ RT Sehr Hoch
      80,4
    • RX 6800 XT @ RT Hoch
      79,7
    • RX 6800 XT @ RT Hoch + Trans
      78,0
    • RTX 3080 @ RT Ultra
      68,2
    • RX 6800 XT @ RT Sehr Hoch
      58,1
    • RX 6800 XT @ RT Ultra
      45,3
  • FPS, 0,2% Perzentil:
    • RTX 3080 @ Kein Raytracing
      102,9
    • RX 6800 XT @ Kein Raytracing
      99,7
    • RTX 3080 @ RT Hoch
      84,4
    • RTX 3080 @ RT Hoch + Trans
      83,9
    • RTX 3080 @ RT Sehr Hoch
      70,2
    • RX 6800 XT @ RT Hoch + Trans
      63,6
    • RX 6800 XT @ RT Hoch
      60,2
    • RTX 3080 @ RT Ultra
      60,0
    • RX 6800 XT @ RT Sehr Hoch
      45,0
    • RX 6800 XT @ RT Ultra
      37,9
Einheit: Bilder pro Sekunde (FPS)

Wie viel die Raytracing-Objekten auf transparenten Oberflächen kostet, ist ganz davon abhängig, wie viele transparente Oberflächen es zu sehen gibt. Meistens gibt es gar keine, dann kostet das Feature auch keine zusätzliche Leistung. Gibt es wenige, sinkt die Geschwindigkeit ebenfalls nur minimal. Das ist in der Testszene der Fall, bei Radeon RX 6800 XT und GeForce RTX 3080 gehen die FPS nur um 2 Prozent zurück. Sind dagegen viele transparente Objekte im Bild, kann die Framerate spürbar einbrechen. Das ist dann jedoch meist nur kurzzeitig der Fall.

Das Fazit zu Raytracing

Marvel's Guardians ist nach der Metro Exodus Enhanced Edition (Test) das Spiel, das den größten optischen Nutzen aus Raytracing zieht. Und das dann auch gleich noch ausschließlich mit RT-Reflexionen, die bis dato in der Regel völlig übertrieben eingesetzt wurden, in GotG aber richtig gut funktionieren. Hilfreich ist dabei, dass in dem Spiel nun mal keine realistische Welt gezeigt wird und darüber hinaus auch eher wenige Oberflächen perfekt spiegelnde Reflexionen werfen. Raytracing hebt die Grafikqualität von Guardians of the Galaxy auf ein höheres Level, von der Umsetzung sollten sich alle anderen Games eine Scheibe abschneiden.

Das gilt ebenso für die Optionsvielfalt. Den mit Abstand größten optischen Nutzen zieht Raytracing bereits aus der niedrigsten Hoch-Einstellung inklusive der Transparent-Option, danach kommt nur noch Feintuning. Mit „Hoch“ kommen auch Radeon-Grafikkarten gut zurecht, einzig für Ultra HD reicht es dann nicht ganz (80 oder 85 Prozent Renderauflösung sind die Lösung). Ja, mit der Einstellung „Sehr hoch“ zeigen einige Reflexionen etwas gröbere Details, zu einem Großteil gibt es aber keinen nennenswerten Unterschied. „Sehr hoch“ sieht minimal besser aus und „Ultra“ ist schlicht – nun ja – sinnlos.

GeForce-Grafikkarten sind deutlich schneller als die Radeon-Pendants, wenn die Strahlen zum Einsatz kommen. Mit Raytracing auf „Sehr hoch“ ist die Performance auf einem Ampere-Modell in etwa genauso gut wie mit einer vergleichbaren Radeon auf „Hoch“ – es ist empfehlenswert, in dem Fall eher die höhere Framerate mitzunehmen.

Die Bildqualität von Nvidia DLSS

Marvel's Guardians of the Galaxy bietet DLSS in der Version 2.3.1.0. Neben den gewohnten Qualitätsstufen „Quality“, „Balanced, „Performance“ und „Ultra Performance“ gibt es einen praktischen Schärferegler, der in 1-Prozent-Schritten zwischen 1 und 100 Prozent konfiguriert werden kann. 20 Prozent hat sich dabei als ein sinnvoller Wert herausgestellt.

DLSS agiert in Guardians of the Galaxy anders als gewohnt, die optische Wirkung unterscheidet sich zu anderen Spielen stellenweise massiv. Bekannt ist lediglich die dem spieleigenen TAA überlegene Rekonstruktion von Bilddetails, doch ist das ohne DLSS in GotG kein echtes Problem.

In Sachen Bildruhe kann DLSS nicht überzeugen

Für gewöhnlich macht DLSS in Sachen Bildstabilität niemand etwas vor, in Guardians of the Galaxy funktioniert das aber einfach nicht. Im Gegenteil: Die Bildstabilität ist bereits mit DLSS auf „Quality“ in allen Auflösungen schlechter als mit dem TAA des Spiels und auch das überzeugt in diesem Aspekt nicht. Manche Objekte werden mit DLSS zwar absolut einwandfrei geglättet, doch bereits DLSS auf „Quality“ flimmert selbst in Ultra HD sichtbar mehr als ohne Nvidias intelligentes KI-Upsampling. Wird ein aggressiverer DLSS-Modus eingestellt, intensiviert sich das Flimmern entsprechend.

Das ist das größte Problem von DLSS in dem Spiel. Es gibt aber noch eine zweite größere Baustelle: DLSS „verschlimmbessert“ auch in GotG Grafikfehler. Sie kommen vom Spiel, fallen mit dem normalen TAA aber nur leicht auf. Und zwar haben die Figuren in den zahlreichen Zwischensequenzen ganz gerne mal mit Ghosting zu kämpfen. Darüber hinaus werden die detaillierten Frisuren der Charaktere nicht ganz sauber dargestellt. Mit DLSS werden beide Effekte verschärft. Das ist beim Spielen kein Problem, in den Sequenzen aber eben schon, denn das Ghosting fällt sofort auf. Auch hier gilt, dass geringere Auflösungen und aggressivere Modi das Problem verschlimmern, doch auch in Ultra HD ist es mit DLSS auf „Quality“ bereits gut ausgeprägt. Dasselbe gilt für einen heftigen Moiré-Effekt bei den vielen Gittern, über die der Spieler immer wieder läuft. Diese werden vom Spiel selbst erzeugt, auch TAA hat entsprechend damit zu kämpfen. Doch DLSS verstärkt den Effekt zusätzlich.

Eine Quasi-Standard-Baustelle sind falsch gesetzte Mip-Map-Stufen bei DLSS. Das hat zur Folge, dass das Spiel nicht die Mip-Maps für die Ziel-Auflösung nutzt, sondern nur diejenigen der Renderauflösung. Im Ergebnis werden gegenüber der nativen Auflösung manche Objekte weniger detailliert dargestellt, andere Details gehen gänzlich verloren. Das hat nur einen kleinen Einfluss auf die Bildqualität, ist aber dennoch ein Negativpunkt.

Die RT-Reflexionen funktionieren gut mit dem KI-Upsampling

Einen Pluspunkt gibt es dagegen überraschenderweise bei den Raytracing-Reflexionen, die durch DLSS ganz gerne mal an Details verlieren. In Guardians of the Galaxy funktioniert es hingegen gut. Auch in dem Spiel gehen Details bei den Reflexionen durch DLSS verloren, da schlicht weniger Pixel benutzt werden und DLSS das nur schlecht bis gar nicht rekonstruieren kann. Doch da GotG zu keiner Zeit absolut klare Reflexionen hat, stört das einfach weniger. In Ultra HD sehen die Reflexionen selbst mit DLSS auf „Performance“ noch ordentlich aus, in WQHD gilt das noch für DLSS auf „Quality“.

Auch zum Thema Smearing mit DLSS gibt es Positives zu vermelden, denn der Punkt ist in Guardians of the Galaxy sogar mit aggressiven Einstellungen kein Problem.

Die Performance von Nvidia DLSS

DLSS bringt in Marvel's Galaxy of the Guardians vor allem beim Einsatz von Raytracing einen großen Leistungsschub, da mit dem Aktivieren der Upsampling-Technologie zugleich auch die Anzahl der verschossenen Strahlen und deren Auflösung reduziert werden. Wer in 3.840 × 2.160 auf einer GeForce RTX 3080 DLSS aktiviert und auf „Quality“ stellt, verbessert die Framerate um hohe 45 Prozent und erhält locker mehr als 60 FPS. Mit DLSS auf „Balanced“ gibt es dann noch einmal 14 Prozent obendrauf und mit DLSS auf „Performance“ weitere 13 Prozent. DLSS auf „Performance“ reicht trotzdem nicht, um die GeForce RTX 2070 Super über die 60-FPS-Marke zu katapultieren.

Während die GeForce RTX 3080 in 2.560 × 1.440 deutlich weniger von DLSS profitiert als in Ultra HD, sieht das bei der GeForce RTX 2070 Super anders aus. DLSS auf „Quality“ bringt auf der Turing-Grafikkarte 38 Prozent mehr Performance, DLSS auf „Balanced“ weitere 12 Prozent und DLSS auf „Performance“ noch einmal 9 Prozent. Bereits mit DLSS auf „Quality“ werden 60 FPS beziehungsweise nochmal deutlich mehr Bilder pro Sekunde erreicht.

Nvidia DLSS
Nvidia DLSS – 3.840 × 2.160 + Raytracing
  • FPS, Durchschnitt:
    • RTX 3080 @ DLSS Performance
      103,1
    • RTX 3080 @ DLSS Balanced
      91,1
    • RTX 3080 @ DLSS Quality
      79,6
    • RTX 2070S @ DLSS Performance
      58,3
    • RTX 3080 @ Nativ
      54,8
    • RTX 2070S @ DLSS Balanced
      51,1
    • RTX 2070S @ DLSS Quality
      44,6
    • RTX 2070S @ Nativ
      29,0
  • FPS, 0,2% Perzentil:
    • RTX 3080 @ DLSS Performance
      87,4
    • RTX 3080 @ DLSS Balanced
      77,0
    • RTX 3080 @ DLSS Quality
      68,1
    • RTX 2070S @ DLSS Performance
      52,0
    • RTX 3080 @ Nativ
      48,9
    • RTX 2070S @ DLSS Balanced
      44,9
    • RTX 2070S @ DLSS Quality
      39,7
    • RTX 2070S @ Nativ
      24,8
Einheit: Bilder pro Sekunde (FPS)

Das Fazit zu DLSS

Nvidias DLSS hinterlässt in Guardians of the Galaxy im scharfen Kontrast zu Raytracing keinen guten Eindruck. Denn entgegen dem Trend schafft es das intelligente Upsampling-Verfahren in diesem Titel nicht, eine gleichwertige Bildqualität zur nativen Auflösung zu erreichen. Mit dem spieleigenen TAA ist GotG schlicht schöner.

Gänzlich nutzlos ist DLSS in dem Spiel aber nicht. DLSS auf „Quality“ ist in Ultra HD durchaus sinnvoll, wenn mehr Leistung benötigt wird. GotG verliert dann zwar an Grafikqualität, sieht bei gleicher Renderauflösung aber besser als mit WQHD plus TAA aus. Entsprechend verschönert DLSS schon die Grafik des Games, aber in eher geringem Umfang, sodass die mit DLSS stattfindende Auflösungsreduzierung für das Spiel zu hoch ist.

Aggressivere Einstellungen sollten selbst in Ultra HD nicht genutzt werden, unterhalb von UHD ist DLSS per se nur ein Notanker. Bei einer geringeren Pixelanzahl fällt das fehlerhafte Mip-Map-Level zu sehr auf, darüber hinaus werden einige Grafikfehler durch DLSS zu sehr „verschlimmbessert“. In dem Fall ist es sinnvoller, die Grafikdetails zu reduzieren.