Guardians of the Galaxy im Test: Benchmarks mit und ohne RT in Full HD, WQHD & UHD sowie Frametimes
3/4Das Testsystem und die Benchmark-Szene
Alle Benchmarks wurden auf einem AMD Ryzen 9 5950X (Test) durchgeführt, der mit den Standardeinstellungen betrieben wurde. Als Mainboard war das Asus ROG Strix B550-E Gaming (BIOS 1801) mit dem B550-Chipsatz verbaut, Grafikkarten konnten entsprechend mit PCIe 4.0 angesteuert werden. Die CPU wurde von einem Noctua NH-D15S mit zentral installiertem 140-mm-Lüfter gekühlt. 32 GB Speicher (4 × 8 GB, Single-Rank, DDR4-3600, 16-16-16-32, optimierte Sekundär-Timings für die GPU-Benchmarks, Hersteller-Empfehlung für die CPU-Benchmarks) standen dem Prozessor zur Verfügung. Windows 10 21H1 mit sämtlichen Updates war auf einer NVMe-M.2-SSD mit PCIe 4.0 installiert. Dasselbe galt für das Spiel. Resizable BAR wurde auf unterstützten Grafikkarten sowohl bei AMD als auch bei Nvidia genutzt.
Als Treiber kam der Adrenalin 21.10.3 bzw. der GeForce 496.13 zum Einsatz. Der Treiber von AMD war für das Spiel optimiert, der Treiber von Nvidia nicht.
Die 25 Sekunden lange Testsequenz findet im dritten Abschnitt der Kampagne statt und zeigt einen Fußmarsch bei schlechtem Wetter über eine dicht mit Vegetation bewachsene Welt. Auch wenn die Testsequenz im Vergleich zu anderen Abschnitten des Spiels optisch eher öde wirkt, belastet sie die Grafikkarte intensiv. Meistens läuft GotG sowohl ohne als auch mit Raytracing schneller.
Für die Auflösungen 1.920 × 1.080, 2.560 × 1.440 und 3.840 × 2.160 werden mit dem Ultra-Preset die maximalen Grafikdetails genutzt. Raytracing und DLSS sind nur in entsprechend gekennzeichneten Benchmarks aktiviert. Für den Leistungsvergleich mit aktiviertem Raytracing sind die Raytracing-Reflexionen auf „Hoch“ gestellt und die transparenten RT-Reflexionen eingeschaltet.
Auflösung | Grafikdetails |
---|---|
1.920 × 1.080 | Ultra-Preset, bei RT-Benchmarks zusätzlich RT Hoch + Transparent-RT |
2.560 × 1.440 | Ultra-Preset, bei RT-Benchmarks zusätzlich RT Hoch + Transparent-RT |
3.840 × 2.160 | Ultra-Preset, bei RT-Benchmarks zusätzlich RT Hoch + Transparent-RT |
Benchmarks in Full HD, WQHD und Ultra HD
60 FPS und mehr sind in Marvel's Guardians of the Galaxy selbst bei vollen Grafikdetails in 1.920 × 1.080 kein Hexenwerk, solange auf Raytracing verzichtet wird. Die alten Einsteiger-Modelle wie Radeon RX 580 und GeForce GTX 1060 erreichen die Marke zwar nicht, schon mit einer Radeon RX Vega 56, Radeon RX 5600 XT, GeForce GTX 1080 oder GeForce RTX 2060 sind aber wiederum teils nochmals deutlich höhere Frameraten möglich. Für 2.560 × 1.440 muss es dann eine Radeon RX 5700, Radeon RX 6600, GeForce RTX 2060 Super oder GeForce RTX 3060 sein. Erst ab 3.840 × 2.160 steigen die Anforderungen deutlich an. Dann gibt es mindestens 60 Bilder pro Sekunde ab einer Radeon RX 6800 oder GeForce RTX 3080.
Auffällig bei den Benchmarks ist neben dem störenden 144-FPS-Limit des Spiels das deutlich schlechtere Abschneiden der Radeon-Grafikkarten bei den Perzentil-FPS in Full HD. Ab 105 FPS rennen die Radeons in ein Limit, das auf den GeForce-Grafikkarten offenbar erst bei 127 FPS auftritt. Dort haben die GeForce-Vertreter einen Vorteil. Ab WQHD verschwindet das Problem dann, wobei Nvidia-GPUs bei den Perzentil-FPS besser als bei den Durchschnitts-FPS abschneidet.
Denn bei den AVG-FPS haben Radeon-Grafikkarten die Nase teils deutlich vor den Konkurrenzmodellen in Guardians of the Galaxy. Die Radeon RX 6800 XT ist in Ultra HD 9 Prozent schneller als die GeForce RTX 3080 und legt sich gleich mit der GeForce RTX 3080 Ti an. Die Radeon RX 6700 XT liegt in WQHD derweil nicht nur 16 Prozent vor der GeForce RTX 3060 Ti, sondern auch 5 Prozent vor der GeForce RTX 3070, während die GeForce RX 6600 XT in Full HD 10 Prozent mehr FPS als die GeForce RTX 3060 liefert. Abgesehen vom kleinsten Duell schneiden die anderen Radeon-Grafikkarten damit durchweg besser als im AAA-Spieleschnitt ab.
RDNA 2, GCN und Turing sind die Gewinner
Im Generationenvergleich zeigt sich, dass RDNA 2 gut in dem Superhelden-Spiel unterwegs ist. Die Radeon RX 6800 XT ist in WQHD 94 Prozent schneller als die Radeon RX 5700 XT, gewöhnlich sind es etwas geringere 87 Prozent. Das originale RDNA-Design schneidet dagegen nicht so gut ab. Die Radeon RX 5700 XT kann sich nur um 19 Prozent von der Radeon RX Vega 64 absetzen, 27 Prozent sind es normalerweise. Das liegt aber weniger an einem schwachen RDNA, sondern vielmehr an einem starken Abschneiden der gesamten GCN-Riege. So liegen Radeon RX 580 und Radeon RX Vega 64 auch klar vor GeForce GTX 1060 und GeForce GTX 1080.
Im Hause Nvidia kommen die Ampere-Produkte nicht ganz so gut in Fahrt wie die aktuellen Konkurrenzmodelle bei AMD. Die GeForce RTX 3080 ist nur 66 Prozent schneller als die GeForce RTX 2070 Super, in AAA-Spielen sind es sonst 74 Prozent. Einen deutlichen Sieg kann dagegen die Turing- gegenüber der Pascal-Generation einfahren, denn letztere kommt mit dem Spiel nicht gut zurecht. Die GeForce RTX 2070 Super ist 49 Prozent flotter als die GeForce GTX 1080, in anderen Spielen sind es sonst nur 34 Prozent.
Benchmarks in Full HD, WQHD und Ultra HD mit Raytracing
Wird Raytracing aktiviert, ist es deutlich schwieriger, die 60-FPS-Marke zu erreichen, wobei dies in Full HD noch den meisten Kandidaten gelingt. Ab einer Radeon RX 6600 XT, GeForce RTX 2060 Super oder GeForce RTX 3060 wird das Ziel erreicht, damit fallen nur die Radeon RX 6600 und die GeForce RTX 2060 unten durch. In WQHD gibt es dann deutlich mehr Ausschuss, dafür sollte es eine Radeon RX 6800, GeForce RTX 2080 Super oder GeForce RTX 3060 Ti sein. In Ultra HD ist die GeForce RTX 3080 Ti die einzige Grafikkarte, die das Ziel erfüllt. In der hohen Auflösung ist es ratsam, schlicht die Renderauflösung auf 80 bis 90 Prozent zu reduzieren. Dann ist „Ultra HD“ auch mit einer Radeon RX 6800 XT und GeForce RTX 3080 gut spielbar und sieht deutlich besser als mit WQHD aus.
Mit Raytracing sind Nvidia-Grafikkarten durchgängig ein gutes Stück schneller als die AMD-Pendants. In WQHD liegt die GeForce RTX 3080 22 Prozent vor der Radeon RX 6800 XT, in Ultra HD sind es 25 Prozent. Dabei ist das eigentlich ein gutes Ergebnis für AMD, denn die GeForce RTX 3080 ist bei aktivierten Strahlen im Langzeitschnitt 47 Prozent schneller unterwegs. Bei höheren Raytracing-Stufen wird der Abstand auch entsprechend größer, doch ist der hohe Leistungsverlust in Anbetracht der geringen Verbesserungen der Reflexionen einfach nicht lohnenswert – auch auf einer GeForce nicht.
Bei aktiviertem Raytracing haben GeForce-Grafikkarten im Vergleich zu den Durchschnitts-FPS ebenfalls die besseren Perzentil-FPS als die Radeon-Beschleuniger. Dabei handelt es sich um ein Problem bei den Radeon-Grafikkarten, da der Abstand immer geringer wird, je höher die Auflösung geschraubt wird. Eigentlich müsste der Abstand aber immer größer werden, sodass hier von einem Problem auszugehen ist.
Gute, aber unterschiedliche Frameraten
Marvel's Guardians of the Galaxy zeigt im Test auf jeder Grafikkarte gute Frametimes, die bei einer ausreichend hohen Framerate ein gutes Spielgefühl vermitteln. Dennoch schneiden AMD- und Nvidia-Grafikkarten in dieser Messreihe nicht gleich ab. So zeigt die GeForce RTX 3080 in WQHD nur richtig kleine Abweichungen bei der Bildausgabe – man kann fast schon von einer geraden Linie reden.
Die Radeon RX 6800 XT hat dagegen mit einem deutlich größeren Auf und Ab zu kämpfen. Das Verhalten stellt kein Problem dar, da es selbst keinen einzigen mittelgroßen Ausreißer gibt und sie allesamt klein sind. Dennoch ist die Bildausgabe unruhiger als auf einer Nvidia-GPU, das sollte entsprechend mittels Treiber oder Patch verbessert werden. Praktische Auswirkungen hat das Verhalten nur bei niedrigen Frameraten, dann fühlt sich GotG aber generell nicht mehr gut an.
Ob Raytracing ein- oder ausgeschaltet ist, hat auf die Frametimes in dem Superhelden-Spiel absolut keine Auswirkungen. Die Abstände zwischen den Bildern bleiben auf demselben Niveau, es brauchen schlicht nur alle Frames generell länger. Die Unterschiede zwischen einer Radeon und einer GeForce bleiben bestehen.