Schöner Spielen mit HDR: Benchmarks zeigen geringere Leistung auf AMD und Nvidia

 2/2
Wolfgang Andermahr
290 Kommentare

GTX 1080 und RX Vega 64 im HDR-Benchmark-Duell

Die Benchmarks zeigen schnell, dass HDR nicht ohne Performance-Verlust genutzt werden kann. Auf AMDs Radeon RX Vega 64 fällt dieser aber nur gering aus. Im Durchschnitt verringert sich bei angeschaltetem HDR die Framerate um zwei Prozent, für die Frametimes gibt es denselben Wert.

Die GeForce GTX 1080 verliert hingegen deutlich mehr Geschwindigkeit. Im Schnitt reduzieren sich die Bilder pro Sekunde um zehn Prozent, die Frametimes um kaum geringere neun Prozent. Und in manchen Spielen kann es noch deutlich mehr sein. ComputerBase steht mit Nvidia diesbezüglich in Kontakt. Bis jetzt hat es aber noch keine Antworten gegeben.

Mit HDR ändert sich das Kräfteverhältnis

Das unterschiedliche Verhalten hat somit auch Auswirkungen auf das direkte Duell. Mit klassischem SDR ist die Radeon RX Vega 64 im Durchschnitt ein Prozent schneller und damit praktisch quasi gleich schnell. Mit HDR ist die AMD-Grafikkarte dagegen ein gutes Stück voraus. Der Vorsprung beträgt dann zehn Prozent.

Performancerating
Performancerating – FPS
    • AMD Radeon RX Vega 64 @ SDR
      52,4
    • Nvidia GeForce GTX 1080 @ SDR
      51,8
    • AMD Radeon RX Vega 64 @ HDR
      51,3
    • Nvidia GeForce GTX 1080 @ HDR
      46,5
Einheit: Bilder pro Sekunde (FPS), Geometrisches Mittel

Die einzelnen Spiele zeigen Extreme

Die einzelnen Benchmarks zeigen, dass es sie wirklich gibt: Spiele, die mit HDR keine Performance verlieren. Interessanterweise sind es nicht dieselben Titel, GeForce reagiert anders als Radeon. So zeigt sich die GeForce GTX 1080 in Mass Effect: Andromeda unbeeindruckt davon, ob SDR oder HDR genutzt wird. Auch in Far Cry 5 ist die Differenz sehr klein. Auf der Radeon RX Vega 64 gibt es in Assassin's Creed Origins, Battlefield 1, F1 2017, Final Fantasy XV, Mass Effect: Andromeda, Shadow Warrior 2 und Star Wars: Battlefront 2 keinen Unterschied, welcher Modus aktiv ist.

Diagramme
Assassin's Creed Origins – 3.840 × 2.160
  • FPS, Durchschnitt:
    • Nvidia GeForce GTX 1080 @ SDR
      50,7
    • AMD Radeon RX Vega 64 @ SDR
      45,7
    • AMD Radeon RX Vega 64 @ HDR
      45,6
    • Nvidia GeForce GTX 1080 @ HDR
      44,5
  • 99th Percentile (Frametimes in FPS):
    • Nvidia GeForce GTX 1080 @ SDR
      41,5
    • Nvidia GeForce GTX 1080 @ HDR
      37,4
    • AMD Radeon RX Vega 64 @ SDR
      36,4
    • AMD Radeon RX Vega 64 @ HDR
      36,4
Einheit: Bilder pro Sekunde (FPS)

In anderen Spielen sind die Abstände teils deutlich größer. Auf der Radeon-Grafikkarte halten sich die Unterschiede in Grenzen. Der größte Performance-Verlust zeigt sich in Destiny 2, das neun Prozent an FPS verliert. Far Cry 5 läuft fünf Prozent langsamer, in allen anderen Spielen beträgt die Differenz weniger als fünf Prozent.

Ganz anders die GeForce GTX 1080. Auch dort ist Destiny 2 am problematischsten. Hier beträgt der Geschwindigkeitsverlust auf der Nvidia-Grafikkarte hohe 20 Prozent. Ebenso verliert Assassin's Creed Origins mit 12 Prozent, Mittelerde: Schatten des Krieges mit 13 Prozent und Shadow Warrior 2 mit 15 Prozent viel Leistung.

Überraschende Ergebnisse ändern nichts am Fazit

Bei der Planung des Artikels ging die Redaktion eigentlich davon aus, dass die Ergebnisse langweilig – da gleich – ausfallen und die Erwartungen nur bestätigt werden würden. Es wurde dann aber doch viel spannender als gedacht. Denn bezüglich der Performance ist es nur selten egal, ob HDR genutzt wird oder nicht. Manche Spiele verlieren je nach Grafikkarten durchaus ordentlich Performance.

Je nach Spiel gibt es einen unterschiedlich großen Leistungsverlust

Mit HDR muss zumindest derzeit zwischen einer AMD- und einer Nvidia-Grafikkarte unterschieden werden. Denn die im Test genutzte Radeon RX Vega 64 verliert in den meisten Titeln tatsächlich keinerlei Performance beim Wechsel von SDR auf HDR. Der Worst Case ist Destiny 2 mit nicht ganz zehn Prozent weniger FPS und Far Cry 5 mit einem fünfprozentigen Verlust. Im Durchschnitt ist der Einsatz von HDR auf der Radeon mit zwei Prozent Verlust nicht spürbar.

Auf einer Nvidia-Grafikkarte fällt der Leistungsverlust derzeit hingegen deutlich höher aus. Die GeForce GTX 1080 verliert durch „High Dynamic Range“ im Schnitt 10 Prozent an Bildern pro Sekunde, in Destiny 2 sind es gar 20 Prozent. Damit ist der Geschwindigkeitsverlust auf einer Nvidia-Grafikkarte anders als auf einem AMD-Beschleuniger durchaus zu spüren. Und es verschiebt sich auch das Leistungsgefüge: Denn mit SDR gibt es einen Gleichstand zwischen den zwei Grafikkarten, mit HDR liegt aber AMD vorne.

Der Grund für das Verhalten ist unklar

Warum Nvidia-GPUs mit größeren Einbußen als die AMD-Grafikkarten zu kämpfen haben, ist derzeit unklar – auch Nvidia konnte der Redaktion noch keinen Grund dafür nennen. Dennoch lautet die Empfehlung, bei einem entsprechenden Monitor HDR zu nutzen. Es gibt zwar noch nicht viele Spiele, die HDR unterstützen. Die meisten, die dies tun, sehen damit aber teils deutlich besser aus. Der Unterschied ist viel größer als bei einer oder auch zwei höheren Detailstufen, sodass eben jene reduziert werden können und das Spiel dennoch schöner aussieht. Unter Umständen müssen dann jedoch auf einer GeForce mehr Details reduziert werden als auf einer Radeon.

Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.