- Registriert
- Dez. 2021
- Beiträge
- 1.377
Es ist ein Thema, dass mich als Besitzer einer AMD-Grafikkarte schon länger beschäftigt. Der computerbase-Artikel zur Metro Exodus Enhanced Edition hat für mich den Stein ins Rollen gebracht:
Die Raytracing-Performance in Spielen wird maßgeblich durch die RT-Qualität bestimmt, das heißt wieviele Strahlen (Rays) für eine physikalisch exakte Beleuchtung pro Frame von der GPU "verschossen" bzw. berechnet werden müssen. Dem Artikel zufolge ist die Qualität der Beleuchtung beim Setting "Normal" kaum schlechter als in den beiden höheren Stufen "Hoch" und "Ultra". Das Problem: RDNA2 und RDNA3 haben erst bei höherer "Strahlenbelastung" Leistungsprobleme. Leider wird in den meisten Raytracing-Spielen eine vernünftige Auswahlmöglichkeit der RT-Qualität nicht angeboten - zum Leidwesen aller Radeon-Besitzer. Jetzt kann man sich zurecht die Frage stellen, was denn so schwierig daran sein soll? Warum müssen erst Hobby-Programmierer eigene Mods erstellen, nur damit sich eine simple Grafikoption im Spiel aktivieren lässt. Was ist also der wahre Grund für diesen ärgerlichen Umstand.
Meine Behauptung: Nvidia möchte beim Thema "RTX ON" mit aller Macht die rote Konkurrenz durch gezielte Einflussnahme auf die Spieleentwicklung klein halten - auf Kosten der allgemeinen Verwendbarkeit von RT-Effekten in heutigen Spielen für die breite Masse. Für mich zeigt der aktuelle Fall "The Witcher 3" wieder einmal das größte Problem von Raytracing überhaupt auf...
Wichtig: Meine Annahme beruht auf die von mir dargelegte Faktenlage. Das heißt mir geht es um die Wahrheit. Das Ziel dieses Threads ist es, das Thema "Raytracing in Spielen" näher unter die Lupe zu nehmen und auf aktuell verschenktes Potenzial bei der technischen Umsetzung einzugehen. Die Frage könnte auch lauten, wieviel Hardwarepower ist wirklich von Nöten, um ein gutes RT-Erlebnis in Spielen zu erhalten? Möglicherweise ist es weniger als allgemein angenommen.
Vielleicht wäre dieses spannende Thema der computerbase-Redaktion eines Tages auch mal einen eigenen Artikel Wert.
Edit:
1) Ich habe meine ursprüngliche, zum Teil unangebrachte Ausdrucksweise etwas entschärft.
2) Dieses Problem ist nicht allein auf AMD-Grafikkarten beschränkt, sondern betrifft jede GPU mit geringerer RT-Performance, d.h. auch die RTX Einsteiger- und Mittelklasse-Grafikkarten von Nvidia selbst.
3) Zum besseren Verständnis gebe ich noch meine eigenen Ergebisse im Ingame-Benchmark von Metro Exodus EE mit meinen System an:
A) FHD (1920×1080), Grafik-Preset Ultra mit Ray Trace auf "Normal" und Reflections auf "Raytraced": 93(66) FPS
B) WQHD (2560×1440), Grafik-Preset Ultra mit Ray Trace auf "Normal" und Reflections auf "Raytraced": 78(53) FPS
C) UWQHD (3440×1440), Grafik-Preset Ultra mit Ray Trace auf "Normal" und Reflections auf "Raytraced": 65(45) FPS
D) UHD (3840×2160), Grafik-Preset Ultra mit Ray Trace auf "Normal" und Reflections auf "Raytraced": 43(31) FPS
[Durchschnitts-FPS (1%-Perzentil)]
Die Raytracing-Performance in Spielen wird maßgeblich durch die RT-Qualität bestimmt, das heißt wieviele Strahlen (Rays) für eine physikalisch exakte Beleuchtung pro Frame von der GPU "verschossen" bzw. berechnet werden müssen. Dem Artikel zufolge ist die Qualität der Beleuchtung beim Setting "Normal" kaum schlechter als in den beiden höheren Stufen "Hoch" und "Ultra". Das Problem: RDNA2 und RDNA3 haben erst bei höherer "Strahlenbelastung" Leistungsprobleme. Leider wird in den meisten Raytracing-Spielen eine vernünftige Auswahlmöglichkeit der RT-Qualität nicht angeboten - zum Leidwesen aller Radeon-Besitzer. Jetzt kann man sich zurecht die Frage stellen, was denn so schwierig daran sein soll? Warum müssen erst Hobby-Programmierer eigene Mods erstellen, nur damit sich eine simple Grafikoption im Spiel aktivieren lässt. Was ist also der wahre Grund für diesen ärgerlichen Umstand.
Meine Behauptung: Nvidia möchte beim Thema "RTX ON" mit aller Macht die rote Konkurrenz durch gezielte Einflussnahme auf die Spieleentwicklung klein halten - auf Kosten der allgemeinen Verwendbarkeit von RT-Effekten in heutigen Spielen für die breite Masse. Für mich zeigt der aktuelle Fall "The Witcher 3" wieder einmal das größte Problem von Raytracing überhaupt auf...
Wichtig: Meine Annahme beruht auf die von mir dargelegte Faktenlage. Das heißt mir geht es um die Wahrheit. Das Ziel dieses Threads ist es, das Thema "Raytracing in Spielen" näher unter die Lupe zu nehmen und auf aktuell verschenktes Potenzial bei der technischen Umsetzung einzugehen. Die Frage könnte auch lauten, wieviel Hardwarepower ist wirklich von Nöten, um ein gutes RT-Erlebnis in Spielen zu erhalten? Möglicherweise ist es weniger als allgemein angenommen.
Vielleicht wäre dieses spannende Thema der computerbase-Redaktion eines Tages auch mal einen eigenen Artikel Wert.
Edit:
1) Ich habe meine ursprüngliche, zum Teil unangebrachte Ausdrucksweise etwas entschärft.
2) Dieses Problem ist nicht allein auf AMD-Grafikkarten beschränkt, sondern betrifft jede GPU mit geringerer RT-Performance, d.h. auch die RTX Einsteiger- und Mittelklasse-Grafikkarten von Nvidia selbst.
3) Zum besseren Verständnis gebe ich noch meine eigenen Ergebisse im Ingame-Benchmark von Metro Exodus EE mit meinen System an:
A) FHD (1920×1080), Grafik-Preset Ultra mit Ray Trace auf "Normal" und Reflections auf "Raytraced": 93(66) FPS
B) WQHD (2560×1440), Grafik-Preset Ultra mit Ray Trace auf "Normal" und Reflections auf "Raytraced": 78(53) FPS
C) UWQHD (3440×1440), Grafik-Preset Ultra mit Ray Trace auf "Normal" und Reflections auf "Raytraced": 65(45) FPS
D) UHD (3840×2160), Grafik-Preset Ultra mit Ray Trace auf "Normal" und Reflections auf "Raytraced": 43(31) FPS
[Durchschnitts-FPS (1%-Perzentil)]
Zuletzt bearbeitet: