Im übrigen war mein Aufgänger
Mr. Amboss schrieb:
Natürlich unterstützen noch nicht alle Spiele RT und DLSS. Wo es aber verfügbar ist, sollte es ins allgemeine Performancerating einfließen. Alles andere ist Trockenschwimmen.
Genau das war auch der Impuls, den ich hier geben wollte.
Wer nicht nicht in Befindlichkeiten fällt und Cyberpunk mit dem neuen System und der neuen GPU in 4K und Raytracing spielen, schaut vielleicht hier nach.
In ein Performancerating gehört, dass man erkennt, dass mit den Ampere GPUs auch 4K Raytracing in Cyberpunk stemmen kann, mit RDNA 2 derzeit nicht, auch nicht mit einer 1000 Euro GPU.
Zudem muss erkennbar sein, dass man mit einer 6800XT in COD im 4K Ultra Raytracing an 30 fps scheitert.
Mit einer 3070 nicht. Mit einer 2080 auch nicht.
RT off schiebt eine 3070 hier dank DLSS 100 fps, das sind fps Korridore der doppelt so teuren (!) 6900XT.
Wieso erkennt man das nicht mit 2 Klicks in einer GPU Gesamtsicht und Benchmarks?
Das ist für mich eine Frage der Transparenz, wenn ich dieses hervorragende Medium Computerbase nutze für eine Information und Vergleiche.
Dass die AMD GPUS hier in diesen 20 Titeln von Relevanz schlechter wegkommen, gehört für mich zur Wahrheit, auch wenn einige das hier ignorieren möchten.
Vor 2,5 Jahren hat man sich über die 2080Ti lustig gemacht und die quasi "kaum nutzbare" Raytracing Option.
Das gilt dann nun 1:1 für AMD, denn das Raytracing Feature ist dort abseits weniger Games selbst mit einer 6900XT untauglich.
Das muss sich im Performancerating m.E. abbilden, und sei es in einer separaten Liste mit "Raytracing Games only".
Dass ich in einigen Games auch DLSS "so" nutzen kann (also nicht an Raytracing immer zwingend gebunden binfür den fps Boost ), finde ich hier auch nicht, leider. Ich verstehe, dass das eine Ressourcen (Zeit)frage ist.
"Es wäre schön", wie man sagt
Weil transparent und umfassend.