Sinatra81 schrieb:
Multiplayer ist nix für mich... bin zu alt.
Haha - I feel you brother
Die 12 jährigen mit Supermensch Reflexen machen einen da absolut fertig
Was aber gut funktioniert in Warzone ist von >300m Leute zu snipen
da bringt die Geduld mehr als die Super Reflexe
GerryB schrieb:
zu Starfield gibts die Analyse
https://chipsandcheese.com/2023/09/...erformance-on-nvidias-4090-and-amds-7900-xtx/
NV kann da per Software die Hardware-Bottlenecks vermutlich nicht beheben.
Wie kann Das sein?
Normalerweise ist doch im SDK genau erklärt, wie die Programmierer/Studios die Hardware händeln sollen.
Haben da manche Studios "ausversehen" keine Zeit+Muße ihre Software auf Vordermann zu bringen?
Super Seite btw
Chips and Cheese hat sehr gut geschriebene Artikel für technisch affine
Eine neue Grafikkarten Generation unterstützt ja die selben Befehle + Neue wie die alte. Wenn also ein Spiel mit dem alten Feature Set läuft, geht dies mit dem neuen tendenziell auch.
Ich vermute dass das davonziehen der 7900XTX nichts mit Optimierung seitens der Entwickler für eben diese Karte zu tun hat.
Wie komme ich darauf?
Wenn man COD startet, dann fängt das Spiel an Shader zu kompilieren. Der Compiler ist nicht von Activision, sondern von AMD (Teil des Treibers) - weshalb man die Shader immer brav neu kompilieren muss wenn der Treiber aktualisiert wurde - denn Treiber und Maschinencode müssen sich ja verstehen
. Das ist btw auch bei Nvidia so - denn die Hersteller kennen ja die Hardware am besten. Hier könnte es sein, dass je nach Code der AMD Compiler Dual Issue Befehle einschiebt um gewisse Szenarien zu beschleunigen.
Wieso denke ich aber, dass dies nicht der Grund ist für die AMD Stärke? Weil die 6800XT ja auch einiges schneller ist als ihr Nvidia Pendant.
COD ist riesig auf Konsolen. Das weiss man, weil Microsoft beim Kauf von Activision / Blizzard sich wegen der Serie mit Sony in die Haare gekriegt hat.
Die Konsolen setzen auf RDNA 2 - und was kann RDNA 2 (und 3)? Genau FP16 Berechnungen in doppeltem Speed.
Hier mal eine Liste der FP16 TFLOPS (Quelle Techpowerup):
PS4 (Polaris): 1.843 TFLOPS (1:1)
Xbox One X (Polaris): 6.001 TFLOPS (1:1)
Xbox Series S (RDNA2): 8.013 TFLOPS (2:1)
Xbox Series X (RDNA2): 24.29 TFLOPS (2:1)
PS5 (RDNA2): 20.58 TFLOPS (2:1)
RTX 2080 (Turing): 20.14 TFLOPS (2:1)
RTX 3080 (Ampere): 29.77 TFLOPS (1:1)
6800 XT (RDNA2) : 41.47 TFLOPS (2:1)
7800 XT (RDNA3): 74.65 TFLOPS (2:1)
RTX 4090 (Ada): 82.58 TFLOPS (1:1)
7900 XTX (RDNA3): 122.8 TFLOPS (2:1)
Als Entwickler der also die Engine mit Fokus auf Konsolen entwickeln muss, würde mir dies natürlich zu nutzen machen. Denn je nach Fall wird das Ergebnis nicht ungenauer durch FP16 - ist ja ein Floating Point Format
Man kann natürlich nicht alles in FP16 rechnen, und da kommt die Unglaubliche Rechenleistung der 4090 wieder zum Zug
Wenn jemand meine These auseinandernehmen will - nur zu