• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test CoD: Modern Warfare III im Test: Wie gewohnt viele FPS, vor allem mit Radeon

Thares schrieb:
sowas wie DLSS in einem MP Titel sowieso nichts verloren.
Wieso? Sorgt das für eine höhere Latenz oder geht es hier um die Schärfe? Ernst gemeint. Meine 3060 schafft hier ja wohl nur 60 fps in WQHD was definitiv zu knapp ist. Da wäre dlss sehr wohl sinnvoll.


Ansonsten zur Überschrift: gab noch nie den Satz "vor allem Geforce" oder "vor allem Intel". Euer Pro AMD Gehabe nervt.
 
  • Gefällt mir
Reaktionen: MalWiederIch und Sinatra81
Sinatra81 schrieb:
Multiplayer ist nix für mich... bin zu alt.
Haha - I feel you brother :D Die 12 jährigen mit Supermensch Reflexen machen einen da absolut fertig :D Was aber gut funktioniert in Warzone ist von >300m Leute zu snipen :D da bringt die Geduld mehr als die Super Reflexe :D

GerryB schrieb:
zu Starfield gibts die Analyse
https://chipsandcheese.com/2023/09/...erformance-on-nvidias-4090-and-amds-7900-xtx/
NV kann da per Software die Hardware-Bottlenecks vermutlich nicht beheben.


Wie kann Das sein?
Normalerweise ist doch im SDK genau erklärt, wie die Programmierer/Studios die Hardware händeln sollen.
Haben da manche Studios "ausversehen" keine Zeit+Muße ihre Software auf Vordermann zu bringen?
Super Seite btw :) Chips and Cheese hat sehr gut geschriebene Artikel für technisch affine :)

Eine neue Grafikkarten Generation unterstützt ja die selben Befehle + Neue wie die alte. Wenn also ein Spiel mit dem alten Feature Set läuft, geht dies mit dem neuen tendenziell auch.

Ich vermute dass das davonziehen der 7900XTX nichts mit Optimierung seitens der Entwickler für eben diese Karte zu tun hat.
Wie komme ich darauf?

Wenn man COD startet, dann fängt das Spiel an Shader zu kompilieren. Der Compiler ist nicht von Activision, sondern von AMD (Teil des Treibers) - weshalb man die Shader immer brav neu kompilieren muss wenn der Treiber aktualisiert wurde - denn Treiber und Maschinencode müssen sich ja verstehen ;). Das ist btw auch bei Nvidia so - denn die Hersteller kennen ja die Hardware am besten. Hier könnte es sein, dass je nach Code der AMD Compiler Dual Issue Befehle einschiebt um gewisse Szenarien zu beschleunigen.

Wieso denke ich aber, dass dies nicht der Grund ist für die AMD Stärke? Weil die 6800XT ja auch einiges schneller ist als ihr Nvidia Pendant.

COD ist riesig auf Konsolen. Das weiss man, weil Microsoft beim Kauf von Activision / Blizzard sich wegen der Serie mit Sony in die Haare gekriegt hat.

Die Konsolen setzen auf RDNA 2 - und was kann RDNA 2 (und 3)? Genau FP16 Berechnungen in doppeltem Speed.

Hier mal eine Liste der FP16 TFLOPS (Quelle Techpowerup):

PS4 (Polaris): 1.843 TFLOPS (1:1)
Xbox One X (Polaris): 6.001 TFLOPS (1:1)
Xbox Series S (RDNA2): 8.013 TFLOPS (2:1)
Xbox Series X (RDNA2): 24.29 TFLOPS (2:1)
PS5 (RDNA2): 20.58 TFLOPS (2:1)

RTX 2080 (Turing): 20.14 TFLOPS (2:1)
RTX 3080 (Ampere): 29.77 TFLOPS (1:1)
6800 XT (RDNA2) : 41.47 TFLOPS (2:1)
7800 XT (RDNA3): 74.65 TFLOPS (2:1)
RTX 4090 (Ada): 82.58 TFLOPS (1:1)
7900 XTX (RDNA3): 122.8 TFLOPS (2:1)
Als Entwickler der also die Engine mit Fokus auf Konsolen entwickeln muss, würde mir dies natürlich zu nutzen machen. Denn je nach Fall wird das Ergebnis nicht ungenauer durch FP16 - ist ja ein Floating Point Format ;)

Man kann natürlich nicht alles in FP16 rechnen, und da kommt die Unglaubliche Rechenleistung der 4090 wieder zum Zug :)

Wenn jemand meine These auseinandernehmen will - nur zu :D
 
  • Gefällt mir
Reaktionen: Casillas, Gargamehl, Redundanz und 5 andere
Jiddis schrieb:
bei den FPS, 1% Perzentil: liegt NVidia zwei mal vorne, in FHD und 4K
Du merkst schon das hier eine 7900XTX mit einer 4090 gleichzieht, wir reden hier von nicht mal 5% unterschied, was bei vielen noch als Messintolleranz gewertet werden würde. Eine 6800XT uneinholbar vor einer 3080ti. Das ist ganz klar ein Spiel was auf AMD faktisch besser läuft. Ob das gut ist bzw. wie diese Diskrepanz zustande kommt ist eine andere Frage. Aber sich hier hinzustellen und wegen 3% Unterschied,den offensichtlichen Fakt in Frage zu stellen, das AMD hier Mal besser läuft, ist richtig lächerlich und armselig.
 
  • Gefällt mir
Reaktionen: Hate01
MoinWoll schrieb:
Ich würde fast niemandem, den ich persönlich kenne, empfehlen eine 4090 zu kaufen
Also wenn es um eine Beratung hinsichtlich der besten Leistung geht, würde ich schon zur 4090 raten.
Ob es dann auch die beste Preis/Leistung ist, muss dann jeder für sich selbst entscheiden ...
Also .. nix für ungut, gell :bussi:
 
  • Gefällt mir
Reaktionen: MalWiederIch, Mike_MTL und MoinWoll
=dantE= schrieb:
Also wenn es um eine Beratung hinsichtlich der besten Leistung geht, würde ich schon zur 4090 raten.
Klar, in dem Fall schon, mache ich hier im Forum in der Kaufberatung ja auch, wenn ein entsprechendes Budget eingeplant ist. Allerdings habe ich in meinem Freundes- und Bekanntenkreis bisher niemanden gehabt, der bereit war 3000€+ für einen Rechner auszugeben, um die bestmögliche Leistung zu haben.
 
  • Gefällt mir
Reaktionen: Inxession und =dantE=
Dark Soul schrieb:
Ich vermute dass das davonziehen der 7900XTX nichts mit Optimierung seitens der Entwickler für eben diese Karte zu tun hat.
Es hat was damit zu tun.
Du kannst Shader schon so gestalten, dass sie stark zur einen oder anderen Seite tendieren.
Der Treiber wiederum sollte solche Fälle abfangen und in für die eigene Grafikkarte bestmöglich verdauliche Bröckchen aufteilen.

Uber- Shader liegen AMDs aktuellen Karten besser und hämmern bei NVIDIA gegen die erwähnten register files bzw. deren Size (Folgeeinheiten verhungern), wohingegen NVIDIA sich besser durch kleinere, nicht unendlich branchende Shaderbatterien wühlen kann.

Siehe den weiter oben verlinkten Artikel, wo quasi ein Micro- Benchmarking durchgeführt wurde.
Dort verheddert sich der Autor zwar manchmal in Spekulationen, aber er spricht die richtigen Dinge an.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MoinWoll
Das mit der Frametimes ist interessant.

Was für ein Kopierschutz hat das Game?
Kann es damit zusammenhängen?

Schon klar das AMD vor NV liegt.
Ohne RT ist das keine Kunst.
 
Sinatra81 schrieb:
Multiplayer ist nix für mich... bin zu alt.
Glaube beim Multiplayer ist die Spielzeit deutlich relevanter als das Alter. Wenn ich mir z. B. JackFrags anschaue (37 Jahre alt) haut der fast alle (in Ego-Shootern) weg, egal wie alt sie sind. Aber es ist natürlich auch eine Sondersituation wenn man damit sein Geld verdient und entsprechend die Zeit dafür hat 1000e Stunden zu trainieren. Natürlich trägt auch ein junges Lebensalter dazu bei überhaupt die Zeit für entsprechend viele Spielstunden aufzubringen.

DonSerious schrieb:
Ansonsten zur Überschrift: gab noch nie den Satz "vor allem Geforce" oder "vor allem Intel". Euer Pro AMD Gehabe nervt.
Ich finde die Überschrift trifft ziemlich genau die wichtigste Erkenntnis aus dem Test, nämlich dass AMD hier stark überdurchschnittlich abschneidet. Vergleiche hierzu die Überschrift "Alan Wake 2 im Technik-Test: Sehr schicke Grafik – mit einer schnellen RTX 4000", welche äquivalent, nur eben in diesem Fall mit dem Fokus NVIDIA ist. Im Prinzip könnte man letzterer Überschrift sogar eher ein Bias unterstellen (was ich ausdrücklich nicht will), da Alan Wake 2 auch ohne Path- bzw. Raytracing noch sehr schick ist und dann auch auf AMD-Karten wunderbar (gemessen an der Grafik) läuft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge, MalWiederIch, Inxession und eine weitere Person
MoinWoll schrieb:
Allerdings habe ich in meinem Freundes- und Bekanntenkreis bisher niemanden gehabt, der bereit war 3000€+ für einen Rechner auszugeben, um die bestmögliche Leistung zu haben.
Womit wir wieder bei der subjektiven Einschätzung von Preis/Leistung bei Grafikkarten wären.
Da ist die Leistung einer 4090 für manche wieder irrelevant im Vergleich zum finanziellen Aufwand, den man dafür betreiben müsste.

Würde ich mir eine kaufen wenn ich viel AAA zocken würde, auf jeden Fall!
Aber für Terraria, OpenTTD, X3 Albion Prelude und Everspace 2 reicht mir die 6900XT bis 2030 vollkommen aus!
 
  • Gefällt mir
Reaktionen: MoinWoll
=dantE= schrieb:
Womit wir wieder bei der subjektiven Einschätzung von Preis/Leistung bei Grafikkarten wären.
Da ist die Leistung einer 4090 für manche wieder irrelevant im Vergleich zum finanziellen Aufwand, den man dafür betreiben müsste.
Jopp, man sollte immer neben dem P/L-Verhältnis, auch auf den Preis an sich schauen und ob dieser ins eigene Budget passt. P/L-mäßig ist die 4090 im Vergleich mit den anderen Karten in dieser Generation ganz ordentlich, vor allem in hohen Auflösungen und mit RT/PT. Allerdings ist vielen der Preis, unabhängig von der Leistung, natürlich trotzdem zu hoch und wieder andere benötigen die hohe Leistung einfach nicht. Bei denen spielt dann auch das P/L-Verhältnis einer 4090 wieder eine untergeordnete Rolle.
 
  • Gefällt mir
Reaktionen: MalWiederIch
MoinWoll schrieb:
Du hast Dir ein einziges Spiel ausgesucht, dazu noch den größten Ausreißer vom Durchschnitt überhaupt.

Öhm nö nicht ausgesucht sondern dem Thema hier angesiedelt. Sollte eigentlich klar gewesen sein. :freak:
MoinWoll schrieb:
Warum ein nicht vorhandener Preisunterschied von 1000€ zwischen 7900 XTX und einer beliebigen 3000er Karte ein Gegenargument dazu sein soll, verstehe ich nicht.
Das brauchst du auch nicht, aber das musst du ihn dann schon selbst erfragen. Denn ich habe diese 1000€ Preisunterschied nur zwischen einer 4090 vs 7900xtx angesetzt.
Ich bin nach wie vor in diesem Thema der Meinung, dass dann das P/L Verhältnis für dieses Game zwischen einer 4090 vs 7900xtx schon gewaltig hoch ist bei fast gleich starker fps. Was mich natürlich für die AMD Karten Besitzer freut.
 
  • Gefällt mir
Reaktionen: Casillas und Redundanz
Quidproquo77 schrieb:
Das ist lediglich deine persönliche Meinung, die ich als Nicht-RT-Nutzer absolut nicht teilen kann, weil sie darauf hinauswill RT als Ganzes schlecht zu reden, was ich nicht unterstützen kann/will.
Es gibt so viele RT Spiele wo das Anschalten optisch lohnt, wenn man die Leistung bzw. die Hardware dafür hat.
Bin weder gegen noch für RT, aber habe dazu kürzlich ein Vergleichsvideo geschaut von ein paar Spielen u.a. Cyberpunk 2077. Persönlich fand ich ich viele der RT-Effekte völlig übertrieben, also unrealistischer als Rasterized. In den Kommentaren zum Video haben einige geschrieben wie echt das Wasser mit RT aussehen soll, ich habe dann nur gedacht die sollten mal nach draussen gehen und echtes Wasser in der Sonne sehen. In echt sieht das kein bisschen so aus wie in CP2077 mit RT Effekten an.

Böden reflektierten auch alle so, als hätte die vorher jemand hochglanzpoliert.

Auf jeden Fall nachdem ich das Vergleichsvideo gesehen habe, werde ich RT nicht so schnell einschalten. Gute Framerate ist mir persönlich lieber.
 
  • Gefällt mir
Reaktionen: bluna und cbmik
Raucherdackel! schrieb:
Das Game bevorzugt nicht Nvidia, sondern bringt die Leistung von AMD endlich mal auf die Straße. In Zukunft wird es viele Spiele geben, die so performen.
Und dadurch laufen sie bescheiden, weil Nvidia nicht auf Wav32 optimiert ist. Du willst also, dass das Standard wird? Anstatt für beide zu optimieren, gucken 80% dann in die Röhre und der Fanboy findets gut.
Was ne dämliche Aussage...

Ich kann auch nicht nachvollziehen, wie es als normal gewertet wird, wenn die 4090 von der XTX geschlagen wird. Die 4090 ist neutral betrachtet viel schneller als alle anderen Karten. Wenn diese nun von der XTX überholt wird, ist das nicht normal, sondern ungewöhnlich!
Selbst AMD sagte, dass die 4090 uneinholbar ist, aber auf AMDBase sieht man das mal wieder anders.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch, Mike_MTL, LT.Verleum und eine weitere Person
Mike_MTL schrieb:
Öhm nö nicht ausgesucht sondern dem Thema hier angesiedelt. Sollte eigentlich klar gewesen sein. :freak:
Hast Du denn dann auch bei Alan Wake 2 kommentiert, dass Du Dich für BesitzerInnen von NV-Karten freust, weil diese in dem Spiel ein doppelt so gutes P/L-Verhältnis haben wie BesitzerInnen von AMD-Karten? Klar kann man sich an dem Wort "aussuchen" aufhängen. Aber wenn Du bei einem Spiel, das besser auf AMD-Karten läuft so einen Kommentar schreibst, bei einem wo NVIDIA-Karten besser laufen dagegen nicht, hast Du halt eine Auswahl getroffen (=ausgesucht).

Mike_MTL schrieb:
Das brauchst du auch nicht, aber das musst du ihn dann schon selbst erfragen. Denn ich habe diese 1000€ Preisunterschied nur zwischen einer 4090 vs 7900xtx angesetzt.
Du hast das "Argument" gebracht, dass zwischen Ampere und RDNA3 keine 1000€ Preisunterschied liegen, nicht er. Und dieses Argument finde ich unschlüssig in Bezug auf das, was er geschrieben hat.

Mike_MTL schrieb:
Ich bin nach wie vor in diesem Thema der Meinung, dass dann das P/L Verhältnis für dieses Game zwischen einer 4090 vs 7900xtx schon gewaltig hoch ist bei fast gleich starker fps. Was mich natürlich für die AMD Karten Besitzer freut.
Ja, wenn man nur CoD:MW3 spielt, ist das P/L-Verhältnis bei AMD wesentlich besser, wenn man nur Alan Wake 2 spielt, ist das P/L-Verhältnis bei NVIDIA wesentlich besser und bei allen anderen Spielen liegt das P/L-Verhältnis beider Hersteller irgendwo dazwischen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch
Und das nächste Spiel das auf der 7900XTX sehr deutlich schneller läuft als auf der 4080...

Tausche 4080 wegen schlechter Treiber gegen eine 7900XTX....

Das wir sowas erleben 😁
 
  • Gefällt mir
Reaktionen: Inxession
Kann man SP und MP immer noch nicht getrennt kaufen?
(Immerhin kann mans ja auch getrennt installieren).

Zombies würde mich interessieren,aber ich bezahl den rest doch nicht mit.
 
MrHeisenberg schrieb:
Selbst AMD sagte, dass die 4090 uneinholbar ist
Also mir ist jetzt nicht bekannt das sowas, wortwörtlich gesagt oder erwähnt wurde öffentlich.

Zur Vorstellung der RX7900XTX sagte Frank Azor im Interview mit PCWorld nach der Präsentation, das die Karte der Konkurrent zur 4080 ist, nicht zur 4090.
Andere Aussagen oder Quellen konnte man nicht finden.
 
  • Gefällt mir
Reaktionen: Hate01, eXe777, Inxession und eine weitere Person
MoinWoll schrieb:
Hast Du denn dann auch bei Alan Wake 2 kommentiert,
Nein habe ich nicht. Warum auch? Es geht hier nur um dieses MWIII Beitrag. Um andere Games geht es gerade nicht.

MoinWoll schrieb:
Du hast das "Argument" gebracht, dass zwischen Ampere und RDNA3 keine 1000€ Preisunterschied liegen
Letzmals:
Nein, sondern das man 1000€ unterschied explizit zwischen der heutigen Preise 4090 vs 7900 gegenüber (wie er behauptet hatte) 7900 vs mit irgend einer älteren Preisklasse 3000er Karte nicht vergleichen kann.

MoinWoll schrieb:
Ja, wenn man nur CoD:MW3 spielt, ist das P/L-Verhältnis bei AMD wesentlich besser
Aha...na siehste. (Siehe zurück 1. Abschnitt)

MoinWoll schrieb:
wenn man nur Alan Wake 2 spielt, ist das P/L-Verhältnis bei NVIDIA wesentlich besser
Du und deine Alan Wake 2 Game. ^^
Nochmals...wir diskutieren & kommentieren hier nur um diesen beitrag Cod:MW3.
Okay? :)
 
Via NV Inspektor forciertes Rebar bringt nochmals n schönen FPS boost auf Nvidia karten.

Find das schade daß es bei den meistens Games per Default deaktiviert ist weil es mit Intel CPUs rumzickt
 
  • Gefällt mir
Reaktionen: NerdmitHerz und Redundanz
Zurück
Oben