Test CoD: Modern Warfare III im Test: Wie gewohnt viele FPS, vor allem mit Radeon

MoinWoll schrieb:
Ich fände es echt interessant mal eine Analyse dazu zu sehen, warum RDNA2/3 relativ zu Ampere/Ada Lovalace in einigen Spielen bzw. Spielereihen (CoD, Starfield, Battlefield, Assassin's Creed) so viel besser performen als im Durchschnitt. Es wäre auch interessant, ob softwareseitige Anpassungen dazu führen könnten, dass Ampere/Ada Lovelace hier wieder gleichziehen können, oder ob hier tatsächlich die Hardwarearchitektur ein hartes Limit darstellt.
zu Starfield gibts die Analyse
https://chipsandcheese.com/2023/09/...erformance-on-nvidias-4090-and-amds-7900-xtx/
NV kann da per Software die Hardware-Bottlenecks vermutlich nicht beheben.

Trelor schrieb:
Dual Issue ist bei AMD anders Implementiert als bei NVIDIA. ...
Die meisten Shader Compiler für den PC ignorieren die Dual Issue Befehle von RDNA3 weitesgehend. Das ist ein großes Problem von RNDA3.
Wie kann Das sein?
Normalerweise ist doch im SDK genau erklärt, wie die Programmierer/Studios die Hardware händeln sollen.
Haben da manche Studios "ausversehen" keine Zeit+Muße ihre Software auf Vordermann zu bringen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und MoinWoll
Ich würde mich echt freuen, wenn die Tests hier auf CB auch regelmäßiger "ältere" Grafikkarten mit berücksichtigen. Die "älteste" Karte hier ist die RTX 3060 und das obwohl immerhin 24! Grafikkarten getestet wurden. Bei dieser hohen Anzahl an verwendeten Karten würde mich zumindest auch mal das Ergebnis von 2-3 älteren Karten interessieren, bspw. Rtx 2070, gtx 1050 etc.

Ich habe so auf die schnelle keine aktuelle Umfrage hier bei CB zu den genutzten Grafikkarten gefunden, aber mich würde nicht wundern, wenn selbst hier unter den technikaffinen Lesern immer noch eine recht hohe Anzahl keine der getesteten Karten besitzt.
 
  • Gefällt mir
Reaktionen: aklaa
Grundgütiger schrieb:
Um das ganze zu differenzieren kannst du deine Frau fragen ob es ok ist für ein paar besser Schatten in einem PC Spiel
Physikalisch (annähernd) korrekte Schatten, Beleuchtung, Reflektionen und Umgebungsverdeckung ggü. SSR, SSAO und Baked Lighting/Shadows als ein paar bessere Schatten zusammenzufassen trifft es meines Erachtens nicht.

Grundgütiger schrieb:
nochmal 1500€ aus zu geben.
Woher kommen die 1500€? Selbst zwischen der 7700 XT und der 4090 liegen, trotz der aktuellen Exportproblematik, "nur" 1450€. Und die 4090 ist in Alan Wake 2 selbst komplett ohne Raytracing und in 1440p mit Upsampling Quality 2,23 mal so schnell wie die 7700 XT.

PS: Wenn ich meine Freundin fragen müsste wofür ich mein Geld ausgeben darf, hätte ich glaube ich ganz andere Probleme.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch und Quidproquo77
Also bei DLSS_Q habe ich deutliches "smearing" an bei Vögeln gesehen, weshalb ich relativ schnell wieder auf TAA gewechselt habe.
 
  • Gefällt mir
Reaktionen: iron_monkey
GerryB schrieb:
Wie kann Das sein?
Normalerweise ist doch im SDK genau erklärt, wie die Programmierer/Studios die Hardware händeln sollen.
Haben da manche Studios "ausversehen" keine Zeit+Muße ihre Software auf Vordermann zu bringen?

RDNA3 unterstützt im Dual Issue Modues viele FP32 Operationen einfach nicht.
Der Compiler müsste da aktiv drumherum arbeiten und die Mühe das zu implementieren macht sich niemand.
Selbst wenn AMDs Compiler ohne Anpassungen genutzt wird, dürften Engine Funktionen die auf bestimmte weisen implementiert wurden das ganze schon unmöglich machen.

@MoinWoll
Dann wird das Problem vermutlich woanders liegen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Quidproquo77 und MoinWoll
MoinWoll schrieb:
Anhang anzeigen 1418153

4K mit Upsampling Quality und Max Settings (inkl. Pathtracing) aus dem PCGH-Test zu Alan Wake 2. Ich habe hier nicht die Ergebnisse des CB-Tests genommen, weil dort bei den Pathtracing-Benchmarks Frame Generation auf den Ada-Karten aktiv ist, was einen Vergleich zu AMD und Ampere unmöglich macht.

Im PCGH-Test ist die 4090 in Alan Wake 2 mit maximalen Details also 3,7 mal so schnell wie die 7900 XTX, kostest aber derzeit "nur" das 1,9 Fache (1899€ zu 989€). Das P/L-Verhältnis der 4090 ist hier also 1,95 mal so gut wie das der 7900 XTX.

In CoD:MW3 ist die 4090 1,01 mal so schnell wie die 7900 XTX. Das P/L-Verhältnis der 7900 XTX ist hier also 1,88 mal so gut wie bei der 4090.

Wenn man sich nur diese beiden Spiele anschaut ist das P/L-Verhältnis von 4090 und 7900 XTX also in etwa gleich. Und das, obwohl derzeit die 4090 über und die 7900 XTX unter der UVP verkauft werden. Vor der China-Exportproblematik gab es die 4090 bereits ab 1570€ regulär zu kaufen. Ich selbst habe meine 4090 vor einem Jahr für 1780€ gekauft. Ohne die aktuelle Sondersituation wäre das P/L-Verhältnis der 4090, begrenzt auf diese beiden Spiele, also sogar wesentlich besser als das der 7900 XTX.

SweetOhm schrieb:
Aber 100 % (949 € vs. 1899 € = 950 €)
Und wer sich eine "gute" Custom 4090 für 2000 € leisten will/kann, sind es über 1000 € ;)

Es wurde von @TheInvisible der Vergleich zwischen einer 7900 vs irgend einer 3000 Karte gesprochen.

Daher meinte ich ja, dass der Vergleich hinkt und es KEINE 1000€ dazwischen liegen als wie bei 4090€ vs. 7900xtx.

Lesen, lesen lesen...
Mike_MTL schrieb:
Vorab ich gönne jedem gute fps Zahlen mit seiner jeweiligen Karte ganz Klar, ABER wenn ich mir dieses Ranking betrachte, finde ich es schon Katastrophal zu sehen wie eine 4090iger (ca. 2000 € +- ) dicht gefolgt hinter eine 7900xtx für ca 1000€ liegt. Sorry, aber wo liegt dann bitte das P/L Verhältnis in dieser Sache?
Ich freue mich auf jeden Fall für die AMD Karten besitzer.

TheInvisible schrieb:
Wo liegt das P/L Verhältnis bei Alan Wake 2 PT wo selbst die 7900xtx von der 3000er Mittelklasse geschlagen wird... Immer diese einen cherrypicks welche plötzlich für alles gelten...

Zwischen einer 7900xtx und einer besagten 3000er Karten liegen keine 1000€ dazwischen.
 
  • Gefällt mir
Reaktionen: gecan
Trelor schrieb:
RDNA3 unterstützt im Dual Issue Modues viele FP32 Operationen einfach nicht.
Der Kompiler müsste da aktiv drumherum arbeiten und die Mühe das zu implementieren macht sich niemand.
Soo ganz kanns aber nicht stimmen, weil doch einige Games deutlich besser auf RDNA3 als auf RDNA2 laufen.
ergo
müsste es machbar sein, wenn man denn nur will

z.Bsp. Plague oder R6 können gut mit RDNA3, obwohl zum Release noch nichtmal RDNA3 gelaunched war
 

Anhänge

  • PoT@UWQHD.JPG
    PoT@UWQHD.JPG
    95,6 KB · Aufrufe: 117
  • Rainbow-Six-Extraction-FPS-1440p-DX12-Max-Settings.jpg
    Rainbow-Six-Extraction-FPS-1440p-DX12-Max-Settings.jpg
    236,7 KB · Aufrufe: 125
  • Gefällt mir
Reaktionen: Redundanz
Trelor schrieb:
RDNA3 unterstützt im Dual Issue Modues viele FP32 Operationen einfach nicht.
Der Compiler müsste da aktiv drumherum arbeiten und die Mühe das zu implementieren macht sich niemand.
Selbst wenn AMDs Compiler ohne Anpassungen genutzt wird, dürften Engine Funktionen die auf bestimmte weisen implementiert wurden das ganze schon unmöglich machen.
Der Treiber-Compiler vom AMD kümmert sich darum, die kompatiblen Shader-Programme als Dual-Issue auszuführen. Da muss kein anderer für optimieren. Und wie ich Analysen verstanden habe, macht der das wohl auch schon ganz gut. Es bringt nur abseits von Compute-Anwendungen einfach nicht viel auf RDNA 3. Aber das tut es bei Nvidia ja auch nicht. Bei gleicher Anzahl der ALUs ist Ampere auch nicht großartig schneller als Turing. Anscheinend bringt das eben generell nicht allzu viel Leistung in Spielen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Redundanz, Quidproquo77 und MoinWoll
GerryB schrieb:
Soo ganz kanns aber nicht stimmen, weil doch einige Games deutlich besser auf RDNA3 als auf RDNA2 laufen.
ergo
müsste es machbar sein, wenn man denn nur will
Das sind in der Regel Spiele, welche den normalen AMD Shader compiler nutzen. Manche nutzen auch Custom Varianten.
Allerdings kann auch der viele Sachen nicht Dual Issue konform übersetzen.
 
  • Gefällt mir
Reaktionen: MoinWoll
Mike_MTL schrieb:
Daher meinte ich ja, dass der Vergleich hinkt und es KEINE 1000€ dazwischen liegen als wie bei 4090€ vs. 7900xtx.

Lesen, lesen lesen...

Zwischen einer 7900xtx und einer besagten 3000er Karten liegen keine 1000€ dazwischen.
Du hast Dir ein einziges Spiel ausgesucht, dazu noch den größten Ausreißer vom Durchschnitt überhaupt. Aus diesem hast Du dann abgeleitet, dass das P/L-Verhältnis der 4090 unfassbar schlecht ggü. der 7900 XTX ist. Das wurde durch @TheInvisible und mich (indirekt) kritisiert und diese Kritik mit einem Gegenbeispiel (größter Ausreißer zugunsten NVIDIA) begründet. Warum ein nicht vorhandener Preisunterschied von 1000€ zwischen 7900 XTX und einer beliebigen 3000er Karte ein Gegenargument dazu sein soll, verstehe ich nicht.
 
  • Gefällt mir
Reaktionen: MalWiederIch
MoinWoll schrieb:
Ohne die aktuelle Sondersituation wäre das P/L-Verhältnis der 4090, begrenzt auf diese beiden Spiele, also sogar wesentlich besser als das der 7900 XTX.
... dachte bei dem Post wir sind in einem Grafikkartenvergleichs-Test und musste noch kurz noch mal die URL checken.
Aber ja doch ... hast die beste GraKa gekauft! :daumen:

Das Spiel werde ich ignorieren.
Wäre der SP halbwegs gut gewesen, wäre ich ja mal eingestiegen. Aber so ... nää!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Casillas und Mike_MTL
Grundgütiger schrieb:
Um das ganze zu differenzieren kannst du deine Frau fragen ob es ok ist für ein paar besser Schatten in einem PC Spiel nochmal 1500€ aus zu geben.
Zu gut. 😂
 
  • Gefällt mir
Reaktionen: xNeo92x, Casillas, Redundanz und 2 andere
Mit der Performance war ich eigentlich auch ganz zufrieden. DLSS aus und dennoch konnte ich meinen 240Hz-Monitor ziemlich gut ausfahren, dreistellige FPS hatte ich zu absolut jeder Zeit, schon zur Multiplayer-Beta.

Erstaunt war ich nur über den Fakt: Wenn man MW III lässt, dann füllts auch 24GB VRAM einer RTX 4090 bis zum Anschlag. Hab laut GPU-Z durchaus mal über 22GB VRAM-Auslastung gehabt.

Wieso AMD so stark abschneidet und die 7900XTX sogar die 4090 nass macht wundert mich auch. Klar, es gibt Titel wo AMD/RDNA3 verhältnismäßig gut performt hat, aber dass ne 7900XTX ne 4090 nass macht ist schon ne Ausnahme. 😮

Naja. Die Kampagne war eigentlich ganz cool, nur halt viel zu kurz. Man merkts, dass MW III eigentlich mal als MW II-DLC konzipiert war. Und eins hab ich gemerkt: Stealth kann CoD einfach nicht richtig.

Ballerst du die ganze Zeit drohnen ab, keine Sau juckts, und die spawnen auch noch unlimitiert nach. Schießt du wem aber in den Kopf und aufgrund der Panzerung ist der nicht sofort tot, wissen sofort alle, wo du bist und wo der Schuss her kam.

Vorallem die ständigen, nervigen Erinnerungen, man habe dieses und jene Ziel...

Aber mal ehrlich: Ich hab mir CoD sicher nicht wegen dem Singleplayer gekauft. Hätte es nicht die ein oder andere, mehr oder weniger wichtige, Belohnung für den Multiplayer gegeben, hätte ich den Singleplayer vermutlich nicht angefasst.

Mal schauen wie der Multiplayer am Ende wird. Gekauft habe ich das Spiel hauptsächlich nur der guten alten Zeiten wegen, lange habe ich mir ein CoD mit den alten MW2-Maps gewünscht. In der Beta gabs aber die ein oder anderen Frustmomente, insbesondere die Sniper sind mal wieder viel zu stark ausgefallen... Ab dem Oberkörper wird man quasi immer mit einem Schuss umgeblasen, man selbst hat mit anderen Waffen wegen den 1,5fachen HP kaum ne Chance.
 
  • Gefällt mir
Reaktionen: Mike_MTL
Thares schrieb:
DLSS nutze ich sowieso nicht bei CoD und sowas wie DLSS in einem MP Titel sowieso nichts verloren.
Die Kampagne werde ich iwann Spielen, generell werde ich das Spiel erst später kaufen wenn es günstiger zu haben ist.
Ein DLC für Vollpreis.

Also ich bin Warthunder Süchtig und will DLSS nicht mehr missen. Es ist besser als 4x SSAA in dem game und glaub mir wenn ich sage: Ein gestochen scharfes Bild ist in dem game ein echter vorteil und ohne DLSS in dieser Brillianz kaum zu erreichen. Mit meiner 6900XT hab ich mich immer beschwert dass ich auf die distanz zu wenig sehe, mit der 4090 dank DSR+DLSS (wird also nativ berechnet und bekommt AI upscaling) hab ich absolut keine probleme mehr.
 
Sehr schön, das freut mich das die XTX da so gut läuft, das Game wird auf heden Fall gekauft, da BF 2042 leider fürn Popo aktuell ist.

Hoffentlich gibts weniger Props mit Steam und den jämmerlichen Abmeldungen des Profils, oder die anderen lustigen Fehler die einen rauswerfen in MWII

Aussehen tut es ja schonmal nicht schlecht, auch wenn es gerne nehr sein dürfte.
 
Zuletzt bearbeitet:
=dantE= schrieb:
... dachte bei dem Post wir sind in einem Grafikkartenvergleichs-Test und musste noch kurz noch mal die URL checken.
Aber ja doch ... hast die beste GraKa gekauft! :daumen:
Es ging darum zu zeigen, dass Cherry-Picking (in diesem Fall CoD:MW3) nicht dabei hilft, das P/L-Verhältnis einer Grafikkarte zu beurteilen und nicht darum, meine Hardwarekäufe zu rechtfertigen. Ich würde fast niemandem, den ich persönlich kenne, empfehlen eine 4090 zu kaufen, da meine Ansprüche doch relativ speziell sind im Vergleich zu durchschnittlichen Spielenden und die wenigsten die Muße haben alle 2 Jahre Ihre Grafikkarte zu wechseln, um den hohen Kaufpreis durch Verkauf der jeweils alten Karte abzupuffern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch und =dantE=
Silencium schrieb:
Hätte ich evtl. sogar für SP gekauft.
Ich kaufe das Spiel eh nur noch wegen dem Single Player teil. Aber das wurde ja bei MW3 jetzt auch total lieblos und uninteressant gemacht. So spare Ich mir dieses Spiel zukünftig auch ganz. Irgendwann reicht es auch. Dafür gibt es auch einfach zu viele Spiel die Ich eh auch mal zocken will.

Ich zitiere mal vonm 4P:

Ein Singleplayer mit Langeweile und ohne Bombast!

Also genau das was CoD SP immer ausgezeichnet hat fällt weg.
 
  • Gefällt mir
Reaktionen: MegaDriver
Trelor schrieb:
Das sind in der Regel Spiele, welche den normalen AMD Shader compiler nutzen. Manche nutzen auch Custom Varianten.
Allerdings kann auch der viele Sachen nicht Dual Issue konform übersetzen.
Das klingt nicht gut. Da hat man nun DX12 eingeführt(x) und die Studios nehmen trotzdem noch eigene
Custom Varianten!?

(x) um näher an der Hardware zu sein und dann sollte auch der Compiler vom Hersteller genutzt werden
 
Zurück
Oben