Ich hatte es ja nach der Präsentation schon gesagt: Nachdem AMD den Fokus weg von greifbaren Performancevergleichen und hin zu 1440p/960Hz oder "8K" Gaming gelegt hat(in Anführungszeichen, weil es nicht mal wirkliches 8K war sondern lediglich eine 32:9 Auflösung mit 8K in der Breite), war mir klar, dass man mit der Performance wohl nicht gut werben kann.
Die ganzen 1.5x bis 1.7x Balken sind dann hier +35% im Schnitt geworden(ähnlich wie die 2-4x Angabe von Nvidia bei der 4090 zu +65% geworden ist) und man kommt nicht mal an der 4080 vorbei, ist in den Perzentilen sogar unterlegen.
Selbst in Cyberpunk, dem Spiel mit dem laut AMD höchsten (1.7x) Zuwachs, misst CB hier nur +55%.
Aus der laut Folie verdoppelten Performance in Dying Light 2 + RT ist auch nichts geworden, +52% laut Test und damit gerade so auf 3080Ti Niveau statt wie die im Vorfeld durch AMDs zahlen extrapolierten charts zeigten, gleichauf mit der 4080.
Und bei gleichem Takt gerade mal 9% schneller als RDNA2, bei RT immerhin 18-20%, bei laut Präsentation "up to 2x IPC" pro CU.
Bei RT reicht es auch nicht mal für die runden 50% Steigerung, während die 4090 knapp 70% auf die 3090 draufgelegt hat. Der Abstand in RT ist somit am ende sogar größer geworden, als bei RDNA2 vs Ampere.
3090 vs 6950XT = +47%
4090 vs 7900XTX = +74%
3080 vs 6900XT = +19%
4080 vs 7900XT = +47%
Das schimmste ist, nachdem AMD im Marketing so sehr auf den Faktor Effizienz gesetzt hat, sind beide Modelle deutlich ineffizienter als die 4080 oder die 4090.
Zur 6900XT lediglich ein Sprung von +18% Perf/W. Selbst wenn man die Black Edition nimmt, die mit 375W bereits 40W mehr ziehen darf als eine 6950XT, kommt man gerade mal auf +41%.
In 1440p wird der Perf/W Vorsprung schon fast einstellig.
Ich erinnere mich noch an das Interview mit einem AMD Vertreter, wo es sinngemäß hieß "Wir werden auch die Leistungsaufnahme erhöhen müssen, aber durch unser Effizientes Design werden wir es nicht so weit erhöhen müssen, wie unsere Konkurrenz"
Und nun? Um die Performance einer ~300W 4080 zu erreichen braucht die 7900XTX ~350W.
Mit 144FPS Limit in 1440p wird es in absoluten Zahlen noch deutlicher: ~250W für die 7900XTX gegen gerade mal ~125W für die 4080 und sogar die 6900XT verbraucht deutlich weniger.
Das wäre genau mein Nutzerszenario(das Limit sogar niedriger als 144) und daher wären die Karten, wenn ich nicht schon vorher bei Nvidia zugeschlagen hätte, spätestens hier komplett raus.
Das kann doch nur ein Hardware Bug oder einer Treiberproblem sein. Ich hoffe für AMD letzteres, vermute aber fast schon eher ersteres aufgrund der so schnell aufkommenden Gerüchte über einen Refresh.
Selbst eine auf 300W limitierte 4090 ist noch deutlich schneller als alles, was der Top Chip von AMD bei 355W liefern kann und die 4090 ist dabei noch nicht mal der Vollausbau des AD102.
Nun steht also die ca gleiche Raster Performance, 20-25% weniger RT Performance, 50-60W mehr Verbrauch unter Vollast, nahezu doppelter Verbrauch im FPS Limit und das Fehlen von DLSS2, DLSS 3 FG und Reflex gegen eine Preisersparnis von knapp 200€.
Und das auch nur, wenn man an eine Referenzkarte kommt, was nicht sehr vielen vergönnt sein dürfte, ansonsten dann 0-100€ bei einem Custom Design.