Test AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill

Damit dürfte der 13900K / 13900KS bereits wieder Geschichte sein und wir werden erneut Zeuge nach dem der fulminante, effizienztechnisch alles überragende 5800X3D bereits kurzen Prozess mit den Alder Lake Prozessoren gemacht hat, wie sich die Geschichte wiederholt und die versammelte Riege der Raptor lakes in ein effizientechnisches Desaster gestürzt wird.
Oder wie soll man es sonst bezeichnen?
Beim Gaming schneller bei noch nicht einmal dem halben Verbrauch, oder man könnte auch sagen Intel verbraucht mehr als das Doppelte (Computerbase Durchschnitt aus 14 Spielen 72W vs. 147W).
Bei PCGH sieht es was Spiele anbelangt sogar noch deutlich schlimmer aus und von Anwendungen erst gar nicht erst zu reden da sieht es bei vergleichbarer Leistung trotz Effizienzkerne nicht besser aus.

(PCGH Durchschnitt aus ihrem Spiele Parkour 68W vs. 163W bzw. 100% vs. 240%)

1677525323931.png


FPS pro Watt
1677526087243.png
 
  • Gefällt mir
Reaktionen: chrunchinut, Gene Jackman, BlueBringer und 4 andere
Schon der Ryzen 9 7950X profitiert im Testparcours von DDR5-6200-Speicher und damit dem höchstmöglichen Takt, den der Speichercontroller von Zen 4 mit einem 1:1-Teiler zulässt, bei gegenüber DDR5-5200 etwas schlechteren Timings durchschnittlich nur mit 2 Prozent höheren FPS. Der Ryzen 9 7950X3D tut es ihm gleich. Noch weniger bzw. gar kein Vorteil wäre auch keine Überraschung gewesen, sorgt der 3D V-Cache doch dafür, dass der Arbeitsspeicher seltener konsultiert wird.

Der Controller ist doch ein 5200er? Wieso ist der 6200er Speicher im Verhältnis 1:1 und nicht der 5200er?
 
Stimpanse schrieb:
das soll einer der wenigen Gründe sein, warum sich Leute nun einen neuenX3d kaufen? Weil er in Zukunft womöglich mit neuer brachialer Graka besser sein wird? Aber wieviel dann genau, bleibt unklar?
Nein, nicht unklar sondern maximal so viel, wie du hier im Test sehen kannst, denn das können die CPUs leisten. Wenn eine 5090Ti nun schnell genug ist, dass du wieder im GPU Limit landest, dann hast du die Unterschiede wie hier.

Und bevor nun jemand wieder kommt mit "Damit kann man nicht in die Zukunft vergleichen, hier Beispiel X" wobei das Beispiel dann oftmals der Genre genommene 8350 vs 2500K Vergleich ist:

Stimmt, da ging es nicht so gut, weil wir hier in den folgenden Jahren aber auch einen Umbruch hatten und plötzlich mehr als 4 Threads von Spielen genutzt wurden. Dieser hatte im Grunde schon zum Testzeitpunkt des 8350 angefangen und so war er Jahre später dann auch tatsächlich schneller als der 2500K.

Aber hier reden wir von CPUs mit >16 Threads, da wird sich in den nächsten 3-4 Jahren nicht plötzlich etwas so derart verändern, dass eine der beiden plötzlich der anderen davon rennt.
 
  • Gefällt mir
Reaktionen: trb85 und iron_monkey
Das ist der richtige Weg AMD!
Effizienz ganz vorne. Perfomance/Watt sollte absolute Pro 1 sein noch vor der Spitzenleistung.
 
Vorab ich will nicht schimpfen...
Aber wer will den in Gottes Namen 2023 noch nen fucking Bottle Neck Benchmark in 720p sehen.
Ehrlich???
Ich will das Ding in 1440p oder 4K sehen. Wo sind die Benchmarks.
Wenn kümmert es, ob die Teile in diesem Bereich - also 720p besser oder schlechter performen.
Das ist Consumer-Verarsche @ High Level.
Gewöhnt Euch doch diese Irreführung ab.
Vielleicht bin ich kein Hellseher und kann im Kopf nicht von720p auf 4K performen.
Aber Bitte ! - was soll der Scheiss?
Wir sollen 1000 Euro plus für Grakas ausgeben, damit wir wissen, dass CPU x - y in 720p besser performt, während Sie in 4K vom Vorjahresmodel überholt wird?!
AUA - DRECK - SCHMUTZ
In diesem Sinne
MineCraft
 
  • Gefällt mir
Reaktionen: intereddy
Bitte Bitte sag mir das das Ironisch gemeint war....

... im ernst jetzt.. sag es......

.... Sag es sofort....
 
  • Gefällt mir
Reaktionen: sent!nel, EyBananaJoe, 4lter5ack und 11 andere
Tunaraxx schrieb:
Dieses "Aber aber aber mit DDR5 8000+++++ RAM habe ich trotzdem 3 FPS mehr" wirkt einfach sehr verzweifelt
Das ist nicht nur verzweifelt, sondern absurd lächerlich. Wirklich jeder der hier anfängt mit irgendwelchen RAM Spezifikationen einen 13900K in den Himmel zu loben, wenn es ein 7950X3D breitflächig über sämtliche Tests besser zeigt, ist in keiner weise ernst zu nehmen.

Beides Top CPUs, aber AMD hat nun einmal jetzt gezeigt wie man viel Leistung, die Spitzenleistung, bei wenig Verbrauch eindrucksvoll auf die Straße bringt. Zurecht damit der AM5 Plattform den Schub gebracht der nötig war. Kann man doch nur begrüßen!
 
  • Gefällt mir
Reaktionen: trb85, 4lter5ack, chrunchinut und 7 andere
t3chn0 schrieb:
Irgendwas ist daran unstimmig. Hier schlägt der 5800X3D öfters den 7900X3D und das ist totalen Brot und Butter Spielen wo das eigentlich niemals sein kann.
Kann ich mir nur so erklären das ja hier ein 6 x 6 Chiplet Designe vorliegt und es da dann zu Problemen kommt.
 
Danke für den Test!
Sehr effiziente Architektur. Freue mich auf die kleineren Ryzen 7x3d
 
720p = CPU Limit
Sobald man höher geht ist man gleich Grafikkarten Limit!
Sprich da sehen CPU Benchmarks dann alle gleich aus! Alle Balken sind dann gleich lang, bringt nichts.
 
  • Gefällt mir
Reaktionen: Spock55000 und Slayher666
Badly schrieb:
Aber wer will den in Gottes Namen 2023 noch nen fucking Bottle Neck Benchmark in 720p sehen.
Ehrlich???
Ich will das Ding in 1440p oder 4K sehen. Wo sind die Benchmarks.
Ähm, das was du da willst sind ebenso Bottleneck Benchmarks^^

Irgendeine Komponente limitiert ja immer, das ist ja logisch und geht auch nicht anders.
Für einen CPU Test müssen alle anderen Bottlenecks außer der CPU ausgeschlossen werden, damit du die volle Performance der CPU sehen kannst. Du belastest die CPU so lange bis sie nicht mehr weiter kann.

In 1440p oder 4K hast du ein GPU-Bottleneck, womit die CPU Werte verfälscht werden, die ja getestet werden sollen. Nochmal, das hier sind CPU Tests, keine Systemtests.


Und noch hierzu
Badly schrieb:
Das ist Consumer-Verarsche @ High Level.
Consumer Verarsche wäre es, wenn ich einen GPU Bottleneck Test in hoher Auflösunng mache und den Leuten erzähle, ein 13900K wäre fast genau so schnell wie ein 12100F, die Leute sich dann die günstigere CPU kaufen und ein Jahr später im CPU Limit hängen, wenn sie ihre GPU aufrüsten.

Ich müsste fairerweise erwähnen, dass der 13900K viel mehr Leistungsreserven hat, diese sehe ich aber eben nur, wenn ich nicht von der GPU limitiert werde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sent!nel, Alex1966, AvenDexx und 6 andere
Zotac2012 schrieb:
Von mir aus kann der Chip der Himalaya Krösus im Gaming sein, aber bei dem Preis von fast 800 Euro, ist die CPU doch sowieso nur etwas für den Benchmark Fetischist oder dem User, bei dem Geld schon lange keine Rolle mehr spielt.

Bei den Preisen, die derzeit für aktuelle High End Segment Produkte aufgerufen werden [ wie MB,CPU,GPU,RAM,Netzteil usw.] bin ich schon lange raus. Mit der Konsole, einem OLED TV, dem Handy und meinem Tablet, bin ich immer noch deutlich günstiger und glücklicher unterwegs.

Und was soll ich sagen, ich vermisse den Desktop PC nicht und bin nur noch amüsiert, wie viele User es noch gibt, die den ganzen sau teuren Schei.. noch mitmachen.
Naja, das kann ich so absolut nicht unterstreichen. Es gibt halt Leute (so wie mich) die einfach auf geile Technik stehen und sich dafür begeistern können. Das ist eher emotional als rational gesteuert.

Ich hatte auch eine Series X hier und habe noch eine Series S. Sorry, aber das kannst Du einfach nicht mit einem PC vergleichen. Klar ist die Leistung für eine Konsole echt gut, aber in Modern Warfare 2 auf einem 4K120 LG Oled ist der Unterschied zu einem Highend PC schon gigantisch.

Warzone läuft auf der Series X mit High Refresh in WQHD statt 4K und dann mit mittleren Grafik Details und Drops auf 80-90 FPS.

Am PC sind ex im Extreme Preset in echten 4K IMMER 120FPS komplett durchgehend ohne einen Drop (4090).

Das ist ein komplett anderes Spielgefühl und sieht auch anders aus.

Dennoch gebe ich Dir bei den Kosten Recht.

Ich finde es aber beschissen andere an den Pranger zu stellen nur weil sie Enthusiasten sind und Bock darauf haben.
 
  • Gefällt mir
Reaktionen: Javeran und DerRico
Danke für den Test, jetzt muss AMD nur die Effizienz auch bei Grafikkarten das hin bekommen was Sie mit den CPU‘s machen, es bleibt aufjedenfall spannend
 
  • Gefällt mir
Reaktionen: 4lter5ack
Wow das ist schon nen Brett, meine ich würde soviel Geld nicht für eine CPU ausgeben, aber heftig was man auf die Beine stellen kann. Insbesondere bei der Effizenz. Das PCGH Fazit hat mich bissl schmunzeln lassen Zitat:

"Mit dem Ryzen 9 7950X3D rammt AMD Intel ungespitzt in den Boden. Der 16-Kerner ist in Spielen 149 Prozent effizienter als sein Gegenspieler Core i9-13900KS und liefert dabei noch eine rund fünf Prozent höhere Performance. "

Sagt alles 🤣
 
  • Gefällt mir
Reaktionen: 4lter5ack, The_Wizzard und justFAME
Chilisidian schrieb:
Naja mal nicht so theatralisch übertreiben. 140 Watt in Spielen ist jetzt nicht die Welt für das, was die CPUs leisten
Wo ist da Thetralik? Da steht Spitzenverbrauch. Der kommt in Anwendungen zum tragen im Wortscase. Daher "Spitzenverbrauch", nicht Gamingdurchschnitt. Und da ist der Intelansatz am Ende. Bei Servern ggü. AMD "Klebechips" und mobil gegen AMD und ARM.
 
mir ist ein cpu limit bewusst. bottle neck bewusst
was zum teufel bringt es mir.... wenn alle cpus in 4 k gleich performen
wer spielt in 720p.

ja ich weiss, was jetzt kommt.
nein ich will einfach nur ne gegenüberstellung
720p 3d amd beste
in 4k beträgt der
leistungsunterschied z.b.
2%
das ist transparenz und führt nicht dazu, dass jemand zu der meinung geleitet wird, dass er die z.B. 20% in 720p auch in 4k bekommt
 
Wow! Schon eine super CPU.

Sollte ich wechseln?
7950x zu 7950x 3D

Anno + MS FS sind hammer + 30 fps mehr, oder halt per DLSS gut machen....
 
Zurück
Oben