• ComputerBase erhält eine Provision für Käufe über eBay-Links.

Test AMD Ryzen 9 7900X3D im Test: So viel langsamer ist die 12-Kern-CPU mit 3D V-Cache in Spielen

1678445683788.png


ja klar hier nochmal der Bench auf "normal/faster" Game speed:
1678445065055.png

Ergänzung ()

Die X3D der 7000er Generation scheinen in etwa 20-25% schneller zu sein bei den min FPS als der i5-13600k @5,6 PCore DDR4 3900 - 16-18-18-38

Was hast du denn noch für nen Ram verbaut mit welchen Timings? WIrd bei deiner CPU vermutlich aber auch nicht so entscheidend sein wie bei Raptor Lake.

Ich denke aber das ist aber auch nicht genug, damit ich den Entschluss fasse auf AM5 Plattform umzusteigen. Dann lieber den i5 ausreizen oder auf den i9 schielen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne
Computerbase@ kann man nicht mal Anno und CitySkylines mit in den Benchmark hineinnehmen, also mehr CPU fordernde Games? Da gibt es ja genügend Savegames die eine große Zivilisation besitzen. Falls jemand einen Bechmark (link) hat, würde ich mich darüber freuen.
 
  • Gefällt mir
Reaktionen: danyundsahne und AMDprayer
Tronx schrieb:
Computerbase@ kann man nicht mal Anno und CitySkylines mit in den Benchmark hineinnehmen, also mehr CPU fordernde Games? Da gibt es ja genügend Savegames die eine große Zivilisation besitzen.
https://www.pcgameshardware.de/Ryze...iew-Effizienz-AMD-Gaming-Vergleich-1414085/2/

Wie bei allen modernen Engines liefert der Cache hier sehr gut ab und löst die Probleme, die AMD vorher in diesem Spiel hatte. Ich hatte mir damals auch deswegen den 5800x3d geholt, weil AMD vorher absolut unterirdisch war in diesem von mir am meisten gespielten Spiel (nahchher der 7950x war auch schwach). Daher kam als Nachfolger auch nur wieder ein x3d in Frage.

Der 7900x3d ist genau so schnell wie der 13700k in Anno.
 
  • Gefällt mir
Reaktionen: Tronx
Mextli schrieb:
Ja klar, ich kaufe mir doch nicht für YT oder Email ein zweites System?! Auf der Kiste hier wird entwickelt, YT geschaut, Musik gehört und gespielt. Die Kosten für das zweite System hätte ich durch den reduzierten Vebrauch in 10? Jahren raus oder wie stellst Du Dir das vor?
Kommt auf die Stunden pro Tag an wo du den benutzt bei 10-12h am Tag und bei 50W idle unterschied ist das sehr schnell drin.

Ich weiß nicht genau was die hier für ein Testsystem benutzen:
https://www.techstage.de/test/gigabyte-radeon-rx-5700-xt-gaming-oc-8g-im-test/fbtdmxs#nav-ring-5
Aber da hier jemand ne 5700XT genannt hat die ja auch eher sparsam vielleicht nicht die aller Sparsamste aber wie man an der 2070 Super sieht beileibe nicht die Verschwenderischte, ist man da im Idle von Youtube ganz zu schweigen schnell bei 65W mein ITX system mit IGP verbraucht max. 20W idle/youtube, wie auch die meisten Notebooks ohne extra GPU btw.

Bei 50W unterschied und 10h pro Tag und 40 Cent Strompreis sind das 73 Euro Pro Jahr, teils geht das mit Intel G4560 schon ab 130 Euro los aber wenn man bisschen was besseres will gibts hier auch fix und fertig gebaute Systeme mit AMD und nvme für 230 EURO:
https://www.ebay.de/itm/225375652969

Und wenn das Ding nach 3 Jahren Verkaufst kriegst easy auch noch sagen wir mal 70 Euro heißt der Delta ist nur 160 Euro, Stromkosten gleicher Zeitraum wären 73 * 3 = 219 Euro Ersparnis 70 Euro. Und wer bisschen bescheidener ist und noch sparsamer sein will kommt auch mit 100 Euro Delta raus und spart gar 120 Euro in 3 Jahren. (ohne Weiterverkauf der Hardware)

Aber es ist ja nicht nur die Kosten, man hat dann einen 2. PC wo man nen Backup hat wenn man an dem einen arbeiten will neues OS installieren z.B., wenn man nen z.B. thinkpad gebrauchtes stattdessen kauft, da gibts ja auch zwischen 100 und 250 Euro tolle Thinkpad Geräte, noch nen Mobilen PC aber auch im Sommer wenns bock heiß ist und der nur 20Watt Hitze abstrahlt statt >70Watt, bleibt dein Zimmer kälter bzw kannst das Ding einschalten ohne dran zu sterben.

Klar wer sich für um die 500 Euro ne CPU kauft nur um damit 3h zu pro Tag zu arbeiten davon >95% im Idle für den mag sich das nicht refinanzieren, aber bleiben die anderen genannten Vorteile, wie Mobilität / Hitze etc, und manche Leute (ich gehöre nicht dazu) sollen ja sogar Grüne und sowas wählen und Umwelt schützen wollen :)

Der Text gilt auch dir: @av4l
 
Zuletzt bearbeitet:
Artikel-Update: Der Artikel enthält jetzt auch Benchmarks in Anwendungen sowie Messungen zur Leistungsaufnahme vom Leerlauf auf dem Windows-Desktop über Ein- bis hin zu Mehr-Kern-Lasten in Anwendungen.
 
  • Gefällt mir
Reaktionen: PietVanOwl, Enigma, Kalsarikännit und 4 andere
DerRico schrieb:
Der 7900x3d ist genau so schnell wie der 13700k in Anno.

Nur gleich schnell ist jetzt aber nicht so der Bringer, wenn Anno so sehr vom Cache profitiert, wie du sagst. Da sind andere Spiele eher so 20-30% schneller als die Intels, wenn da wirklich großes Profitieren ist. Anno ist aber auch absolut mies auf Mehrkern optimiert, schlimmer ist eig nur noch Cities. Wenn das mal vernünftig gemacht werden würde, dürfte keine moderne CPU mit 50k Einwohner plus überhaupt irgendwelche Probleme haben.
 
Cities und Anno sind nicht gut optimiert. Oder mein Verdacht, die Entwickler haben nie grosse Städte gebaut und dachte zB. bei Anno, so 40K Einwohner, das ist gut und besser brauchen wir es nicht zu optimieren.
 
Chilisidian schrieb:
Nur gleich schnell ist jetzt aber nicht so der Bringer, wenn Anno so sehr vom Cache profitiert, wie du sagst. Da sind andere Spiele eher so 20-30% schneller als die Intels, wenn da wirklich großes Profitieren ist.
Der 7950x3d ist bei Anno unglaubliche 56% (!!!) schneller als der 7950x. Ich kenne kaum ein Spiel, wo sich der Cache so stark auswirkt.

Dass AMD vorher in dem Spiel absolut chancenlos war, steht auf einem anderen Blatt. Der 7950x war ja gerade mal so schnell wie der 12400er und eben in Anno absolut ein Ausreisser nach unten.

Mit 3d-Cache ist diese Schwäche also ausgebügelt und die AMDs sind so schnell wie die Intels. Auf dem 3700x den ich mal hatte war Anno überhaupt nicht schön spielbar, auch in 4k nicht. Miniruckler, einfach unrund. Das ist nun vorbei, ich bin zufrieden.
 
DerRico schrieb:
Mit 3d-Cache ist diese Schwäche also ausgebügelt und die AMDs sind so schnell wie die Intels. Auf dem 3700x den ich mal hatte war Anno überhaupt nicht schön spielbar, auch in 4k nicht. Miniruckler, einfach unrund. Das ist nun vorbei, ich bin zufrieden.
Ist das nicht eher ein Armutszeugnis das das Studio in einem Genre das nicht dafür bekannt ist hohe Hardwareanforderungen zu haben weil die Grafik im Vergleich zu z.B. Shootern langsam und schlecht ist, mit >500 Euro cpus schlecht läuft.

Zumal das Spiel ja auch eher primitiv ist und nicht wie andere Spiele jeden einzelnen Bürger gesondert simuliert mit Hunger / Müdigkeit etc...

An zu wenig CPU kanns ja nicht liegen vermutlich dann zu schlechter Multicore support.
 
blackiwid schrieb:
An zu wenig CPU kanns ja nicht liegen vermutlich dann zu schlechter Multicore support.

Wie gesagt, Anno und Cities sind zwei absolute Negativbeispiele, was die Parallelisierung und Threadverteilung angeht. Hat schon eine gewisse Ironie, dass gerade diese Spiele extrem von CPU-Optimierung profitieren würden.
 
Chilisidian schrieb:
Nur gleich schnell ist jetzt aber nicht so der Bringer, wenn Anno so sehr vom Cache profitiert, wie du sagst. Da sind andere Spiele eher so 20-30% schneller als die Intels, wenn da wirklich großes Profitieren ist
Das liegt wohl auch daran das Intel bei Anno 1800 auch einfach weit vor AMD lag. Der 7900x3d ist 40% schneller als der 7900x. Der 5800x3d ist 21% schneller als der 7900x https://www.pcgameshardware.de/Ryzen-9-7900X3D-CPU-279469/Tests/Gaming-Benchmark-Review-1414602/2/
 
  • Gefällt mir
Reaktionen: typhoon1969
DerRico schrieb:
Der 7950x3d ist bei Anno unglaubliche 56% (!!!) schneller als der 7950x. Ich kenne kaum ein Spiel, wo sich der Cache so stark auswirkt.
Der flight Simulator ist nah dran^^

Und da beide Spiele bei PCGH im Parcours sind erklärt sich auch warum er dort 30% auf den normalen 7950X drauflegt
Ergänzung ()

Syrato schrieb:
Cities und Anno sind nicht gut optimiert. Oder mein Verdacht, die Entwickler haben nie grosse Städte gebaut und dachte zB. bei Anno, so 40K Einwohner, das ist gut und besser brauchen wir es nicht zu optimieren.
Bei Cities ist es eher das Alter und die Tatsache dass es für 9 Tiles ausgelegt war, die man bebauen kann, am PC aber mittlerweile so gut wie jeder mit 81 Tiles spielt^^
 
  • Gefällt mir
Reaktionen: Apocalypse
AMDprayer schrieb:
Wirklich interessant finde ich hier die Verbrauchsdaten auf 2160p. Da sieht man was der Unterschied in der Realität ausmacht. Der 7950X3D liegt deutlich vor dem 7950X welcher wiederum kaum effizienter ist als der 13900k (nahezu gleiches Niveau).
Richtig hinsehen, da ist nur der 7900X und nicht der 7950X getestet. Aber ja, in 4k nähern sich die meisten CPUs an was den Verbrauch angeht. Die CPUs müssen ja auch nicht so viele FPS berechnen wie in 720p aufgrund des GPU Limits (in dem Fall die der RTX4090).
Aber gegen 50% des Verbrauchs des 7950X3D kommt halt bei der Geschwindigkeit so schnell niemand ran.

Da muss Intel schon Meteor Lake oder sonstige zukünftige Architekturen bringen um dahin zu kommen.
 
  • Gefällt mir
Reaktionen: AMDprayer
Mextli schrieb:
Ja klar, ich kaufe mir doch nicht für YT oder Email ein zweites System?!
Naja ich hab die Gaming Kiste ehrlich gesagt auch nur noch dafür, alles andere läuft bei mir über einen Mac mini 2018, der im Alltag keine 15W zieht. Im Kontrast dazu saugt mir die ineffiziente AM5 Plattform mit 2080 Ti hier locker 80-90W aus der Dose. Und das im Idle.
 
immortuos schrieb:
Plattform mit 2080 Ti hier locker 80-90W aus der Dose. Und das im Idle.
Bei mir mit einer 5700xt und 6000er RAM sind es 70watt. 7900x3d
Nur igpu(ohne dgpu) und langsamer RAM sind es dann 49-55watt Gemessen an der Steckdose.
Ergänzung ()

Chilisidian schrieb:
Profitiert ein Spiel von mehr als 6, hat diese CPU eben ein Problem
Kommt drauf an was man als Problem sieht. Selbst wenn die CPU die zusätzliche Kern Last auf den 2ten ccd auslagern muss , ist er immer noch viel schneller als ein 7700x/7900x/7950x wenn das Spiel vom Cache profitiert. Zumal es noch drauf ankommt wie das Spiel skaliert, denn die zusätzlichen threads können genauso gut vom SMT aufgefangen werden. Sind nunmal 12threads in jedem ccd möglich. Die Frage die sich stellt, was ist besser die Bearbeitung durch SMT oder der 2ccd. Manch ein Spiel läuft ohne SMT schneller.
 
Zuletzt bearbeitet:
Northstar2710 schrieb:
Selbst wenn die CPU die zusätzliche Kern Last auf den 2ten ccd auslagern muss , ist er immer noch viel schneller als ein 7700x/7900x/7950x wenn das Spiel vom Cache profitiert.
Naja, was bringt den ersten 6 Kernen in dem Fall der Cache, wenn sie doch auf einen der anderen, langsameren 6 Kerne warten müssen?
In einigen Fällen ist er dann eben gar nicht mehr viel schneller als der normale 7900X, während der 7950X3D gleichzeitig gut vor dem 7950X liegt.

In Fortnite sehen wir hier z.B. lediglich eine Steigerung von 2% zum 7900X, während der 7950X3D 14% zulegt.

In CoD ebenfalls nur +6%, während der 7950X3D auf +21% kommt.

In Spiderman sind es +4%, während der 7950X3D auf +13% kommt.

In Dota 2 sind es +16% gegen +42%.


Also insgesamt kann man sagen der 7950X3D liefert hier eine allgemein konsistentere Leistung ab, beim 7800X3D erwarte ich das auch.
 
danyundsahne schrieb:
Also wir reden hier von 10-15W mehr Idle Verbrauch, echt jetzt?
Mir geht nicht um Idle, sondern um Niedriglasten.
danyundsahne schrieb:
Aber deswegen ist das weder viel, noch so ineffizient wie es bei Intels Lastsezenarien aussieht.
Und genau dazu gibts keine Zahlen, bis jetzt sagt niemand was die Package Power des X3D macht, wenn eine kleine Hintergrundlast kommt. Wenn das Boostverhalten noch genauso grottig ist wie beim 5900X, ist die Gaming Effizienz recht schnell "aufgefressen".

Beispiel:
Mein 13700K System braucht 50W Idle, hier schreiben und ein YT Video nebenbei ergibt ca. +4W
Wenn der X3D durch eine Niedriglast seine Kerne nicht mehr "gescheit" parken kann, sind wir ganz schnell bei 30-40W Unterschied. Deshalb warte ich sehnsüchtig auf Erfahrungswerte, was die Package Power betrifft.

immortuos schrieb:
Im Kontrast dazu saugt mir die ineffiziente AM5 Plattform mit 2080 Ti hier locker 80-90W aus der Dose. Und das im Idle
Genau solche Werte habe ich befürchtet. Was macht der Verbrauch bei Youtube?

Northstar2710 schrieb:
Nur igpu(ohne dgpu) und langsamer RAM sind es dann 49-55watt Gemessen an der Steckdose
GPU ausgebaut oder nur Stecker gezogen?
 
Zuletzt bearbeitet:
Northstar2710 schrieb:
Bei mir mit einer 5700xt und 6000er RAM sind es 70watt. 7900x3d
Nur igpu(ohne dgpu) und langsamer RAM sind es dann 49-55watt Gemessen an der Steckdose.
Bei mir ist es auch an der Steckdose, die HWInfo Werte kann man getrost vergessen. Welches Board ist das? Ich hab so das Gefühl, dass ich mit dem B650E-E nicht gerade das effizienteste erwischt habe, selbst wenn ich RGB und unnötige Nebenverbraucher ausmache.
 
Zurück
Oben