Test AMD Ryzen 9 7900X3D im Test: So viel langsamer ist die 12-Kern-CPU mit 3D V-Cache in Spielen

Ne seit es 12 und 16 kerner gibt, sind 8 kerner zu langsam obwohl es noch vor kurzen mit 4 kerner fĂŒr alles reichte 😂
 
  • GefĂ€llt mir
Reaktionen: Corpus Delicti
danyundsahne schrieb:
Man muss ja ĂŒber die maßlos miesen IDLE Werte von AMD herziehen :D
Mich jucken die Intel Werte gerade nicht im Geringsten, mich stört der RĂŒckschritt gegenĂŒber meiner AM4 Plattform. Sogar mein alter R7 1700 auf einem X370 Professional Gaming war da deutlich genĂŒgsamer, trotz der Startschwierigkeiten der Ryzen Plattform.
 
Easy1991 schrieb:
Gestern ein ryzen 7900x fĂŒr 300 Euro
100 euro fĂŒr ddr5 6000 32gb hynix m
Asus 650 prime plus fĂŒr 110 Euro
Rtx 3060 ti 280 Euro

Denke guter schnapper und lang ruhe 😁
na herzlichen GlĂŒckwunsch
bei diesen Preisen kann man ja schon einen bösglÀubigen Erwerb unterstellen
 
  • GefĂ€llt mir
Reaktionen: Sly123
drunken.panda schrieb:
MĂŒsste aber nochmal um gute 150€ runter :D

Ich persönlich wĂŒrde den 7800X3D bevorzugen, niedrigerer Idle Power Package Bedarf und 8 Cores mit 3DV Cache. Wann brauche ich schonmal wirklich mehr als 8 Kerne. Nie... Rendern tu ich nicht, selbst wenn ich meine X Anwendungen offen hab und nebenbei daddel, dĂŒrfte das mit dem 8 Kerner noch gut gehen.
Geht mir auch so, aber haben ist besser als brauchen =).
 
@AuroraFlash natĂŒrlich, ein I/O-Die und ein Kern-Die.
Beim 7900X3D und 7950X3D steht dort eine 3, ein I/O-Die und 2 Kern-Dice.
 
  • GefĂ€llt mir
Reaktionen: AuroraFlash
Taxxor schrieb:
@AuroraFlash natĂŒrlich, ein I/O-Die und ein Kern-Die.
Beim 7900X3D und 7950X3D steht dort eine 3, ein I/O-Die und 2 Kern-Dice.
Danke, das ist ein guter Hinweis. Klar, der I/O-Die wird mitgezĂ€hlt. Dann lĂ€uft es also doch nicht auf eine Strategie hinaus, die High-End-Modelle fĂŒr Gamer attraktiver zu machen, obwohl sie eigentlich fĂŒr DTP interessanter sind (plus 3D V-Cache fĂŒr Gaming).

Ich hatte vermutet, dass sie die kleineren CPUs absichtlich etwas unattraktiver machen wĂŒrden. Tech-Paranoia in den Zwanzigern des 21. Jahrhunderts. :D
 
"Der Artikel enthĂ€lt jetzt auch Benchmarks in Anwendungen sowie Messungen zur Leistungsaufnahme vom Leerlauf auf dem Windows-Desktop ĂŒber Ein- bis hin zu Mehr-Kern-Lasten in Anwendungen."

Vielen Dank.
Die hohe Effizienz im Lastbereich wird, durch den scheinbar immer weiter steigenden Verbrauch im Idle, gefĂŒhlt zunichte gemacht.
Das ist natĂŒrlich abhĂ€ngig vom Anteil des jeweiligen Verwendungszweckes.
 
  • GefĂ€llt mir
Reaktionen: Palmdale, Corpus Delicti, iron_monkey und eine weitere Person
Jo das ist es was ich persönlich auch sehr schade finde, eben doch nicht die Eierlegendewollmilchsau die es evtl hÀtte werden können. Wobei da ja auch immer die Ganze Plattform betrachtet werden muss.
 
  • GefĂ€llt mir
Reaktionen: iron_monkey
Taurus104 schrieb:
Dem 7900X3D gehen nicht die Kerne aus. Denn wenn ein Spiel/Anwendung oder mehrere Anwendungen im Multitasking das erste CCD zu stark auslasten wird das geparkte CCD aufgeweckt und die Last auf alle 12 Kerne verteilt. Der 7900X3D ist kein 6 Kerner im Gaming wie es oft dargestellt wird.
Leider mit allen Nachteilen die ĂŒber IF auf das zweite CCD beim Zugriff greifen und es ist nicht gesagt, das der Sheduler immer einwandfrei funktioniert, wenn die Kerne auf einem CCD ausreichen. Die x900X Serie sehe ich mittlerweile als bessere Lasttiere fĂŒr weniger latenzkritische Arbeitslasten.

Beim X3D wĂŒrde ich konsequent auf den nativen 8 Kern DIE setzen, wenn es rein um Spiele und OS geht.
Beim ZEN 1 hat AMD auch mit Leistung fĂŒr Spiele und Streaming geworben und es waren nur native 8 Kern Zeppeline. Wer TR als MCM nahm, der hatte dann hart mit LeistungseinbrĂŒchen zu kĂ€mpfen.

Oder anders gesagt, native KernchipprioritĂ€t ist weiterhin effizient und vorzuziehen. Ich habe aus einem anderen Thema heraus probeweise meinen 3900X zum 3600X eingeschrĂ€nkt und das funktioniert sogar in Spielen sehr gut, wenn die Kerne unter Last fĂŒr Betriebssystem und Spiele ausreichen. Es gibt weniger HĂ€nger mit den Frametimes, wenn der zweite CCD nicht genutzt werden muss. Außerdem macht sich der Allkerntakt von 12x 4.05Ghz auf nun 6x 4.45Ghz bemerkbar. Der AMD Windows 10 Sheduler ist bei ZEN 2 bis heute völlig daneben umgesetzt und wir sind jetzt bei ZEN 4. Das verdirbt mir bei der Softwareoptimierung irgendwie weiterhin AMD zu kaufen, weil der 3900X unter leichter Mischlast den zweiten CCD komplett deaktiviert haben sollte.

Mir hat die Zuweisung zwischen P und E Cores auf dem 12600K besser zugesagt, das auch noch unter Windows 10 und ich habe etwa 5 Monate nach Alderlake EinfĂŒhrung das Intel System aufgebaut. Bei AMD komme ich nach 3 Jahren zur Erkenntnis, ein deaktivierter CCD Chiplet bringt mir sogar Vorteile. Ich mache also mit ZEN 2 das, was auf TR 1000 gemacht wurde und bin gerade das hier niederschreibend nicht von begeistert, weil das mein Totschlagargument gegen den Threadripper 1000/2000 Kauf war, eine schlecht umgesetzte WS und HEDT Plattform als MCM Design zu sein.:D

HĂ€tte ich nicht gleichmĂ€ĂŸige Arbeitslasten fĂŒr 12 Kerne gehabt, hĂ€tte ich den 3900X nicht gekauft und damals gleich zum nativen 10850K gegriffen. Wumpe auf 12 Kerne, wenn native 10 Kerne besser skalieren. Ich hoffe, intel bekommt das auf Anhieb mit seinem MCM Design besser in den Griff.

Aus den Tests zum 7950X3D war die CCD Zuweisung nĂ€mlich nicht immer sauber umgesetzt und ich sehe hier bei AMD auch eine absichtlich eingebaute Bremse, weil man sicher die Maximaltaktraten und VerbrĂ€uche beim X3D auf einem CCD in der Fabrik fĂŒr kommende Lösungen getestet hat und weiter testet. Man muss aber nicht mehr an Zusatzleistung zur Konkurrenz liefern als nötig. Sonst hĂ€tte man einen X3D mit zwei großen L3 Cache CCD raus gebracht, der hoch taktet und keine MS Game Bar nötig hat. AM5 hat bei der teils dekadenten Spannungsversorgung auf vielen Mainboards genĂŒgend Leistungsreserven.
 
Das kommt natĂŒrlich auch immer drauf an ob man Optionen nutzt die Energie sparen oder auch nicht. Das gilt fĂŒr AMD und Intel CPUs. Momentan verbraucht mein Test Ryzen 7900x3d im idle 49Watt mit aktiviertem ASPM + igpu und dgpu(5700xt) im passthrough mit langsamen RAM im jedec spec(einfach mal testen was man so verliert)
ErgÀnzung ()

Der Nachbar schrieb:
Sonst hĂ€tte man einen X3D mit zwei großen L3 Cache CCD raus gebracht, der hoch taktet und keine MS Game Bar nötig hat
Ein zweiter großer L3 Cache im 2ten ccd bringt dir spieltechnisch keine Vorteile, auch beim 7900x3d wĂŒrde dir das nicht viel bringen. Was absolute Verschwendung wĂ€re . Da hier auch wieder der Daten Verkehr zwischen den ccds eine Bremse darstellen kann.

Die Game Bar ist nicht nötig. Du kannst auch einfach per Bios den Cache ccd bevorzugen. So hat man auch unter Linux keine Probleme.

Bei vielen Games ist noch nichtmal die Kommunikation zwischen den ccd das Problem sonder SMT. Ich habe bei meinem 3900x auch viel getestet und habe es dann beim 12core ohne SMT belassen. Aber 4,2 ghz gegen bei mir 4,35 ghz mit 6core hat praktisch keinen Unterschied gebracht.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: JackTheRippchen
Klever schrieb:
Und wieso willst du partout nicht wahrhaben dass auch eine Intel Platform unter Teillast effizient ist, also auch Vorteile hat?
Ich habe nie von Teillast von Intel gesprochen? Zeig mir den Text.
Intel ist auch unter Teillast sparsam, ja. IDLE, YT, Office...aber ab Gaming bis hinauf zur Volllast ziehen sie mehr als AMD. Das ist ja wohl Fakt und in jedem Test belegt. Hier auf CB, auf PCGH, auf anderen Testseiten...
Klever schrieb:
Haben wir hier was verpasst und es wird von der Inquisition verboten, auch Negativpunkte bei AMD CPUs anzusprechen?
Ja das meine ich doch, es wird seit gefĂŒhlt ewigen Forenpost ĂŒber 20W Mehrverbrauch der AMD CPUs im Idle diskutiert....und ich frage mich, was daran so heftig daran diskutiert werden muss. Ich habe kaum etwas in den ganzen Threads zu dem Thema (Ryzen 7000 Test und X3D Tests) geschrieben, aber manche kommen von dem IDLE/Teillast Verbrauch ja gar nicht mehr runter obwohl es nur zw. 10-20W mehr sind als bei Intel.

Klever schrieb:
Du hast behauptet dass das Löwenanteil des Verbrauchs von 90 Watt in Idle einer AM5 Platform von der GPU ja stammen soll, was nun mal nicht stimmt. Zieht demnĂ€chst die SSD und die LĂŒfter den Löwenanteil?
Hab ich nicht! Lies meinen Kommentar bitte nochmal!
Ich meinte nur, dass sich der Post von @immortuos so liest als ob seine 80-90W alleine von der ineffizienten AM5 Plattform kommen soll. Und dann fragte ich ob vielleicht seine 2080ti den Löwenanteil davon schluckt.
Und dann kamst du ins Spiel... ;)
Klever schrieb:
Warum kann man einfach nicht anerkennen dass es auch bei AMD Verbesserungsbedarf gibt hinsichtlich Idle Verbrauchs,
Ich erkenne das natĂŒrlich an, das könnte besser sein als bei Intel, klar. Aber wegen wie gesagt 10-20W (MĂŒcke --> Elefant) frage ich mich was hier manche so heftig diskutieren.
Klever schrieb:
bei ansonsten guten CPUs die auch Vorteile bieten (gute Effizienz bei Vollast wie Rendering)? Muss alles immer bei Fanboys schwarz weiss sein?
Und in vielen meiner wenigen Posts sage ich auch oft, dass Intel abseits des Gaming (ist auch im Test hier und auf PCGH, etc. belegt) und Volllastverbrauchs, sehr gute und schnelle CPUs hat. Keine Frage.
 
drunken.panda schrieb:
Ja hier:

https://nextcloud.pandas-palace.goip.de/s/coWZcqJ4NF9HKeM
Toll wÀre nen Bench mit 2x speed spectator Bubba und Grafik Preset Low

Min / Avg Frames sind vor allendingen interessant. Ich habs mit Fraps gebencht.

Northstar2710 schrieb:
habe capframeX benutzt. da ich es eh auf dem Desktop habe. Aufnahme zeit 458sec.
[IMG]https://www.computerbase.de/forum/attachments/unbenannt-png.1334183/[/IMG]

drunken.panda schrieb:
So hab dann auch nochmal nen Bench mit dem Tool CapeFrameX gemacht, das kannte ich noch gar nicht:
Rein aus Interesse hab ich dein Replay mal mit meinem 5800X3D gebencht:
1678482455762.png


Welche Auflösung hab ihr verwendet? Ich hab das low preset genommen und 2560x1440.
 
immortuos schrieb:
Mit curve optimizer -15 und 6000er RAM @1,35V VDimm & 1,35V SoC Voltage sind es nochmal ~7-8W mehr
D.h., du bist jetzt >90W Idle?
Was passiert bei Youtube, gehts weiter nach oben oder bleibt der Verbrauch gleich?
 
LukS schrieb:
Rein aus Interesse hab ich dein Replay mal mit meinem 5800X3D gebencht:
Anhang anzeigen 1334537

Welche Auflösung hab ihr verwendet? Ich hab das low preset genommen und 2560x1440.
Ich bin auf 1920x1080 aber das spielt im Grunde keine Rolle, solange deine GPU nicht am Limit ist. Habe ich selbst schon alles durchgebencht mit WQHD FHD, immer die gleichen min/average Frames, insbesondere auf Low settings.

Ja da bestÀtigt sich meine Entscheidung damals den 5800X3D nicht und stattdessen den kleinen Raptor Lake gekauft zu haben. Der 5800X3D ist also in etwa auf dem Niveau eines 7600X in SC2, der wiederum dann auf i9-12900k level zu sein scheint. In SC2 wohlbemerkt.
 
  • GefĂ€llt mir
Reaktionen: LukS
ZurĂŒck
Oben