Test AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill

t3chn0 schrieb:
So, da wir ja hier die Diskussion um den SOC Verbrauch hatten und ich die Screenshots geposted habe wo man sieht, dass ich out of the box mit dem 7900X im IDLE ca. 36W Verbrauch hatte und diesen dank VDD_SOC Anpassung und MISC Anpassung auf ca. 32W senken konnte.

Ich bin gerade absolut überrascht was hier beim 7900X3D los ist. Statt der 36W out of the box, genügt dieser sich mit nur 25W out of the box. Das ist ein riesiger Unterschied. Ich habe keine Ahnung woher das kommt, aber das ist schon irre.


Anhang anzeigen 1333414
VORSICHT, das ist nicht korrekt von mir!!!!

Ich hatte EXPOII noch nicht geladen. Mit EXPOII liegt die Leistungsaufnahme im IDLE nun bei 43W und ist damit 7W schlechter als beim normalen 7900X! Puh, gerade noch entdeckt.
 
  • Gefällt mir
Reaktionen: Cyberbernd und ComputerJunge
@Taxor das liegt wohl eher an der Spiele Auswahl. hier bei Techpowerup sollen es gesamt nur 1-2 % sein https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/15.html
Ergänzung ()

t3chn0 schrieb:
VORSICHT, das ist nicht korrekt von mir!!!!

Ich hatte EXPOII noch nicht geladen. Mit EXPOII liegt die Leistungsaufnahme im IDLE nun bei 43W und ist damit 7W schlechter als beim normalen 7900X! Puh, gerade noch entdeckt.
welche Ram werte sind das denn?
 
Also das ist eher ernüchternd muss ich sagen. In BF2042 nehmen sich beide CPUs fast nichts. Ich spiele mit einem 116FPS Limit aufgrund der Gsync Range und was ich hier so gelesen habe mit 76W Verbrauch während des Zockens kann ich bei 2042 so gar nicht bestätigen. Beide CPUs laufen konstant mit 116FPS.

Der Verbrauch liegt beim 7900X3D bei ca. 105W und damit deutlich über den 76W die hier immer prophezeit werden. Der normale 7900X benötigt 134W.
 

Anhänge

  • 7900X_Stock_EXPO2_BF2042.png
    7900X_Stock_EXPO2_BF2042.png
    297,5 KB · Aufrufe: 153
  • 7900X3D_Stock_EXPO2_BF2042.png
    7900X3D_Stock_EXPO2_BF2042.png
    281,2 KB · Aufrufe: 150
@t3chn0 wo wurde den BF2042 getest? hatte ich noch bei keinem test gesehen.
ist das eigentlich ein clean system mit dem neuen Chipsatz treiber?so weit ich dänisch in Erinnerung habe sollte man den Chipsatztreiber erst aktualisieren wenn die 3dcpu installiert ist, hast du im Bios Pref catch eingestellt oder Driver oder auf Auto belassen?

Es soll ja bei BF2042 helfen SMT auszuschalten. ob das immer noch so ist weiss ich nicht, hatt es nur mal gelesen.

Und fast nix sind 29watt Unterschied.

da
 
Zuletzt bearbeitet:
t3chn0 schrieb:
Also das ist eher ernüchternd muss ich sagen. In BF2042 nehmen sich beide CPUs fast nichts. Ich spiele mit einem 116FPS Limit aufgrund der Gsync Range und was ich hier so gelesen habe mit 76W Verbrauch während des Zockens kann ich bei 2042 so gar nicht bestätigen. Beide CPUs laufen konstant mit 116FPS.

Also ist ja total verwunderlich, dass es bei BF2042 mit einem 116 FPS Limit keinen Unterschied gibt...

davon ab, wurde BF2042 nie getestet was die Leistungsaufnahme angeht. Die Spiele und der Durchschnittsverbrauch in jeweiligem Spiel wird doch immer angegeben. BF2042 ist nicht dabei, wohl auch weil es sich als Multiplayer-Spiel einfach beschissen benchen lässt.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
t3chn0 schrieb:
Ich hatte EXPOII noch nicht geladen. Mit EXPOII liegt die Leistungsaufnahme im IDLE nun bei 43W und ist damit 7W schlechter als beim normalen 7900X! Puh, gerade noch entdeckt.
Soll heißen der Verbrauch steigt mit EXPO von 25 W auf 43 W und damit um 18 W? Meine Güte, das wäre schon enorm.
Was für ein RAM-Takt liegt denn mit EXPO an? Wahrscheinlich doch 6000 MHz. Wäre super, wenn du auch mal testen könntest was für eine Leistungsaufnahme mit 5200 MHz RAM-Takt angezeigt werden.
 
Im Idle ist der Unterschied zwischen 4800mhz -> 6000Mhz 8-9watt. Gemessen an der Steckdose.
 
  • Gefällt mir
Reaktionen: Arcturus128 und Onkel Föhn
BF 2042 ist auch eine Sonderfall. Das Game lastet die CPU so aus wie fast kein 2. Game. Ich will gar nicht wissen wie viel hier ein 13900K(s) saugt.
 
Taxxor schrieb:
9% Vorsprung vom normalen 7950X3D zum "CCD0 7950X3D" ist schon komisch, vor allem da es bei HardwareUnboxed genau umgekehrt war und der 7950X3D mit abgeschaltetem CCD1 fast überall deutlich schneller war.
Ja, die Werte des 7950X3D sind zu hoch. Der Abstand zwischen 5800X3D und 7950X3D ist zu hoch. Der Abstand zwischen 7950X3D und 7900X3D ist teils zu hoch, ebenso zum simulierten 7800X3D. Auch die 5% zum 13900K sind zu hoch. PCGH testen sehr fordernde Szenen, so dass der R9 und i9 eigentlich näher zusammenliegen sollten.

Dai6oro schrieb:
Ich will gar nicht wissen wie viel hier ein 13900K(s) saugt.
Über 200W.

t3chn0 schrieb:
Der Verbrauch liegt beim 7900X3D bei ca. 105W und damit deutlich über den 76W die hier immer prophezeit werden. Der normale 7900X benötigt 134W.
Funktioniert die Thread Affinität denn auch richtig oder liegen deine Softwarereadings komplett daneben? Wäre nicht das erste mal...
 
Zuletzt bearbeitet:
Dai6oro schrieb:
BF 2042 ist auch eine Sonderfall. Das Game lastet die CPU so aus wie fast kein 2. Game. Ich will gar nicht wissen wie viel hier ein 13900K(s) saugt.
Hi,

also ich spiele täglich 1-2 Stunden BF2042 mit meinem 13900KS. Der saugt im Schnitt 117W, in Peaks ca. 168W. Auf Wunsch kann man hier HWInfo Screenshots posten nach ner Spielzeit von ein paar Runden.
BF2042 ist auch das Spiel, wo die Temperaturspikes hoch sind wie bei keinem anderen. Im Schnitt so 64 - 70°C, mit einer 360 AIO von EK. Aber in unregelmäßigen Abständen steht da für 1 - 3 Sekunden mal ne 95°C oder sowas auf einem Kern. Ansonsten läuft das Ding wie gesagt sehr stabil, gut kühlbar mit normal PL1=PL2=253W, und Verbrauch auch deutlich besser als es immer dargestellt wird.
Und ob der wirklich bei BF2042 168W zieht, oder in irgendwelchen Momenten diverse Windows Prozesse irgendeine Last erzeugen, weiß ich nicht. Ich denke, dass kann man schwer differenzieren an der Stelle.

Gruß
 
Zuletzt bearbeitet:
"Ryzen 7000, ob mit 3D-Cache oder ohne, wurden mit DDR5-5200 32-32-32-61 angesteuert, Intel Core 13000 dagegen mit DDR5-5600 32-32-32-61."

auch wenn es der seitens AMD/Intel spezifizierten RAM Geschwindigkeit entspricht und diese Methodik in der Vergangenheit auch AMD zum Vorteil gereichte, waer es vll. angebracht, in zukunftigen bei identischen RAM Geschwindigkeiten zu testen. Wir wollen ja wissen, welcher Prozessor ueberlegen ist (in diesem Fall der 7950X3D) somit sollten die restliceh Komponenten identisch sein, insofern sie keinen signifikanten Leistungsnachteil/Vorteil fuer die Kontrahenten darstellen. Also DDR5 6000 fuer beide und gut ist.
Gerade Hardware Unboxed hatte ja gezeigt, das Zen4 bei DDR5 5200 sehr starke Leistungseinbussen verursacht im Vergleich zu den von AMD empfohlenen Geschwindigkeit. Klar wird diese Abhaengigkeit durch den 3D Cache verringert, ist aber weiterhin nicht unerheblich in meinen Auge, gerade wenn wir bei Leistung ein recht knappes Rennen hier vorliegen haben. (Leistungsaufnahme natuerlich Intel deklassiert und ca. 2 Gens zuerueck)
 
@Dittsche ComputerBase hat sich halt entschieden, das so zu testen. Und das ist schon lange so. Für Tests mit schnellen Modulen kann man ja woanders gucken. Und ich finde es auch ganz gut, wenn man nicht nur Tests mit schnellen Modulen hat, weil das für die Vielfalt an ermittelten Daten durchaus wertvoll ist.

Mein Kritikpunkt ist eher, dass selbst dieses Halten an das offizielle Non-OC-Hersteller-Limit etwas halbgar umgesetzt wird. Die JEDEC definiert kein DDR5-5200 mit CL32, da ist CL38 das schnellste Timing. Der Geizhals listet auch gar keine Module mit diesen Timings auf. Es gibt zwei mit CL28, die restlichen 117 gelisteten sind CL36 oder langsamer. Somit laufen die Module hier im Test immer noch außerhalb der Spec, wenn man es ganz genau nimmt. Wenn schon Testen mit Kartoffelspeicher, dann bitte auch wirklich mit entsprechenden Modulen.
 
  • Gefällt mir
Reaktionen: Klever
Nixdorf schrieb:
@Dittsche ComputerBase hat sich halt entschieden, das so zu testen. Und das ist schon lange so.
Das kann man auch weiterhin so machen aber was spricht gegen einen weiteren Test bei gleichem RAM Takt.
Der muss ja nicht zum CPU Launch kommen und kann sich auch mehr um RAM Takt sowie Timings drehen.
Da könnte man auch mal ältere CPU's mit einbeziehen um zu zeigen was für eine Show abgezogen wird.

Wie du bereits sagtest, hatte Intel davon in der Vergangenheit mehr profitiert und zwar nicht nur gegenüber
AMD sondern auch bezogen auf seine eigenen CPU Generationen wo den Kunden durch höherem RAM Takt
mehr Leistung suggeriert wurde. Gen 9 ist das krasseste Beispiel. Der Intel "Standard" ist DDR4-2666Mhz
aber gleichzeitig auch DDR4-4266Mhz per XMP (Intel Extrem Memory Profile) aber nie wirklich getestet.
 
  • Gefällt mir
Reaktionen: Cyberbernd und Nixdorf
Dittsche schrieb:
Gerade Hardware Unboxed hatte ja gezeigt, das Zen4 bei DDR5 5200 sehr starke Leistungseinbussen verursacht im Vergleich zu den von AMD empfohlenen Geschwindigkeit.
Waren die Leistungseinbußen nicht eher gering? Und sowieso hatte der Speicher mit geringerem Takt auch höhere Latenzen, die Unterschiede kann man also nicht auf den Takt schieben.
 
0ssi schrieb:
was spricht gegen einen weiteren Test
Jepp, sowas gerne. 👍
Ergänzung ()

Arcturus128 schrieb:
Waren die Leistungseinbußen nicht eher gering?
Ne, die waren sehr deutlich. Das ist hier bei CB aber kaum zu sehen, eben weil wie oben besprochen der 5200er-RAM mit sehr scharfen Timings getestet wird, was den Nachteil langsamen Speichers recht gut kaschiert.

Dahingegen vergleicht Hardware Unboxed tatsächlich billigen Kartoffel-RAM mit 6000CL30 bei scharfen Timings. Da sind es dann +16,5% beim 7700X, wohingegen die gleiche Modulpaarung beim 13900K nur +2,5% Unterschied ergibt. Einzelne der Messwerte im Youtube-Video sind allerdings recht fragwürdig, weil die Unterschiede bei Messungen größer sind, als es bestenfalls denkbar wäre. Insofern liegt die Realität wohl irgendwo zwischen beiden Angaben.

Jedenfalls erklärt das zumindest tendenziell, warum in einigen Test Raptor Lake Welten vorne lag, und in anderen der Unterschied auch ohne X3D nur moderat war. Umgekehrt führt das nun in den X3D-Tests dazu, dass der Effekt in einigen Tests stärker ausgeprägt ist als in anderen.
 
Zuletzt bearbeitet:
Northstar2710 schrieb:
Das ist es ja eben. Diese ganzen HD-Labortest geben hat eine nette Theorie wieder, aber nicht den täglichen Gebrauch. Somit sind die Test ganz "nett", aber mehr nicht. Echte Tests in den 3 gebräuchlichen Auflösungen, damit kann man doch eher was anfangen. Aber damit verkauft man halt nichts.
 
Zuletzt bearbeitet von einem Moderator:
Bam_Bam_GER schrieb:
Das ist es ja eben. Diese ganzen HD-Labortest geben hat eine ...
CB verkauft allerdings die CPUs nicht und hat auch keine Testauflagen und macht auch kein Marketing für irgendein Hersteller. Es geht allein darum die Geschwindigkeiten von CPUs zu messen und unabhängig zu vergleichen...

Jeder hat in seinen eigenen Spiele und mit eigenen Grafikkarten, Rams und Settings eigene CPU oder GPU Limits. Es muss schon jeder selber mitdenken und CPU Test und GPU Tests sowie die Messungen des eigenen Systems verstehen und muss es richtig einschätzen und in Relation setzen.

Dieses Mitdenken müsste man übrigens genauso auch bei 2k und 4k Tests stattfinden. Aber die Mühe macht man dann nicht mehr, ich verstehe das schon es ist einfach bequem zu verallgemeinern als sich mit etwas Mühe und Einsatz, differenziert mit dem eigenen System und solchen Tests auseinander setzen zu müssen...

Was bringt einem ein 2k oder 4k Test wenn man nicht den gleichen PC wie im Testsystem besitzt und nicht die Spiele spielt oder die gleichen Einstellungen benutzt? Beispiel: Hat jeder ne 4090 und solche Rams? Oder die gleichen Spieleinstellungen?

Nachtrag: Mal noch davon abgesehen dass einige Spiele bzw. Engines aktuell die nicht in den Parcours sind, sehr eigenwillige Verhaltensweisen haben.

So ein CPU Test ist eben nur ein Puzzleteil wenn es darum geht welche CPU soll man sich als nächstes kaufen aka passt in mein System aka passt zu meiner GPU und zu meinen Lieblingsgames.
 
Zuletzt bearbeitet:
Es ist auch echt faszinierend das nach so vielen Jahren der CPU Tests es so viele immer noch nicht verstehen warum man eine CPU bei möglichst niedriger Auflösung testet um ein mögliches GPU Limit weitestgehend auszuschließen. Und wie dann immer Tests in 2k oder 4k gefordert werden weil man scheinbar nicht in der Lage ist eine simple Transferleistung zu erbringen. Kann doch nicht so schwer sein.
Am besten sind dann immer die Vorwürfe CB würde das machen damit der eine oder andere Hersteller besser da steht.
 
  • Gefällt mir
Reaktionen: Haldi, thom_cat und Javeran
Kleine Metapher: Ein LKW hat auch 400 PS, fährt aber nur 120 km/h. Bringt mir, wenn ich 300 km/h fahren möchte leider nichts. Oder wer's lieber mag: Für 100 km/h reichen auch 100 PS.
;)
 
Zurück
Oben