News AMD Ryzen 7000X3D: 7950X3D, 7900X3D & 7800X3D mit hohem Takt im Februar

Linmoum schrieb:
TPU hat das ganz ausführlich mit 53 Spielen und einer 4090 getestet. In FHD ist der 13900K nur ~6% schneller.
Ich erhöhe auf 171 Tests^^

Screenshot 2023-01-05 105214.png


Da wären wir dann bei ~10%
Wenn AMDs Zahlen also einigermaßen verlässlich sind(und da bin ich nac hRDNA3 jetzt erst mal skeptisch), dann würde auch der 7800X3D schon den 13900K schlagen, zumindest wenn man nicht mit RAM OC anfängt.


(bei den Franzosen Le Comptoir sieht man übrigens sehr schön, was passiert, wenn man CPUs im GPU Limit Testet^^)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85, bad_sign, MojoMC und 2 andere
DiePalme schrieb:
Willst du die reine CPU Leistung testen.... musst du niedrige Auflösungen wählen. Ansonsten wird die GPU zum Flaschenhals.
Seit dem es die 4090 gibt kann man getrost 720p weglassen und die CPUs nur noch auf 1080p testen. Wobei sogar selbst auf WQHD die CPU der Flaschenhals wäre bei einer 4090.
 
  • Gefällt mir
Reaktionen: Slayn, danyundsahne und Hate01
danyundsahne schrieb:
Ich vermute, wenn man die zusätzlichen 64MB in 2 x 32MB auf CCD0 und CCD1 verteilen würde, dann wäre es unterm Strich (Durchschnitt) langsamer.
Oder aber, es ginge technisch nicht, aber das glaube ich weniger.
Langsamer wäre es nur bei Anwendung, die nicht vom Cache profitieren.

Technisch ist das kein Problem, wird bei Epic auch gemacht, mit bis zu 4 Chiplets.
 
  • Gefällt mir
Reaktionen: danyundsahne
die X3D´s lesen sich wie regelrechte monster. Zu so einem tollen produkt kann man AMD nur gratulieren 👍👍
 
  • Gefällt mir
Reaktionen: danyundsahne
Hanse schrieb:
Sind die deaktivierten Kerne auf den CCDs immer gleich verteilt?
... Wäre mir da irgendwie nicht sicher wie sich das konkret verhält, es sind ja auch bei Ryzen schon 6-8 Kerner mit 2 CCDs aufgetaucht.
gegen einen ryzen 7900x3d mit 14 kernen hätte ich nichts einzuwenden. ein 4+8 statt 6+6 schon eher ;)
 
danyundsahne schrieb:
Also so schlecht, können die CPUs nicht werden
Habe ich auch nie behauptet.

Trotzdem verstehe ich nicht, wieso nur ein CCD 64MB Cache huckepack bekommt und das zweite nicht.
Bei den Epic mit 3D Cache haben haben ja auch alle CCDs den 3D Cache drauf.
 
iron_monkey schrieb:
Mein Hirn sagt bei sowas auch "nicht richtig" ,genauso wie bei krummer Rambestückung (z.B. 24GB).

Wo ist das Problem? Solang alles schön im Dualchannel läuft is doch kein Thema. Auf meiner DDR3 Plattform früher hatte ich 24GB Ram mit 2x 8GB und 2x 4GB...bei 3x 8 hätte ich jedoch auch nen Hirnkrampf bekommen :D
Ergänzung ()

nobbivm schrieb:
Habe ich auch nie behauptet.

Trotzdem verstehe ich nicht, wieso nur ein CCD 64MB Cache huckepack bekommt und das zweite nicht.
Bei den Epic mit 3D Cache haben haben ja auch alle CCDs den 3D Cache drauf.

Vermutlich kosteneinsparung. Und da hauptsächlich gamer von Cache profitieren aber selten mehr als von 8 Threads macht es einfach kaum sinn auf beides eins draufzuklatschen. Der Performanceanstieg dürfte nicht nennenswert sein und im Multithread wird der 2. CCD dann auch auf niedrige Taktfrequenzen gezwungen. Im Multithread könnte das im Zweifelsfall also leistung kosten wenn die anwendung nicht vom Cache profitiert. Und das für mehr Kosten? Eher Njiet.
 
nobbivm schrieb:
Habe ich auch nie behauptet.
War ja auch nicht auf dich bezogen, alles gut.
nobbivm schrieb:
Trotzdem verstehe ich nicht, wieso nur ein CCD 64MB Cache huckepack bekommt und das zweite nicht.
Bei den Epic mit 3D Cache haben haben ja auch alle CCDs den 3D Cache drauf.
Ja, dann wird es hierfür gewisse Gründe geben.
Muss aber nicht sein, dass es deswegen schlecht funktioniert. Wie schon gesagt, ich sehe das ähnlich wie bei den P- und E-Cores bei Intel. Kommt ja auch gut an, und stört niemanden so richtig, dass die Cores unterschiedlich schnell sind. Die Gesamt-CPU ist flott und daher kauft das Zeug auch jeder wie in Scharen ;)
Kann also auch bei Intel nicht so schlecht sein (auch wieder nicht auf dich bezogen) :)
 
Hutzeliger schrieb:
Ja und ? In anderen Workloads sind sie ja nicht (viel) schlechte
Das ist nicht so relevant. Sie sind in der Herstellung viel teurer und damit ist auch der Endpreis für den Kunden höher.
Wenn Cache for free wäre, dann würde AMD die wohl überall dauf packen.

AMD kannibalisiert nicht das eigene Portfolio sondern bietet gegen Aufpreis eine bestimmte Eigenschaft (=mehr Cache) die eben nur bestimmten Anwendern einen Vorteil bringt.
 
Das neue Jahr macht bei Hardware da weiter, wo 2022 aufgehört hat.
Bin mal auf die unabhängigen Tests gespannt, ob AMD die Leistungsversprechen durch die Bank weg einhalten kann oder sie sich da einiger besonders für sie vorteilhafter Titel bedient haben.
 
Wenn der Cache nur auf einem die sitzt, haben die anderen Kerne höhere Latenzen, können dafür höher takten...
bin mir nicht sicher ob das jetzt gut oder schlecht ist.
Pro: die Hälfte des SoCs verhält sich wie ein "normaler" 7900er. Nachteil: die Hälfte des SoCs verhält sich wie ein "normaler" 7900er.

Mich würde ein Vergleich mit einem Prozessor interessieren der auf beiden Chiplets den Speicher trägt, dafür die Taktraten natürlich anpasst - und vermutlich effektiv noch weniger Strom verbraucht?
 
Darauf freue ich mich sehr 7900X3D und TDP von 120W könnte dann ähnlicher Verbrauch wie der 5900x sein bei deutlich besserer Gaming Leistung und auch bei Anwendungen sollte es einiges mehr sein.

Das könnten die CPUs sein, die man am Anfang schon gerne gesehen hätte.
 
  • Gefällt mir
Reaktionen: danyundsahne
Ich erwarte einen Leistungsverlust vom 7800x3d auf 79x0x3d.
Das wird der Grund gewesen sein in der 5x Serie keinen 5900 mit extra Cache auf den Markt gegeben zu haben.
 
Hutzeliger schrieb:
Wow jetzt bin ich echt gespannt,
das geht dann echt schnell.
War das so geplant oder doch eine Reaktion darauf das AM5 wie Blei in den Regalen liegt?
Das war sicher so geplant. Man wird sicher schon ganz am Anfang des Chip-Designs entschieden haben, wieviel X3D-Cache es geben wird. Das muss ja in der CPU-Architektur berücksichtigt werden. So was bastelt man nicht mal eben so in einem Monat zusammen.

metallica2006 schrieb:
aber schon lange Windows geplagt =).
War schon beswusst so geschrieben und gemeint.
Die meisten Leute geben Microsoft nicht genug Kredit für das, was sie mit Windows abliefern. Technisch gesehen, ist Windows in fast allen Bereichen allererste Sahne.
Über 99,9% der Fehler, die im Betrieb auftreten, sind nicht auf Windows sondern auf fehlerhafte Programme, Treiber und Hardware zurückzuführen. Windows selber ist für seine Größe (>100 Mio. Zeilen Code) erstaunlich fehlerfrei. Da kann man gar nicht meckern.

kest schrieb:
Natürlich ist es möglich. AMD und Kernel-Entwickler ja auch nicht doof.

Es existieren diverse Zähler (Cache-Misses, Performance-Counter, ...) die Statistik führen (können). Daraus kann man schließen, welche Threads wie und wo laufen.
Aber das ändert sich von Programm zu Programm und sogar während der Programmlaufzeit. Das ist nicht so einfach, wie du dir denkst.


Ich hab zuerst den 7700X im Blick gehabt, aber der 7800X3D sieht gut aus. Wenn der nicht übermäßig teurer gegenüber dem 7700X wird, dann nehme ich ihn wahrscheinlich. Mein Rechner ist so alt, dass sich das auf alle Fälle lohnt. Beide AMD-CPUs sind locker 50-100% schneller, als das was ich jetzt gerade habe.
 
  • Gefällt mir
Reaktionen: GT200b
Nixdorf schrieb:
Das System muss genau darauf achten, Spiele auf dem V-Cache-CCD zu halten.
Da der andere CCD ja höher taktet ist es sogar noch komplizierter, da es auch beim Gaming einzelne Tasks gibt, die nicht vom Cache profitieren. Die werden auf dem andere CCD durch den höheren Taktnsofar schneller laufen. Anders als bei Intel ist deshalb nicht einfach eine Unterteilung in Schnell und Langsam bei den Kernen möglich, sondern es kommt genau auf den Workload an.
 
nobbivm schrieb:
Trotzdem verstehe ich nicht, wieso nur ein CCD 64MB Cache huckepack bekommt und das zweite nicht.
Bei den Epic mit 3D Cache haben haben ja auch alle CCDs den 3D Cache drauf.
1. noch mehr Cache skaliert mglw. in Spielen nicht mehr besonders gut (kann bei anderen Use-Cases für Epycs anders sein)
2. das CCD ohne 3D-Cache kann weiter den gleichen Turbo fahren, wie die normalen Ryzen. So profitieren Spiele vom größeren Cache, während Anwendungen, die nur mit dem Takt skalieren, nicht so viel verlieren.
 
  • Gefällt mir
Reaktionen: Dai6oro und E1M1:Hangar
drago-museweni schrieb:
Darauf freue ich mich sehr 7900X3D und TDP von 120W könnte dann ähnlicher Verbrauch wie der 5900x sein bei deutlich besserer Gaming Leistung und auch bei Anwendungen sollte es einiges mehr sein.

Das könnten die CPUs sein, die man am Anfang schon gerne gesehen hätte.

Zeig mir mal eine Anwendung die massiv auf den Cache reagiert.

Mir fällt da gerade nichts ein, was die Masse bedient. :/

Also ernstgemeinte Frage. Gaming - ja. Aber produktiv... ne.
 
NJay schrieb:
Da der andere CCD ja höher taktet ist es sogar noch komplizierter, da es auch beim Gaming einzelne Tasks gibt, die nicht vom Cache profitieren. Die werden auf dem andere CCD durch den höheren Taktnsofar schneller laufen. Anders als bei Intel ist deshalb nicht einfach eine Unterteilung in Schnell und Langsam bei den Kernen möglich, sondern es kommt genau auf den Workload an.
Jup, stell mir das auch schwierig vor, auf welcher Grundlage der Scheduler da den "richtigen" Kern auswählen soll. Ich kann mir durchaus vorstellen, dass hier die Testergebnisse bei mehrfachen Durchläufen sogar ziemlich streuen könnten, je nach dem, wie gut oder schlecht die Zuweisungen waren.
 
  • Gefällt mir
Reaktionen: NJay
AMD arbeitet an einem Chipsatztreiber, der das Scheduling Problem lösen soll. Falls das schon gepostet wurde, bitte teeren und federn.

1672914367192.png

Source
 
  • Gefällt mir
Reaktionen: JPsy, Schultzie, iron_monkey und 14 andere
  • Gefällt mir
Reaktionen: iron_monkey
Zurück
Oben