Test Ryzen Threadripper 3990X im Test: AMDs 64-Kern-CPU mit 40 Milliarden Transistoren

Wirklich beeindruckend wie effizient die Zen-2-Architektur ist.

Unter Volllast nimmt der 3990X mit 64C/128T nur etwa 5 Prozent mehr Leistung auf als ein 2990WX mit 32C/64T, erzielt dabei aber eine im Durchschnitt 83 Prozent höhere Leistung.

Mit Zen 2 ist AMD ein wirklich beeindruckender Wurf gelungen und man darf durchaus auf Zen 3 gespannt sein.
 
  • Gefällt mir
Reaktionen: Smartbomb, Thraker, downunder4two und 7 andere
Zen 2 ist wirklich gut geworden.

Der Vorsprung des 3990X ist aber zum Teil der NUMA/UMA Problematik geschuldet, die den Vorgänger in vielen Szenarien (vor allem unter Windows) davon abgehalten hat, seine maximale Leistung auf die Straße zu bringen.

Mit Zen 2 Treadrippern hat AMD diese Probleme ausgemerzt.
Ich kann es kaum erwarten zu sehen was mit Zen3 kommen wird.
Wenn es in diesem Tempo weitergeht, muss sich Intel was einfallen lassen.

AMD ist technisch immer voraus gegangen und hat dafür oft Prügel kassiert.
Diesmal scheinen sie alles richtig gemacht zu haben.
Zumindest bei CPU´s.

Die Dinger laufen echt rocksolid.
Wüsste nicht das ich mal einen Bluescreen gesehen hätte, selbst wenn ich Mist im BIOS eingestellt habe.
 
  • Gefällt mir
Reaktionen: Labberlippe und Cruentatus
Sieht beeindruckend aus. Die PC-Industrie war aber auch faktisch ein Jahrzehnt bei 4 bzw. 6-Kern-CPUs
steckengeblieben. Das hat echt gedauert. Insofern gebührt hier AMD sicherlich der Dank für den Konkurrenzdruck.
Aber ohne Software-Anpassungen die das auch nutzen kann, bringt das alles wenig. Egal ob von Intel oder AMD!

Da müsste jetzt deutlich mehr kommen.
 
Es hat sich schon viel getan seit 4C 4T.

Der PC Markt boomt seit vielen Jahren wieder.
Moores Law wird übertroffen seit AMD den Krieg der Kerne gestartet hat.
Moderne Spiele lasten viele Kerne aus.
Konsolen kommen bereits mit 8 Kernen.

Es geht vorwärts... schneller als es das lange Zeit getan hat.

Fehlt nur noch das NVIDIA auch mal aus Comfy Modus rausgeschüttelt wird.
 
  • Gefällt mir
Reaktionen: Sinans2, Labberlippe, 7hyrael und 2 andere
Auf dem Gerät geht mit einer Custom Wakü sicherlich was. Wobei ich mir da fragen würde, ob zuerst die abführbare Wärmemenge am CPU-Block erreicht wird, oder ob zuerst die Spawas aussteigen.

Man darf jedenfalls gespannt sein, was die verrückten Overclocker mit Stickstoffkühlung erreichen können.

Auf jeden Fall ein sehr Prestige trächtiges Stück Hardware, das AMD hier abliefert. Noch dazu mit hohem Nutzen in der Praxis (Rendern, FEM und ähnliche Simulationen, AI, Virtualisierung, ...).
 
Dai6oro schrieb:

Für vernünftige Tests oder Einschätzungen bei AMD-CPUs sind Pugetsystems regelmäßig nicht gerade die erste Wahl. Auch diesmal so
seltsame Entscheidungen, schon eingangs wird darauf hingewiesen, dass der Kühler für diese CPU "grenzwertig" sei. Trotzdem wird
munter mit dem120mm Kühler getestet, seltsam deswegen, weil sie selbst bei ihren einzigen 2 TR´s im Angebot die 140mm-Version
nehmen.
 
Die CPU ist eigentlich sinnlos, zu fett für den Desktop und 99,9% der Software und als Speicherkrüppel nicht wirklich servertauglich. Selbst zum Rendern wird der kastrierte Speicher zum Problem wenn man die CPU richtig nutzen möchte. AMD bringt die CPU weil sie es können, aber nicht, weil sie jemand braucht. Bei Servern ist i.d.R. der Speicher das Limit und nicht die zur Verfügung stehenden Threads. AMD will den Epyc nicht kanibalisieren, aber das würden sie auch nicht, wenn sie den Speicher nicht unnötig beschneiden würden. Wer eine 4000€ CPU kauft bzw. 2, der braucht mehr als nur 256GB RAM, damit geht kein 8K Rendering!
 
  • Gefällt mir
Reaktionen: Leon_FR und Col.Maybourne
Vollkorn schrieb:
Bis dahin hat AMD noch einen weiten Weg

1,78 Billionen Rechenoperationen pro Sekunde
Kilocore: Weltweit erster Mikrochip mit 1.000 Kernen


Kilocore

ist das eine CPU für den Massenmarkt?
wurde 2016 entwickelt, was ist seitdem passiert?
kannst du es schon kaufen..?
ja ein weiter Weg.. für die Einsicht der Intellianer ;)
 
Chillaholic schrieb:
Intel ist bloß spürbar effizienter im Leerlauf.
Was aber in dem Fall primär am X570 sowie TRX40 liegt.

Beide Chipsätze sind absolut keine Kostverächter, was den Leerlauf angeht. Die 3x00er verhalten sich auf B450 und X470er doch recht normal im Leerlauf, auch wenn durch den Chiplett-Design durchaus ein paar Watt mehr auf der Urstehen.

Muffknutscher schrieb:
Natürlich gewinnt Schweinetel weil die mehr Takt auf weniger Kernen fahren.
Wobei der maximale Takt auch bei Intel in den entsprechenden Bereichen nicht viel höher ausfällt und die CPUs sich bei Single-Core Anwendungen als auch Spiele nicht so viel geben.

Die einzigen CPUs die im Single-Core noch davon fahren sind die sehr hoch taktenden 6c und 8c CPUs. Jedoch ist der Leistungsunterschied auf dem Niveau auf dem wir uns befinden, eher irrelevant.

Als Privatanwender macht man aktuell weder mit AMD noch mit Intel etwas falsch.



Baal Netbeck schrieb:
...Hier wäre es mal cool zu sehen, wie ein reines Raytracing Spiel laufen würde. ...
Nicht so gut, wie du nun vermutest. Gleich dazu mehr.

calluna schrieb:
Was denkst du ist schneller... eine CPU mit 64 Kernen und AVX256 oder eine GPU mit unzähligen kleinen Recheneinheiten, die für diese Aufgabe ausgelegt sind. ;-)
Also eine 64-Kern-CPU mit je 2 AVX256-Einheiten kommt am Ende, wenn man es runter Brechen will, auch auf
ca. 1024 INT32/FP32-Shader. Dazu kommen pro Kern noch 4 reine INT32/64-ALUs hinzu, sodass man am Ende auf gut 1280-Rechenwerke kommen.

Ein guter Software-Renderer kann hier durchaus schon Achtungserfolge für sich verbuchen und kann auch schneller sein als eine GPU mit ähnlicher Rohleistung, weil viel mehr Daten in den Caches gehalten werden können und ebenso der deutlich einfacher Zugriff auf den Caches pro Core ist bei RayTracinung, genauer der BVH-Suche, Gold wert.

Es hat ja ein Grund, warum sowohl NVIDIA als auch AMD die Wege der Shader auf die Caches mit Turning als auch RDNA direkter gestalten und ebenso, warum sie spezielle Funktionseinheiten für die BVH-Suche (NVIDIA RT-Cores / AMD als Erweiterung in den TMUs) entworfen haben und diese noch direkter auf die Caches als ach den Arbeitsspeicher zugreifen können.

Baal Netbeck schrieb:
Die GPU ist sicherlich viel schneller....aber trotzdem fände ich es interessant....es gab ja schon Quake 3 und 4 mit CPU Raytracing....Also vor vielen vielen Jahren....damals noch mit mehreren Quadcore CPUs.....das jetzt mit 64 Kernen neu zu probieren wäre einfach ein schöner Vergleich.
Wobei man hier doch etwas klar stellen sollte:

Das RayTracing von Daniel Pohl, das er mit Quake 3, Quake 4 und glaub ich mit Wolfenstein (2009) gezeigt hat, war doch noch recht "simpel". Es zeigte zwar beeindruckende (direkte) Schatten und Spiegelungen, gleichzeitig war es jedoch von der Beleuchtung als auch den indirekten Schatten sehr simpel, da viele Effekte, die wir da heute in den Rasterizer kennen, überhaupt nicht berechnet wurden. Bei Quake 3, Quake 4 und Wolfenstein dürfte es sich damals wohl um rekursives RayTracing gehandelt haben.

Die GPUs werden jedoch auf das PathTracing ausgelegt, dass wesentlich glaubwürdigere Schatten, Beleuchtung und Reflexionen berechnet und daher auch noch mal andere Leistungsanforderungen stellt. Ein PathTracer wäre damals vermutlich auf den Quad-Cores und Co nicht gelaufen.

Der rekursive RayTracer von Quake 3 und Quake 4 würde heute vermutlich auf einer 64-Kern-CPU durchaus schneller laufen als damals und könnte sogar FullHD bei 60 Frames schaffen, gleichzeitig könnte aber selbst eine "Mittelklasse" GPU Quake 3 und Quake 4 mit rekursiven RayTracing bei FullHD die 60 Frames schaffen und wäre günstiger. (Nur Vermutung).

Bei einem PathTracer könnte die 64c-CPU durchaus auch "Vorteile" haben, aber nur bei dem Durchlauf des BVH-Baums, da die CPU größere Caches hat und diese auch sehr schnell Angebunden sind. Sobald die Shader aber ausgeführt werden, ist die GPU wieder in Vorteil.

Es hat schon einen Grund, warum NVIDIA mit Turning als auch AMD nun mit RDNA die Latenzen als auch die Wege der Shader auf die Caches verkürzt und optimiert hat und ebenso, warum NVIDIA die RT-Cores entwickelt hat, die ebenso direkt mit den Caches und dem VRAM verbunden sind. Und es ist der Grund warum AMD die BVH-Funktionen in die TMUs integriert, da diese eben auch sehr direkt auf den RAM zugreifen können.

teufelernie schrieb:
Jeder Cache der nicht direkt an dem Core hängt, wäre aber recht langsam, auch wenn das "Fabric"mittlerweile wesentlich besser ist.
...
Der L3-Cache wäre dennoch schneller als der RAM und die Latenzen wären auch niedriger.



ZeroZerp schrieb:
Somit ist die CPU für eine Mehrzahl der Benutzer belanglos.
Genau so ist der 9900K und 9900KS für die meisten Benutzer belanglos, weil der Mehrwert - bei Anwendungen - von 5GHz gegenüber den kleineren Modellen - auch von AMD mit 4,5 und 4,0 GHz im Alltag doch eher überschaubar bis nicht vorhanden sind.
 
  • Gefällt mir
Reaktionen: s0UL1, calluna und Baal Netbeck
Summerbreeze schrieb:
Allerdings definiert AMD seinen Maximalverbrauch ganz klar mit TDP x 1,35. Entsprechend kaufst deinen Kühler und Du bist glücklich.
Das trifft nur auf die Mainstream Ryzens zu. Beim Threadripper ist der Maximalverbrauch ziemlich exakt die TDP, sieht man ja auch hier im Test, die maximale CPU Power in Prime95 liegt dort bei 287W für die 280W TDP Modelle und bei 249W für die älteren 250W Modelle.

Und auch bei den kleinen Ryzens kaufst du den Kühler entsprechend der TDP, denn das ist die Wärme, die du bei einen Verbrauch von TDP x 1,35 abführen können musst.
 
AMD ist Welten näher an der TDP als Intel, auf allen Plattformen.
Sie sind aber auch nicht ohne Fehler, Baseclocks können bei Synthetischen lasten auch mal ums "*lecken" unterschritten werden.

Teralios schrieb:
Was aber in dem Fall primär am X570 sowie TRX40 liegt.
Beide Chipsätze sind absolut keine Kostverächter, was den Leerlauf angeht.

Ich hatte noch keine Zeit den ganzen Beitrag zu lesen.
Die geheime Zutat bei diesen Chipsätzen ist PCIe 4.

Vergleiche mal Idle Power.... X470 zu X570, da wird schnell klar woran es liegt.
Da wurde was aufgeborhrt.

Falls Intel das irgendwann auch mal am Start hat, kann mal ja einen Vergleich auf Augenhöhe machen..
Zum Glück hat man bei AMD die Wahl ob man PCIe4 nimmt oder nicht.
 
moshimoshi schrieb:
Kilocore: Weltweit erster Mikrochip mit 1.000 Kernen

Kerne mit 10.000, 100.000, einer Million, einer Milliarde oder 100 Milliarden Transistoren?
Noch so eine Zeile mit Cache... usw.

16 Bit Rechenkerne :evillol:, LOL
Da bringen 1000 davon auch nicht viel.

Hier was zu lesen über 16 Bit Rechenkerne.
https://deacademic.com/dic.nsf/dewiki/1067514

Du merkst wo das hinführt....

Denkst Du die gesamte Halbleiterindustrie pennt und lässt sich von einem Fingernagelgroßen luftgekühlten Chip zersägen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: moshimoshi
Das ist am Ende nicht AMDs Schuld, das Versagen liegt hier bei den Spieleherstellern.

Naja, harte Worte für ein eher sinnlosen Teil-Test. Komisch nur, dass ein Reisebus mit 128 Sitzplätzen mega gut ist beim gleichzeitigen Transportieren vieler Menschen, dass er dabei nicht so schnell fährt, ist dabei, je nach Anwendung, vielleicht sogar zweitrangig. Es mit einem Sportwagen zu vergleichen, welches für das schnelle Fahren und für 2-4 Personen optimiert wurde, finde ich schon echt grenzwertig... Es kommt höchstens ein CB-Redakteur auf die Idee, eine Reisegruppe mit einem Sportwagen transportieren zu wollen oder mit einem nahezu unbeladenen Reisebus eine Rennstrecke zu absolvieren...

Diese CPU beweist im Multithreadding, was sie kann, leider steckt sie in der Single-Leistung zurück. Schaut man sich jedoch die realitätsnaheren Benchmarks an, solche, die mit vielen Kernen umgehen können, sind die Zahlen eher Beeindruckend.

Diese CPU aber als normale Desktop-CPU anzupreisen ist echt fragwürdig^^
 
  • Gefällt mir
Reaktionen: Relict, Apocalypse, up.whatever und eine weitere Person
Tenchi Muyo schrieb:
@AMD Top! :daumen:

Für meinen Usecase ist der 3970X die richtige(re) Wahl gewesen. :D

Edit:

warum machen die ECC ohne reg. keine Sinn?
Kann man dann gleich bei normalen Speicher bleiben?
Hallo @Tenchi Muyo , du hast downgraded? Cooles Ding, darf ich fragen wo die ganzen KSes hingekommen sind, was ist mit ihnen?
Und, machst du jetzt mit dem TR auch so krasses Ram OC?

Brauchst du den TR beruflich, oder is es eher so ein Signatur Ding bei dir?

Nicht falsch verstehen, das ist alles nett gemeint. :)

Gruß
mecks
 
Leider war es mir erst jetzt möglich den test zu lesen.

Einfach beeindruckend.

Das schöne ist dass ich den dann in zwei Jahren oderso meinen 32 Kerner mit dem ersetzen und es wird keine Probleme geben :D was ein Monster.

Beeindruckend ist auch wie die Spanne an Software verschieden damit zurecht kommt. Aber die beste Nachricht ist dass erstmal alles out of the Box läuft. Ob das Programm nur einen oder alle 128 Threads auslasten kann scheint egal zu sein.

128 Threads sind ein Traum für die simulation und renderaufgaben. Beides Dinge die ich so mache. Bisher ist die Software schon genug mit 64 Threads beschäftigt aber das ist schlicht der Wahnsinn was hier möglich ist ohne das der Stromverbrauch explodiert.
Ich sehe die 8k 360 grad Videos schon vor mir. (wenn das Netzteil und der Kühler mal auf den Markt kommen würde ^^)

Da macht der test unterbewusst Lust auf einen dual Sockel EPYC 7742 mit 256 threads. ^^ damit könnte ich in der selben Zeit noch viel genauer rechnen.
Leider wirds ein Traum bleiben.

Sowas hätte ich vor drei Jahren nicht für möglich gehalten als ein 10 Kerner gut 2k gekostet hat.

Die Software wirds richten mit der Zeit, wenn mein setup steht schau ich mal was mit resolve so geht. Wenn 64 Threads gut gehen wirds nicht scheitern das ganze auch für 128 Kerne zu implementieren.

An Computer base vielleicht noch der Wunsch, wenn es euch irgendwie möglich ist, das ganze nochmal auf einer passenden Linux Umgebung zu testen, um zu sehen ob man dort schon besser dran ist was die auslastung angeht.

Von mir riesen Lob an den Test, scheint ja auch noch bisschen was nachgereicht zu werden, was es umso besser macht :D

Viele Grüße!
 
IBISXI schrieb:
Ich hatte noch keine Zeit den ganzen Beitrag zu lesen.
Die geheime Zutat bei diesen Chipsätzen ist PCIe 4.

Vergleiche mal Idle Power.... X470 zu X570, da wird schnell klar woran es liegt.
Da wurde was aufgeborhrt.
Ja und? Erzähl mir bitte etwas neues, was ich noch nicht weiß.

Ansonsten ist das, was du schriebst nur zum Teil richtig. Ja, der X570 als auch der TXR40 bieten PCIe4, das ist hier aber nicht das vollständige Problem, sondern nur ein Teil des Ganzen.

Das Hauptproblem ist viel eher, dass der X570 als auch der TRX auf dem I/O-Chiplett basieren und damit auch sehr viel unnötiges Zeug mit schleppen Ein X470 um PCIe4 Funktionalität erweitert mit dem selben Ausstattungslevel und in 28nm oder gar 14nm sollte deutlich weniger Energie benötigen als der X570. Der X470 benötigt bei 55nm ca. 5 Watt.
 
Teralios schrieb:
Genau so ist der 9900K und 9900KS für die meisten Benutzer belanglos, weil der Mehrwert - bei Anwendungen - von 5GHz gegenüber den kleineren Modellen - auch von AMD mit 4,5 und 4,0 GHz im Alltag doch eher überschaubar bis nicht vorhanden sind.
Genau so ist es. Den 9900K habe ich als Beispiel aus dem Benchmark gewählt, weil er derzeit das Synonym für die maximale Singelcore- Leistung darstellt.
Damit kann man beispielhaft sehr gut per Core- Leistung und Kernzahlen in Zusammenhang setzen.

LG
Zero
 
Ganz klares Aushängeschild mehr nicht. Wie CB schrieb ist es ein Nischenprodukt für eine Nische. Aber trotzdem cooles Teil.
Für meine Bedürfnisse aber zu wenig Kerne. Will halt lieber den Landwirtschafts Simulator 65 mal parallel spielen. 64 Kerne reichen da einfach nicht, vor allem wenn diese nicht hochfrequent sind. duck und wech
 
@Teralios
Was denn für unnötiges Zeugs?

Klar benötigt X570 mehr Energie als X470.

Du darfst nicht nur die Lanes sehen, die direkt über die CPU laufen.
Damit hat das Chipset nichts zu tun. Die könnten auf beiden Plattformen mit PCIe4 laufen.

Das Chipset und somit auch die Peripherie ist mit der doppelten Geschwindigkeit angebunden. (PCIe3 zu PCIe4)

Hast Du gedacht AMD macht mal schnell ein "unnötiges" Chipset und nennt es X570 weil es mehr säuft?

Selbst wenn Du das denken würdest, hättest Du immer noch die Wahl ob mit oder ohne PCIe4.

Was ist, wenn PCIe 4 Grafikkarten Standard werden?
Was wird ab diesem Zeitpunkt wichtiger?
5W oder ein aktueller Busstandard?
 
Zuletzt bearbeitet:
Zurück
Oben