Test Ryzen Threadripper 3990X im Test: AMDs 64-Kern-CPU mit 40 Milliarden Transistoren

IBISXI schrieb:
Was denn für unnötiges Zeugs?
Eigentlich solltest du das ja wissen, so wie du mich versuchst hier neunmalklug zu belehren. Na ja, ich habe ja schon damit gerechnet, dass bei dir nicht wirklich viel Substanz hinter deinen Aussagen steckt, so pauschal wie du hier versucht den hohen Energiebedarf mit PCIe4.0 zu rechtfertigen. Alle weiteren Aussagen von dir sind im Übrigen nicht von Belang, da sie mit den beiden Aussagen von mir nichts zu tun haben.

Na, dann wollen wir mal wieder auf den Putz hauen und direkt vorweg: Wenn du schon eines auf Besserwisser machen willst, dann mache es besser richtig oder lass es. So ist vieles was du hier geschrieben hast einfach nur unfundiertes Nachplappern.

Der X570 basiert auf dem I/O-Chip des Zen2 in 14nm/12nm, dass bedeutet, dass der Chipsatz im ganzen folgende Ausstattung hat:

  • IF-Backend
  • 2 IF-Ports die am IF-Backend hängen
  • 1 Dual-Channel-Speichercontroller der am IF-Backend hängen
  • 24 PCIe-Lanes die am IF-Backend hängen (24* 4.0, 4 "tot", 4 für Anbindung an die CPU, 16 frei belegbar)
  • 12* SATA-Ports die am IF-Backend hängen
  • 8* USB 3.1 Gen 2 die am IF-Backend hängen
  • 10* USB 3.1 Gen 1 die am IF-Backend hängen
  • 4* USB 2.0 die am IF-Backend hängen.
*nur ungenaue Angaben.

Hier mal der X470 im Vergleich mit seiner Ausstattung (55nm):
  • 12 PCIe-Lanes (4 * 3.0 für Anbindung an die CPU, 8 * 2.0)
  • 4 SATA-Ports
  • 2 USB 3.1 Gen 2
  • 10 USB3.1 Gen 1
  • 6 USB 2.0
Nun, erweitern wir mal den X470 nun um PCIe4.0 Funktionalität zu einem fiktiven X470 4.0-Edition und lassen ihn gleichzeitig in 14nm oder 28nm fertigen, ich gehe jede Wette ein, dass dieser Chipsatz trotzt nun 12 PCIe4.0-Lanes, nicht viel mehr verbrauchen wird.

Der X570 ist ein sehr gut ausgestatteter Chipsatz, was den Energiebedarf bereits hoch treibt, wenn er wirklich mal loslegt (Ursache 1, aber nicht ganz so "tragisch") und der zudem ein Backend nutzt, dass darauf ausgelegt ist den Kommunikationsbedarf sowie den Datenhunger von bis zu 16 Kernen zu stillen (Ursache 2, und das eigentliche Problem).

PCIe4.0 ist bei X570 zwar ein Faktor, aber daneben kommen halt noch zwei weitere Faktoren hinzu, die hier alle gemeinsam eine Rolle spielen. An dem hohen Energiebedarf des X570 und dessen Boards ist nicht ausschließlich PCIe4.0 schuld, sondern die Kombination aus PCIe4.0, schiere Menge an Ausstattung und das IF-Backend im Inneren.
 
  • Gefällt mir
Reaktionen: TechFA, Sennox und Zwirbelkatz
SV3N schrieb:
Mit Zen 2 ist AMD ein wirklich beeindruckender Wurf gelungen und man darf durchaus auf Zen 3 gespannt sein.
Völlig richtig, was du da sagst. Aus der Perspektive eines normalsterblichen Konsumenten stößt mir noch der Verbrauch im idle auf. Eventuell wäre es zu kompliziert, die einzelnen Chiplets vollständig schlafen zu legen und dennoch solide Latenzen im ad hoc Betrieb zu gewährleisten.
Sicherlich denke ich da zu sehr in Dimensionen eines Privatanwenders. Wer mit diesem Ungeheuer Geld verdienen kann, braucht sich über die Nebekosten sicherlich keine Gedanken zu machen.

Teralios schrieb:
Das klingt nach einer fundierten Erläuterung :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SVΞN
Weiss zuffällig jemand, wieviel Threads Autodesk Revit beim Rendern unterstützt? Da ist V-Ray integriert.
 
Total kranke CPU! :lol: Ich würde zugern mal mit so einem System rumspielen dürfen (ich nehme aber auch gern Spenden an:daumen:). Wenn Intel mal wieder in die Spur kommt, bin ich gespannt ob sie die Leistung des 3990X noch toppen können. Ach nee, das macht AMD mit Zen 2+ oder Zen 3 bestimmt bald selbst.:evillol: @CB ein Vergleich 3990X mit RAM in Quad-Channel-Betrieb und Epyc Rome 7742 mit RAM in Octa-Channel-Betrieb wäre noch sehr schön.:D
 
  • Gefällt mir
Reaktionen: Sennox
In Multi-Core-Anwendungen sinkt die Zeit zur Bearbeitung je nach Ausganspunkt um gut ein Drittel.
Da wird im professionellen Render-Bereich wohl bald einiges investiert.
 
Auch wenn ein direkter Preisvergleich zwischen diesem AMD HEDT 64-Kerne-Monster und dem Intel HEDT, oder vielmehr Xeon, Portfolio vermieden wurde, auch weil es kein direktes Pendant/Konkurrenprodukt gibt, was würde man denn bei Intel in dem Bereich zahlen müssen (56 Kerne Xeon etwa)?

4000 Euro ist viel Schotter, aber für so einen Nischenbereich, in dem der R9 3990X anwendungstechnisch Sinn macht, evt. doch gar nicht einmal so hoch angesetzt?

Wo gibt es Steigerungspotential für einen 4000er Threadripper mit 64 Kernen und 128 Threads)?

Nun, Octa-Channel ist nach wie vor dann denkbar und spürbar mehr Effizienz (da dieser R9 3990X ja oft schon am Limit diesbzgl. läuft) dürfte bei einem möglichen Nachfolger in 7nm+ Fertigung dann noch hoffentlich dabei herum kommen.

Insgesamt ein sehr starkes Stück Technik diese Castle Peak Threadripper CPU(-Serie) :cool_alt: , an dem sich Intel einige Jahre die Zähne ausbeißen dürfte.

Die HEDT-Serie von AMD ist auch vermutlich das CPU-Glanzstück bei dem man Intel schnell überholt und mittlerweile abgehängt hat, auch wenn diesem Bereich verhältnismäßig eine deutlich geringere Bedeutung ökonomisch gesehen zukommt.

Dazu (evt. auch) passend könnten Ende des Jahres wohl erste Arcturus GPUs von AMD/RTG kommen.
 
Zuletzt bearbeitet:
easy.2ci schrieb:
Wenn ich im ersten Diagramm auf Single Thread Leistung umschalte und dann den +29 Button drücke, dann schneidet der i7-2600k Sandy Bridge Prozesser immernoch sehr gut ab. Ca. 50 % der Leistung eines i9-9900KS Prozessors.

An der Single Thread Leistung hat also in all den Jahren nur eine Verdopplung der Leistung stattgefunden.

Ziemlich mager wie ich finde.
Da musste ich doch anbeissen. Moore's Law kann leider nicht mehr für IPC bzw. generell für die Single Core Leistung herhalten. Deshalb geht man ja Richtung Multi Core.

Warum du das schwächste Modell aus der Tabelle raussuchst und dennoch von einem mageren Ergebnis sprichst kann ich jedoch nicht verstehen.

In realen Systemen mit guten Arbeitsspeicher (nicht wie im CB Test), können sich die neuen 9th Gen Prozessor nochmals deutlich absetzen.
In Spielen z.B. ist der Unterschied riesig. Wobei das eben mehr in Richtung Architektur + Multicore Optimierung geht. Dennoch verstehe ich deine Entrüstung nicht.

Ich rate mal du hast irgendwelche uralt Software im Betrieb, die nur einen Kern ansprechen kann?!
 
OZZHI schrieb:
In realen Systemen mit guten Arbeitsspeicher (nicht wie im CB Test), können sich die neuen 9th Gen Prozessor nochmals deutlich absetzen.

Er hat doch nur einen alten Gen 2 einen 9er gegenüber gestellt, ich wüsste ohnehin nicht wie man sich bei solch einen Vergleich gleich angesprochen fühlen sollte.
 
  • Gefällt mir
Reaktionen: Hayda Ministral
Krautmaster schrieb:
... erst Zen 4 in vermutlich 5nm wird da was drauf setzen indem er ggf gar die gleiche IO Die mit 2x8er CCX pro Chiplet kombiniert, also dann 128C für TR / Epyc bringt.

Das Schöne an der Plattform ist der Ausblick auf einen 64C im Abverkauf.

Wünschenswert wäre zwar die 5nm (TSMC) Node schon für Zen 4, keine Frage, aber vermutlich auch mit einem massiven Preisanstieg verbunden, wenn der Prozess nicht deutlich effizienter/besser als 7nm+ im Anfangsstadium laufen sollte (was nicht unbedingt anzunehmen ist) und wenn Intel dann mit 7nm Desktop CPUs genügend Konkurrenz bietet und Preisdruck generiert.

An AMDs Stelle würde ich Zen4 zu einer noch in 7nm+ gefertigten Übergangsplattform machen (zwar erstmalig AM5, aber mit DDR4 und DDR5 kompatiblen Boards) und nur im Serverbereich teuren PCIe 5.0 Boards ab Ende 2021/Anfang 2022.

Ansonsten dürfte ein Teil der Kundschaft evt. auf der Strecke bleiben und sich das Wachstum bei den Marktanteilen für AMD in wichtigen Bereichen womöglich nicht so einstellen wie erhofft.

Bei den GPUs von AMD sieht man das ja aktuell schon (suboptimale Produktplatzierung), dass man mit den - durch die 7nm Fertigung angeblich gerechtfertigten Preisen - einen Großteil der potentiellen Kundschaft nicht mitnehmen kann, bestes Beispiel, RX 5600 XT.
 
Zuletzt bearbeitet:
Icetea36 schrieb:
Immer hin sind es deutlich weniger Intel Fanboys geworden. Das war bei Ryzen 1000 noch richtig schlimm.

Tja so ändern sich die Zeiten, AMD hat die meisten Kerne und auch die meisten fanboys, man muss nur die jeweiligen threads amd spezifisch vs Intel spezifisch vergleichen

Ist ja schön das AMD mit ryzen bzw threadripper liefert aber schaut euch mal die Leute an wie die sich überschlagen mit ihren Reaktionen
 
scryed schrieb:
Ist ja schön das AMD mit ryzen bzw threadripper liefert aber schaut euch mal die Leute an wie die sich überschlagen mit ihren Reaktionen

Naja wer kanns ihnen verübeln? Mussten sich ja Jahre lang genug vom gegenlager anhören. Dennoch sollte man im hinterkopf behalten das a, AMD das eben länger so auch halten muss um langfristig wirklich davon zu profitieren und b, die Sache relativ schnell vorbei sein kann. Man kann ja nur spekulieren was wäre wenn...
Da brauch AMD nur Probleme mit der nächsten Fertigungsstufe bekommen und Intel aufholen.

ich bin jedenfalls gespannt was noch so alles kommt. So aufgewühlt war der cpu markt schon lange nicht mehr und wir als user können uns das beste rauspicken :D
Ich finde aktuell aber das AMD da nen richtig guten job macht und hoffe auch das die das über die nächsten Jahre halten können. Wenn nicht platzt deren blase eben... Das Desktop Segment is eben nicht allein ausschlaggebend für erfolg, aber das wurde ja schon mehrfach Thematisiert.

Es dauert halt bis das auch die letzten checken das Fanboy Lager eben sinn frei sind. Den besten Hersteller gibt es eben nicht.

Immer hin sind es deutlich weniger Intel Fanboys geworden. Das war bei Ryzen 1000 noch richtig schlimm.
Man könnte jetzt auch sagen: Jetzt weist du wie sich die Intel Fanboys vor Threadripper gefühlt haben.
 
Muffknutscher schrieb:
Schöner Test! Aber gibt es einen Grund so ein Biest allein mit Windows zu Testen? Wäre schön wenn mal ein anderes OS, z.b. Linux zum Einsatz kommen würde. Da wäre die Skalierung wahrscheinlich wesentlich besser, wie mit Windows. Gerade Entwickler mit einer Linux Workstation würden sich über einen Kompilierungstest sicher freuen. Wäre das nicht eine schicke Aufgabe für Sven? :D
Da spielen halt noch viele andere Faktoren mit rein, ein Vergleich Windows/Linux macht wenig Sinn, da bspw. die Dateisysteme unter Linux wesentlich besser Performen. Aber 8 vs 32 vs 64 kenne auf Linux wäre spannend, dank .Net Core kann man selbst in der MS-Welt immer besser unter Linux entwickeln.
 
7hyrael schrieb:
Da spielen halt noch viele andere Faktoren mit rein, ein Vergleich Windows/Linux macht wenig Sinn, da bspw. die Dateisysteme unter Linux wesentlich besser Performen. Aber 8 vs 32 vs 64 kenne auf Linux wäre spannend, dank .Net Core kann man selbst in der MS-Welt immer besser unter Linux entwickeln.

Vielleicht ist auch die Plattform hier nicht die richtige für einen Linux Test, da evtl. die Expertise fehlt. Was mich mal interessieren würde ist, wie die CPU z.b. als Webserver Performen würde. Wie viel php-fpm Instanzen kann man auf die Kiste Knüppeln bis sie in die Knie geht. Oder ein galeracluster Mal testweise virtuell aufgesetzt und einen Test laufen lassen.
Da kann man bestimmt schöne Schweinereien mit machen 😁
 
Ich werde nacher meine Wanderdüne auf den 3990x umbauen. Leider ist mir grad aufgefallen, dass ich nurnoch den gen1 TR Block von EK im Lager hab. Denkt ihr das wird ein Problem? Die Kühlfläche ist zwar gegeben, aber schlecht umgesetzt.
 
"Welche GPU hast du?"
- "Keine, meine CPU rendert das Game" :D

Die CPU hat so viele Kerne wie 10 von meiner jetzigen CPU und mein alter i5 oben drauf...das ist doch krank.
Aber auch geil.
Nur würde es mir nichts bringen. Schon die 6 Kerne langweilen sich oft genug.
Aber alleine die Möglichkeit...

Die Kühlung ist in dem Fall aber tatsächlich der Knackpunkt. Wenn schon die AiO am Ende ist. Da muss wohl ne Wakü mit größerem Radiator und starker Pumpe drauf. Am besten noch mit Kompressorkühlung der Flüssigkeit. Wenn man sich die CPU leisten kann sollte man da auch keine Anstalten machen.
 
  • Gefällt mir
Reaktionen: Sennox
Schade ist das mit den 256Gb... hätte super in unseren Build-Server gepasst aber 512Gb wären schon das Mindeste dann. :/
 
Krautmaster schrieb:
haben sie nicht - zumindest nicht für viele Anwendungsfälle. Wie es jetzt zb bei Datenbanken aussieht, schwer zu sagen. Die skalieren je nach Core Count und App dann aber auch recht schlecht.

...
Kommt auch auf die Datenbank an. Für Oracle wäre das Ding super, weil Oracle für jeden angemeldeten User einen eigenen Prozeß unter Linux / Unix anlegt. Sind wenige User auf der DB haben die 4 GHz an Takt, wenn es viele User sind, dann geht die CPU dank der vielen Kerne auch nicht gleich in die Knie.
Generell für alle Datenbanken ist die schnelle Speicheranbindung, der große L3 Cache, PCIe 4.0 und Anzahl der Lanes von Vorteil. Schade das AMD diese CPU nicht als Eypic Server CPU anbietet.
 
Zwirbelkatz schrieb:
Das klingt nach einer fundierten Erläuterung :)
Glaub mir, an der Stelle wäre ich froh gewesen, wenn ich nicht auf den Putz hätte hauen müssen und man einfach akzeptiert hätte, dass der X570 ein Schluckspecht ist und dass PCIe4.0 einfach nur ein Puzzleteil des Problems ist.

So hat mich es einfach unnötig geärgert, dass man mal wieder von jemanden meint belehrt werden zu müssen mit Halbwissen und neunmalklugen Aussagen, die am eigentlichen Thema vorbei gehen.

Egal, Frühstück! Und ansonsten stimme ich dir zu: Es wäre gut, wenn im IDLE da was passiert, ich hoffe da auf die nächsten Plattformen.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
Zurück
Oben