News AMD Epyc 7452: Rome-CPU mit 32 Kernen und 2,35 GHz gesichtet

YforU schrieb:
....
Und zum anderen fällt bei den SKUs mit 8C der überwiegende Teil der TDP auf den sehr fetten I/O Part welcher weiterhin 14/12nm ist. Ob die 8C dann 14 oder 7nm sind hat daher keinen großen Einfluss auf die TDP.

Ich will hier nichts schlecht reden, nur scheinen mir die 155W TDP ziemlich hoch gegriffen für: 8 Kerne; im Server; von AMD; im Jahr 2019

Seit wann ist es "normal" dass der IO/Part einer CPU den Löwenanteil der TDP "verwendet/benötigt/ausschöpft"

Wenn das nicht eine Ultra high clock CPU ist (5+ Ghz) für spezielle Single-Thread-Anwendungen (so wie Intel sie auch hat) dann erscheinen mir die 155W TDP immernoch als "zu hoch"

Edit: und CPU Kerne in 14nm oder 7nm machen sehr wohl einiges am Stromverbrauch einer CPU aus. Siehe I9-9900K der "schwierig" zu kühlen ist unter Last.
 
TDP ist nicht gleich realer Stromverbrauch. Das sollte sich mittlerweile eigentlich herumgesprochen haben.
 
NeMeSiS_tm schrieb:
Seit wann ist es "normal" dass der IO/Part einer CPU den Löwenanteil der TDP "verwendet/benötigt/ausschöpft"

Bei AMDs Epyc Plattform (SP3) sitzt praktisch alles auf dem CPU Package (da effektiv SoC). Also PCIe 3/4 Controller mit 128 Lanes, 8 Channel DDR4 ECC Speichercontroller etc. Alleine dafür braucht es ein TDP Budget um 80W.

Edit: und CPU Kerne in 14nm oder 7nm machen sehr wohl einiges am Stromverbrauch einer CPU aus. Siehe I9-9900K der "schwierig" zu kühlen ist unter Last.

Bei 8C und den bei Server CPUs niedrigen Frequenzen ist das im Kontext der theoretischen maximalen Leistungsaufnahme der gesamten Plattform kaum noch der Rede Wert. Die 8C entsprechen knapp 2x Ultra Mobile Quadcores. Also um die 25W für das CPU Chiplet mit moderaten Frequenzen.
 
  • Gefällt mir
Reaktionen: NeMeSiS_tm
ottoman schrieb:
TDP ist nicht gleich realer Stromverbrauch. Das sollte sich mittlerweile eigentlich herumgesprochen haben.
Aber gerade weil wir ja die TDP der Ryzen 8C kennen, wirken 155W zu hoch, wenn sie nicht mindestens genau so hoch takten, wovon ich nicht ausgehe.
Allgemein vermisse ich in der Liste einen 64C mit der TDP des alten 32C bei gleichen Taktraten.
Selbiges gilt für die neuen 32C und 16C
 
Der Ryzen 8C hat einen I/O Controller mit 24 aktiven PCIe 4.0 Lanes und DC DDR4 SI. Dabei braucht der I/O Controller als dedizierter Chipset (X570, ohne aktiven DC MC) bereits eine aktive Kühlung. Bei Rome sind es 128 PCIe 4.0 Lanes und ein aktiver 8 Channel IMC. Das ist eine ganz andere Größenordnung. Da sich die Fertigung (I/O Part) nicht signifikant geändert hat (14-12nm) steigt hier die maximale Leistungsaufnahme mit PCIe4 an. Die doppelte Anzahl an Kernen bei gleicher TDP ist damit utopisch. I/O macht heute bei Enterprise CPUs oft die Hälfte der TDP oder sogar mehr aus.

Mit einem Chiplet Design in unterschiedlichen Fertigungsstrukturen ist man früher am Markt und hat geringere Kosten. Bei der Leistungsaufnahme gibt es gegenüber einem fiktiven großen monolithischen 7nm Design aber natürlich auch Nachteile. Die Reduktion fällt zwangsläufig geringer aus als das was man sonst (Shrink) bisher gewohnt ist.
 
Zuletzt bearbeitet:
Ich würd gern Benchmarks sehen für Professionele Software wie AutoCad, Solidworks, Photoshop ect aber so ??
 
  • Gefällt mir
Reaktionen: Muxxer
Shoryuken94 schrieb:
Auch sind mehr Kerne für weniger Euro nicht unbedingt immer das Totschlagargument. Schließlich müssen mehr Kerne erst mal richtig effizient genutzt werden, wenn man Software per Core lizenziert, dann rechnet sich ein teurerer Prozessor mit weniger Kernen trotzdem am Ende oft. Es ist halt eine Branche mit sehr Kundenspezifischen Anforderungen. Kerne pro Euro oder auch Leistung pro Euro ist da nur ein Faktor von vielen.
Ich denke diese Nische ignoriert AMD bewusst.

Cloud, Supercomputer, MINT-Zeug/Forschung, Rendering/Medien dürfte den Löwenteil des Markts ausmachen. Die großen Rendering-Lösungen haben keine Core-Limits in den Lizenzen und der Rest ist sowieso fast ausschließlich Linux und OpenSource Libs.

Zu den großen Clouds gibt es ja keine öffentlichen Informationen, aber alleine an meiner Alma Mater ist ein neuer Compute-Cluster mit >500 Nodes (je 2x Epyc) geplant. So was alleine sprengt doch schon bei weitem jeglichen Rahmen, der selbst in mittelständischen Unternehmen im Einsatz wäre. Von Dingen wie dem HAWK Super-Computer oder Cloud-Rechenzentren ganz zu schweigen.

Bei all solchen Dingen ist Epyc super aufgestellt und das dürfte vollkommen reichen, um für den Großteil des Marktes interessant zu sein.
 
ascer schrieb:
Cloud, Supercomputer, MINT-Zeug/Forschung, Rendering/Medien dürfte den Löwenteil des Markts ausmachen.
Sind sicherlich Große Punkte, aber in vielen dieser Punkte ist Intel auch besonders stark! Es gibt Bereiche wo Epyc sehr interessant ist. Gerade im Cloudbereich dürfte die Preis / Leistung unschlagbar sein. Epyc ist natürlich darauf ausgelegt, mit möglichst wenig Aufwand möglichst viele Anwendungsbereiche abzudecken. Habe auch nie etwas Gegenteiliges behauptet. Ich habe nur gesagt, dass möglichst viele Cores für möglichst wenig Geld nicht immer der alleine Entscheidungsgrund ist.
 
Shoryuken94 schrieb:
Ich habe nur gesagt, dass möglichst viele Cores für möglichst wenig Geld nicht immer der alleine Entscheidungsgrund ist.
Definitiv.

Ich zielte nur darauf ab zu sagen, dass AMD mit limitierten Ressourcen diese Strategie...
Shoryuken94 schrieb:
Epyc ist natürlich darauf ausgelegt, mit möglichst wenig Aufwand möglichst viele Anwendungsbereiche abzudecken.
...sicherlich absichtlich verfolgt. Eine große Produktpalette mit Nischenprodukten usw. kostet ja auch einiges.

Den Großteil des Markts und damit ordentlich Profit streicht man ja schon ein, wenn das P/L-Verhältnis stimmt, man viele Cores sowie gute Integer- und Float-Performance bietet.
ascer schrieb:
Cloud, Supercomputer, MINT-Zeug/Forschung, Rendering/Medien dürfte den Löwenteil des Markts ausmachen...
...und Epyc hat dort das deutlich bessere P/L-Verhältnis, mehr Cores und vergleichbare Performance. Die neuen Epycs, wenn man bisherigen Tests glauben darf, werden Intel in puncto Integer- und Float-Performance ja aber schlagen.

Bis auf Nischen (spezielles Feature XYZ) wird dann in diesem Löwenanteil des Markts folgende Aussage...
Shoryuken94 schrieb:
Sind sicherlich Große Punkte, aber in vielen dieser Punkte ist Intel auch besonders stark!
...nicht mehr zutreffen.

Und ich behaupte einfach mal, dass das die Zielsetzung war. Intel in jedem Markt anzugreifen ergibt mit den geringeren Ressourcen von AMD ja auch keinen Sinn.
 
Hayda Ministral schrieb:
Du meinst Speicher mit den guten weil rechtsdrehenden Speicherelektronen?
Ich weiß nicht welchen Clown du gefrühstückt hast, jedoch ist das Zitat kaputt.
Der Inhalt passt nicht zum Post, zu dem es verweist.

Wie auch immer du den Quatsch geschafft hast, was du zitieren wolltest war der da:
https://www.computerbase.de/forum/t...35-ghz-gesichtet.1877487/page-3#post-22773035
@xexex war der Übeltäter

Dazu sei gesagt dass "Workstation CPU" eigentlich nur 'n Marketingbegriff ist. Mir ist nicht bekannt, was so eine CPU auszeichnet. Üblicherweise sind das nur 'missbrauchte' Server CPUs.
Und da der Threadripper mit ECC Speicher umgehen kann, spricht nichts gegen den Einsatz in Workstations - sofern das Mainboard mitspielt.

Wo wir dabei sind...
Ned Flanders schrieb:
Right, absolut typischerweise braucht eine Workstation, um auch als Workstation ernstnehmbar zu sein mehr als 256gb ECC RAM. Drunter geht garnicht.

Hast du die Weisheit aus der ComputerBLÖD?
Unsere "dickste" Workstation hat nur 64 GB RAM, zählt aber mit 2x Xeon E5-2697v4 sicher nicht als Gaming PC, weil ihr 192 GB RAM "fehlen".
 
Zuletzt bearbeitet:
Nagilum99 schrieb:
Dazu sei gesagt dass "Workstation CPU" eigentlich nur 'n Marketingbegriff ist. Mir ist nicht bekannt, was so eine CPU auszeichnet. Üblicherweise sind das nur 'missbrauchte' Server CPUs.
Und da der Threadripper mit ECC Speicher umgehen kann, spricht nichts gegen den Einsatz in Workstations - sofern das Mainboard mitspielt.
Selbst ohne ECC ist das kein Problem. Workstations sind typischerweise schlichtweg PCs mit hohem Compute-Load. 3D-Zeug, Rendering, Medien, CAD oder was aus dem wissenschaftlichem Bereich.

Bei meiner Alma Mater und auch meinem neuen Arbeitgeber werden diverse Threadripper (und auch Intel-Systeme) ohne ECC als Workstation eingesetzt, weil ECC für AI-Workstations meistens egal ist.

Da zählt i.d.R. nur: viele PCI-E Lanes, viele Cores, viel RAM.
 
ascer schrieb:
Da zählt i.d.R. nur: viele PCI-E Lanes, viele Cores, viel RAM.
Und vor allem hohe Verfügbarkeit. Da solche Systeme zum Geld verdienen eingesetzt werden, ist das unabdingbar. Die Hardware an sich ist sekundär, da sie nur dem Einsatzgebiet angemessen sein muß.
 
Worin würden sich denn ein 3950x und ein Zen2 16C Threadripper unterscheiden?
  • PCI lanes
  • Quadchannel
  • max RAM?
  • ECC
  • ?

Mit dem IO die sind die TR m.E. interessanter geworden. Allerdings kommt Ryzen jetzt auch schon mit 16 Kernen.
 
R1ng0 schrieb:
Worin würden sich denn ein 3950x und ein Zen2 16C Threadripper unterscheiden?
  • PCI lanes
  • Quadchannel
  • max RAM?
  • ECC
  • ?

Mit dem IO die sind die TR m.E. interessanter geworden. Allerdings kommt Ryzen jetzt auch schon mit 16 Kernen.
Solange man den I/O Part vom EPYC nicht kennt, kann man da wirklich nur ansatzweise spekulieren. Vor allem der X599 sorgt für Verwirrung. ECC haben die Ryzens auch, also max RAM, Quadchannel und PCIe Lanes.
 
R1ng0 schrieb:
Was ist denn mit dem X599?
Genau das gleiche wie mit dem X590. Die tauchten auf und keiner weiß etwas genaues darüber. :D Wobei logisch wäre X599 als Nachfolger vom X399 zu bezeichnen. Das muß ein totales Monster sein, hat es doch den I/O Teil und das komplette Routing der Chiplets innen drin.
 
Nagilum99 schrieb:
Ich weiß nicht welchen Clown du gefrühstückt hast

Es war ein Frühstückflocken-Clown. Der reagiert aus dem Bauch heraus sobald irgendwo ein Bullshit-Bingo läuft.

jedoch ist das Zitat kaputt.

Tatsächlich, ist es. Absolut keine Absicht, ich bitte ausdrücklich um Entschuldigung.

Und da der Threadripper mit ECC Speicher umgehen kann, spricht nichts gegen den Einsatz in Workstations - sofern das Mainboard mitspielt.

Richtig. Außer natürlich wen man Fan der kleinen blauen Schlümpfe ist, denn deren Workstations explodieren beim Einschalten wenn sie nicht den guten Workstation-RAM (mit den speziell vorselektierten rechtsdrehenden Speicherelektronen) verbaut haben.
 
Zurück
Oben