News Modelle und Eckdaten: Details zu AMD Genoa (Zen 4) und Intel Sapphire Rapids

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.387
  • Gefällt mir
Reaktionen: C4rp3di3m, iron-man, Onkel Föhn und 15 andere
Mal gespannt wann die lieferbar sein werden (auf beiden Seiten). Ich habe jetzt erst meine Milan Server bekommen:D

Mal sehen, was beide am Ende leisten.
 
  • Gefällt mir
Reaktionen: Jan und Convert
96 Kerne... Ich weiß noch, wie ich als Jungspund die PC Welt-Maschine mit 2 CPUs ansabberte... 😂😂😂 Waren es 10 000 Mark oder Euro? Ich weiß es nicht mehr. Es ist auf jeden Fall beeindruckend, was AMD da abliefert!
 
  • Gefällt mir
Reaktionen: cirrussc, CableGuy82, fox40phil und 5 andere
Die Taktraten finde ich ehrlich gesagt relativ underwhelming. Bei 280W TDP 2,4Ghz auf 64 Kerne bedeutet das kein Fortschritt gegenüber Zen 3 und 7nm:

https://www.amd.com/de/products/cpu/amd-epyc-7763 (64 Kerne, 2,45Ghz, 280W)

Wenn man bedenkt, dass der IPC-Gewinn diesmal geringer ausfällt (angeblich <10%) und Zen 4 eher über die Taktraten kommen soll (>=5,5Ghz im Desktop), dann ist das ein Effizienzgewinn von <10% bei Genoa gegenüber Milan. Entsprechend sind auch 96 Kerne auf 360W nicht so krass, wenn der Takt noch weiter sinkt (2,0 bis 2,15Ghz). Also entweder ist Zen 4 nicht gut gelungen oder die Zahlen sind einfach falsch oder der Base Clock muss anders interpretiert werden, z.B. weil AMD doch auf single-cycle AVX512 setzt und die Taktraten dann der Baseclock für volle AVX512-Last ist. Die realen Taktraten könnten dann deutlich höher liegen, so wie bei Intel mit AVX512-Last vs "normale" Last.
 
Zuletzt bearbeitet: (Rechtschreibschwäche ...)
  • Gefällt mir
Reaktionen: SaschaHa, fox40phil, Gast12345 und 3 andere
Also dass die EE-Samples ständig kaputt gehen würden, so was habe ich noch nicht gehört. Klingt für mich irgendwie nach einem Kid, der die Tabelle in Excel gemacht hat. Ist auch komisch, dass er gleich beide Listen gleichzeitig hat, sowohl von AMD als auch von Intel...
 
  • Gefällt mir
Reaktionen: Nore Ply, Kommando, Cruentatus und eine weitere Person
C.J. schrieb:
Die Taktraten finde ich ehrlich gesagt relativ underwhelming. Bei 280W TDP 2,4Ghz auf 64 Kerne bedeutet das kein Fortschritt gegenüber Zen 3 und 7nm:
Bei 160 PCIe 5.0 Lanes und 12 Channel DDR5 + CXL und was-weiß-ich-noch-alles wird wohl die Leistungsaufnahme des I/O Dies deutlich steigen. Ich glaube vor einiger Zeit gab es schonmal Gerüchte, die von 120W sprachen. Aber ja, generell scheint man an Energieeffizienz bei ZEN4 nicht unbedingt mehr zu bringen, als es der Fertigungsprozess ohnehin tut.
 
  • Gefällt mir
Reaktionen: cirrussc und bad_sign
Ich tue mich einfach immernoch schwer bei dem Namen "Sapphire Rapids" an Intel zu denken. Sapphire ist bei mir einfach immernoch zu stark mit AMD verknüpft.
 
  • Gefällt mir
Reaktionen: CableGuy82, fox40phil, TechFA und eine weitere Person
Philste schrieb:
Bei 160 PCIe 5.0 Lanes und 12 Channel DDR5 + CXL und was-weiß-ich-noch-alles wird wohl die Leistungsaufnahme des I/O Dies deutlich steigen.
Auch ist bei Servern auch der Takt (oder eine Taktsteigerung) so relevant, wie beim Desktop-/Gaming-PC. Server-CPU verbaut man ja, weil man viele Kerne für parallele Lasten braucht und wegen der IO-Performance.
 
  • Gefällt mir
Reaktionen: CableGuy82
Philste schrieb:
Bei 160 PCIe 5.0 Lanes und 12 Channel DDR5 + CXL und was-weiß-ich-noch-alles wird wohl die Leistungsaufnahme des I/O Dies deutlich steigen. Ich glaube vor einiger Zeit gab es schonmal Gerüchte, die von 120W sprachen.
Der IOD hat sich auch bei Milan schon an die 100W genehmigt. Zudem wird zumindest Raphael (Desktop) einen 6nm-IOD bekommen, bei dem der Fertigungsvorteil zwar nicht so reinhaut wie bei einem reinen Logik-Chip, aber zumindest sollte er den Verbrauch etwas dämpfen. Bei den APUs bekommt AMD den SoC auch extremst sparsam. Es kann aber sein, dass der Genoa-IOD auf 12nm bleibt, da bin ich nicht auf dem aktuellen Stand der Gerüchte.
mibbio schrieb:
Auch ist bei Servern auch der Takt (oder eine Taktsteigerung) so relevant, wie beim Desktop-/Gaming-PC. Server-CPU verbaut man ja, weil man viele Kerne für parallele Lasten braucht und wegen der IO-Performance.
Schon, aber das ändert ja nichts daran, dass der Verbrauch bei gleicher Kernzahl und Takt stagniert bzw. bei gleichem Verbrauch und Kernzahl der Takt nicht hochgeht bzw. man bei gleichem Verbrauch nicht mehr gleichgetaktete Kerne unterbekommt (je nachdem aus welcher Sichtweise man das betrachtet). Würde der 96-Kerner bei 280W mit 2,4Ghz laufen, würde ich ja nichts sagen.
 
Etwas eigenartig die Meldung... CB behandelt die Daten fast als wären es Fakten. Normalerweise weist man deutlich darauf hin dass es sich um Spekulationen handelt. Würde darauf hindeuten dass man die Daten aus anderen Quellen bestätigt weiß. Aber mir erscheinen die Daten auch erstmal etwas suspekt.
Auf dem Heatspreader steht jedenfalls "© 2021" - keine Ahnung ob das Aussagekraft hat, würde aber da eher 2022 erwarten.

Grüße
 
Cruentatus schrieb:
Auf dem Heatspreader steht jedenfalls "© 2021" - keine Ahnung ob das Aussagekraft hat, würde aber da eher 2022 erwarten.
Das ist durchaus plausibel, wenn es sich um ein wirklich frühes Sample handelt - die ersten waren schon letztes Jahr in Betrieb
 
  • Gefällt mir
Reaktionen: cirrussc, Nore Ply, CableGuy82 und eine weitere Person
Epyc 9174F zum mitnehmen, smt off , takt hoch
Dazu noch 384Gb ram für ne kleine ramdisk, fertig ist der gamingrechner - direct storage braucht keiner, dass wird übersprungen :evillol: :freak:
 
  • Gefällt mir
Reaktionen: CableGuy82
Interessante Angabe über eine schnellere Ausführung von Java Code ^^
 
Für mich wirken diese Zahlen nicht plausibel. AMD wirbt ja mit Leistungswerten, die bei diesen niedrigen Taktrate vermutlich eher unwahrscheinlich sind. Ich könnte mir also vorstellen, dass diese Taktrate erstmal nur für die Samples gelten, oder eben (wie bereits gesagt wurde) für AVX512.
 
C.J. schrieb:
Die Taktraten finde ich ehrlich gesagt relativ underwhelming. Bei 280W TDP 2,4Ghz auf 64 Kerne bedeutet das kein Fortschritt gegenüber Zen 3 und 7nm:
Nur dass es in dem Bereich, in dem diese CPUs verwendet werden, nicht unbedingt auf mehr Takt ankommt, sondern auf ein paar weitere Faktoren, die AMD mit Zen 4 angegangen ist und dazu zählt auch der IOD und speziell das Speicherinterface, dass von 8-Channels auf 12-Channels anwächst.
C.J. schrieb:
Wenn man bedenkt, dass der IPC-Gewinn diesmal geringer ausfällt (angeblich <10%) und Zen 4 eher über die Taktraten kommen soll (>=5,5Ghz im Desktop), dann ist das ein Effizienzgewinn von <10% bei Genoa gegenüber Milan.
Die IPC hat AMD bereits im Mittel um 9 % (sie sagen 8 - 10 %). Im Desktop-Bereich und im Workstation-Bereich wird Zen4 über den Takt kommen, nur wie erwähnt, ist der Takt im Serverbereich nicht der entscheidende Punkt!

Ich hab jetzt schon einige Epycs mit 48 und 64 Kernen im Betrieb gesehen und kann aus Erfahrungen im Bereich Datenbanken (klassische "SQL" sowie auch NoSQL in Form von klassischem Key-Value als auch "Solr") sagen, dass die Probleme mit diesen Monstern nicht die Leistung der Kerne sind, die sind schnell genug, sondern dass die Kerne in entsprechenden Lastszenarien quasi an der Bandbreite verhungern und man einiges an Hirnschmalz in die SQL-Konfigurationen legen muss und es teilweise besser ist statt einen 48 oder 64 Kerner, einen 2 × 32 zu wählen, weil dann jeder Kern entsprechend mehr Bandbreite hat.

Je nach Szenario werden die großen Modelle alleine durch das breitere SI zulegen können an Leistung in bestimmten Szenarien.
C.J. schrieb:
Entsprechend sind auch 96 Kerne auf 360W nicht so krass, wenn der Takt noch weiter sinkt (2,0 bis 2,15Ghz).
Klar, die 2,0 - 2,15 GHz wirken hier erst mal wenig, aber im Serverbereich - in dem man solche CPUs einsetzt - braucht man nicht viele schnelle Kerne, sondern einfach viele Kerne, weil man viele parallele Tasks hat, die bearbeitet werden. In vielen Szenarien benötigst du dazu aber auch entweder sehr viel Cache - Epyc 0003X - oder entsprechend Bandbreite durch ein großes SI.

Selbst wenn die 96 Kerne bei 3 GHz laufen würden, würden sie in den meisten Fällen einfach an Daten verhungern.
C.J. schrieb:
Also entweder ist Zen 4 nicht gut gelungen oder die Zahlen sind einfach falsch oder der Base Clock muss anders interpretiert werden, z.B. weil AMD doch auf single-cycle AVX512 setzt und die Taktraten dann der Baseclock für volle AVX512-Last ist.
Es muss weder das eine (nicht gut gelungen) noch das andere (die Zahlen sind einfach falsch) zutreffen. AVX-512 ist aktuell nur VNNI sowie BFloat16 bestätigt, alles Weitere werden wir sehen. Man kann aber davon ausgehen - was etwas durch die Gerüchteküche geistert - das AMD bei Zen 4 erst mal die neuen Register ins Registerfile einpflegt (32 statt 16) und vorerst entweder "2 Durchläufe" pro ALU macht oder beide ALUs wieder miteinander verschaltet.

Gerade AVX-512 kann auch wieder richtig Bandbreite benötigen und ja es kommt DDR5. Man wird hier aber auch erneut abwarten müssen was kommt.
C.J. schrieb:
Die realen Taktraten könnten dann deutlich höher liegen, so wie bei Intel mit AVX512-Last vs "normale" Last.
Natürlich können die Taktraten höher liegen, nur hat AMD aktuell für AVX-Lasten kein Offset angeben und man wird auch hier warten müssen, ob AMD für AVX512 ein Offset definiert oder nicht.

Das ändert aber alles nichts daran, dass Takt das kleinste Problem der Epycs ist, sondern dass die 48er, die 64er und die 96er ganz andere Sorgen haben und diese Prozessoren nach Bandbreite gieren. In den meisten Tests wird das leider aber nicht deutlich. Epycs werden oft genau den ähnlichen Tests unterzogen, wie man sie auch hier findet: allgemein über SPECx, Kompression, Rendering und Videotranscoding und CAD. In SPEC kommen verschiedene kryptografische als auch mathematische Funktionen zum Tragen, auch aus dem wissenschaftlichen Bereich. Wenn es etwas besser wird, kommt noch Compiling als auch die ganzen mathematischen und kryptografischen Tests aus SPEC noch mal über Pyhton, R und Co vor. Und das ist auch das Bild, dass viele hier von den Prozessoren haben und die die meisten für wichtig halten.

Wenn man mal viel Glück hat, kommen nginx, Apache, SQL, PHP mal als Testszenarien vor, oft dann aber eher in der Form, dass man mit sehr einfachen Konstrukten die möglichen Requests ermittelt. Gerade in diesen Bereichen ist es aber schwer wirklich gute Tests zu fahren, weil da vieles auch von der Komplexität der Skripte, Datenbanken und Co ankommt. Da wird dann oft eher mit sehr einfachen Szenarien vorgegaukelt, dass man entsprechende Tests fährt, die am Ende oft aber 0 Aussagekraft haben.

Gerade Datenbanken sind eigentlich die Hölle, da hier viel von der Konfiguration abhängt und eine Einstellung sich auch schnell mal nicht nur um den Faktor 2, sondern auch mal um den Faktor 10 auswirken kann. Die meisten Tester - selbst auf den richtig guten Seiten - fahren aber diese Tests mit den "Standardkonfigurationen" und zeichnen da mal schnell auch vollkommen falsche Bilder von Prozessoren. Oder die Lasten sind falsch gewählt für den Benchmark. Wenn ich sehe, dass manche Hardware-Seiten bei SQL-Benchmarks und Co, mit Tabellen mit ein paar tausend Datensätzen arbeiten, bekomme ich oft ein Lachanfall. Wir reden bei uns von Tabellen, die in der Regel Einträge im mittleren bis hohen 6-stelligen Bereich haben und gewisse Tabellen sind auch im Bereich von 7 - 8 Stellen, da wird es dann erst lustig und ein großer Prozessor kann zeigen, was er kann.

Genauso mit Datenbanken, die speziell auf das Suchen von Inhalten ausgelegt sind (Solr, ElasticSearch (was ja auch solr ist, irgendwie) haben ganz andere Anforderungen, als das, was in den meisten Tests abgebildet wird und auch hier kann sich vieles auswirken.

Klar, es ist verständlich, dass man jedem Prozessor unter den gleichen Bedienungen testen will, aber es gibt Bereiche, in denen das so nicht möglich ist, weil das Bild, dass dann vermittelt wird, vollkommen falsch ist.
mibbio schrieb:
Auch ist bei Servern auch der Takt (oder eine Taktsteigerung) so relevant, wie beim Desktop-/Gaming-PC.
Hast du an der Stelle ein "nicht" vergessen? :)
C.J. schrieb:
Schon, aber das ändert ja nichts daran, dass der Verbrauch bei gleicher Kernzahl und Takt stagniert bzw. bei gleichem Verbrauch und Kernzahl der Takt nicht hochgeht bzw. man bei gleichem Verbrauch nicht mehr gleichgetaktete Kerne unterbekommt (je nachdem aus welcher Sichtweise man das betrachtet).
Vollkommen irrelevant, ob der Verbrauch bei gleichem Takt stagniert oder der Takt beim gleichen Verbrauch nicht hochgeht. Entscheidend ist, was am Ende durch die ganzen Änderungen herauskommt.

Eine CPU im Server gewinnt oft an ganz anderen Stellen an Leistung, als durch mehr "IPC" oder mehr Takt. Da spielt die Infrastruktur auch gerne mal eine Rolle.
 
  • Gefällt mir
Reaktionen: konkretor, cirrussc, Cr4y und eine weitere Person
DevPandi schrieb:
Klar, es ist verständlich, dass man jedem Prozessor unter den gleichen Bedienungen testen will, aber es gibt Bereiche, in denen das so nicht möglich ist, weil das Bild, dass dann vermittelt wird, vollkommen falsch ist.
Ich würde das auch einschränken und sagen, dass man innerhalb des jeweiligen Segments (Desktop, Workstation, Server) unter gleichen Bedingungen testen will. Es ist ja wenig sinnvoll, Server-CPUs auf die Spieleleistung zu testen, nur weil man das bei Desktop-CPU auch macht oder auf einen Intel Atom Datenbank-Benchmarks laufen zu lassen.

Klar gibt es bei den Workloads in der Praxis teils Überschneidungen zwischen den Segmenten, aber letztendlich sollte man die CPU so testen, wie sie in der Praxis verwendet werden. So haben alle Desktop-CPUs einen gemeinsamen Benchmark-Parkour und Server-CPU einen eigenen, aber für alle Server-CPUs gleichen, Parkour.
 
  • Gefällt mir
Reaktionen: CableGuy82
DevPandi schrieb:
Ich hab jetzt schon einige Epycs mit 48 und 64 Kernen im Betrieb gesehen und kann aus Erfahrungen im Bereich Datenbanken (klassische "SQL" sowie auch NoSQL in Form von klassischem Key-Value als auch "Solr") sagen, dass die Probleme mit diesen Monstern nicht die Leistung der Kerne sind, die sind schnell genug, sondern dass die Kerne in entsprechenden Lastszenarien quasi an der Bandbreite verhungern und man einiges an Hirnschmalz in die SQL-Konfigurationen legen muss und es teilweise besser ist statt einen 48 oder 64 Kerner, einen 2 × 32 zu wählen, weil dann jeder Kern entsprechend mehr Bandbreite hat.
Ich gebe zu, dass ich selber keine praktischen Erfahrungen mit Servern habe, deswegen kann ich nicht einschätzen wie groß der Bandbreiten-Bottleneck hier ist. Bei Datenbanken leuchtet das aber schon ein. Ich selber nutze nur für wissenschaftliche Berechnungen einen Compute-Server mit 64 Kernen und 1TB RAM. Den bekommt man mit entsprechenden Anwendungen schon voll, aber ich habe nie gebencht, ob der RAM-limitiert ist (zumal das durchschnittliche Open-Source-Tool aus der Wissenschaft auch Größenordnungen schlechter optimiert ist). Insofern stimme ich dir erstmal zu, dass die IO-Vergrößerung ein großer Schritt nach vorne ist. Aber ...
DevPandi schrieb:
Vollkommen irrelevant, ob der Verbrauch bei gleichem Takt stagniert oder der Takt beim gleichen Verbrauch nicht hochgeht. Entscheidend ist, was am Ende durch die ganzen Änderungen herauskommt.
... das war eigentlich gar nicht mein Hauptpunkt. Ich mache mir Sorgen darüber, dass die Effizienz der Kerne fast gar nicht steigt, obwohl AMD sogar frisch auf den 5nm-Prozess umsteigt. Auch wenn das für Datenbanken nicht so wichtig ist, so ist das für HPC oder zum Beispiel auch für Mobil-CPUs quasi das A und O. AMD hatte die letzten Jahre immer problemlos doppelt so viele Kerne wie Intel im gleichen TDP-Korsett unterbekommen - und zwar bei vergleichbarem Takt. Und auch im Desktop sind effiziente Chips sehr willkommen, wie man z.B. auch 5800X3D sieht im Vergleich zum 12900K(S) von Intel.
 
  • Gefällt mir
Reaktionen: cirrussc
Bin echt gespannt, ob Sapphire Rapids tatsächlich noch das Licht der Welt erblickt. Mittlerweile ist das ja schon eher ein Running Gag.. Hat Intel die vereinbarten Chips fürs US Militär eig schon geliefert? Die sollten ja schon ewig laufen..

Die Taktraten von Genoa empfinde ich jzt auch nicht gerade als Fortschritt aber mal schauen, was dann wirklich an Performance ankommt.
 
Zurück
Oben