News AMD Epyc 9005 „Turin“: Die CPUs mit 8 bis 192 starken Zen-5(c)-Kernen sind los

Vom Epyc 9965 würde ich zwei Stück gleich einpacken und mitnehmen :D
 
Und Leute wie Linus dann so "But can it run Crysis" :evillol:
Auch wenn wir hier nicht Zielgruppe solcher CPUs sind, ist es doch immer wieder interessant zu sehen, was technisch so möglich ist :)
 
  • Gefällt mir
Reaktionen: Simonte
Eli0t schrieb:
Nein, ist auch interessant, wenn Du da 8 AI Karten reinsteckst, wo die Rechenleistung von den Karten kommt, ergo Du brauchst die PCIe Anbindung und den RAM :)
Dafür taugt der 9015 nicht. Mit nur zwei CCD fehlt dem innerhalb der CPU massiv Bandbreite um RAM und PCIe Verbindungen ausnutzen zu können. 8 AI Karten würden an Datenmangel verhungern.
 
TheInvisible schrieb:
Da fragt man sich schon warum man bei CPUs immer so abliefern kann aber bei GPUs quasi Stillstand ist und man Nvidia hinterherläuft ohne Ende...
Anderer Bereich? Ganz einfach?
Intel war Jahre lang deutlich stärker als AMD - wieso sind Intels GPUs nicht mindestens so gut wie die von AMD?
 
  • Gefällt mir
Reaktionen: Simonte
Weil Geld nicht alles ist, ganz einfach. Es bedarf einfach mehr als das. Und das kostet sehr viel Zeit um gute Hardware und Software zu entwickeln.
Die beste Hardware nützt nix wenn die Software nicht passt. sieht man ja an mir. Das ich sogar vermute die Software limitiert die Hardware. Darum bringt ne breitete CPU nicht immer was.
Nun ja, denke mal die threadripper kommen wohl später oder AMD hat es nicht nötig sie raus zu bringen aber könnten sie. Man kann sich es raus suchen ob sie nicht wollen oder nicht können weil es sich nicht lohnt.
so Riesen sprünge bei Desktop Software ist nicht zu erwarten. Das ist sicher. Und so langsam scheinen 24 und 32 Kerner nicht mehr so interessant für AMD zu sein weil die meisten wenn dann zu noch mehr Kerner auch vielkerner greifen.
 
Eli0t schrieb:
Wenn da ein Kühlkörper draufsitzt, der mit 20000rpm Delta Lüftern gekühlt wird, die selbst an die 250W fressen (Beispiel: 60x60x38mm,185.67mmH2O, max. 25.5k rpm @ 42W), geht das schon :) Allerdings gibt es mittlerweile auch Wasserkühlung fürs komplette Rack.
So wie du das beschreibst, scheint das eine sehr laute Konstruktion zu sein, also nichts fürs Wohnzimmer...;)
 
stefan92x schrieb:
Rechenzentren bzw deren Serverräume sind Arbeitsplätze, an denen ein Gehörschutz sinnvoll ist.
Zudem halten sich im Serverraum nicht dauerhaft Mitarbeiter auf. Da geht ein Techniker oder Admin nur mal rein, wenn es irgendwas zu Warten gibt und dann halt ggf. mit Gehörschutz.

Das ist halt nicht vergleichbar mit den Anforderungen an Desktop-PCs in Büros, wo die Mitarbeiter täglich mehrere Stunden direkt daneben sitzen. Bei Servern, wenn sie in entsprechenden Serverräumen stehen, interessiert praktisch Niemanden, wie laut die sind.
 
Philste schrieb:
Ich bin immer wieder verwirrt, mit was skaliert die Phoronix Suite eigentlich? Da sind 3 komplett unterschiedliche EPYC CPUs, die eine hat 3mal mehr Kerne als die andere und die liegen innerhalb von 10%.
Da dürfte diese Seite interessant zu lesen sein: https://www.servethehome.com/amd-epyc-9005-turin-turns-transcendent-performance-solidigm-broadcom/3/

Phoronix benchmarked ja ohne Ende, und was Michael Larabel da an Arbeit reinsteckt ist bewunderswert, aber aus Kapazitätsgründen kann er halt nur 08/15 durchballern. STH hat sich dagegen die Mühe gemacht, an einigen Stellen auch nachzuschauen, wo eigentlich Bottlenecks in ihrem Testsystem sind bzw neu entstehen, wenn man auf die neuen CPUs wechselt.

Da braucht es halt gegebenfalls tatsächlich auch neue SSDs etc um das Potential wirklich zu nutzen. Ich würde daher darauf wetten, dass einige der Tests von Phoronix in genau solche Probleme reingelaufen sind, ohne dass die da weiter betrachtet wurden.
 
  • Gefällt mir
Reaktionen: Moerf und chithanh
stefan92x schrieb:
Da dürfte diese Seite interessant zu lesen sein: https://www.servethehome.com/amd-epyc-9005-turin-turns-transcendent-performance-solidigm-broadcom/3/

Phoronix benchmarked ja ohne Ende, und was Michael Larabel da an Arbeit reinsteckt ist bewunderswert, aber aus Kapazitätsgründen kann er halt nur 08/15 durchballern. STH hat sich dagegen die Mühe gemacht, an einigen Stellen auch nachzuschauen, wo eigentlich Bottlenecks in ihrem Testsystem sind bzw neu entstehen, wenn man auf die neuen CPUs wechselt.
Bzgl. Phoronix: Die große Stärke ist, dass Michael Larabel vollautomatisiert benchen kann. Er stellt die Systeme zusammen und dann wird gemessen, gemessen und gemessen. Das alles parallel und von der eigentlichen Messmethodik her methodisch sauber...
stefan92x schrieb:
Da braucht es halt gegebenfalls tatsächlich auch neue SSDs etc um das Potential wirklich zu nutzen. Ich würde daher darauf wetten, dass einige der Tests von Phoronix in genau solche Probleme reingelaufen sind, ohne dass die da weiter betrachtet wurden.
...aber die Auswertung muss eben auch stattfinden und Fragen sollten gestellt werden. Da hast Du vollkommen Recht.
 
Oldtimer schrieb:
So wie du das beschreibst, scheint das eine sehr laute Konstruktion zu sein, also nichts fürs Wohnzimmer...;)
Das ist richtig :) Kommt auf das Chassis an ob da 40mm, 60mm, 80mm oder 92mm Lüfter drinnen sitzen (1HE, 2HE, 4HE). Mein Beispiel ist noch der leisteste Vertreter mit nur 68.6 dB(A), andere Lüfter erreichen bis zu 79dB(A). 🤣 Deswegen sollte man immer mit einem Gehörschutz in ein Rechenzentrum gehen.
Ergänzung ()

stefan92x schrieb:
Dafür taugt der 9015 nicht. Mit nur zwei CCD fehlt dem innerhalb der CPU massiv Bandbreite um RAM und PCIe Verbindungen ausnutzen zu können. 8 AI Karten würden an Datenmangel verhungern.
Ähm, die PCIe Anbindungen kommen vom IO DIE, wieviele Kerne da aktiv sind ist egal. Außerdem unterstützt das ja (R)DMA Zugriff, Du brauchst die CPU gar nicht, um Daten über PCIe zu verschieben, ergo via CXL Anbindung kannst Du RAM von extern direkt in die Karten schreiben.
 
Zuletzt bearbeitet:
@Eli0t ok das funktioniert zwar, aber trotzdem ist der 9015 dafür nicht geeignet. Denn auch bei AI braucht es viel Orchestrierung, welche Daten da gebraucht werden. Es hat schon Gründe, warum sowohl AMD als auch Intel hochtaktende 64-Kerner als Basis für große AI-Systeme anpreisen, aber eben keine 8-Kerner. Zu viele Daten müssen durch die Cores und da schnell verarbeitet werden, zu wenig geht auf dem "non-Core-Weg" den du beschreibt.
 
Oldtimer schrieb:
So wie du das beschreibst, scheint das eine sehr laute Konstruktion zu sein, also nichts fürs Wohnzimmer...;)
Außer du brauchst unbedingt einen Hörsturz und stehst auf gefühlte 10° C Zimmertemperatur. 😊

Gestern mal im "Serverraum" meines neuen Arbeitgebers gewesen.... Naja... "Serverraum" ist nicht gleich Serverraum. 😂
 
Eli0t schrieb:
Ähm, die PCIe Anbindungen kommen vom IO DIE, wieviele Kerne da aktiv sind ist egal.
Die Zahl der CCDs und ihre IF-Anbindung ans I/O-Chiplet begrenzen die erreichbare Speicher- und PCIe-Bandbreite.
 
GR Supra schrieb:
Das wird für 1U Server bestenfalls ein Nischenprodukt und für 2U+ ebenfalls nicht funktionieren, wenn es mehrere Server werden.

Das Klientel, dass diese CPUs adressiert, kühlt nicht mit Luft.
Warum nicht? Ist doch problemlos darstellbar. Ob diese Leistungsdichte über das gesamte Rack aufrechterhalten kann bezweifel ich, aber für ein paar Kisten dürfte es reichen. Asus packt z.B. 2xEpyc mit je 400 Watt in eine Höheneinheit.
 
stefan92x schrieb:
@Eli0t ok das funktioniert zwar, aber trotzdem ist der 9015 dafür nicht geeignet. Denn auch bei AI braucht es viel Orchestrierung, welche Daten da gebraucht werden. Es hat schon Gründe, warum sowohl AMD als auch Intel hochtaktende 64-Kerner als Basis für große AI-Systeme anpreisen, aber eben keine 8-Kerner. Zu viele Daten müssen durch die Cores und da schnell verarbeitet werden, zu wenig geht auf dem "non-Core-Weg" den du beschreibt.
Es gibt auch Gründe warum man derart viel Cache haben will... Orchestrierung ist ne andere Geschichte... das könnte auch auf einem anderen Server passieren. Über CXL kann man ein Speichersystem auch mit mehreren Servern verbinden...
Ergänzung ()

chithanh schrieb:
Die Zahl der CCDs und ihre IF-Anbindung ans I/O-Chiplet begrenzen die erreichbare Speicher- und PCIe-Bandbreite.
Hmmm? Was hat das damit zu tun? Du könntest die Bandbreite pro Chiplet meinen. Anderenfalls ist das irrelevant. Die Anbindung erfolgt immer über das Fabric.
 
CDLABSRadonP... schrieb:
Bzgl. Phoronix: Die große Stärke ist, dass Michael Larabel vollautomatisiert benchen kann. Er stellt die Systeme zusammen und dann wird gemessen, gemessen und gemessen. Das alles parallel und von der eigentlichen Messmethodik her methodisch sauber...
Der misst alles was sich automatisieren lässt. Es kommen ja auch immer wieder neue Benchmarks dazu.
CDLABSRadonP... schrieb:
...aber die Auswertung muss eben auch stattfinden und Fragen sollten gestellt werden. Da hast Du vollkommen Recht.
Das muss ja nicht auf der selben Webseite stattfinden.
 
  • Gefällt mir
Reaktionen: CDLABSRadonP...
foofoobar schrieb:
Das muss ja nicht auf der selben Webseite stattfinden.
Eigentlich schon, zumindest was sowas betrifft. Benchmarks sollten ja immer so durchgeführt werden, dass wirklich die Komponente gebenchmarked wird, die einen gerade interessiert und so, dass es keine sonstigen Bottlenecks gibt (die berühmte Frage, warum Gaming mit 720p auf einer 4090 getestet wird).

STH hat Bottlenecks wie zu langsame SSDs in ihrem Testsystem gefunden und diese entfernt. Wenn Phoronix diese Probleme auch hat, dann sind davon betroffene Benchmarks wertlos, weil sie zu schlecht ausfallen. Und angesichts der Möglichkeiten, die bei Phoronix deutlich begrenzter sind als bei STH, bin ich mir ziemlich sicher, dass das teilweise passiert ist.
 
  • Gefällt mir
Reaktionen: peru3232
stefan92x schrieb:
Eigentlich schon, zumindest was sowas betrifft. Benchmarks sollten ja immer so durchgeführt werden, dass wirklich die Komponente gebenchmarked wird, die einen gerade interessiert und so, dass es keine sonstigen Bottlenecks gibt (die berühmte Frage, warum Gaming mit 720p auf einer 4090 getestet wird).
Erzähl das mal den Leuten die via S&D SAPS ermitteln: https://www.sap.com/about/benchmark/measuring.html
 
Zurück
Oben