News AMD zurück auf Server-Thron: 128 Zen-5-Kerne nehmen es mit 256 von Intel auf

kullakehx schrieb:
Asus hat z.B. 2xEpyc mit je 400 Watt in einer Höheneinheit.
Und steht da auch irgendwas über den Kühler?

Ich habe nur gesagt, das ea mit dem Standard 1U Kühlerblock nicht mehr geht. Da brauchst du andere Lösungen wie KompaktWakü, richtige Wakü oder mindestens diese extra Blöcke an den Kühlern die per Heatpipes verbunden sind.

Es hat schon seine Gründe, warum da steht dass du deinen Sale kontaktieren sollst. Zudem wirst du dann keine Platten/SSD verbauen dürfen, maximal 20-25 Grad inlet haben usw usf.

Man muss das immer mit einer Prise Salz genießen. Hatte auch schon Server die nicht Dauerlast stabil waren.

Nuklon schrieb:
Normalweise stehen da auch noch bissl Netzwerk und Storage rum. Machst du deine Schränke nur mit Server bis zum Rand voll?
Quasi ja. Normal 2x1G/10G für Management und WAN/LAN Anbindung und 0-2 IB Switche je nach Gen und Kapazität vom Rack.

Bei 20kW Racks sind es <30 Server weil dann eben der Strom aus ist.

Wenn keine Limits da sind, dann hatte ich auch schon 80 Server in nem 48U Rack.

20x 2U4N
4x1G
2xIB

Wobei man sagen muss das IB Switche auch 1kW pro U ziehen.

Storage kommt in eigene Racks. Das sind dann meist 2-10 Racks.

Bei meinen Systemen ist Netzwerk dann entweder verteilt oder nochmals in 2 Racks drin. Größer ist es leider bis jetzt nie geworden.

Wobei man da auch schon echt viele tausend Ports rein bekommt 😅
 
ETI1120 schrieb:
Aber das heutige Intel ist eben ein trauriger Abklatsch des Intel der 1980iger und 1990iger Jahre.
Stimmt, als man damals alles und jeden mit einer x86 Lizenz mit Klagen überzogen hat und selbst dann Firmen in den Ruin getrieben hat, obwohl man die Klage verloren hatte.
Das wünscht du dir also wieder zurück?
 
  • Gefällt mir
Reaktionen: [F]L4SH
Yosup schrieb:
Sorry, aber ein Mittel aus 140 Benchmarks ist einfach nur Käse, und zwar völlig unabhängig davon, ob man das "geometrische" oder "arithmetische" Mittel wählt, denn es setzt schlicht und ergreifend vorraus, dass alle Benchmarks relativ gleich (ge)wichtig sind. Diese Prämisse ist in der Praxis jedoch absolut nicht erfüllt.
Die Rohdaten sind verfügbar, also mach was daraus.
Ergänzung ()

Halema schrieb:
Das ist leider nicht mehr so eindeutig. Dadurch das z.B. nur BlackRock alleine jeweils knapp 6-8% der Aktien von AMD, Nvidia, TSMC, ASML, Apple und Intel hält, gibt es quasi schon ein Monopol durch Großanleger.
Demnächst sitzt Blackrock auch im Kanzleramt.
Ergänzung ()

jonderson schrieb:
Wenn SAP doch endlich AMD supporten würde...
SAP will seine Kunden ähnlich wie MS in seine Cloud ziehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: [F]L4SH
Skysnake schrieb:
Und steht da auch irgendwas über den Kühler?
Wenn ich das richtig sehe dann ist dort eine Doppelreihe von 40er Lüftern montiert, insgesamt allein 16 Stück allein am Einlass.
Skysnake schrieb:
Zudem wirst du dann keine Platten/SSD verbauen dürfen
Da sind doch 12 2.5" Käfige direkt an der Front? Im Handbuch steht auch nichts von weiteren Beschränkungen, weder zu CPUs noch HDDs/SSDs.
1728882730575.png
 
  • Gefällt mir
Reaktionen: or2k und Nagilum99
Da würde ich liebend gerne einen Durchlauf in Cinebench sehen :D
Mit einer solchen Anzahl an Kernen muss das ja extrem aussehen :smokin:
 
ich kenn sowas.
wenn auch mit älterer hardware.
dual broardwell xeon, 2x 20core mit ht, 80threads,
alt?
ja, aber 40 ht cores können noch immer einiges.
und leise & luftgekühlt.
ein etwas unkenventioneller "tunnel" aus einem noctua D14 und einem noctua single towerkühler, die zufällig perfekt passten.
der umfangreichere fundus machts möglich.
 
  • Gefällt mir
Reaktionen: [F]L4SH
kullakehx schrieb:
Wenn ich das richtig sehe dann ist dort eine Doppelreihe von 40er Lüftern montiert, insgesamt allein 16 Stück allein am Einlass.
Ja und? Das habe ich auch bei 230W CPUs. Und ich kann dir sagen je nach CPU packen die das schon nicht mehr.

AMD ist etwas genügsamer bei den Anforderungen, aber mehr wie 270W sieht man da ohne Einschränkung eher auch nicht.
kullakehx schrieb:
Da sind doch 12 2.5" Käfige direkt an der Front? Im Handbuch steht auch nichts von weiteren Beschränkungen, weder zu CPUs noch HDDs/SSDs.
Ja und? Nur weil Sie da sind darfst du Sie nicht zwingend nutzen. Die Top SKUs erfordern oft dad man keine Platten verbaut usw usf.

Das ist bei allen Herstellern inzwischen ein ziemliches Geficke zu schauen was du wann wo wie betreiben darfst/kannst.

Ich spreche da von Dell, HPE, Supermicro, Gigabyte, Tyan, Fujitsu und Inspur um nur mal die zu nennen mit denen ich direkt schon zu tun hatte. Das ist bei allen das Gleiche. Da wundert es mich eher das sich Asus da nicht dazu äußert. Ich würde mir von denen jetzt aber auch eher keinen Server holen.
 
zeedy schrieb:
Es ist schon immer noch eine krasse AMDomination, die ich mit der mächtigen Granite Rapids Konkurrenz nicht erwartet hatte. Ich denke nächstes Jahr wird AMD's Servermarktanteil die 40% Marke knacken.
Zeedy 👀... Bitte, da fehlen mindestens fünf bis zehn Nullen bei dem Markanteil!
K3ks schrieb:
In dieser Zeit hat AMD so rund +15% Market Share bei x86 Servern ergattert... Von, ka, 7%-9% auf heute 23%-24% oder so. 🍿
Während die Realität so...
Vindoriel schrieb:
Das sind eher +300%, was Du meinst, sind +15 Prozentpunkte.
My bad, streich einfach das Plus bei +15% -> 15% und mein Text ist wieder gut. ^^ EE: 8x3=24, ergo +200%... Aber eh alles egal. Falls es nicht 6% waren, dann hättest du recht mit 300% Wachstum. 🤷‍♀️
flaphoschi schrieb:
weil sie Ihren eigenen Kunden nicht gezielt Leid zufügen
Das würde ich jetzt so nicht sehen, auch Intel-Kunden zahlen (oder zahlten) drauf und dann gibt es auch noch andere Sachen...
 
Zuletzt bearbeitet:
Haldi schrieb:
Ebenbürtige Konkurrenz herrscht aber noch nicht...
Da muss AMD Noch ein gutes Stück aufholen.
Das liegt wohl weniger an der Leistungsfähigkeit, als an Behäbigkeit (wir haben doch immer Intel gekauft) und insbesondere an der Marktsituation. AMD könnte selbst wenn Intel heute die Produktion einstellt erstmal nicht deutlich mehr CPUs verkaufen, da es die Kapazitäten dafür gar nicht gibt.
Haldi schrieb:
Pleite gehen die eh nicht.
Darauf spekuliere ich zumindest. Also hoffen wir das mal für uns (und mein Aktiendepot).
 
@KurzGedacht Wenn du einen zertifizierten Intel-Server hast( SAP, Oracle usw) der läuft, überlegt man sich genau ob man auf AMD wechselt. Hast du tausende, kann man dass mal machen. Hast du nur 20 bist du darauf angewiesen, dass alle auch mit deiner Software laufen. Nicht jeder steht auf Experimente. Lieber 10% weniger Leistung, dafür weist du das er geht.
 
Nuklon schrieb:
Wenn du einen zertifizierten Intel-Server hast( SAP, Oracle usw) der läuft, überlegt man sich genau ob man auf AMD wechsel
Das ist dann Behäbigkeit seitens Oracle/SAP. Oder eben ein Gemauschelter Deal mit Intel.

Wir haben als Konsumenten aber nix davon, wenn eine Seite real weit abgeschlagen ist und nur durch solche Beschränkungen am Leben erhalten wird.
Wir brauchen schon echte Konkurrenz.
 
Sieht doch gut aus für AMD. Hoffe das es auch so weiter geht mit AMDs Vorsprung .
 
K3ks schrieb:
Das müssten die normalen sein, die mit "3D-Cache" müssten mind. 1GB(!) Cache haben...
16 * 32 + 16 * 64 = 1536 MiB an RAM oder 1,5 GiB. Das wird dann echt lustig.
Quidproquo77 schrieb:
Wann zieht Intel mit den 288 Cores von Sierra Forest nach? Müsste doch eigentlich bald soweit sein.
Selbst wenn Intel mit den 288 Cores hier kommt, wird das Intel nur in bestimmten Szenarien etwas bringen - genauso wie die 192 "e-Cores" bei AMD.
Calid schrieb:
Q1, wird aber keine chace haben gegen Turin. Diese e-waste cores haben ja auch nur 288 threads.
Das kann man so schreiben, ist aber an der Stelle etwas zu pauschal. Die 288 e-Kerne könnten in bestimmten Sztenarien auch die 192 AMD-Kerne schlagen, weil hier am Ende die reinen Kerne mehr zählen.

Auch im Server-Bereich gibt es Szenarien, die von "echten" Kernen stärker profitieren.
Quidproquo77 schrieb:
welche mittlerweile ja fast so stark sind wie die P Cores.
Nur kommen diese "e-Kerne" bei Sierra Forest noch nicht zum Einsatz. Sierra Forest baut auf den Crestmont-Kernen auf, die bei der IPC auf dem SkyLake-Level liegen und damit ein gutes Stück langsamer als die Zen5 und Zen5C-Kerne sind.
Quidproquo77 schrieb:
sondern vor allem auch um Effizienz und da haben die E-Cores sehr viel Potenzial
Ja und Nein zur gleichen Zeit. Die E-Kerne bei Intel sind nicht wirklich auf "Energie-Effizienz" getrimmt, sondern primär auf Flächen-Effizienz.

Im Serverbereich taktet sowohl AMD als auch Intel ihre CPUs in der Regel im Sweetspot. Wir schreiben hier je nach TDP von 2 - 3 GHz "Basistakt" und knapp 4 GHz im Turbo. Das ist "Meilenweit" von den 5,7 bis 6,2 GHz entfernt, die Zen 5 sowie Golden Cove/Raptor Cove verkraften und ebenso auch von den Lion Cove-Kernen, die jetzt kommen.

Bei der Energie-Effizienz können die e-Cores von Intel hier nicht wirklich glänzen. Man sieht es ja bereits an den "P-Kernen", dass hier pro Kern ein Energie-Budget von 2 - 3 Watt vorgesehen ist. Bei den E-Kernen sind wir dann bei 1 - 2 Watt.

Entsprechend geringer fällt der Takt aus und Co. Dazu kommt, dass die E-Cores kein AVX512 sowie AMX und Co können, was sie in bestimmten Szenarien auch sehr langsam macht. Die Energie-Effizienz geht dann Flöten.

Im Serverbereich ist das Spiel "Intel" vs "AMD" alles andere als "einfach" zu beurteilen, weil da verschiedene Faktoren eine Rolle spielen und auch wenn man mit Testsuites hier vieles testen kann, kann ich aus eigener Erfahrung sagen, dass die Tests von Phoronix in diesem Zusammenhang auch alles andere als "verlässlich" sind. Direkt aber vorweg: Ich will sie nicht als Inkompetenz oder sonstwas hinstellen, es geht hier alleine um die Problematik bei Tests mit Servern. Bei den nächsten Zitaten schreib ich dazu mehr.
Yosup schrieb:
Sorry, aber ein Mittel aus 140 Benchmarks ist einfach nur Käse, und zwar völlig unabhängig davon, ob man das "geometrische" oder "arithmetische" Mittel wählt, denn es setzt schlicht und ergreifend vorraus, dass alle Benchmarks relativ gleich (ge)wichtig sind
Ja und Nein. Es kommt halt darauf an. Phoronix, Anandtech - RIP - und Co, allgemein der Tech-Journalismus hat hier ein Problem, sogar ein paar Probleme, die hier auch rein spielen.

Sie müssen auf der einen Seite "representative" Software finden, mit denen man entsprechend Benchmarks machen kann. Dazu müssen sie sich entsprechende Testszenarien überlegen und diese auch validieren, damit sie entsprechende Ergebnisse bekommen.

All das muss zu dem dann auch noch "spannend" aufbereitet werden und so "vereinfacht", dass viele Menschen das verstehen. Und genau das ist auch der Punkt. Wenn ich einen Artikel schreibe, der die CPUs als "Ganzes" bewertet, dann nehme ich meine 140 Ergebnisse und muss diese passend Zusammenführen, in der Regel ist hier das "Mittel" die einfachste und gleichzeitig praktikabelste Lösung, weil viele Daten so überschaubar abgebildet werden.

Gleichzeitig hat man damit aber das Problem, dass spezifische Stärken und Schwächen der CPUs kaschiert werden. Es ist dann die Aufgabe des Journalisten, diesen Sachverhalt entsprechend aufzulösen, was in der Regel auch gemacht wird.

Wir sind da jetzt aber auch an dem Punkt, dass Phoronix, Anandtech und Co ja auch bei den Tests auf gewisse "Grundeinstellungen" zurückgreifen, die eine Vergleichbarkeit gewährleistet und selbst da ist schon oft ein Problem vorhanden und damit sind wir bei dem "verlässlich". Phoronix, Anandtech und Co fahren bei entsprechendenden Benchmarks oft mit Standard/Grundeinstellungen, die für die Vergleichbarkeit "Out-of-the-Box" richtig sind, die am Ende aber auch das Bild verfläschen können. Gerade was Datenbanken, Webserver und Co angeht, kann man noch sehr viel mit der Konfiguration erreichen und teilweise Speed-Ups erleben, die jenseits von einer "Neuen Generation" sind.
Yosup schrieb:
Diese Prämisse ist in der Praxis jedoch absolut nicht erfüllt.
Stimmt, an der Stelle ist es aber auch an den ITlern in den Firmen, dass Sie entsprechend Erfahrungen haben und sich in den Artikeln die Zahlen heraussuchen, die sie benötigen. Wenn ich einen Webserver suche, dann nehme ich mir die Ergebnisse für Apache, Nignx und Co. Such ich einen DB-Server, dann die für MySQL, PostgreSQL und co.

Ich kann dir dabei aus Erfahrung sagen, dass man in der Regel aber solche Artikel wie bie Phoronix nur als Ausgangsbasis nimmt und man oft bei Herstellern auch Plattformen mal anfordert zur Validierung und entsprechend auch Tests ausführt, bevor man die Server erneuert. Da fließen in neue Server viele Stunden arbeit.
ETI1120 schrieb:
In den 90 igern hat Microsoft das Betriebssystemmonopol bei den PCs dazu genutzt um die Konkurrenz bei der Anwendungssoftware vom Markt zu drängen. Und die Aufsichtsbehörden haben zugesehen und sogar den Kauf von Visio durchgewunken.
Im Endeffekt ist hier das Problem, dass in den 90er die "Bedeutung" zwar zu erahnen war, aber noch nicht so klar. Bei MS hat man ja ab den 00er auch "gegen" gesteuert, nur zu spät.
 
  • Gefällt mir
Reaktionen: Zarlak
Shader schrieb:
Krasse Leistung die da abgeliefert wird aber eben hauptsächlich unter Linux. Windowssieht da schon etwas anders aus
Und genau damit werden die Prozessoren auch zu 99% betrieben. Wie die unter Windows Performen ist gelinde gesagt für diese Prozessoren scheißegal.
 
  • Gefällt mir
Reaktionen: KurzGedacht, konkretor, joshlukas und eine weitere Person
@ghecko Windows hat ja sogar lange Probleme gehabt, mehr als 64 (logische) Kerne anzusprechen. Das klappt ja erst seit Windows 11/Server 2022 halbwegs vernünftig. Jahrelang konnte man die großen CPUs also nur dann voll ausnutzen, wenn die jeweilige Software das integriert und unterstützt hat - den Aufwand hat sich kaum ein Entwickler gemacht.
 
Nützt nichts, solange meine Admins auf Intel setzen und wir für VMware alle 16 Kerne eine teure Lizenz erwerben müssen.
 
  • Gefällt mir
Reaktionen: Nagilum99
DevPandi schrieb:
Ja und Nein zur gleichen Zeit. Die E-Kerne bei Intel sind nicht wirklich auf "Energie-Effizienz" getrimmt, sondern primär auf Flächen-Effizienz.
Zumindest auf den Folien die ich noch im Kopf habe, wurde häufig auf dem Thema Effizienz herumgeritten, nicht nur was die "Flächeneffizienz betrifft". Es ist ja kein Zufall, dass man auch im Low Power Bereich immer mehr auf E-Kerne setzt. Aber, dass das nach wie vor Crestmontkerne sind ist schon etwas enttäuschend.
 
intel hat fertig für die nächsten paar jahre nur der mindshare erhält sie am leben

Das ist doch wahnsinn intel zu kaufen
1728628687851.png
 
@belive Falscher Thread um den Vergleich zu posten? Gaming-CPUs interessieren hier gerade nicht wirklich ;)

Recht hast du natürlich trotzdem, Intel muss die Aufholjagd fortsetzen. Sie sind schon auf dem Weg, aber immer noch hinterher.
 
  • Gefällt mir
Reaktionen: belive
blackiwid schrieb:
Ja bei Server ist die Sache klar, sind das X3D artige Monster chips oder eher X artige also mit 3d Cache? Oder hat man den Cache einfach riesig auf 2d Ebene?
Skalier doch einfach den Cache der normalen auf die Zahl der Kerne hoch und du hast deine Antwort. ;)

Es gab (und gibt vermutlich wieder) Spezialmodelle mit Stapelcache, die dann erheblich mehr Cache haben - auch das kannst du hoch rechnen, da sich an der Technik nichts ändert.
Ergänzung ()

belive schrieb:
intel hat fertig für die nächsten paar jahre nur der mindshare erhält sie am leben

Das ist doch wahnsinn intel zu kaufen
Das sagt nur, wer im Profisegment nicht aktiv ist oder sehr fokussiert auf seine Nische.
So einfach ist das nicht, zumal der Benchmark sagt: Es ist Anwendungsabhängig.
(Mir ist rätselhaft, was der Screenshot einer Desktop CPU mit der Meldung zu tun hat)
Ergänzung ()

ric84 schrieb:
Nützt nichts, solange meine Admins auf Intel setzen und wir für VMware alle 16 Kerne eine teure Lizenz erwerben müssen.
Muss ich z.T. ebenfalls, das hat nichts mit Freiwillig zu tun. Wenn ihr z.B. einen WMware Cluster (Pool) betreibt, können sie nicht einfach AMD verbauen.
Ergänzung ()

Skysnake schrieb:
oder mindestens diese extra Blöcke an den Kühlern die per Heatpipes verbunden sind.
Du bist aber nicht so ganz auf dem Stand, was das angeht, oder?
Solche Kühler werden schon längst verbaut, das ist nichts neues mehr.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ric84
Zurück
Oben