News Server-CPUs: Die Preise von Intel Xeon-SP und AMD Epyc im Vergleich

DiedMatrix schrieb:
Also unsere Server (ESXi Hosts) laufen bestimmt nicht dauerhaft auf 100%, und das bezweifel ich auch für 99% der Umgebungen. O0 Im Schnitt sind es 10-20%./
So siehts aus.
 
man übernimmt einfach das Fazit eines anderes webMagazins? ohne eigene Tests würd ich das lassen...
 
Unsinn, du bekommst bei beiden das gleiche, AMD baut auch nicht erst seit gestern CPUs.

"Stabil und Ausgereift" *hust* x299 *hust*... die Zeiten sind vorbei.
 
hpvd schrieb:
@Jan:
das ist eine super Übersicht! Vielen Dank!

Um das ganze, wie von anderen Usern auch schon angedacht bzgl der echten Leistung der einzelnen CPUs besser vergleichen zu können, (ohne aber 1000 Benchmarks haben zu müssen),
würde sich sehr gut anbieten, 3 Leistungsrelevante Infos (neben 2x Takt und Cachegröße) noch mit aufzunehmen:
- Anzahl AVX512 Units (mache Xeons haben 2, mache 1, Epyc hat keine; generell machen die auch AVX1-2 nutzende Anwendungen schneller)
- Anzahl Speicherchannel (Xeon 6, Epyc 8; ist in manchen Bereichen genauso Leistungsrelevant wie Core-Anzahl)
- Multisockelfähigkeit (1,2,4,8 CPUs; darüber kann man die maximal mögliche System-Leistung einschätzen)

Perfekt wäre dann natürlich noch eine Sortierbarkeit (wie auch schon von anderen erwähnt)
aber da ist die Frage ob Euer CMS das so einfach hergibt

btw. könnte mir vorstellen, dass so eine angereicherte Tabelle auch gute Backlinks gibt ;)

Ergänzung/Details dazu:

AVX512:
Xeon Platinum and Gold 61XX have two AVX-512 FMA units per core. Xeon Gold 51XX, Silver, and Bronze have a single AVX-512 FMA unit per core

Epyc keine

Socket:

platinum: bis zu 8 CPU
gold: bis zu 4 CPU
silber/bronze: bis zu 2 CPU

epyc: bis zu 2 CPU

u.a. https://ark.intel.com/products/series/125191/Intel-Xeon-Scalable-Processors
oder
https://en.wikipedia.org/wiki/List_of_Intel_Xeon_microprocessors#Broadwell-based_Xeons
und
 
Gorkon schrieb:
Da wäre ich vorsichtig...aus dem Anandtech-Test:
"A small database that can be mostly cached in the L3-cache is the worst case scenario for EPYC."
http://www.anandtech.com/show/11544/intel-skylake-ep-vs-amd-epyc-7000-cpu-battle-of-the-decade/18

Dann aber bitte auch noch das hier zitieren:

Typically when high response times were reported, this indicated low single threaded performance. However for EPYC this is not the case. We tested with a database that is quite a bit larger than the 8 MB L3-cache, and the high response time is probably a result of the L3-cache latency.
 
hpvd schrieb:
Anzahl AVX512 Units (mache Xeons haben 2, mache 1, Epyc hat keine; generell machen die auch AVX1-2 nutzende Anwendungen schneller)

hpvd schrieb:
AVX512:
Xeon Platinum and Gold 61XX have two AVX-512 FMA units per core. Xeon Gold 51XX, Silver, and Bronze have a single AVX-512 FMA unit per core
Die Aussage im 1. Zitat zu AVX 512 ist etwas zu pauschal - und allgemein misst du mit dieser Aussage AVX512 eine - aktuell - etwas zu große Bedeutung bei.

AVX512 ist aktuell im Massenmarkt der Sofware nicht wirklich präsent. AVX512 wird aktuell nur dann verwendet, wenn Software explizit auf die Hardware zugeschnitten wird. Also Programme die auf Servern mit Xeon Phi-Karten laufen. Bis AVX512 im Massenmarkt ankommt, wird es noch einige Zeit dauern und bis dahin könnte auch AMD AVX512-Einheiten anbieten. Aktuell nimmt gerade mal die Verbreitung von AVX1 und AVX2 zu.

Dazu kommt, dass nicht alle Prozessoren von Intel - wie von dir behauptet, auch wenn sie AVX512 nutzen - explizit davon auch bei AVX1 und 2 profitieren. Intel verschaltet bei der ersten AVX512 Einheit zwei AVX2 Einheiten zu einer - ähnlich macht es AMD mit AVX1 zu AVX2 (2 * AVX1 = 1 * AVX2)

Den von dir hier dargestellten "Turbo" können wohl auch nur - wenn ich die Tests und berichte richtig gelesen habe - die beiden größeren Modelle zünden, dann ist aber wohl auch von einer massiv gesteigerten Leistung die Rede (wohl Faktor 4 - 8)
 
Zuletzt bearbeitet von einem Moderator:
Masamune2 schrieb:
Ich will in Zukunft einen Epyc 7551P für ESX Server haben. Nur eine CPU (das heißt nur halbe Lizenzkosten), dazu 8x 64GB RAM Riegel und jede Menge freier PCIe Lanes für direkt angebundene NVMe SSDs. Das macht jede hyperconvergente Plattform zum absoluten Preis-/Leistungskiller.

Du nutzt nur Linux? Weil MS mittlerweile pro Core lizensiert und ich denke VMware und Co werden auch darauf umsteigen. Die gucken einfach ihn ihre BigData (soviel zu dem beliebten Spruch "was wollen die schon mit deinen Daten") und sehen genau ob es sich lohnt wieder das Lizenzmodell umzustellen, Katz und Maus Spiel, MS z.B. macht das seit Jahren so wenn man die Lizenzpolitik mitverfolgt.
 
DiedMatrix schrieb:
Ich verstehe nicht warum es Threadripper mit 16C und 3,5/4Ghz gibt und der Epic hier bereits so deutlich früher aufhört?! :/

Vermutlich sollen die länger halten. ;)
 
hpvd schrieb:
Ergänzung/Details dazu:

AVX512:
Xeon Platinum and Gold 61XX have two AVX-512 FMA units per core. Xeon Gold 51XX, Silver, and Bronze have a single AVX-512 FMA unit per core

Epyc keine

Wenn schon Details, dann machen wir es doch mal richtig:

Xeon Silver und Bronze:
2x 256bit FMA units per core (~AVX) -> können zu 1x 512bit FMA unit "zusammengeschaltet" werden (~AVX512)

Xeon Platinum und Gold:
+1x 512bit FMA unit per core <- kann vmtl. (analog zur zweiten 512bit FMA im KNL) kein legacy code ausführen (gibt es hierzu bereits eine offizielle Aussage?)

Epyc:
2x 128bit MUL + 2x 128bit ADD units per core (~SSE) -> können zu 1x 256bit FMA unit "zusammengeschaltet" werden (~AVX)


So zumindest in den bisher veröffentlichten Dokumenten von Intel/AMD zu finden. Konnte beide neuen Architekturen leider noch nicht selbst testen.

Was heißt das für einen speziellen Code?
128bit (~SSE) optimiert:
Skylake-SP: 2x (MUL oder ADD)
Epyc: 2x MUL + 2x ADD

256bit (~AVX/FMA) optimiert:
Skylake-SP: 2x FMA <- Maximaler Takt wird im Vergleich zu non-AVX code reduziert
Epyc: 1x FMA (ist hier auch 1x MUL + 1x ADD möglich?)

512bit (~AVX512) optimiert:
Skylake-SP: Silver und Bronze: 1x FMA <- Maximaler Takt im Vergleich zu AVX code weiter reduziert
Skylake-SP: Platinum und Gold: 2x FMA <- Maximaler Takt im Vergleich zu AVX code weiter reduziert
Epyc: Nicht unterstützt


Es ist klar erkennbar das AMD hier eher auf "legacy" code abzielt. In der Realität ist dieser Code aber noch sehr weit verbreitet. Um Intel's Architekturen effektiv zu nutzen ist eine zeitaufwendige Optimierung notwendig. Der Wechsel von 256bit -> 512bit Vektoren bedarf oftmals eines völlig neuen Datenlayouts, und damit gravierenden Code Anpassungen (Stichwort AoSoA). Die Aufteilung in MUL und ADD gibt es bei Intel seit Haswell nicht mehr.

Bei Zen+ wird AMD angeblich auf 2x 256bit erweitern. Man "hinkt" bei der Vektorlänge also hinterher, andererseits ist dann bei Veröffentlichung der Hardware (hoffentlich) bereits angepasster Code vorhanden.
 
Wenn man ECC haben will, muss man auf Xeon-SP und Epyc setzen, oder? Skylake-SP und Ryzen wären so viel billiger, aber nach kurzer Suche sieht es aus, als würde da ECC nur im Ansatz und auch nur von AMD unterstützt werden.

Ich hätte eigentlich gerne einen Xeon-SP mit dem hohen Takt vom Skylake und ECC, weil Intel-Systeme bei mir in der Vergangenheit immer stabiler liefen. Jetzt denke ich aber darüber nach, ob ich ein paar Kerne mehr nehme und vielleicht doch einen Ryzen, wenn man dort Takt, Kerne und ECC bekommt. Oder es ändert sich bis Weihnachten noch genug auf dem Gebiet.
 
Masamune2 schrieb:
Ich glaube das mit den 100% war eher sarkastisch gemeint. Keine CPU läuft IMMER auf 100%

Ich will in Zukunft einen Epyc 7551P für ESX Server haben. Nur eine CPU (das heißt nur halbe Lizenzkosten), dazu 8x 64GB RAM Riegel und jede Menge freier PCIe Lanes für direkt angebundene NVMe SSDs. Das macht jede hyperconvergente Plattform zum absoluten Preis-/Leistungskiller.

Ich hatte gehofft das von Fujitsu ein kleiner Server angeboten wird, aber bisher ist nichts aufgetaucht.

Bezüglich ESXi: Ich verstehe das mit den halben Lizenzkosten nicht. Wenn man nur ein klein wenig mit dem Ding arbeitet kommt man um die Essential Lizenz nicht herum. Damit werden zwei Sockel Boards unterstützt (eine Lizenz = 3 Physikalische Server mit max physikalischen CPUs). Das vCPU Limit liegt bei 128.

Derzeit gibt es noch ESXi Probleme ("Pink Screen of Death") mit dem Epyc bzw. Ryzen bei 16 Threads (spricht dem 8-Kerner; z. B. Ryzen 7):
https://www.servethehome.com/amd-ryzen-working-with-vmware-esxi-6-5/

Wenn man im BIOS beim Ryzen 7 einen (bzw zwei) CPU-Kern abschaltet läuft es. Diese Option gibt es aber wohl nicht bei jedem Board.
Ein VMware ESXi Update ist geplant (es wurde noch kein Release Datum genannt). VMware ist wohl etwas spät dran.
Ich kann mir aber nicht vorstellen, das AMD denen kein Testsystem zur Verfügung gestellt hat. So "unschlau" kann man bei AMD nicht gewesen sein.

Ist eigentlich mittlerweile geklärt ob DDR4 Reg. ECC funktioniert?
 
Grade in ESXi Landschaften kommt es nicht auf den Takt der CPUs, viel wichtiger ist die Menge an Kernen/Threads.
Genauso ist es für 90% aller Firmen unwichtig, ob es eine 4 oder 8 Sockel Unterstützung gibt, mehr als 2 Sockel werden aus meiner Erfahrung ehr selten eingesetzt und in der Regel für Bare-metal-Server genutzt.
In den heutigen virtualisierten Umgebungen z.B. ESXi sind es in der Regel mehrere 2 CPU Systeme, damit man Ausfälle leicht(er) verkraften kann.
Hier wird der Epyc 7301 und Epyc 7401 sehr interessant, mit denen lassen sich für < 5.000,- € 32 Kern und für deutlich unter 8.000,- € 48 Kern Server bauen - was ein super P/L-Verhältnis ist.

xmarsx schrieb:
...
Bezüglich ESXi: Ich verstehe das mit den halben Lizenzkosten nicht. Wenn man nur ein klein wenig mit dem Ding arbeitet kommt man um die Essential Lizenz nicht herum. Damit werden zwei Sockel Boards unterstützt (eine Lizenz = 3 Physikalische Server mit max physikalischen CPUs). Das vCPU Limit liegt bei 128.
...

Genau so sieht es aus und die Lizenz kostet grade mal um 600,- netto mit 3 Jahren Subscription.

Die ein Sockel CPUs sind auch wieder ehr für Bare-metal-Systeme, z.B. DCs etc.
 
Zuletzt bearbeitet:
DiedMatrix schrieb:
Also unsere Server (ESXi Hosts) laufen bestimmt nicht dauerhaft auf 100%, und das bezweifel ich auch für 99% der Umgebungen. O0 Im Schnitt sind es 10-20%.

Etwas weniger würde ich ja verstehen wegen Stabilitätsanfoderungen bei Server aber mehr als 1ghz :/

Bei uns genauso. Liegt oft an der maßlosen Überdimensionierung der CPU. Oft wäre ne kleine CPU mit mehr Ram sinniger, gerade bei Virtualisierung / ESX.

So ein 1 Sockel Epyc System mit 32 Kernen kann sicher gut 100 VMs bedienen. >10G bzw ein IO ist dabei Pflicht.
 
@Krautmaster
Ja sicher, aber nicht wenn du die 100 VMs auch gleichzeitig benutzt. 100VMs sagen wir mal mit Windows 10, das hat bei uns 4 vCores d.h. 400vCores mit nem 32 Kerner - das will ich sehen. Und du bekommst auch keine 400GB Arbeitsspeicher in ein 1-Sockel-Server, also nicht ohne weiteres.

Aso und mehr als 8 vCPUs darfst du mit dem freien Hypervisor auch gar nicht nutzen
 
Zuletzt bearbeitet:
Du nutzt nur Linux? Weil MS mittlerweile pro Core lizensiert und ich denke VMware und Co werden auch darauf umsteigen.
Nein schon Windows aber die VMware Lizenzen und die der Backupsoftware sind trotzdem günstiger.
Ob VMware daran nochmal was ändern wird ist aber eher fraglich, dann beim letzten Versuch auf vMEM Lizenzierung zu gehen haben sie heftige Kritik einstecken müssen.

Bezüglich ESXi: Ich verstehe das mit den halben Lizenzkosten nicht. Wenn man nur ein klein wenig mit dem Ding arbeitet kommt man um die Essential Lizenz nicht herum. Damit werden zwei Sockel Boards unterstützt (eine Lizenz = 3 Physikalische Server mit max physikalischen CPUs). Das vCPU Limit liegt bei 128.
Und wenn man etwas mehr damit macht kommt man um die "vollwertigen" Lizenzen nicht herum und die kosten pro Socket und das bei Enterprise Plus auch nicht gerade wenig.

Ja sicher, aber nicht wenn du die 100 VMs auch gleichzeitig benutzt. 100VMs sagen wir mal mit Windows 10, das hat bei uns 4 vCores d.h. 400vCores mit nem 32 Kerner - das will ich sehen.
Das ist auch ein eher unrealistisches Szenario. Die meisten VMs brauchen keine vier Kerne und Windows 10 kommt im Serverumfeld da auch weniger vor. Die meisten VMs in den Umgebungen die ich betreue kommen wunderbar mit zwei Kernen klar.

Und du bekommst auch keine 400GB Arbeitsspeicher in ein 1-Sockel-Server, also nicht ohne weiteres.
Mit den acht Speicherkanälen und je einem 64GB LRDIMM bist du bei 512GB RAM, das ist wirklich das kleinste Problem.
 
@Masamune2
Also bei uns gibt es keine VM mehr unter 4 Kerne und wir haben einige duzend Win 10 VMs im Einsatz auf denen Tests laufen oder Leute arbeiten, ist eine gute Alternative zu Terminal Servern, wenn mehr Power oder spezielle Software benötigt wird.
Win 10 Entwicklungs-VMs haben auch gerne mal 8 Kerne.

64GB LRDIMM auf einem 1-Sockel-System, schon klar :rolleyes: - ich spare bei der CPU um VMWare-Lizenzgebüren zu sparen und dann packe ich da LRDIMMs rein, ging ja um das Beispiel von Krautmaster.
 
Jetzt bräuchte AMD noch ein 8 Sockel System, also 256 Kerne / 512 Threads für sage und schreibe lausige 33.600 US Doller. Das würde Intel den Knadenstoß verpassen xD, oder Starship mit 8 Sockeln und 48 Kerne, also 384 Kerne und 768 Threads :lol::lol:

Bye Bye Intel :lol:
 
xmarsx schrieb:
Derzeit gibt es noch ESXi Probleme ("Pink Screen of Death") mit dem Epyc bzw. Ryzen bei 16 Threads (spricht dem 8-Kerner; z. B. Ryzen 7):
https://www.servethehome.com/amd-ryzen-working-with-vmware-esxi-6-5/

Es gibt auch noch keine Zertifizierung. Ich weiß nicht warum AMD das Ökosystem immer wieder so Stiefmütterlich behandelt. Keine Zertifizierung hier, keine Zertifizierung da.. Beim ESX verstehe ich das gar nicht, die kommt immer vom Hersteller also AMD und wird lediglich bei VMware eingereicht. Intel hat das schon mit Skylake-SP geschafft.

raekaos schrieb:
64GB LRDIMM auf einem 1-Sockel-System, schon klar :rolleyes: - ich spare bei der CPU um VMWare-Lizenzgebüren zu sparen und dann packe ich da LRDIMMs rein, ging ja um das Beispiel von Krautmaster.

Hab ich auf die Jahre locker wieder drin. Ein Sockel gespart bei Enterprise Plus bei ESX, NSX und VSAN über 3 Jahre kann ich leicht mehr RAM kaufen.
 
Zuletzt bearbeitet:
Zurück
Oben