News Intel Xeon D: 16-Kern-CPU ist ein „absolutes Low-Power-Monster“

Bei den ganzen Kommentaren zur Gaming-Performance hier kann man sich nur an den Kopf packen. Solche CPUs sind gemacht für viele verschiedene gleichzeitig laufende Threads auf Servern. Zum Beispiel irgendwelche Datenbankenserver wo zig Leute gleichzeitig drauf zugreifen.
Mannomann.
 
D708 schrieb:
Auch ist die SingleThreadLeistung annähernd total egal, die Software skaliert mit den Kerne. Dazu in diesem Falle kommt, dass die Intel D auch meiner Meinung nach sich für den Terminalbetrieb/Webbetrieb herausragend eignet. Hier wird im allgemeinen sehr wenig Leistung abgefragt, allerdings viele Zugriffe parallel.

Die geringe Performance pro Thread ist der Grund weshalb Server SoCs wie Avoton/Rangeley (Atom) genauso wie entsprechende Produkte auf Basis von ARM Cortex Axx abseits von Storage etc. kaum eingesetzt werden. Broadwell-DE liegt trotz der recht moderaten Taktfrequenzen aufgrund der sehr hohen IPC der CPU Architektur in einer ganz anderen Kategorie.
 
craxity schrieb:
@strex: wie kommst du auf die Werte? Bei sysbench scheint der Abstand jedenfalls größer zu sein. Zum Turbotakt steht im Test nichts, oder?

Aus eigenen Tests. Die Werte passen aber auch gut zu denen im verlinkten Test.
 
Danke für den interessanten Artikel, den Sysbench kannte ich noch gar nicht.
7Zip & UnixBench verwende ich jedoch beim Serverkauf auch. Als Baseline müssen immer die Testwerte von meinem Linux PC mit einer i7-4790K CPU herhalten. Ich habe meine i7-4790K Werte rausgekramt und die Xeon-D 1587 Werte (Schätzwerte aus der Balkengrafik entnommen) zum Vergleich hinzugefügt.

Dhrystone 2 Single Thread
52.298.007 lps vs. 28.125.000 lps

Dhrystone 2 Multi Thread
201.538.366 lps vs. 462.500.000 lps

Whetstone Single Thread
3.029 MWIPS vs. 4.440 MWIPS

Whetstone Multi Thread
33.562 MWIPS vs. 101.470 MWIPS

7zip
Compressing 22.286 MIPS vs. 48.888 MIPS
Decompressing 21.850 MIPS vs. 49.259 MIPS

TDP
88W vs. 65W

Sieht gar nicht schlecht aus. Low-Power-Monster kann ich unterschreiben.
 
Die CPU dürfte ja auch die Freiberufler als z.B Grafikdesigner/Architektdesigner sein.
Skaliert ja beim Rendern sehr schön.
 
wirklich sehr interessant ... abwarten wie sich da ein amd opteron a1100 platzieren kann. in sachen SDN und NFV könnte ich mir eine platzierung sehr gut vorstellen. allerdings bietet die konkurrenz von arm auch prozzis mit deutlich mehr cores und vorallem mit deutlich mehr lan performance (40ge/100ge). mal gucken ob intel dort auch noch nachliefert.
die entwicklung im server-cpu-markt ist in den letzten jahren auf jedenfall hochspannend geworden ...
gerade benches unter einsatz von avx wären hier spannend.
 
Nach dem was mal zuletzt so mitbekommen hat sind die Opterons SoC schon entsprechend platziert, und zwar unterhalb der Xeon D. Während die Xeon D wirklich eher den Profibereich ansprechen und für den Heimbedarf einfach oversized sind, sowohl preislich als auch technisch, bieten die Opterons da eher ein Gesamtpaket für den Consumer. Zumindest dann, wenn jemand die Idee aufgreift und entsprechende Produkte auf den Markt bringt. Heimserver und Storage ist da dann ein Thema.
 
flappes schrieb:
Also für 1200 Euro, da bleibt genug Luft für ARM Prozessoren.

Wenn man die 2k€ anschaut die zum Beispiel HP für m400 mit X-Gene aufruft nicht.

https://www.cdw.com/shop/products/HPE-ProLiant-m400-X-Gene-2.4-GHz-64-GB-0-GB/3516636.aspx

PhilAd schrieb:
allerdings bietet die konkurrenz von arm auch prozzis mit deutlich mehr cores und vorallem mit deutlich mehr lan performance (40ge/100ge).

Wer bietet denn dort 100G Karten an? Das sind in der Regel (abgesehen von Intel FM10420) 100G FPGA NICs, die kaum von einem Server ausgelastet werden kann. Die dual 100G NICs mit x16 (etwa PE3100G2DQiR) sind eh eingeschränkt, da gar nicht so viel Kapazität am PCIe da ist. Da braucht es schon große E7 und die müssen das erst einmal schaffen. 12,5 GB/s pro Port müssen auch erst einmal sinnvoll erzeugt werden.
 
Zuletzt bearbeitet:
100G ist im Access Bereich doch noch lange kein Thema, mal abgesehen von vielleicht einigen hochgradig speziellen Fällen. Das ist Interconnect und Backbone Technik im Moment. Selbst für 40G gilt das zum Großteil noch. Je nach dem wen man fragt kriegt man aktuell sogar "nur" 25G als nächsten Step nach 10G genannt. Und das ist auch viel realitätsnäher, denn für viele ist selbst 10G noch unnötig. Trotz Konsolidierung durch Virtualisierung gibt es immer noch viele Blechkisten da draußen und die sind mit 1G ausreichend schnell angeboten. Lange nicht alle Server sind irgendwelche zentralen Komponenten die aus jeder Richtung zugeballert werden.

Wenn ein Anbieter zu mir kommt und mir als Selling Point für seine Hardware 40G und 100G nennt, dann beglückwünsche ich ihn dazu, aber einen Deal kriegt er nicht, weil das völlig out of Scope ist. Und mit den paar Kunden, für die das interessant ist, macht man dann meistens kein profitables Geschäft. Klar kann ich das teuer verkaufen, aber die richtige Kohle mache ich doch erst in der Masse und da ist es einfach nicht interessant.
 
Stream hat mehrere 100 Gbit ports bei level 3.... Aber das ist wohl die große Ausnahme, unser Dienst für Videos baut auf einem cdn eines Anbieters auf, wohingegen unser eigener Server "nur" 500mbit garantiert hat, für die meisten Webseiten reichen ja sogar 10mbit garantierte Geschwindigkeit, auf einem shared hosting Anbieter wie strato, 1u1 teilen sich mehrere hundert Kunden teils einen Server de nur 1gbit hat.
 
Zuletzt bearbeitet von einem Moderator:
Naja im allgemeinen Umfang braucht man das sicher nicht zu diskutieren. Es kommt eben auf die Ebene an ... im DC Umfeld sind sicher 25G und 50G interessantere Bandbreiten ... geht es um Transit/Peering redet man aber schnell von n x 100G (LACP).
Hersteller von Lastgeneratoren wie Ixia konzentrieren sich gerade im DC Umfeld nicht umsonst verstärkt auf 25G und 50G, aber natürlich auch 100G.
Bei der Trennung von Data/Control/... -Plane im Bezug auf NFV wie beim IOS-XRv9000 oder Juniper vMX muss man schauen für welchen Einsatz man sie verwendet ... sollen sie als CPE/CE für ein DC oder eine SA eingesetzt werden, ist man mit 10G stark limitiert ... setzt man sie als LSR oder fürs Traffic Engineering (Segment Routing) ein, benötigt man natürlich keine dicken Ports.
 
Ravenstein schrieb:
Stream hat mehrere 100 Gbit ports bei level 3....

Die Links hängen aber nicht an einem Server, sondern an einem BGP Router. Der verwaltet den Traffic komplett im ASIC, denn der gesamte Traffic wird über eine Forwarding Plane (Mesh,..) über die Ports verschoben und ist komplett in Hardware gegossen. Völlig anders implementiert..

PhilAd schrieb:
Naja im allgemeinen Umfang braucht man das sicher nicht zu diskutieren. Es kommt eben auf die Ebene an ... im DC Umfeld sind sicher 25G und 50G interessantere Bandbreiten ... geht es um Transit/Peering redet man aber schnell von n x 100G (LACP).

Die Links hängen wie oben zu lesen nicht an einem Server. Auf x86 Kisten ist mit Routing und FastPath vielleicht 10 max. 20G @ 512Byte möglich, danach ist der Bus und CPU komplett voll. Schaltet man dann noch ein paar Regeln ein oder geht auf 64Byte Wirespeed ist das Ding am Ende.
 
Zuletzt bearbeitet:
strex schrieb:
Die Links hängen aber nicht an einem Server, sondern an einem BGP Router. Der verwaltet den Traffic komplett im ASIC, denn der gesamte Traffic wird über eine Forwarding Plane (Mesh,..) über die Ports verschoben und ist komplett in Hardware gegossen. Völlig anders implementiert..



Die Links hängen wie oben zu lesen nicht an einem Server. Auf x86 Kisten ist mit Routing und FastPath vielleicht 10 max. 20G @ 512Byte möglich, danach ist der Bus und CPU komplett voll. Schaltet man dann noch ein paar Regeln ein oder geht auf 64Byte Wirespeed ist das Ding am Ende.

Durch die Trennung der verschiedenen Planes ist durchaus mehr drin. Diese kann man sinnigerweise verteilen ... und eine CPE hängt i.d.R. an einem LER. Natürlich hängt dies stark von der Art des Traffics ab, aber davon sind selbst dedizierte Maschinen mit FPGA's/Asics nichts befreit. Da kann ein Modell mit angegebenen 40G Durchsatz dann auch nur noch bei einem viertel oder noch weniger Durchsatz liegen. Aber ich wiederhole mich eigentlich.
 
@PhilAd

Klar, wenn ich für das Packet Processing auf FPGAs ausweiche (somit Routing in der FPGA betreibe) und der Bus gar kein Packets mehr bekommt schaffe ich mehr. Dann laufen die Packets aber auch nicht mehr über die CPU. Aber über die CPU eines x86 gehen sicher keine 40G @ 64 Byte durch. Da muss ich dann schon auf ein Tile 72 (72x 1 GHz) ausweichen mit 8x 10G Ports und Hardware-Beschleunigung der exakt mit RouterOS 39G schafft aber mit HW Acc.

ASICs wiederum schaffen 8x 10G @ 64 Byte im Routing ohne Probleme oder mit hoher Last, auch 4x 100G oder 8x 100G sind da kein Problem. Da macht eine x86 Kiste nur noch die Grätsche.

Aber du darfst mir gerne eine x86 Kiste zeigen die 40 oder 80G Routing (ohne Filter) @ 64 Byte schafft und dabei der Routing Algorithmus auf der x86 CPU läuft. Aus diesem Grund kommt auch kein Mensch auf die Idee 100G Uplinks per BGP auf einer x86 Kiste zu legen. Da kann ich mir nämlich die 100G sparen und nur ein 10G Link nehmen. Sonst könnte man sich ASR/N7k/MX und co. sparen und für 25k€ einfach ne x86 Möhre hinstellen.

Anderes Thema, 2x 100G bzw. 4x 40G NICs auf PCIe 3 x16 macht heute auch keinen Sinn. Denn der Bus alleine kann die Bandbreite gar nicht wegschaufeln auch wenn er mit x16 native angebunden ist.

--

Mein selbst getestet Beispiel:

Man nehme sich einfach 4x E7-8870 v3, 2TB RAM und 4x 40G Uplinks als Router. Generiert mit zwei C7000 mit 16 Blades genug Traffic der über Subnetze geroutet werden muss. Als Software kann man dann entweder Solaris nehmen, RouterOS, Vyatta oder was mir gut gefällt Halon. Dann wird man selbst sehen können, dass der Router keine 40G schafft. Nicht wegen der CPU Last per se sondern wegen der hohen Anzahl an PPS bei 64 Byte und den zu hohen Interrupts die dadurch auftreten. Alleine durch die daraus auftretenden Latenzen beim Packet Processing ist dann Wirespeed mit 64 Byte nicht mehr drin. Deshalb sind Router in Bereichen >10G nicht mehr auf einer x86 Kiste als Software Router zu finden.
 
Zuletzt bearbeitet:
gidra schrieb:
Ist nicht dein Ernst ? Stromverbrauch in einem Rechenzentrum das Wichtigste ?

ps: je höher der Verbrauch, desto günstiger die Strompreise. Die Zahlen sicher keine 30ct/kW.

Naja irgendwann ist auch eine Grenze. Geschäftskunden bezahlen nur Nettopreise, der Grundpreis pro Jahr wird jedoch auch deutlich höher, dafür sinkt je nach Stadtwerken unterschiedlich der Arbeitspreis pro kWh bis auf ein Minimum.
Große Firmen werden jedoch auch anders abgerechnet, Stichwort RLM.
 
Zuletzt bearbeitet:
Ravenstein schrieb:
Schik, jetzt noch i. Bezahlbar und für Workstation statt Server ;)
Die kleinen 4 Kerner gehen im Turbo bis 2,6GHz (1520) und die neueren meine ich sogar bis 2,8GHz, aber für eine Workstation wäre das wohl noch etwas wenig, da dürfte ein Xeon E5 besser passen, das sind hier eben Server-CPUs.

x-Timmey-x schrieb:
Es handelt sich hier doch um den Avaton Atom Nachfolger.
Und eigentlich sollte man diese auch mit dem Xeon-D vergleichen.
Ja, wobei der Sprung so groß ist, dass sie sich auch für anderen Aufgaben eigenen, für die die lahmen Atom nicht so geeignet waren.

x-Timmey-x schrieb:
liebäugle mit dem Supermicro X10SDV-8C-TLN4F + 2 x 32GB DDR4 RDIMM + 4 SATA SSDs und einer M.2 SSD
Das kommt alles in ein 1HE Gehäuse von Supermicro
Achte nur auf einen ausreichenden Luftstrom im Gehäuse für den CPU Kühler, denn die braucht passive Hardware zumeist, auch wenn viele das gerne vergessen. Es gibt diese Supermicro Xeon-D Boards ja auch mit einem Lüfter auf dem CPU Kühler der dann auch nötig ist, wenn der Luftstrom des Gehäuses nicht reicht.

flappes schrieb:
Also für 1200 Euro, da bleibt genug Luft für ARM Prozessoren.
Der Preis ist nicht alles, es muss neben der Leistung dann vor allem auch die passende SW dafür da sein um die Dinger einsetzen zu könne, da hapert es ja offenbar schon beim OS zur Zeit noch gewaltig, wie auch in der News steht.

DunklerRabe schrieb:
Während die Xeon D wirklich eher den Profibereich ansprechen und für den Heimbedarf einfach oversized sind
So Oversized finde ich die Xeon-D nicht, das günstigste Xeon-D 1520 Board geht ab 525€ los, da sind neben den 4 Broadwell Kernen mit 2.2GHz Grundtakt noch zwei 10Gbit Ethernet RJ45 Ports dabei. Alleine eine Karte mit zwei solcher Ports kostet 243€ und dazu mindetens 110€ für ein C23x Board mit ECC Unterstützung oder gleich ein Xeon Board welche 10Gbit bietet ab 377€ und wäre nicht als Mini-ITX zu haben. Dann käme noch ein passender Xeon E3 12xxv5 drauf, der ab 203€ kostet aber dann zwar mehr Takt aber kein HT bietet.

Gegenüber beiden Optionen ist der Xeon-D 1520 billiger, also wenn man 10Gbit Ethernet haben möchte, dann ist der auch für Heimanwender nicht Oversized und es wurden ja auch noch günstigere Pentium-D Modelle bis runter zum Pentium D1507 2 Kernen für 103$ angekündigt. Wobei auch der Xeon-D 1520 nur noch einen Listenpreis von 120USD hat, die 525€ für Board könnten bei mehr Wettbewerb also wohl auch noch mal deutlich fallen!
x-Timmey-x schrieb:
sowohl preislich als auch technisch, bieten die Opterons da eher ein Gesamtpaket für den Consumer. Zumindest dann, wenn jemand die Idee aufgreift und entsprechende Produkte auf den Markt bringt. Heimserver und Storage ist da dann ein Thema.
Klar, nur muss auch hier erst einmal Boards für die Teile bringen, beim Xeon-D hatten einige Hersteller welche angekündigt und bis jetzt gibt es nur von Supermicro welche zu kaufen und das meist auch nur mit deutlichen Wartezeiten. Dann kommt auch da wieder das Thema Software hoch, bei einem Fertig-NAS wäre das kein Thema, nur darf man dann wohl wieder kein ECC-RAM erwarten, denn schon NAS die auf dem Atom C2xxx aufbauen haben das meist nicht oder nur bei Modellen für weit über 1000€, sind also für Heimanwender und Leute aus dem Profibereich damit eigentlich ein NoGo.
 
Stimmt schon, in den kleineren Ausbaustufen wird das Gesamtpaket noch mal deutlich interessanter, aber 500 Euro sind für viele Heimanwender immer noch zu viel. Die Vorteile wie dual 10G und ECC interessieren ja noch lange nicht die große Masse an Usern, dass sind in Relation zum gesamten Markt eher Einzelfälle. Deswegen sehe ich die Opterons da vorne, aber das wird eben nur dann was, wenn auch mal jemand entsprechende Produkte liefert. Die neuen Pentium-D sind in dem Bereich dann auch auf dem Papier interessanter als die Xeon-D, aber auch da muss man dann mal reale Produkte abwarten.
 
Ja 10G und ECC RAM interessiert die Masse (noch zumindest) nicht, aber damit wird ja auch der neuen Opteron auf ARM Basis antreten und punkten wollen. Damit ist der für diese Kundschaft ebensowenig interessant, denn preislich wird auch der nicht mit den AM1 und Braswell SoC Boards mithalten können, die eben gerne in Low-Budget Heimserver von den Leuten verbaut werden, denen 10G und ECC RAM egal sind. Da kostet dann das Board mit dem SoC ab so 50€ bis so 100€, darüber gehen dann Anleitungen auf S. 115x mit Celeron und Pentium oder eben FM2+ Basis los. Wobei so einfaches SoC Build preislich schnell über dem liegen kann, was z.B. der HP ML10 kostet, dafür ist der aber eben auch weniger kompakt und vermutlich weniger sparsam.

Aber dann kommen da z.B. 4 WD Red 3TB rein und die kosten schon rund doppelt zu viel wie das Gehäuse und wenn da 4 mal die 4TB Red rein soll, ist beim beim dreifachen Preis. Wobei man dann eine blöde Konfiguration hat, für ein RAID 5 sind die HDDs im Grunde schon zu groß und deren UBER zu klein, bei 4x3TB mit 1:10^14 hat man theoretisch noch eine Chance auf ein Rebuild von 42,2%, bei den 4TB sind es nur noch 29,6%, aber für ein RAID 6 sind 4 HDDs einfach sehr wenig und eine UBER von 1:10^15 gibt es bei WD nur bei der Re oder bei Seagate bei der Enterprise NAS. Nur kosten dann die vier 3TB Platten fast 700€ (92,7% Rebuildchance) und für vier 4TB wird man über 800€ (90,3%) los und bei den billigsten Angeboten der Re, die auffällig weit unter den üblichen Preise und dann über eBay und Amazon Marketplace kommen, wäre ich mir auch nicht sicher wirklich frische Neuware zu erhalten. Diese Re Modelle sind schon lange auf dem Markt, da muss man leider mit aufbereiteten oder angeblich neuen aber nie benutzter Gebrauchtware rechnen, die in letzter Zeit immer öfter auftaucht.

Also was macht man dann? Entweder die Seagate NAS ab 6TB nehmen, die hat auch eine UBER von 1:10^15, kostet aber als 6TB über 250€/St. und drei davon in einem RAID 5 betreiben, bei 3 ist die Gesamtlösung nicht mehr weit von 1000€ weg und bei vier kosten alleine die Platten so viel. Oder man nimmt mehr Platten damit sich ein RAID 6 lohnt, also 5 oder 6 und dann wird es bzgl. Board, Gehäuse und dem Netzteil aufwendiger, mal davon abgesehen das man für 6 Red 3 TB alleine über 650€ hinlegt und bei RAID 6 nur 12TB Nutzkapazität hat und für 6 Red 4TB um 16TB Nutzkapazität zu haben, wird man alleine auch fast 1000€ los, dazu wohl gerne noch gut 300€ für Gehäuse, Netzteil, Board, RAM und das Bootlaufwerk / USB-Stick.

Dann fehlt noch das Backup, wie Du es drehst und wendest, wenn es gut werden soll und nicht eine Kiste in die die alten HDDs die noch rumliegen irgendwie noch eine Anschlussverwendung finden sollen, dann wird es teuer und dabei waren das noch Beispiele mit 12, 15 oder 18TB. Plant man größer und will mit 6 bis 8 HDDs zu je 6 oder 8TB etwas bauen, dann sind da schnell über 2000€ alleine für die HDDs weg, dann kommt es auch die 500€ fürs Board mit der CPU auch nicht mehr an.

Klar ist das nicht mehr für die große Masse an Usern, die werden aber wohl auch keine Boards mit einem Opteron für 100€ oder 200€ erwarten dürfen, so billig wird AMD den auch verkaufen und die Boardhersteller werden da gut was aufschlagen, wenn sich denn einer findet der überhaupt offen Boards damit anbietet. Die Version mit vielen SATA Ports könnte dann aber schon interessant werden, keine Frage, nur wäre man dann wieder in der Zwickmühle mit der SW, denn nur um ein NAS zu treiben sind solche CPU total Oversized, der Heimserver muss auch mehr Ausgaben übernehmen und dafür muss es dann wieder passende SW für die CPU geben, was beim Xeon-D kein Thema ist.
 
Das Teil ist als Hypervisor CPU ein Traum.


Ich liebäugle mit dem Supermicro X10SDV-8C-TLN4F + 2 x 32GB DDR4 RDIMM + 4 SATA SSDs und einer M.2 SSD
Das kommt alles in ein 1HE Gehäuse von Supermicro und fertig ist mein Hypervisor. Vermutlich 2012R2 Hyper-V mit einem TPM Modul und Bitlocker
- Webserver
- Firewall
- Domain Controller
- File Server
- Mail Server

Und wozu genau brauchst du bei dem Vorhaben die Leistung? Die Anschaffungskosten bekommt man doch privat nie eingespart. Oder läuft da jetzt noch was anderes drauf oder möchtest du privat ne größere Seite betreiben? Klingt nach dem typischen überambitionierten Privatkunden. Zumindest die Erfahrung zeigt, dass nur sehr wenige sowas privat brauchen, aber klar, ausnahmen gibts, sind aber recht selten
 
Zurück
Oben