News Intel Xeon D: 16-Kern-CPU ist ein „absolutes Low-Power-Monster“

@strex: wie kommst du auf die Werte? Bei sysbench scheint der Abstand jedenfalls größer zu sein. Zum Turbotakt steht im Test nichts, oder?
 
Da wünscht man sich direkt, dass man 16 Kerne in seinem Alltag auslasten könnte. Na mal auf Broadwell-E warten und schauen was der so kann.
 
Interessant... Ich glaub, ich fang mal an zu sparen und 2 von denen oder Entsprechendes von AMD, wenn Zen raus ist, werden ihren Weg in meine Renderbox finden. Cinema wird sich freuen.
 
Es ging mir da um deine Äußerungen zu den Antworten auf deine Frage. Aber das ist hier nicht Thema.

Ich finde den Test von ServeTheHome einfach nicht gut gemacht. Wie man hier an der Diskussion sieht fehlen zu viele Angaben und die Balkendiagramme sind recht ungenau. Ich sehe den 1230v3 bei der Sindle-Thread-Performance deutlich vor dem D-1567. Zumindest bei drhystone und sysbench. Und wenn man die 50 % mehr Takt beim E3 und die Optimierungen vom D-1567 in Betracht zieht, ist die Leistung nichts besonderes. Intel hätte die Spreizung bei den Turbostufen für meinen Geschmack größer gestalten können. Das wäre mE auch innerhalb der TDP möglich gewesen.

Dass der Broadwell wesentlich effizienter als Haswell ist, ist ja auch keine Neuigkeit. Du sprichst aber auch einen wichtigen Punkt an. Ein Vergleich mit den kommenden Xeons wäre sicherlich interessanter.
 
Weil hier schon von Kosten gesprochen wurde.... Für größere Firmen sind solche Investkosten oft Peanuts. Grad was den Bereich Datensicherheit angeht. Und es ist nunmal so: Je mehr Wärme vorhanden ist, desto stärker muss die Kühlung dimensioniert werden. Im Winter ist das meist kein Problem aber im Sommer ist da jedes Grad, das weniger anfällt, Gold wert. Die lebensdauer von elektronischen Bauteilen sinkt nunmal stark mit steigender Betriebstemperatur. Und ich glaube jeder weiß, dass künstliche Kühlung (z.B. wie beim Kühlschrank) im Verhältnis extrem teuer ist.

Ich glaube nicht, dass jemand, der Leistungsfähige Serverlandschaften betreut/aufbaut die Desktop-CPUs auch nur anschauen wird. Die sind schlicht von ihrer TDP einfach zu heftig als das sie Sinnvoll wären trotz geringerer Anschaffungskosten.
 
Ist "DDR4-2400" tatsächlich korrekt? ...Bin immer von 2133 ausgegangen!?
 
Kennt hier jemand den verwendeten sysbench? Ich kann nicht nachvollziehen, warum der e5-1660v3 bei Multi-Threading langsamer als der xeon D-1540 ist.
 
Khaotik schrieb:
Ich glaube nicht, dass jemand, der Leistungsfähige Serverlandschaften betreut/aufbaut die Desktop-CPUs auch nur anschauen wird. Die sind schlicht von ihrer TDP einfach zu heftig als das sie Sinnvoll wären trotz geringerer Anschaffungskosten.

Das Problem ist noch ein ganz anderes. Find mal Serverhardware, die deine Leistungsanforderungen sowie die sonstigen technischen Eigenschaften erfüllt um als professionelle Lösung durchzugehen und dann jedoch mit Desktop CPUs läuft. Leistung kriegst du noch hin, je nach Use Case. Aber dann wirds eng. So etwas gibt es einfach nicht, der Gedanke ist relativ absurd. Es gibt Gründe warum die Märkte getrennt voneinander mit Produkten bedient werden.

second.name schrieb:
Ist "DDR4-2400" tatsächlich korrekt? ...Bin immer von 2133 ausgegangen!?

Dürfte korrekt sein, die aktuellen CPUs unterstützen ja schon DDR4-2133. Die größten Broadwell-EP kriegen auch Support für DDR4-2400 und dann könnte das hier natürlich ebenso sein.
 
Sysbenchs CPU Teil sucht Primzahlen und wickelt das wohl über Division von 64bit Integern ab. Insofern kann man aus dem Ergebnis ableiten wie sich simple Integerberechnungen verhalten werden. Wobei das Ganze anscheinend nicht mit architekturspezifischen Optimierungen kompiliert wird. Damit ist die Aussage über den Daumen gepeilt etwa gleichbedeutend mit Dhrystone und das Ganze skaliert schlicht über die Anzahl der gleichzeitig ausführbaren Threads.
 
Mal eine etwas beckmesserische Frage: Ergibt Hyperthreading bei einer CPU mit sovielen Kernen eigentlich noch Sinn?

Das ist doch mal in Zeiten von Einkern/Zweikern-CPUs eingeführt worden, um mehrere Aufgaben gleichzeitig abarbeiten zu können. Aber je mehr echte Kerne da sind, um so mehr müßten sich doch die Vorteile einer solchen zusätzlichen Aufteilung in Wohlgefallen auflösen?
 
Khaotik schrieb:
Ich glaube nicht, dass jemand, der Leistungsfähige Serverlandschaften betreut/aufbaut die Desktop-CPUs auch nur anschauen wird. Die sind schlicht von ihrer TDP einfach zu heftig als das sie Sinnvoll wären trotz geringerer Anschaffungskosten.

Das mit der TDP ist erstmal Quatsch. Xeon E5 haben mit Nichten weniger TDP als ne Desktop CPU. Der große Unterschied liegt erstmal bei der Langlebigkeit. Die kriegen quasi nur die Perfekten DIEs.
Dazu kommt, dass Server Software unglaublich gut mit mehreren Threads skaliert. Schon vor 10 Jahren wurden schon niedrig getaktete Octa Cores benutzt. Das Ding bei Server CPUs ist immer, dass die im Absoluten SweetSpot laufen, eine Desktop CPU geht's da im allgemeinen Anders.
Auch ist die SingleThreadLeistung annähernd total egal, die Software skaliert mit den Kerne. Dazu in diesem Falle kommt, dass die Intel D auch meiner Meinung nach sich für den Terminalbetrieb/Webbetrieb herausragend eignet. Hier wird im allgemeinen sehr wenig Leistung abgefragt, allerdings viele Zugriffe parallel.
 
Candy_Cloud schrieb:
Für 65W beachtlich. Allerdings wirklich nur für hoch parallelisierte Anwendungen zu gebrauchen.
Na logisch, deswegen ja auch so viele Kerne und wer solche Anwendungen nicht hat die viele Kerne auslasten, kauft sich so eine CPU nicht. Ein Reisebus hat auch toll viele Sitzplätze, den kauft sich aber auch keiner nur deswegen als Familienauto, da reicht meist einer mit 4 Sitzen, die anderen braucht er nicht, die wären also nur teuer erkauft und auf der Autobahn ist nicht mehr als 100 erlaubt, da darf und kann praktisch jeder PkW mehr.

Candy_Cloud schrieb:
Für normale PC Nutzung und für Spiele ist die Performance per Core eher zu gering.
Das ist ja auch ein Xeon, also eine CPU für Profis und nichts für normale PC Nutzer oder gar Gamer. Nur gut das Intel die Xeon E3 nun von den Desktops verbannt hat, dann merken die Typen das endlich mal wieder, dass sie keine Zielgruppe für Xeon CPUs sind, wenn sie schon nicht peilen das wir hier bei Computerbase und nicht IrgendwasGamingHardware oder Gamebase sind. :freak:

Candy_Cloud schrieb:
Dennoch für einen kleinen Heimserver ein schickes Teil sofern man des nötige Kleingeld hat.
Der 16 Kerner nicht unbedingt, aber die kleineren 4 Kerner schon wegen der 10Gbit Ethernet Ports + ECC RAM Unterstützung und wenn dann noch die günstigeren Pentium-D die Familie nach unten abrunden, könnte das eine sehr interessant Plattform für den Heimserver oder das Selbstbau NAS sein, die bekannten NAS Hersteller werden es auch da ja wieder schaffen klein ECC RAM einzubauen, wie sie es bei den Atom C2xxx ja auch immer wieder schaffen. :mad:

wahlmeister schrieb:
Wenn keine Spiele drauf laufen ist die CPU doch für 98% der Leser hier eh uninteressant. Mich eingeschlossen, obwohl ich kaum spiele.
Aber wieso schaut ihr euch solche Threads überhaupt an? Das ist eben keine HW für Gamer und schon das Xeon sollte das klar machen. Nur weil es mal Modelle gar die auch auf den Desktop Boards liefen und als 4 Kerner mit HT preislich unter den i7 lagen und daher für Gamer durchaus attraktiv waren, werden doch nicht alle Xeons zu Gamter CPUs, das waren mal ein zwei Modelle für Gamer von Interesse waren, ein Klacks um Universum der Xeons!
wahlmeister schrieb:
Ich wüsste einfach kein Szenario womit ich 16+16 Cores auslasten könnte. Selbst 4+4 beim i7 sind schon schwierig.
Dann kann Dir eine 16 Kern CPU doch wirklich egal sein. Das ist ja als würdest Du auf eine Industriemesse wo gerade eine neuer Kranwagen gezeigt wird der Lasten bis auf heben kann, den Leute sagen: Was soll ich damit, selbst die Spitze des Schonsteins meines Hauses ist keine 10m hoch.

Da lacht vielleicht noch einer der Umstehenden, aber wer dann weitermacht und meint, der Kofferraum wäre ja gar nicht richtig vorhanden, mit so einem Ding täglich durch Wohngebiet zur Arbeite zu fahren wäre sicher auch sein Spaß und in die Normgarage passt der ja wohl auch nicht, sollte sich nicht über komische Wundern oder am Ende die Veranstaltung mit einer Jacke zu verlassen, die von hinten zugeknöpft wurde. Das mag nun übertrieben klingen, aber genau so ist es eben leider bei solche Threads um Forum oft und ja, das nervt!

gidra, wenn man keine Ahnung hat, einfach mal die Schnauze halten und wenn einem etwas sonderbar vorkommt, vielleicht einfach mal zum Thema googeln, da findet sich so einige, auch über die Relevanz der Energieeffizienz für Rechenzentren.

Ned Flanders schrieb:
Schon klar das Volker da feuchte Hände bekommt und gleich den Abgesang auf ARM Server anstimmt.
Wenn nicht AMD, denn ARM wobei AMD ja auch ARM Server CPUs bringen will oder wollte? An Intel CPUs kommt man für viele Anwendungen nicht herum, ob man es mag oder nicht. Die ARM Server CPUs sind in vielen Performance Aspekten noch nicht da wo sie hin müssten um Intel in die Suppe zu spucken, schau Dir doch mal den Review des Xeon-D 1540 bei Anandtech an und natürlich attackiert Intel jeden der in seinem Revier wildern möchte, das macht doch jede Firma. Woran es bei ARM sonst noch mangelt steht doch auch in der News und wenn man für jede CPU andere SW braucht, dann ist die einfach nicht massentauglich, schon gar nicht im Servermarkt wo die Validierung extrem aufwendig und damit kostspielig ist.

Ned Flanders schrieb:
Da aber ein ARM Kern ein Bruchteil der DIE Fläche pro Kern bei gleicher Fertigung hat wird hier direkt ausgeblendet.
Das ist doch total egal, keiner will wissen wie toll irgendwas intern gelöst wurde.

Ned Flanders schrieb:
In der Serverlandschaft zaehlt Performance/Watt aber halt auch noch Performance/USD
Es geht zuerst mal um TCO, also die Gesamtkosten einer Lösung während der Einsatzzeit, alles andere ist sekundär, denn es kommen sowieso nur Lösungen in Frage die den anderen Anforderungen gerecht werden. Selbst wenn intern ein Chinese Holzkugeln auf Eisenstangen hin- und her schiebt, wenn er das schnell , zuverlässig und genau genug macht um die Anforderungen zu erfüllen und das günstiger als alle anderen Lösungen, dann wird das genommen, egal wie fortschrittlich diese Lösung auch erscheinen mag.:D

Piktogramm schrieb:
Künstliche Abstufung, damit die großen Xeon CPUs nicht zu sehr unter Druck geraten.
Möglich, vielleicht aber auch um die TDP einhalten zu können oder weil bei der angepeilten Zielgruppe nicht mehr benötigt wird, die Xeon-D sind ja primär für Storage- und Kommunikationanwendungen gedacht.

Miuwa schrieb:
Ist jetzt etwas OT, aber weiß jemand ob sich die kleinen 35W Boards von Supermicro leise kühlen lassen?
Die bisherigen Board von Supermicro haben ja meist auch einen kleinen Lüfter auf dem Kühlkörper, auch das Board in deren Midi-Servern wie dem 5028D-TN4T.

BeezleBug schrieb:
Hier überhaupt eine Desktop Endkunden CPU vorzuschlagen zeigt schon wie weit du von der Materie weg bist.
RAS Feature sind Gamers nicht bekannt und spielen auch generell bei Consumer HW keine Rolle, weil Consumer HW nur meistens problemlos laufen muss und vor allem billig sein soll.

BeezleBug schrieb:
Für ein "Techforum" sind hier mittlerweile echt fast nur noch Enduser und die hören nicht mal zu wenn es um was geht von dem sie keine Ahnung haben.
Allerdings, vielleicht sollte es mal in Gamingbase umbenannt werden, würde wohl besser passen und wenn nicht, dann sollte man vielleicht bei solchen News klar am Anfang einen Warnhinweis bringen wie: Dies ist keine News zu Gaming Hardware!

craxity schrieb:
Ich sehe den 1230v3 bei der Sindle-Thread-Performance deutlich vor dem D-1567. Zumindest bei drhystone und sysbench.
Dann nimm einen E3-1231v3 wenn Dir das wichtig ist, so einfach ist das. Sindlethread-Performance ist nicht der Schwerpunkt bei den Xeon-D, da geht es um geringen Leistungsaufnahme und hohe Effizienz bei Multithread Lasten.
craxity schrieb:
Intel hätte die Spreizung bei den Turbostufen für meinen Geschmack größer gestalten können. Das wäre mE auch innerhalb der TDP möglich gewesen.
Es gibt aber auch noch andere Einschränkungen wie groß die Spreizung sein kann, nicht zuletzt die Positionierung der Produkte auf dem Markt.
craxity schrieb:
Dass der Broadwell wesentlich effizienter als Haswell ist, ist ja auch keine Neuigkeit.
Wobei das von dem Betriebspunkt abhängt, denn die Broadwell sind vor allem bei geringen Taktraten effizient, wie sie bei höheren Taktraten abscheiden, werden wir erst noch sehen wenn die Broadwell für den S. 2011-3 erschienen sind, aber die dürfte schon wieder eine halbe Generation frischer sein, also halbe Skylakes auch wenn sie noch Broadwell genannt werden.

Khaotik schrieb:
Weil hier schon von Kosten gesprochen wurde.... Für größere Firmen sind solche Investkosten oft Peanuts. Grad was den Bereich Datensicherheit angeht
Es geht nur um die TCO, bestimmte Vorgaben bzgl. der Sicherheit einzuhalten ist sowieso Voraussetzung um überhaupt in die engere Auswahl zu kommen. RAS Feature und was die wirklich bedeuten, sind aber den meisten hier einfach unbekannt.

Khaotik schrieb:
Die lebensdauer von elektronischen Bauteilen sinkt nunmal stark mit steigender Betriebstemperatur.
Es geht vor allem auch um die Betriebssicherheit, für Server-HS gilt es da die Vorgaben der Hersteller genau einzuhalten, sonst steht man bei Probleme ganz schnell alleine da.

Khaotik schrieb:
Ich glaube nicht, dass jemand, der Leistungsfähige Serverlandschaften betreut/aufbaut die Desktop-CPUs auch nur anschauen wird.
Eben, das machen die meisten allenfalls einmal am Anfang wenn sie keine Ahnung haben, denn sonst geht es ihnen wie Anandtech es hier beschreibt:
Da er von Bad Batch schwadroniert hat(te) er scheinbar noch immer den Unterscheid zwischen Server- und Consumer HW noch immer nicht verstanden.

Klassikfan schrieb:
Mal eine etwas beckmesserische Frage: Ergibt Hyperthreading bei einer CPU mit sovielen Kernen eigentlich noch Sinn?
HT bringt doch vor allem etwas, wenn ein Thread auf I/O wie z.B. RAM Zugriffe warte muss, da dann die HW des Kerns von einem anderen Thread ausgelastet werden kann. Bei 16 Kernen ist die Wahrscheinlichkeit das einer auf RAM zugreift und die anderen daher warten müssen wohl größer als bei CPUs mit weniger Kernen.
Klassikfan schrieb:
Aber je mehr echte Kerne da sind, um so mehr müßten sich doch die Vorteile einer solchen zusätzlichen Aufteilung in Wohlgefallen auflösen?
Einzelne Anwendungen skalieren unterschiedlich gut über mehr Kerne, aber je unabhängiger die Aufgaben für die einzelnen Kerne sind, umso weniger wird das ein Problem. Außerdem gibt es ja die HSX Erweiterungen, die wo Haswell noch einen Bug hat, es wäre mal interessant zu wissen ob der Bug bei den Xeon-D schon gefixt ist. Irgendwo stand mal, es sollte ab Broadwell-K funktionieren soll.
 
Candy_Cloud schrieb:
Für normale PC Nutzung und für Spiele ist die Performance per Core eher zu gering.

Wann kapiert Ihr Kiddies endlich, dass solche CPUs NICHT fürs Gaming konzipiert sind? Damit werden ganz andere Anforderungen erfüllt.
 
Viel zu teuer. Braucht kein Mensch so was. will man damit angeben? Meine Sandybridge reicht sicher noch 4 Jahre und damit kann ich alles berechnen und spielen.
;)
[troll off]

Sehr interessant hier in den Kommentaren.
Aber mal ehrlich, durch blöde fragen kommen oft ausgiebige antworten welche MIR als RZ-Laien schon willkommen sind. So erhält man einen kleinen Eindruck über die Dinge.
 
gidra schrieb:
Ist nicht dein Ernst ? Stromverbrauch in einem Rechenzentrum das Wichtigste ?

Ja, Effizienz ist sicher der entscheidendste Faktor in einem RZ und der Energieverbrauch der mit Abstand teuerste Faktor.
 
An alle, die hier mit irgendwelchen Wattstunden-Zahlen rumrechnen:

Die Rechnung geht nicht auf.
Es ist korrekt, dass solche Prozessoren 24/7 an ihren Leistungsgrenzen betrieben werden.
Allerdings in einem Server-Client-Mustern nicht einfach einer oder 2 oder 3, sondern eher um die 20-30 in Rechen und Server-Zentren.

Rechnet man es dann mit einem I7 hoch wird der Stromverbrauch schlagartig zur relevanten Größe und die Kosten für die Systemleistung auch.
Denn ein I7 kostet zwar nur ~300 €, aber um die gleiche Parallel-Leistung zu erhalten braucht man einfach mal 4 Stück davon und dann ist der nicht ausgelastet, weil die Single-Core Leistung gar nicht der entscheidende Faktor ist.
Das zweite Problem ist dann noch die IGPU, die kein Mensch dort braucht und die Leckströme verursacht und somit die Leistungsaufnahme nach oben zieht. Gleiches gilt übrigens für die E3 und E5, bei denen die IGPU nur deaktiviert ist und somit noch vorhanden.

Am Ende entscheidet dann aber noch ein Dritter Grund hin zu diesen CPUS:
Der Platzbedarf und die Option die entstehende Wärme zu verringern. Ein Server will nämlich 1.) aufgestellt und 2.) gekühlt sein. Und bei beidem steigen die laufenden Kosten weit stärker, als die Kosten für den Strom.
 
Xeon E5 und IGP? Für LGA2011 gibt es keine Prozessoren mit IGP.
i7 u.ä. wurde hier sowieso nur von Leuten erwähnt, die scheinbar so gar nicht mit der Materie betraut sind. Wurde schon ausführlich darauf eingegangen.
 
Es handelt sich hier doch um den Avaton Atom Nachfolger.
Und eigentlich sollte man diese auch mit dem Xeon-D vergleichen.

Scheinbar hat Intel mit dem Xeon-D so eine gute CPU geschaffen. Die sich eigentlich dann schon eher mit der E5 Serie messen kann.

Ich liebäugle mit dem Supermicro X10SDV-8C-TLN4F + 2 x 32GB DDR4 RDIMM + 4 SATA SSDs und einer M.2 SSD
Das kommt alles in ein 1HE Gehäuse von Supermicro und fertig ist mein Hypervisor. Vermutlich 2012R2 Hyper-V mit einem TPM Modul und Bitlocker
- Webserver
- Firewall
- Domain Controller
- File Server
- Mail Server

Dann wird die Butze noch mit Cat7 verkabelt und es schneien noch zwei HP 1950-24G-2SFP+-2XGT Switche ins Haus. Dann sollte für die nächsten paar Jahre Ruhe sein.
Damit hier die Leute auch mal ein Einblick bekommen was man "Privat" oder für kleinere Unternehmen mit so einer CPU anstellen kann. Früher stand für solch ein Szenario 5 dicke Server im Serverschrank. Am besten mit einer großen USV und einer zusätzlichen Kühlung! Jetzt kannst du das alles passiv Kühlen und in einem 10-15HE 19" Rack Schränkchen unterbringen. Selbst für die Redundanz und einem Backup NAS hättest du noch locker Platz.
 
Zurück
Oben