Leserartikel Intel Xeon E3 statt i5 und i7

Hoi!

http://www.tomshardware.de/xeon-e3-c206-workstation,testberichte-240794-4.html
Die haben es getestet, und erstaunlich, die P3000 ist mit einer Quadro FX 580 zu vergleichen!! Wahnsinn.

Ich werde es testen, ich bin irre! Ich kaufe mir einen Xeon E3-1245 und ein ASUS P8Z68-V PRO/GEN3.
Hat jemand eine Empfehlung, weil ich wäre dann bereit, das zu testen für euch!
GPU hätte ich eine Zotac 460 AMP! - natürlich würde ich mit und ohne GPU testen + Lucid und co.

Hat ein Autor von CB Tipps für mich? Oder ein Mod?
 
Der THG-Bericht ist vom Mai und da liegen dann schon ein paar Treiberversionen dazwischen.

Interessant wäre z.B. ob Solidworks die Hardwarebeschleunigung frei gibt. Macht es bei der Intel MHD4500 und bei meiner gealterten ATI 1950Pro nicht, wenn es das aber bei der HD P3000 tut wäre viel gewonnen.
Solidworks selber gibt zwar an, dass die HD P3000 unterstützt wird, von der Solidworks Liste ist aber nicht viel zu halten

Mal bisserl was dazu zu wissen bevor mein Xeon ankommt kann ja nicht schlecht sein ;)
 
Die Frage ist gerade bei mir noch einmal wegen der Hauptplatine aufgekommen. Das Asus P8B WS unterstützt seit dem letzten Bios Update auch Ivy Bridge CPUs!

Das ist natürlich nicht gerade schlecht. Dafür hat es kein PCIe 3.0 und einige andere Dinge im Vergleich zum P8Z68-V PRO/GEN3. Was meint ihr?
 
PCIe 3.0, dafür gibts noch nicht mal Grafikkarten. Die die kommen werden, werden 1-2Jahre auf PCIe 2.0 oder 3.0 halbwegs gleich schnell laufen und nach 3 Jahren wäre es so oder so sinnvoller gleich ne neue CPU auf neuem Board/Sockel zu besorgen.
Zumindest wenn du immer das schnellste willst.

Andernfalls kaufste dir in 3 eben ne Mittelklasse Karte die noch halbwegs im Verhältnis zu angestaupten CPU steht.

Oder meine Lösung: Kiste 5Jahre rumstehen haben und dann mal wieder tauschen und ans aktuelle Anspruchsprofil anpassen. So ganz ohne Aufrüsten, da die Investition meist keinem gesundem Mehrwert gegenübersteht
 
Da haben sich ja heute wieder einige Sachen gesammelt, die ich nicht unkommentiert lassen will. :)

@tgsn4k3: Busspeed ist meines Wissens nach ein Auslesefehler von CPU-Z. siehe:
http://ark.intel.com/products/52210
http://ark.intel.com/products/52271
Spock55000 hatte das ja im Prinzip auch schon geschrieben.

@Spock55000:
Warum die Serverplatinen? Ganz ehrlich, ich hätte mir den Xeon nie gekauft, wenn eine Serverplatine Pflicht wäre, einfach weil sie teurer sind, ohne das man etwas davon hätte. ECC ist zwar schon, aber eigentlich nur ein Feature, dass für Rechenzentren interessant ist. Außerdem sind Platinen teurer und vor allem auch die DIMMs, müssen nämliche fully-buffered DIMMs sein.

Außerdem ganz wichtig: eine Quadro 580 FX hat nix mit einer Gtx 580 zu tun. Ein P3000 ist nur eine umgelabelte HD3000, und damit Entry-Level und damit wiederum unteres Ende für CAD.

Ich hatte meine Meinung zur Übertaktung ja mal dargelegt. Übertakten halte ich nur für sinnvoll, wenn man eine Entry-CPU kauft und sie auf High-End übertakten kann. Für gefühlt 0% Beschleunigung will ich meine Garantie und so weiter nicht aufgeben. Schon allein das mehr an Strom sehe ich nicht ein. Es gibt sicher Randfälle, wie z.b. SLI-Systeme, wo man durch übertakten mehr rausholen kann, aber für alle anderen ist eigentlich ist sowohl der 2500k als auch der Xeon bei Standardtakt schon klar am oberen Limit.

@Floletni: Du schreibt, dass der Xeon nix für Heimanwender ist. Meiner Meinung nach ist das nicht ganz richtig, und zwar einfach deswegen, weils genau das gleiche Silizium mit einem fast identischen Featureset wie bei allen anderen Intel-Vierkernern ist. Nur billiger unter anderem.

Nachtrag: eine Quadro 580 fx ist eine umgelabelte 8600GT. Also Entry-Level von 2007 (wenn ich mich nicht irre). Und die ist auch noch deutlich schneller als die P3000.
 
4 x DIMM, Max. 32GB, DDR3 1333/1066 Hz ECC, Non-ECC, Un-buffered Memory

Fully buffered wird nicht unterstützt und außerdem kannst du bei der Platine auch Non-ECC verwenden. ECC ist was den Datendurchsatz angeht etwas langsamer. Kostet das doppelte. 16 GB Non: 64 Euro - 16 ECC: 124 Euro

Leider hat nirgendwo jemand das Asus Teil getestet - zumindest nicht mit einem Xeon und ECC Ram. Nur mit einem 2500K und Non Ecc.

Die Platine kostet genau so viel. Jedoch gibt es einige Abstriche zum P8Z68-V PRO/GEN3.
 
misu schrieb:
Außerdem ganz wichtig: eine Quadro 580 FX hat nix mit einer Gtx 580 zu tun. Ein P3000 ist nur eine umgelabelte HD3000, und damit Entry-Level und damit wiederum unteres Ende für CAD.

Entry Level reicht in der Regel für reine Konstruktion. Keine Texturen und Modelle die ja nicht übertrieben detailliert sein müssen. Da mach ich mir keinen Kopf, wichtig wäre, dass die Software eben Open GL Hardwarebeschleunigung frei gibt, was bei Endverbraucher ATI/Nvidia/Intel Lösungen eher selten klappt. Zudem muss das Ganze dann bitte sehr ohne Darstellungsfehler klappen.

Ansonsten wenn die HD P3000 auch nur umgelabelt ist, die entsprechende Software wird sich im Zweifelsfall an dem P aufhängen.
 
Ist fully-buffered nicht ECC? Und wie gesagt, was soll dir der Speicherschutz bringen? ECC macht Sinn, wenn du 10000 CPUs hast, und MBFS (Mean Time Between Failure) senken willst. Das ist ein Rechenzentren-Szenario, daheim bringts nix.
Das Problem mit der Kompatibilität hatte ich ja schon im ersten Post angesprochen. Ein Xeon-Schnäppchen ist halt etwas risikobehaftet. :)
Ergänzung ()

@Piktogramm: Mit CAD kenne ich mich nicht aus. Aber ich hätte gedacht, dass eine Karte mit der Leistung einer 8600GT langsam überholt wäre. Außerdem würds mich ehrlich gesagt wunder, wenn die Hersteller ausgerechnet die P3000 in großem Umfang unterstützen würden. Ich kann mir nicht ernsthaft vorstellen, dass zu viele CAD Workstations mit ner Intel Graka arbeiten. Aber wie gesagt, kenne mich da nicht so genau aus..
 
Nein es gibts buffered und nicht buffered.

Im Grunde müsste man es einfach testen.
ZWei Hauptplatinen - Asus P8B WS und P8Z68-V PRO/GEN3
CPUs: Intel X3-1245, (Intel X3-1240), Intel i5-2500K und Intel i7-2600K
Ram: 16 GB - 4x 4G - ECC und Non ECC.

Dann klatscht man die Xeons auf die Arbeitsstation und stockt den ECC Ram auf - Testet
Dann klatscht man die anderen drauf und tauscht den ECC Ram gegen den Non ECC - testet mehrmals und übertaktet dann auch. Messungen vom Stromverbrauch beachten.
Dann nimmt man die normale Platine und bestückt diese mit dem Non ECC Ram und testet alle CPUs durch.

Im Vergleich sieht man dann, ob es etwas nützt oder nicht. Jedoch wäre es, wenn man die Möglichkeit hat auch noch gleich praktisch eine Nvidia Quadro 4000 und das AMD Pendant mit testet um die openGL Leistung zu testen.
 
@Floletni: Das die aktuellen Intel Prozessoren noch Richtung 5 Ghz effizient sind, finde ich übrigens echt interessant. Wird dringend Zeit, dass mal wieder Konkurrenz von AMD kommt, damit uns Intel nicht die Mittelklassemodelle für Oberklassepreis verkauft. :)
Ergänzung ()

@Spock55000: Was willst du mit dem Vergleich sehen? ECC kostet überlicherweise ein klein bisschen Leistung (kenne ich, weil ich auf ECC geschützten Tesla-Systemen gearbeitet hab), aber davon abgesehen sollte alles genau gleich sein. ECC ist für Fehlerkorrektur da und hat nix relevantes mit Performance zu tun. Und da die MBFT auf 1-Prozessor Systemen sowieso schon groß genug ist (sonst würde man ständig Speicherfehler wie bei defektem Hauptspeicher bekommen), bringt ECC überhaupt nichts.
 
ECC kostet überlicherweise ein klein bisschen Leistung
ECC ist für Fehlerkorrektur da und hat nix relevantes mit Performance zu tun.

Grübel oben sagst du dass die Leistung etwas abfällt, was ja auch stimmt und unten sagst du dass das nichts mit Leistung zu tun hat. Was denn jetzt?^^

Im Grunde will ich wissen wie sich ein Xeon verhält, wenn er eine Platine hat, die ihn erkennt und zwar korrekt. Die Platine wurde zwar getestet, aber nur mit einem 2500K und dort schnitt sie mittelmäßig ab.

Wäre das Ergebnis ein anderes, wenn ein Xeon verwendet worden wäre?

Was den Ram angeht, das ist so eine Sache - ECC ram kostet ja das doppelte, ist die Frage ob das bei CAE oder CAD Berechnungen was bringt - vllt. nicht... Das richtiger fullbufferd ECC Ram in Rechenzentren benutzt werden, damit hast du Recht, das ist dort sehr sinnvoll.

Die Platine unterstützt es und ist für CAD und CAE ausgelegt, ich glaube nicht, dass es falsch ist ECC dann auch zu verwenden.
 
ECC reduziert die maximal verfügbare Speicherbandbreite, dafür ermöglicht es eine Fehlerkorrektur. D.h. wenn eine Applikation einen hohen Speicherdurchsatz hat, z.b. beim Multiplizieren von Matrizen, dann kann sich ECC negativ auf die Performance auswirken. Applikationen die nicht durch die Speicherbandbreite limitiert sind, und das sind die meisten, sollten im Bereich der Messgenauigkeit die gleiche Performance haben.
Ich weiß nicht genau, wieviel das in der Praxis ausmacht, meiner Schätzung nach überhaupt nichts bei Spielen, ein wenig bei numerischen Simulationen. Andere Anwedungsfelder kenne ich mich nicht genug aus.
Aber mein eigentlicher Punkt ist der folgende: Als Privatanwender will man kein ECC haben. Plattformen mit Speicherschutz sind teurer und es bringt dem Privatanwender rein gar nichts.
 
misu schrieb:
Ergänzung ()

@Piktogramm: Mit CAD kenne ich mich nicht aus. Aber ich hätte gedacht, dass eine Karte mit der Leistung einer 8600GT langsam überholt wäre. ...

Naja die HD P3000 steht explizit zB bei Solidworks, die Frage ist eben obs wirklich hinhaut.

Das viele Systeme nur mit ner HD P3000 bestückt sind bezweifle ich auch. Weniger "weil es nicht geht" sondern weil viele Kunden auf Nvidia und/oder AMD Lösungen bestehen und die Option auch höhere Preise auf Seiten der Anbieter bringt. Deswegen reizt mich ja mal, ob jemand mal probiert hat entsprechende Software laufen zu lassen um die theoretischen Aussagen untermauern oder entkräfiten zu können.

Und ja so kleine Karten reichen an sich auch bei hohen Darstellung. Bisserl Polygonen berechnen, keine Texturen, keine Bumbmaps (ka wies sowas heute heißt), kein Antialasing etc. Normal lässt man Details in der Darstellung eh weg, wenn bei Änderungen jedesmal alle Rundungen, Gewinde etc. neu erstellt werden müssen wird man ansonsten hübsch. Der Modellaufbau läuft ja fast ausschließlich auf einem CPU-Kern ab und die GPU stellts im Anschluss nur dar.
 
Ich habe bei Asus gerade etwas entdeckt.
Es gibt von der Platine inzwischen zwei Ausführungen.
Im Handbuch sieht man das - das eine ist ein E6384_P8B_WS und das andere ein E6896_P9X79_WS.

Interessant ist das X79 - scheint mir als ob das der neue Intelchipsatz ist?
http://dlcdnet.asus.com/pub/ASUS/mb/LGA1155/P8B-WS/Manual/E6384_P8B_WS.pdf
http://dlcdnet.asus.com/pub/ASUS/mb/LGA2011/P9X79-WS/Manual&QVL/E6896_P9X79_WS_Manual.pdf

Das komische ist, dass diese Platine unter den 1155 Sockel gelistet ist, und der Handbuch aber einen 2011 Sockel im Layout anzeigt?!

Edit: Asus hat hier das Handbuch vom Nachfolger auch im Vorgängermodell angeboten - Verrückt das ist.^^

Was sagt dein Asus Bios zur CPU? Kannst du mal Fotos machen?

@Misu
Werden denn alle CPU Erweiterungen erkannt und genutzt? VT-x und VT-d und so ein Zeug?

http://www.youtube.com/watch?v=S-mKwZuWuuE
Hier ist das Bios vom Asus P8B WS.
 
Zuletzt bearbeitet:
@Spock55000: Auf meinem Board werden alle Erweiterungen erkannt und genutzt, zumindest nach den Optionen im Bios. Ich habe selbst noch nicht virtualisiert.
 
Also HT läuft garantiert, weil der Taskmanager 8 Threads anzeigt. VT-d hab ich auf enabled gestellt. Die anderen Erweiterungen sind schwer separat zu testen. Foto sehe ich grade nicht ganz ein...
 
VT-x ist soweit ich gelesen habe Software abhängig. VT-d ist der Nachfolger und bla, nichts mehr schnall... ^^ Intel® Trusted Execution Technology aber Hardware...
 
@Spock55000: TXT ist auch völlig uninteressant. Das dürfte in erster Linie interessant für Unternehmen sein, die wollen, dass ihre Arbeitnehmer nur bestimmte Programme ausführen. VT-d ist der Nachfolger von VT-x.
Fragst du eigentlich nur so, oder willst du dir jetzt ein E3-irgendwas kaufen? Weil diese ganzen Features eigentlich in der Praxis kaum eine Rolle spielen...
 
Zurück
Oben