Test Intel Xeon E3-1230 v3 im Test

Als ob mit DDR4 und Broadwell riesen Performancesprünge kommen werden, das war in der Vergangenheit nie so und wird auch in Zukunft nicht so sein, pro Jahr hast du max. 10% mehr Performance, also ist es egal ob du heute einen Haswell oder nächstes Jahr einen Broadwell kaufst, mit der Einstellung kannst du warten, bis du 80 bist und dir einen schicken Apple iQuant kaufen.
 
promashup schrieb:
Als ob mit DDR4 und Broadwell riesen Performancesprünge kommen werden, das war in der Vergangenheit nie so und wird auch in Zukunft nicht so sein

Dem kann man im Grunde genommen zustimmen. So berichtete 3DCenter:

Auf seinem IDF hat Intel die Aussage getroffen, daß die zur Jahresmitte 2014 [Anm.: wurde verschoben] zu erwartenden Broadwell-Architektur in etwa genauso viel an Performance drauflegen wird wie die Haswell-Architektur, und daß dies bei mindestens 30 Prozent weniger Energieverbrauch funktionieren soll. Letzteres hängt natürlich primär an der 14nm-Fertigung, welche Intel erstmals bei Broadwell einsetzen wird. Da Broadwell andererseits erst einmal nur für den Mobile-Bereich kommt, könnten hier natürlich auch noch diverse neue Stromspartechnologien für diesen Effizienz-Gewinn verantwortlich sind. Als Intel das letzte Mal im Desktop-Bereich eine neue Fertigungstechnologie einsetzte (zwischen Sandy Bridge und Ivy Bridge), ging zwar auch der Energieverbrauch herunter, 30 Prozent waren es aber sicherlich nicht. Zurückkommend zur Performance von Broadwell läßt sich noch anmerken, daß hier wiederum mit einem nur sehr mäßigen Gewinn bei der CPU-Performance, dafür aber einem deutlichen Gewinn bei der iGPU-Performance zu rechnen ist – da Intel bei Broadwell wiederum eine gänzlich neue iGPU-Generation verbauen wird.


Die großen Performance-Sprünge wie früher sind Geschichte, es geht nur noch in Trippelschritten vorwärts, dafür wird die Effizienz verbessert. Da man bei der Leistungsaufnahme bei Volllast mit Haswell einen Schritt zurück gemacht hat, wird Broadwell dort wohl zwei Schritte nach vorne machen.
 
Von DDR4 verspreche ich mir zum Anfang auch nicht viel. Die Performance wird nicht explodieren, preislich wird DDR4 anfangs über DDR3 liegen.
 
Also wenn ich schon 200€ für eine CPU ausgebe, dann garantiert nicht für eine kastrierte Server CPU ohne VGA und ohne OC-Optionen.

4670K würde ich eindeutig bevorzugen
 
Rejin schrieb:
Bei der Aufrüstung kommt es auf die aktuelle Ausgangsbasis an. Wer einen halbwegs guten Rechner hat sollte sich eben überlegen ob dieser nicht noch für ein Jahr ausreicht. Wer jetzt einen kompletten Neubau vorsieht hat spätestens in einem Jahr das Nachsehen.
Naja, kommt drauf an. Ich denke nicht, dass wird auf Haswell Refresh / Broadwell K mit LGA1150 DDR4 sehen werden. Soll nach den Intel Folien erstmal nur für den Haswell-E kommen. Warscheinlich sehen wir DDR4 frühstens Q3/2015. Und wenn man sich die Sprünge von Sandy -> Ivy -> Haswell anguckt ist auch noch nicht gesagt, dass die Sachen, die im Sommer 2014 kommen, wirklich so viel mehr Performance bieten. Wenn man pech hat, kommen da wieder nur 10% Leistungssteigerung bei rum. Und ob Intel seine CPU's jemald wieder verlöten wird, mag ich zu bezweifeln. Sonst wären sie bestimmt von Ivy Bridge auf Haswell zurückgerudert. So lange die CPU's mehr oder minder in den Spezifikationen laufen, wird da wahrscheinlich nichts passieren. Und wenn die K-CPU's mit geringster Übertaktung bei Prime direkt drosseln, ist den Jungs bei Intel egal. Die sind ja eh nichtmal besonders selektiert oder Ähnliches.
Lediglich die Energieeinsparung wäre durchaus interessant. Wobei da die Grafikkarten noch viel schlimmer sind.

Von einem C2D/C2Q Prozessor kommend sollte man also durchaus auch jetzt einen neuen PC bauen können. Alle, die eh schon einen Sandybridge oder besser zu Hause stehen haben, können sich gemütlich zurücklehnen. Ich werde noch die ersten Next Gen Spiele abwarten, ob es denn ein I5 oder ein Xeon wird.
 
Jemand hat geschrieben das man im idle mehr Strom spart mit einer CPU + iGPU da sich die Grafikkarte dann komplett abschalten kann und nicht den Desktop "berechnen" muss. Gibt es irgendwelche Benchmarks die das belegen?
 
bambule1986 schrieb:
Meiner Meinung nach ziemlich Sinnloser Test, es sollte jedem klar sein das der Xeon wenige % langsamer ist als ein i7.
Mir wär lieber wenn ihr nen FX63xx/4xxx oder ein Intel Celeron testen würdet.

ja, mir wär auch lieber, wenn man einen zilog z80 oder einen mos 6510 testen würde. vor allem den direkten vergleich mit den hier getesteten exemplaren erachte ich als enorm wichtig.
 
Und täglich grüßt das Murmeltier. Seit gefühlten Äonen von Jahren brüsten sich die INTEL Xeon-"Tuner" mit ihren "überlegenen" CPUs. Genauso vor Jahren die sogenannten "Opteron-Tuner".

Dabei wäre für die meisten PC Nutzer eine Intel Extreme Edition CPU die beste Lösung, weil hier der Cache besonders groß ist (satte 16 MB). Von vielen Threads profitieren hingegen *übliche* 0815 Anwendungen nicht.

Aber der Konsument denkt nicht, er kauft. :evillol:
 
Mr.Seymour Buds schrieb:
Und täglich grüßt das Murmeltier. Seit gefühlten Äonen von Jahren brüsten sich die INTEL Xeon-"Tuner" mit ihren "überlegenen" CPUs. Genauso vor Jahren die sogenannten "Opteron-Tuner".

Dabei wäre für die meisten PC Nutzer eine Intel Extreme Edition CPU die beste Lösung, weil hier der Cache besonders groß ist (satte 16 MB). Von vielen Threads profitieren hingegen *übliche* 0815 Anwendungen nicht.

Aber der Konsument denkt nicht, er kauft. :evillol:

LOL und nur 1000 euro teurer... für 10% mehr leistung auserdem verbraucht der 50W + mehr und hat den älteren chipsatz..
 
Mr.Seymour Buds schrieb:
Und täglich grüßt das Murmeltier. Seit gefühlten Äonen von Jahren brüsten sich die INTEL Xeon-"Tuner" mit ihren "überlegenen" CPUs. Genauso vor Jahren die sogenannten "Opteron-Tuner".

Dabei wäre für die meisten PC Nutzer eine Intel Extreme Edition CPU die beste Lösung, weil hier der Cache besonders groß ist (satte 16 MB). Von vielen Threads profitieren hingegen *übliche* 0815 Anwendungen nicht.

Aber der Konsument denkt nicht, er kauft. :evillol:
Interessant, Spiele für XOne und PS4 werden also nicht von HT profitieren? Da bin ich ja mal sehr gespannt...
 
Find die CPU auch sehr interessant. GPU brauch ich nicht und OC wird in Zeiten von immer mehr Kernen unwichtiger, zumal die Zeiten von 50-100% oder gar mehr OC ohnehin vorbei sind. Undervolting funktioniert und sorgt für leisere Kühlung. Stromersparnisse sind ja noch zu vernachlässigen.

@Der Landvogt. Die Konsolen haben zwar 8 Kerne, aber soweit bekannt, werden die wohl nicht alle fürs Gaming zur Verfügung stehen und zum anderen ist Jaguar deutlich schwächer als Desktop-CPUs. Gar nur halb so schnell wie aktuelle Desktop-Quad-Cores. Der "Konsolenfortschritt" wird dadurch imo doch stark überbewertet.
 
Endlich ein Test von dieser schicken CPU, die ich und auch viele andere immer allen ans Herz lesen, wenn Sie sich einen neuen PC kaufen wollen.
Hier bei CB mag es zwar häufiger Leute geben, die auch übertakten möchten, insgesamt gesehen, stellt das aber auf jeden Fall eine Minderheit dar.

Wie man im Test sehen kann, hat der Xeon 1230v3 voll eingeschlagen!

BTW hat jemand eine Ahnung, ob es überhaupt ECC Speicherslots auf normalen Consumer Mainboards gibt? Weil das im Test ja extra erwähnt wird.
Ergänzung ()

mfJade schrieb:
Ein Xeon E3-1230K wäre doch mal was richtig tolles, keine Ahnung warum Intel sowas nicht bringt...

Das erklärt sich doch von selbst: Die Xeon CPUs sind für Server gedacht, da wird nicht übertaktet, da geht es um Stromsparen, viel Leistung und vor allem Stabilität. Übertakten ist immer etwas was möglicherweise zu Instabilität führt.
Außerdem sind die maximale Lebensdauer ein wenig durch das Übertakten.

Das diese Xeon CPUs auch für Desktops interessant ist, ist ein netter Nebeneffekt, was von Intel aber wohl eher nicht so geplant ist.
 
Zuletzt bearbeitet:
bambule1986 schrieb:
Meiner Meinung nach ziemlich Sinnloser Test, es sollte jedem klar sein das der Xeon wenige % langsamer ist als ein i7.
Mir wär lieber wenn ihr nen FX63xx/4xxx oder ein Intel Celeron testen würdet.

ja, sehe ich auch so. ein pentium G3220 wäre auch von interesse.
über sowas findet man viel zu wenig im netz. da könnte CB ja mal vorreiter sein ;)
 
mfJade schrieb:
Müssen sie ja nicht, den Multi freizugeben ist ja kein Hexenwerk...

Ich glaube, dass das eher mit der besseren Langlebigkeit zu tun haben wird.
Ich sehe auch keinen Grund dafür, Server-CPUs zu übertakten, obwohl ein gewisser Reiz vorhanden wäre :D
 
Wer ab und an Videos umwandelt und kein Videophiler ist, der sollte zur Version mit GPU greifen. Intel Quicksync ist eine Offenbahrung :) Da AMD und Nvidia es ja seid jahren nicht gebacken bekommen die GPU-Beschleunigung zu bringen....

Wandel mit meinem 18 Watt Laptop (Vorgängerchip) Full-HD mit 3x geschwindigkeit um. CPUs kommen da nicht ansatzweise mit. Und die Quali ist nahezu identisch. Ich packe einfach 1000MBit drauf, und schon ists ausgeglichen.
 
Also ob das jetzt so ein wirklicher "Geheimtipp" ist...
Zumindest im Spiele-Bereich erkauft man (verglichen mit einem i5-4440) circa 8-9% Mehrleistung für circa 30% Aufpreis.
Klar, "nach oben hin" wird immer weniger Mehr-Leistung immer teurer aber trotzdem ist das Verhältnis jetzt nicht soooo gut, dass quasi kein Weg an dem Xeon vorbei führt.

micha2 schrieb:
ja, sehe ich auch so. ein pentium G3220 wäre auch von interesse.
über sowas findet man viel zu wenig im netz. da könnte CB ja mal vorreiter sein ;)
Dem schließe ich mich an!
Vor allem ein Test G3220+HD7770GHz vs. A10-6700 wäre mal hoch interessant.

Rejin schrieb:
Der E3-1230 ist Preislich in der Tat interessanter. Bei gleichem Takt, mit HT jedoch ohne iGPU mit 30€ deutlich teurer als der i5.
Man kann es drehen wie man will, Intel hat alles genau berechnen. Ein wahres "Schnäppchen" wird man hier kaum finden. Für die schön geredeten knapp 200€ schon gar nicht.
Dem stimme ich absolut zu... einzig der i3 bricht mMn preislich etwas zu sehr nach oben aus.
 
Zuletzt bearbeitet:
promashup schrieb:
Um 50€ mehr für das Board, 20€ mehr für den Kühler auszugeben und keine 8 Threads sondern wenn's hochkommt 15% mehr Leistung zu haben, viel Spaß.

Ich nehme an, du meist das im Vergleich mit einem FX-8000. Da geht diese Rechnung aber nicht wirklich auf.

Auch ein FX hat keine 8 "vollwertigen" Threads, sondern nur etwa 80% der maximalen Single-Thread-Leistung, wenn beide Cores eines Moduls genutzt werden. Hinzu kommt, dass die Single-Thread-Leistung von Piledriver insgesamt wesentlich schwächer ist, als von Haswell. Da liegen ca. 50% zwischen (trotz Taktvorteil für den FX).
Am Ende dürfte die maximale CPU-Leistung, wenn alle Threads optimal ausgelastet sind, sehr nahe beieinander liegen. Aber in der Praxis sieht es so aus, dass meist doch weniger als 8 Threads volle Last erzeugen und dann profitiert Haswell von seiner wesentlich besseren Single-Thread-Leistung.
Man darf dabei nicht vergessen:
Damit die Ressourcen einer Multi-Core-CPU voll ausgenutzt werden können, muss die Software dafür optimiert werden. Also möglichst viele Threads, die auch wirklich Last erzeugen.
Aber umgekehrt läuft eine derartig optimierte Software auch wunderbar auf einer CPU mit wenig Threads, aber viel Single-Thread-Leistung. Es ist kein problem, zwei oder mehr Threads quasi parallel von einem starken Core abarbeiten zu lassen.

Falc410 schrieb:
Jemand hat geschrieben das man im idle mehr Strom spart mit einer CPU + iGPU da sich die Grafikkarte dann komplett abschalten kann und nicht den Desktop "berechnen" muss. Gibt es irgendwelche Benchmarks die das belegen?

Das trifft nur bei Notebooks mit Nvidia-GPU zu. Optimus kann wirklich dynamisch die dedizierte GPU komplett abschalten und statt dessen nur die iGPU der CPU nutzen.

Bei Desktops funktioniert das (bisher) aber nicht. Das schon für Sandy Bridge angekündigte Desktop-Optimus ist nie erschienen.
Lucids Virtu erlaubt es zwar, die iGPU und eine Grafikkarte parallel zu nutzen (und so z.B. QuickSync weiterhin nutzen zu können), aber man kann die Grafikkarte dabei nicht komplett abschalten. Es hilft also nicht beim Stromsparen.
 
Zuletzt bearbeitet:
Habe auch wirklich lange überlegt ob i7-4770K oder eher einen 1275v3 - aber nachdem die CPU köpfen und mit Liquid Metal versehen wirklich kein Hexenwerk ist, steht moderatem OC bei annehmbaren Temperaturen nichts im Weg - also nicht der Xeon.
 
Zurück
Oben