Test Intel Core i7 920, 940 und 965 EE im Test: Turbo mit Fehlzündungen

Die meisten bedenken ja dabei nicht, dass ein neues Mobo und neuer Ram auch nötig sind. Man kommt schnell auf 500 € um sich so ein System aufzubauen.
 
@Timesless: Dann sollte man aber auch bedenken, dass man bei Updates in 2 Jahresschritten in der Regel CPU, Mainboard und Speicher austauschen muss. Das alte Zeugs kann man dann für lau verkaufen oder wegwerfen. Aber ich glaube wir weichen ab ;)
 
selbst wenns nur der kleine für 300 ist - jetzt nen flotten dual und in 2 jahren wieder ne cpu für 100-150 dann fährst du immernoch deutlich besser.
Es hat sich noch nie gelohnt in der IT etwas zu kaufen das man in ein paar jahren vielleicht brauchen könnte.

Und der preisverfall bei einer günstigen cpu ist um welten geringer, die kann man auch nach ner weile noch gut verkaufen. Mein X2 hat damals 60 gekostet und ist heute auch nicht bedeutend billiger.
 
Zuletzt bearbeitet:
Naja, guter Test. Leistung wie erwartet bzw. entsprach dem was bereits durchgesickert war. Der Knaller ist ja wirklich die Temp & logischerweise der Verbrauch.
Vielleicht ist die 9800 GTX etwas schwach auf der Brust, aber sicher nicht verantwortlich für die gemessenen Werte des i7 ;)
 
Ein großer Schritt .. zurück! Nicht nur was die Wiedereinführung von Hyperthreading betrifft.

Klar, die neuen Prozessoren leisten mehr. Aber was musste dafür alles getan werden? Mehr Cache, integr. Speichercontroller, schnellerer DDR3 RAM Speicher mit Tripple Channel, HT, "Turbo-Modus", neue Befehle usw..

Und die Ausbeute? Ein wenig mehr Performance, ein wenig viel mehr Stromverbrauch.
Was wäre geschehen, hätte man die bestehende Architektur mehr ausgereizt? ..ein wenig mehr Performance, ein wenig (viel?) mehr Stromverbrauch.

Im Grunde hat man nichts andres getan, als die Leistungsreserven der etablierten Architektur nicht mit höherer Taktfrequenz sondern mit zusätzlichen Features auszureizen. Effizienzgewinn schaut aber anders aus. Und Effizienzsteigerung kann nunmal der einzige Zweck der milliardenteuren Entwicklung einer neuen Architektur sein. Ich bin mir ziemlich sicher, dass man bei gleicher Leistungsaufnahme aus dem Core2 mehr Leistung rauskitzeln kann.

Bedenkt man nun was AMD seinerzeit aus der Integration des Speichercontrollers rausholen konnte, liegt die Vermutung nahe, dass man gerade diesen Punkt völlig verhunzt hat. Was auch nicht so ganz neu ist. AMD selbst schaffte es zwar beispielsweise die SSE2 Befehlssätze in seine Chips zu integrieren. Allerdings liefen die Chips mit SSE2 dann genauso schnell wie ohne...

Fazit: Die zusätzlichen, auf die Core2 Architektur aufgepflanzten Features scheinen nicht so recht zu harmonieren. Sie sind eher Ballast, auf einer sonst sehr elleganten und effektiven Architektur.
 
IgG schrieb:
Ich habe mir mal die Reviews auf Golem, HT4U, PCGH, Guru3D und AnandTech. Dort kann sich der Nehalem in Spielen selbst bei gleichem Takt oft deutlich besser absetzen.

Zunächst mal gibt es da halt die zwei "Schulen":

1. Testen mit extremen Werten und extremer Hardware, um Unterschiede deutlich herauszustellen
und
2. Testen mit "realistischer" oder "durchschnittlicher" Hardware und Werten, um dem User praxisnahe Testergebnisse zu liefern.

Ich bin klar für Lösung 2 wie sie CB, THG und (teilweise) Anandtech (mehr oder weniger) einsetzen.

Denn was nützen mir "klare" Unterschiede bei 800x600 oder 6 GPUs, wenn ich weder das Eine noch das Andere nutze ?
Und dann frech sagen: "Daraus kannst du dann ableiten wie dein "Normalosys" läuft...": Ja, Denkste, Pustekuchen !

Methode 2 liefert halt sehr oft "öde" Messergebnisse und Ergebnisgrafiken aber genauso "öde" ist halt auch der reale Performancegewinn.
 
Sehe ich das richtig, dass der Artikel nirgends auf Leistungsunterschiede zwischen Dual Chanel und Triple Chanel eingeht? Das wäre aber dürftig!

Was ich lächerlich finde sind die Spielebenchmarks auf ner 9800GTX+. Das hätte man sich dann auch ganz sparen können. Danke!

Wie kann es eigentlich sein, dass bei Triple Chanel und einem QPI mit 16 GByte/s (6.4GBit a 20 Lanes) Übertragungsrate (oder sind es doch 25.6 oder muss man das vollduplex rechnen mit 32GB??) RAMs mit mehr als PC1066 noch was bringen? Diese sollten mit 3x 8.5GByte/s das QPI doch schon völlig ausreizen!? Frage mich wieso dann im Sandra Test die PC1600 nochmal so deutlich zulegen??

Oder hat die Speicheranbindung gar nichts mit dem QPI zu tun und steigt immer mit schnelleren RAMs?
Und warum steigt dann sie Speicherbandbreiote beim i7-965 so stark an, wenn doch der einzige Unterschied das schnellere QPI ist??

Edit: Habe übersehen, dass der 965er mit 1600er Speicher getestet wurde un die anderen nicht. Toller "Vergleich".
 
Zuletzt bearbeitet:
TripleChannel ist fürn popo bei Desktop-Apps, siehe Anand und HT4U. Bringt nichtmal Latenzvorteile, weil es ein simpler, 3-fach ausgelegter MC ist und deutlich weniger komplex also die MCs des K10. Der reagiert einzig und allein auf Bandbreitenlimits, die gibts aber bei DDR3 einfach nicht.
 
Leitwolf22 schrieb:
Fazit: Die zusätzlichen, auf die Core2 Architektur aufgepflanzten Features scheinen nicht so recht zu harmonieren. Sie sind eher Ballast, auf einer sonst sehr elleganten und effektiven Architektur.

SO ein hartes Urteil würde ich nicht fällen.
Es ist halt nur so, dass die Performancegewinne der Nehalems auf ein Anwendungsspektrum abzielen, das kaum noch mit dem Anwendungsspektrum des durchschnittlichen (Consumer-)Nutzers in Einklang steht.

Das ist auch der Grund für die Flut an selbsternannten "Hardcoreencodern, -videorenderen und -CADanwendern" :D.
40 Millionen (semi-)professionelle Grafiker allein in D-Land,...selbstverständlich :p. Liest man sich so die Foren durch, könnte man das wirklich glauben....

Aber nur mit diesem billigen Selbstbetrug kann man sich einen Nehalem "guten Gewissens" zulegen denn zum Zocken bringt er nur wenige überwiegend nicht sicht- und spürbare "Vorteilchen" mit sich.
Kernproblem ist die banale Tatsache, dass 3D-Games letztlich "unparallelisierbar" sind. Man kann einzelne Prozesse auslagern aber die Engine selbst kann nicht (sinnvoll) in Threads aufgeteilt werden.
 
Zuletzt bearbeitet:
@ Pyradonis

Wer Kohle für einen Nehalem hat, wird wohl auch Kohle für eine GTX 280 haben ... und nicht mit einer vergleichsweise gammligen GTX+ zocken, die absäuft, sobald mehr als drei Texturen in den VRAM müssen ...

cYa
 
Pyradonis schrieb:
Methode 2 liefert halt sehr oft "öde" Messergebnisse und Ergebnisgrafiken aber genauso "öde" ist halt auch der reale Performancegewinn.
Das stimmt nicht. Ist genauso falsch und dumm wie Spiele mit modernster Hardware nur auf 1280x1024 zu testen, die Aussagekraft ist gleich null!
Die verwendeten Einstellungen haben nichts mit realen Gewinnen zu tun, da ein Average Wert eines simplen Performancebalken NICHTS bedeutet. Im Average bist Du vielleicht 10% schneller, in den 30% die ein Spiel aber vielleicht mit sehr niedrigen FPS läuft sind es womöglich 80% Vorteil. DESHALB muss man die Settings so auswählen, dass die zu testende Komponenten im Optimalfall 100% der Benchmarkzeit unter VOLLAST steht, sonst hat das alles keinen Sinn!

Ist ziemlich logisch wenn man etwas nachdenkt und sich mal über die Aussagekraft von simplen Benchmarks gedanken macht!


y33H@ schrieb:
@ Pyradonis

Wer Kohle für einen Nehalem hat, wird wohl auch Kohle für eine GTX 280 haben ... und nicht mit einer vergleichsweise gammligen GTX+ zocken, die absäuft, sobald mehr als drei Texturen in den VRAM müssen ...

cYa


AMEN!

Die Spielebenchmarks sind 100% für den Müll hier! Hier dürfte eher zu 100% der Benchmarkabläufe die lahme Grafikakrte limitiert haben, zudem waren die Einstellungen der Spiele unbrauchbar.
 
Zuletzt bearbeitet:
y33H@ schrieb:
@ Pyradonis

Wer Kohle für einen Nehalem hat, wird wohl auch Kohle für eine GTX 280 haben ... und nicht mit einer vergleichsweise gammligen GTX+ zocken, die absäuft, sobald mehr als drei Texturen in den VRAM müssen ...

cYa

Nimm halt mal Supreme Commander im THG Test
Link:

Core i7 965@3,84 GHz: 36,35 fps
E8600@3,3 GHz : 29,35 fps

Ein bis zur "Kotzgrenze" hochgetakteter i7 ist gerade mal 20% schneller als ein E8600 im Standardtakt ? Beide wohlgemerkt mit einer GTX280 im Rücken...
Und das bei einem Game, das sich "Quad optimiert" schimpft ?
Wen soll das denn beeindrucken ?
 
Finds einfach herrlich, Penryn dual oder Quad bleibt der schnellste, effizienteste Spiele CPU und Nehalem versagt in diesem Bereich total. AMD hat mit dem 45nm Phenom alle Chancen der Welt wieder auf Intel aufzuschließen bzw. den Nehalem sogar zu überholen.

Ist schon bekannt, wann CB den Deneb Test bringt?
 
@ Pyradonis

SupCom geht nicht auf Quads. Schau dir mal WiC an ... da rulen die i7.

@ Pyradonis

Wo versagt der i7? Nur weil die GTX+ bremst ...

cYa
 
Denke das jeder noch bei seinen Quad bleibt, ich selber Denke nicht mal im Ansatz darüber nach zu wechseln. MfG
:)
 
An der Stelle noch die Anmerkung, dass es eine idiotische Idee von Intel war, die Vorstellung vorzuverlegen um AMD vor AMD drangewesen zu sein. Zwei Tage vor der US-Wahl ne neue CPU vorstellen, da kann man es gleich lassen.
 
Ich frage mich nur weshalb bei PCGH selbst eine Core i7 920 schneller als ein QX9770 und hier ist es genau anders herum,......normal ist das ja irgendwie nicht......!


http://www.pcgameshardware.de/aid,6...965_XE_Nehalem-CPUs_im_Benchmark-Test/?page=3



y33H@ schrieb:
@ Pyradonis

Wer Kohle für einen Nehalem hat, wird wohl auch Kohle für eine GTX 280 haben ... und nicht mit einer vergleichsweise gammligen GTX+ zocken, die absäuft, sobald mehr als drei Texturen in den VRAM müssen ...

cYa


Muhahaha, der Spruch war geil :D

Kann mir aber nicht vorstellen dass die gammlige 9800GTX+ nur den Nahelem ausbremst, die Core 2 Duos/Quads müssten dann doch auch mit ausgebremst werden oder?
 
Zuletzt bearbeitet:
y33H@ schrieb:
@ Pyradonis

Wer Kohle für einen Nehalem hat, wird wohl auch Kohle für eine GTX 280 haben ... und nicht mit einer vergleichsweise gammligen GTX+ zocken, die absäuft, sobald mehr als drei Texturen in den VRAM müssen ...

cYa

Jo hi^^

Aber die Core 2 Duos/Quads müssten doch dann gleichermaßen ausgebremst werden, oder?

Jetzt kommt mir allerdings die Frage dass wenn eine 9800GTX+ noch einen Nahelem so stark ausbremst, ob es sich für mich dann überhaupt mit meiner HD4870/1024 überhaupt lohnt einen Nahelem zu kaufen? Immerhin ist meine HD4870/1024 auch nicht so viel schneller als eine 9800GTX+ ;)
 
Zurück
Oben