Test Test: Intel Core i7 920, 940 und 965 Extreme Edition

Es gibt keine Erfahren damit. Ich persönlich würde mein Core i7 ja nicht für solche Tests opfern, lass das die Asiaten mal machen ;) Ich geh lieber vom gesunden Menschenverstand aus, und da ist alles jenseits der 80 Grad auch gleichzeitig jenseits von Gut und Böse. Ich hab unseren Core i7 paar mal zum runtertakten gebracht, das reicht für mich.
 
ich pers. würde es auch nicht machen :D

aber hab auch schon Ergebnisse mit Wakü gesehen (Kühler nur mit Kabelbinder befestigt!) und da sahen die Temps wesentlich besser aus!

Man muss halt bedenken das dieses mal bissel mehr mit am Bord ist was heizen kann.
 
Nun muss ich mich nach 21 Seiten auch mal äußern:

Die CPU ist genau das geworden, was viele schon erwartet hatten:

Wie der Phenom ist es mehr ein Desktopderivat einer Server-CPU (abgesehn vom Conroe war das quasi schon immer so, nur der Conroe wurde aus einer CPU für den mobilen Einsatz entwickelt, daher die großartigen Werte beim Verbrauch und der Desktopleistung betreffend).

Beim Nehalem ist das aber nicht mehr der Fall. Dessen Architektur ist für den Serverbereich entwickelt worden. Integrierter Speichercontroller, verb. Leistung bei Virtualisierung, eine geänderte Cache-Hierarchie, Hyperthreading, größerer TLB etc.
Daher lassen sich gerade die Verbrauchswerte nicht 1:1 auf die Core-Architektur übertragen, der Nehalem ist eben kein Ableger von Notebook-CPUs mehr sondern ist intern ganz anders aufgebaut, und da liegt der primäre Fokus nicht auf Energieeffizienz sondern auf Leistung beim HPC.
AMD zB hat eben nicht die Mittel, einen Desktopkracher wie die Core-CPUs zu entwickeln, da wird für den Serverbereich entwickelt und dann ein Desktopableger gebracht. Diesen Weg geht Intel nun auch wieder ( in meinen Augen übrigens auch der sinnvollere Weg, die paar tausend CPUs die an Enthusiasten gehen erwitschaften keinen Gewinn).

Ich weiß gar nicht warum sich hier soviele über diese CPU aufregen. Wer die Leistung im Desktopbereich braucht, der hat hier eine sehr gute CPU. Für Spieler reichen noch heute ein E7200 oder 6000+, da hat man für das Geld des kleinsten Nehalem CPU + Board + Speicher.

Für die Leute, die weder mit Rendering oder Videobearbeitung arbeiten und die CPU für meist recht sinnfreie Übertaktungsversuche (weil die Lesitung der CPU dann meist überhaupt nicht außerhlab von Benchmarks wirklich genutzt wird) nutzen wollen, denen kann man ohnehin nicht helfen.
Das sind dann die Leute, die hier so maßlos enttäuscht sind. Wirklich tragisch :)
 
Da stimme ich dir zu neo-bahamuth:

für jemanden der die Leistung des Core i7 jetzt schon braucht soll ihn sich kaufen. Die anderen warten bis Mitte 09 mit den neuen GPU Generationen, dann wird sich der Core i7 wegen günstigeren Preisen und auch genutztem Potential von allen anderen CPUs herauskristallisieren.

Das extreme CPU Overcklocking wie in jedem Forum was etwas mit Computern zu tun hat, ist schon mehr Sportart als sinnvoll. Denn für exzessive Multimedianutzer genügt ein normaler Quad und zum spielen ist seit jeher die GPU der limitierende Faktor.

Abwarten was AMD im Lauf der Zeit mit sich bringt, und inwiefern der Core i7 nächstes Jahr interessant wird.

MfG
 
@ Volker
@Chrisch

Mit ner guten Wakü dürften 4,0 Ghz aber wohl recht einfach drin sein, oder? Auch bei angemessenen Temperaturen.

Hier braucht er für 4 Ghz sogar recht wenig Spannung. Sogar weniger als ich mit meinem E8400 für 4 Ghz brauche. Okay das Bild muss nicht primestable sein, aber hier rechnet ich mit max 0,03-0,05 V mehr. Eventuell kann man beim Nehalem durch "köpfen" die Temp nochmal enorm senken ... (würde ich selbst nicht unbedingt machen ;) )

Weiß jemand ob das Gating, die Stromsparmechanismen auch bei OC gut funktionieren? Kann ich eventuell sogar die V-Core idle getrennt einstellen?

640x480.20081105161614741632047722.jpg


(Quelle: HKEPC)
 
Zuletzt bearbeitet:
4Ghz sollten mit Wakü kein problem sein (sofern die CPU es schafft, gibt ja wie immer auch "krücken").

Ich hab einen 3.8Ghz Core i7-920 mit provisorisch befestigen Wasserkühler gesehen welcher eine CoreTemp
von ~50°C Load (Prime) hatte, wobei CoreTemp wohl noch nicht die genaue TJMax kennt.

Wie und ob die Stromsparmechanismen mit OC funktionieren hängt denke ich mal wieder stark vom Board ab,
aber da sollte man einfach mal nen paar Mainboard Reviews abwarten :)

Gruß
Chris
 
Mich würde mal interessieren, was Coretemp so für Delta - Werte anzeigt. Die absoluten Temperaturen sagen ja erstmal nicht viel aus wenn man die TJunction nicht kennt.
 
Okay das Bild muss nicht primestable sein, aber hier rechnet ich mit max 0,03-0,05 V mehr.

Wenn das nicht ein wenig gewagt ist ...

Das Bild zeigt, dass die CPU in SuperPi 1M stabil berechnen kann. Das sagt m.E. eigentlich nichts darüber aus, ob der Prozessor nun besonders nahe an der Alltagsstabilität dran ist oder nicht. Gut möglich, dass da mehr als 0,1-0,2V noch fehlen. ;)
 
Und selbst mit den 0,05 wärst schon wieder bei fast 1,4 Volt, wenn du dann noch wie rumpel schon sagt noch 0,1 oder gar 0,2 Volt mehr gibst bist bei 1,5+ Volt. Das ist viel zu viel für die CPU. Bei 1,32-1,35 haben wir auch an 100 Grad gekratzt. Eine Wasserkühlung ist sicher schön, aber unendlich nach oben geht da auch nix, denn intern wird die Hütte weiter schön befeuert, was gut gegen ein langes Leben ist^^
 
Naja, man muss einfach mal die Masse (Retails) abwarten und gucken wie die sich im Schnitt übertakten lassen.
 
Na ja Erfahrungen zeigen aber auch beim Core2 eher, dass die CPUs, die dann aus den Massenfertigungsfabs wie Arizona kommen eben nicht mehr die Effizienzgrade im Durchschnitt erreichen wie die ausgesuchten ES aus der D1D...
 
Das musst du mir zeigen, meine Erfahrungen sind da ganz andere.. Und ich habe schon zig Core 2 ES und Retails getestet.

Ich besorg mir auch schon keine ES mehr da die (meiner Erfahrung nach!) schlechter gingen als die Retails.
 
@ topic.

Hmm bei i7 stell ich das erste mal die extreme edition in frage, für alle personen ohne kaskade oder ln2.

Wenn die meisten mobos ohne probs 200mhz bclk packen sind mit dem 920er 4ghz drinnen, das wird jedoch schwer zu erreichen sein mit air (selbst mit highend air) und auch jede nicht highend wakü wird sich da schwer tun.

Die selben limitierungen gelten für den 965er.

Beim QX9650 war der vorteil ja noch, das es zu beginn die quads schwer gehabt haben einen höheren FSB zu erreichen und so der QX9650 eindeutige vorteile gehabt hat.




FreddyMercury schrieb:
Nur ist kommerzielle Software bei den meisten CPU's fast gleich schnell. Deswegen ziehe ich auch tests vor wie: Kompiliere OpenOffice oder KDE oder andere grosse Programme.

Stimm ich zu, für office apps ist es wurscht ob ma einen Celeron oder Sempron hat (außer man arbeitet mit rießigen datenbanken ;) )

Aber wie oft kompilierst du open office? jeden tag? Ich schätze mal eher bei jeder größeren versionsupdate und das wars.
Videos Konvertier ich zb jede woche und das nicht wenig, und da bringt mir ein intel quad einfach mehr als ein amd quad. ;)

gruffi schrieb:
@hornet331
Ignoranz ist doch eine wunderbare Basis für eine Argumentation, nicht? :rolleyes: Du hast erstens überhaupt nicht verstanden, was ich geschrieben habe. Und zweitens sind deine Aussagen vollkommen sinnfrei. "IPC Defizite" zB kann nur Hardware selbst haben. Was kommst du da mit Software an? Aber das soll hier nicht das Thema werden. Ich würde dir einfach nur empfehlen, in Zukunft mal etwas über den Tellerrand zu schauen. Dann musst du vielleicht auch nicht mehr solche dümmlichen und pauschalisierten Kommentare abgeben.

Ja wirklich Ignoranz ist was tolles. :evillol:
Dann beweis mir mal wie eine 3 issue architetktur mehr IPC haben kann als eine 4 issue. (Ohne Benchmarks oder Syntetische tests.)
Aber ja meine kommentare sind alle dümmlich und pauschaliert... wenigstens haben mein dümlichen argumente fakten als grundlage, während man bei dir eigentlich nicht wirklich was hört außer beleidigungen.
 
okay, ich denk man muss abwarten was die CPU für Primestable brauchen, beim E8400 brauch ich ca 0,05V mehr. Ein viel zu viel würde ich mal so nicht in den Mund nehmen, das ist alles Temperatursache. Mein E8400 rennt auch seit Februar auf 1,49 - 1,51V und dem gehts prima, auch von den Temperaturen her ;)

Auf Mainboard Reviews warte ich auch schon. Aber der Nehalem Zug fährt gerade erst an, denke Anfang 09 wird das Ganze erst richtig überschaubar sein.
Wenn es die Temperaturen zulassen scheue ich auch nicht 1,45-1,5V draufzugeben, die Dinger können mehr ab als viele meinen. Habe eig auch noch nie von sterbenden C2D etc. gehört. Die werden meistens nur zu warm, aber rein von der Spannung sterben sie auf kurz oder lang eig. weniger.

Ic finde gerade bei diesen Hitzköpfen kann ne Wakü erst zeugen was sie kann (siehe R770). Beim E8400 langweilt die sich ja regelrecht ;)
 
hornet331 schrieb:
Dann beweis mir mal wie eine 3 issue architetktur mehr IPC haben kann als eine 4 issue.
Indem sie effizienter arbeiten kann, oder was meinst du? Deine Aussagen sind leider nicht mehr als ein schönes Beispiel für PR Geblubber ohne faktischen Hintergrund. Ach nee, richtig, ich vergesse dabei ja, du kannst das Gegenteil mit deinen ach so tollen Benchmarks beweisen. Mein Fehler. :rolleyes:

hornet331 schrieb:
Aber ja meine kommentare sind alle dümmlich und pauschaliert... wenigstens haben mein dümlichen argumente fakten als grundlage, während man bei dir eigentlich nicht wirklich was hört außer beleidigungen.
Welche Fakten hast du denn? Benchmarks? :rolleyes: Aber weil du schon einige Anwendungen ansprachst, hier hast du mal ein Beispiel zu Lame. Mir ist schon klar, dass eine Anwendung nicht repräsentativ ist. Es zeigt aber, was möglich ist. Wie auch immer, gib dich deinen Illusionen nur weiter hin...
 
Zuletzt bearbeitet:
hornet331 schrieb:
Aber wie oft kompilierst du open office? jeden tag? Ich schätze mal eher bei jeder größeren versionsupdate und das wars.

Das mit Office war nur ein Beispiel. Wer mit git oder SVN arbeitet, der weiss so etwas zu schaetzen.

Videos Konvertier ich zb jede woche und das nicht wenig, und da bringt mir ein intel quad einfach mehr als ein amd quad. ;)
Das ist aber nicht einfach nur eine Sache der CPU, sondern auch die vom Hersteller. Man koennte auch anfangen Programme komplett nur auf Intel CPU's laufen zu lassen oder nur auf AMD CPU's.


Letztendlich ist es aber doch u.A. auch eine Sache der Parallelisierung. Es muss halt noch rausgefunden werden, wie man jedes Programm universal Parallel programmieren kann, damit die cores und threads auch wirklich genutzt werden. Manche Hersteller habens schon, viele haben es leider noch nicht.
 
Zum Testpunkt Leistungsaufnahme und dem Satz im Fazit:
Auch die teilweise deutlich gestiegene Leistungsaufnahme[...]
kann man nur den Kopf schütteln.

Kein Wort zur Effizienz?

Kein Wort zur im Leerlauf, im Vergleich zum Penryn, gleichgebliebenen Leistungsaufnahme trotz IMC, einem Speicherriegel mehr, triple vs. dual-channel Interface etc? Bzw. sogar besseren Werten, falls ihr das 15W sparsamere Smackover Board genutzt hättet?

Ein sinnvoller Test wäre die gebrauchte Gesamtenergie bei "typischer" Nutzung der Systeme zu vergleichen. Soll heissen: Wieviel Strom verbrauchen die Systeme bei (jetz kann man sich drüber streiten was "typisch" ist) 5-8h Nutzung am Tag, viel idle, Winamp am MP3s abspielen, surfen, Flashvideos, Office, Acrobat, Mails, IM, zocken, nen Film rippen und in Ipod/PSP kompatibles Format umkodieren, DVD Wiedergabe..etc.
Oder aber auch "typisch" mehr mit Blick auf die Arbeit- 8h Nutzung: Notes+Office im Hintergrund, kompilieren, rendern, zeichnen, Photoshop, After Effects. Hier dürfte sich die sowohl Leistungs- wie auch Verbrauchsmäßige Überlegenheit zu alten Generation zeigen.

Unkommentierte Peak und idle Werte kann man sich gleich sparen.

http://anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3448&p=9
http://techreport.com/articles.x/15818/14
 
Also ist die Effizient des Core i7 nur in Spielen so schlecht.

Ich denke CB sollte diese Ergebnisse mit ins Fazit aufnehmen bzw. selber testen, damit kein falscher Eindruck besteht.
(a la Core i7 ist schrott, der bruacht viel mehr Strom. wie hier im forum oft gelesen)

MfG
 
Mit dem i7 tritt nur das nicht mehr ganz so neue Kernproblem noch deutlicher zu Tage:

Der i7 ist gut/schlecht - FÜR WAS/NICHT ???

Gerade die etwas einfacher gestrickten unter uns haben (anscheinend ?) ein Problem damit, dass der "ultimative Alleskönner" nicht mehr existiert.
Aber Dumbo, Freak, Poser, Protzer und Co. sehnen sich nach dem "überall No. 1 Produkt" - auf allen nur denkbaren Benchmarks in der Spitzenposition.

Das KANN der i7 nicht mehr liefern, keine CPU kann das (mehr)...

Deshalb steht für jeden User vor dem Kauf die schmerzhafte Frage: "Was will ich mit dem PC eigentlich machen ?".
Und (fast) noch wichtiger: Was (fast) gar nicht ?

Egal, welche CPU man kauft, sie wird in bestimmten Bereichen schwächer sein als ein Alternativprodukt (selbst bei ähnlichem Preisniveau und, noch schlimmer, selbst verglichen mit teils deutlich preiswerteren Modellen).
Damit muss man leben lernen...;)
 
Zuletzt bearbeitet:
Big Baby Jesus schrieb:
Leute irgendwann ist doch mal die "Grenze" erreicht (was die Geschwindigkeit angeht)!? was dann?

und heutzutage ist doch die Technik schon ziemlich fortgeschritten und die Fertigung auch sehr klein. Deswegen kann man in Zukunft (Nehalem zur Zeit) keine Wunder-CPUs mehr erschaffen. Denkt IHR wirklich die nächste Generation wird 50 % schneller sein als NEHALEM? nicht wirklich. Für mich wäre es sinnvoller den Stromverbrauch im Ganzen deutlicher zu senken.

Die nächste Generation INTEL keinesfalls und auch nicht was zu diesem Relikt der Achtziger Jahre kompatibel ist. Solange ein intelisiertes Betriebschaos bzw. -system wie Windoof tonangebend ist, ändert das nicht viel an der Sache.
CELL hat gezeigt, wohin es gehen kann, ein modernes Design einer von-Neumann-Architektur, parallelisiert, effizient. Leider nur für Spielekonsolen gemacht. Die Server-CPU dieser Bauart fristet ein Schattendasein. Als Amiga, Atri, Acorn-Archimedes noch Chancen am Markt hatten, gabs Dynamik, heterogene Landschaften und UNIX hatte es geschafft, Standards plattformübergreifen zu erschaffen, ohne die Anwender und Konstrukteure an die 'Kompatibilitätskandarre' zu nehmen. Heute gibts fast nur noch Scheiße aus Seattle und die ehemals here Gralsburg UNIX sicht an einer Seuche namens Linux, einem x86-kompatiblen Frikklersystem, das Dank UNIX-Ähnlichkeiten zu zweifelhaftem Rang gekommen ist. Aber: Ade plattformübergreifendes Softwaredesign!

Intel will 2010 eine neue Vektorrecheneinheit in der FPU einführen. Neben einer sagenhaften und seit 20 Jahren in Vektorrechnern bekannten 256Bit Breite und einer seit ebenfalls fast 20 Jahren in TI-, Alpha und PowerPC implementierten 3-Wege Recheneinheit (2 Quellen, Operation, Ergebnis an dritte unabhängiges Ziel, derzeit muß bei Intels tollem Müll eine der beiden Quellen als Ziel herhalten. Wer viel mit seinem Rechner rechnet, weiß, welchen Impakt dieser Designfehler bewirkt. PPC hatte mit AltiVec im Bereich der Nicht-RISC-Workstationprozessoren schon das 3-Punkt-Modell).

Also, um das böse Gerede mal abzustellen ... ich denke, es ist möglich, die Leistung um mehr als 50% bei der nächsten generation zu steigern! Zum einen durch besagte neue Fließkommaeinheit im Bereich der FPU, dann durch größere Caches und statt vierfach nun fünffach oder sechsfach skalarem Aufbau der Ausführungseinheiten, wenn es in Richtung 4 GHz Takt geht. Das ist alles schon einmal angedacht worden und nicht etwa auf meinem Mist gewachsen.
Weiter wollen AMD und Intel die Rechenkerne von 4 auf 8 oder 12 per Sockel erhöhen. Das wäre, ohne die IPC der Einzelkerne verändern zu wollen, eine theoretische Leistungssteigerung um 100 - 150%. Und das ohne den Takt groß anheben zu müssen! Bei 32 nm Strukturbreite sollten auch non mehr Kerne realisierbar sein. GPUs machen es ja letztlich vor, wenn auch arg spezialisiert und einseitig.
 
Zurück
Oben