Test Intel „Haswell“-Prozessor für Desktop-PCs im Test

Keine Ahnung wie die Messen. Aber Idle 50 Watt halte ich für übertrieben, da CB ja mit dem Gesamten System ein Idle Verbrauch von 40 Watt hat. Evtl. meinen die auch das gesamte System. Wie gesagt die Boards nehmen sich nicht viel da effektiv überall das gleiche drauf ist und der Unterschied einfach so gering ist das man nicht messen kann was besser ist.
 
Kasmopaya schrieb:
Soweit ich weis haben Sandy-E und Ivy-E als Server CPUs mehr Transistoren. Genau so wie du eine Gaming GPU GTX 680, mit einer CUDA Server GPU vergleichst - Titan. Jetzt musst du nur noch googeln wie viel die E CPUs Transistoren haben.
Ja nu, nimm halt die GTX 780 statt der Titan, da gelten die selben Bedingungen der Verdopplung. Wußte nicht daß die Titan nicht als "Gaming-GPU" gilt. Aber wenn das bei der GTX 780 anders sein sollte, bitte sehr. :freaky:
Zudem wird sich das bei den von dir genannten CPUs doch nicht anders verhalten. Desweiteren wüßte ich nicht daß eine Verdopplung der Kerne den Sinn hinter Moores Gesetz erfüllt. ;)
 
da werd ich wohl erstmal abwarten bis es neue MoBo test giebt wo der verbrauch getestet wird..
 
Sublogics schrieb:
Moores Gesetz sagt daß sich die Komplexität in Form von der Transistoranzahl verdoppelt.
Sandy Bridge hatte vor zwei Jahren 1,16 Milliarden Transistoren, Haswell 1,4 Milliarden. Nun ist das schon der schlechteste Fall von 24 Monaten und selbst wenn man den Sprung von 32 auf 22nm berücksichtigt ist das weit davon entfernt. Ebenso hat sich ja die Rechen-Leistung oder aber die Energieaufnahme in Bezug darauf auch nur ansatzweise verbessert.

Beim Sprung von GTX 680 auf Titan hat sie sich aber bspw. exakt verdoppelt und zwar sogar in nur einem Jahr.

Dann lautet der Vorwuf also eher, das Intel die CPUs kleiner macht?
Im High End bereich ist das nicht so, da steigen die Core Zahlen an,
nur im Consumer Bereich schiesst sich Intel auf 4 Cores ein.
Ergänzung ()

Sublogics schrieb:
Ja nu, nimm halt die GTX 780 statt der Titan, da gelten die selben Bedingungen der Verdopplung. Wußte nicht daß die Titan nicht als "Gaming-GPU" gilt. Aber wenn das bei der GTX 780 anders sein sollte, bitte sehr. :freaky:
Zudem wird sich das bei den von dir genannten CPUs doch nicht anders verhalten. Desweiteren wüßte ich nicht daß eine Verdopplung der Kerne den Sinn hinter Moores Gesetz erfüllt. ;)

Moore sagte dass sich die Schaltungszahl bei konstanten kosten ca verdoppelt, alle 18-24 Monate (er hat das mal etwas hochkorrigiert).
Natuerlich zaehlen Cores. Ob die ich die Schaltungen in einen Core stecke oder damit einen zweiten mache ist Jacke wie Hose
fuer die Richtigkeit der Vorhersage.
Fuer den Endanwender ist es nicht das selbe. Keine Frage.
 
Es sei den die MoBo hersteller fuschen wieder rum.. hat das eine bord echt 20 fasen nu wo die wandler im cpu sind???
 
Epix schrieb:
da werd ich wohl erstmal abwarten bis es neue MoBo test giebt wo der verbrauch getestet wird..

Die messen mit einem Intel Core i7 4770K Haswell Prozessor, 2x 4 GB Corsair Vengeance Pro DDR3-1600 RAM, iGPU, einer OCZ Vertex 4 128 GB SSD, einem Corsair CX750M Netzteil und Windows 8 Pro x64 OS.

Also Leistungsaufnahme eines typischen Komplettsystems.
 
Epix schrieb:
da werd ich wohl erstmal abwarten bis es neue MoBo test giebt wo der verbrauch getestet wird..

Wie ich schon sagte wird das sehr schwer werden da genaue Werte zu finden. Zwischen den großen wird da kein großer, wenn überhaupt, Unterschied sein.
 
Kasmopaya schrieb:
Dann halten wir fest das die neue Haswell Architektur nicht wirklich auf multi Thread optimiert ist und was macht Intel um das zu kompensieren? Gar nix, wieder 4 Kerne... Hätten sie die GPU weg gelassen und dafür 6 Kerne gebracht wäre Haswell nun in allen Disziplinen vor Ivy und wäre der perfekte Allrounder. Aber so ist ein 4Kern Haswell wirklich nicht optimal für die Zukunft.

Haswell hat Support fuer Transactional Memory, das hatte bislang noch keine X86 CPU, wenn das von OS und Compiler Runtime unterstuetzt wird, kann das nochmal was bringen, Intel tut sehr wohl was im Bereich Skalierung im Bereich Multicore.
Aber die Software dafuer muss erst noch gemacht werden.
Keine Ahnung ob Windows 8.1 Support bringt, auf die Schnelle nix gefunden.
In den Core Linux Komponenten ist der Support drinne, weiss aber nicht ob es die Distributionen schon im Feld haben.


http://software.intel.com/en-us/blogs/2012/02/07/transactional-synchronization-in-haswell
http://www.anandtech.com/show/6290/...well-transactional-synchronization-extensions


Sprich: Der 4 Core Haswell wird im Laufe der Zeit wenn die Software besser angepasst wird schon noch glaenzen.


Edit: gerade gesehen das Visual Studio 2012 wohl TSX unterstuetzt, laut Intel.


Ich habe gerade mal ein kleines Optimierungsproblem rennen lassen, macht im Endeffekt Permutationen
und bewertet die.
Auf einem Dual Core E8200 @ 2.66GHz 24.9 sec, auf einem Quadcore i5-3470 CPU @ 3.20GHz 8.5 Sekunden.
Faktor 2.9, ueber core2 - nehalem - sandy - ivy = also 4 Generationen hinweg,
davon kommen x2 aus den Cores und noch x1.3 aus dem Takt, also nochmal 11% aus sonstigen Verbesserungen.
Das ist voellig normal in meinen Augen, dass da von Generation zu Generation nicht super viel rueberkommt.
Die Anwendung kann keinen Nutzen aus SSE oder AVX ziehen, ist aber Multithreaded.
Wenn ich das seriell vegleiche, also nur 1 Thread, dann ist der Ivy fast genau doppelt so schnell wie der Core2.
Turbomode ist eine feine Sache, und die Anwendung skaliert nicht perfekt, Amdahls Gesetz schlaegt zu.
 
Zuletzt bearbeitet:
Wußte nicht daß die Titan nicht als "Gaming-GPU" gilt. Aber wenn das bei der GTX 780 anders sein sollte, bitte sehr.
Nope, die GTX 780 ist eine kleine Titan, ergo auch aus der Server Sparte. Erkennt man immer an der CUDA Leistung.
Die GTX 680 ist wie Haswell 4 Kern absichtlich beschnitten, in dem Fall alles überflüssige CUDA Zeug weg gelassen und auf Spiele optimiert. Titan kann beides, eben BIG Kepler und ist keine reine gaming GPU.

Desweiteren wüßte ich nicht daß eine Verdopplung der Kerne den Sinn hinter Moores Gesetz erfüllt.
Der aktuelle Haswell 4Kerner ist absichtlich klein gehalten, also kannst du gar nicht so viele Transistoren haben wie zb. was max. möglich ist mit Ivy-E. Dualcores waren auch im Moore mit drin, warum soll sich das ändern, es geht ja nur um die Transistoren? Der richtige Vergleich für dich kommt mit Sandy-E v. Ivy-E.
 
Zuletzt bearbeitet:
Ice-Lord schrieb:
@WinnieW2

Ja wenn man die normalen Anwendungen und Szenarien vergleicht hat man am Ende
einen Gleichstand.
Also +/-0. (in fast allen Bereichen)
Das macht es für eine neue CPU Generation jetzt auch nicht besser.
Wie ich hier im Diskussionsthread bereits erwähnt habe braucht man neue Software damit der Haswell leistungsmäßig von seinen Vorgängern davonzieht. Mit bereits vorhandener Software ist das Teil nicht so deutlich schneller bzw. kaum leistungsfähiger.

Stellt sich allerdings die Frage ob sich bei der noch realtiv geringen Verbreitung des Haswell überhaupt so viele Softwareschmieden die Mühe machen Software speziell für den Haswell zu optimieren.
 
Zuletzt bearbeitet:
@leboh: du siehst also Moores Gesetz als erfüllt an, oder was? Naja, ich sehe das dann wohl von der pessimistischen Seite, bzw. nicht apologetisch. Für mich kann eine Erhöhung der Kerne bspw. in keinster Weise eine Erhöhung der Komplexität bewirken. Aber davon ab ist das ja nichtmal der Fall bei der Entwicklung seit Sandy im Endanwenderbereich.
Im Übrigen hat AMD ja das selbe Problem, nur falls man meint ich würde hier nur gegen Intel wettern.
 
Das mit den Temperaturen wundert mich ein wenig, schlechtes Modell erwischt? Andere Seiten die ebenfalls den 4770K getestet haben, berichten dass die Temperatur unkritisch und kein limitierender Faktor war.
 
Zusammen mit dem Modellchaos ein idealer Fall für den Praxis-Anschauungsunterricht in VWL.
 
Kasmopaya schrieb:
Dann halten wir fest das die neue Haswell Architektur nicht wirklich auf multi Thread optimiert ist und was macht Intel um das zu kompensieren? Gar nix, wieder 4 Kerne... Hätten sie die GPU weg gelassen und dafür 6 Kerne gebracht wäre Haswell nun in allen Disziplinen vor Ivy und wäre der perfekte Allrounder. Aber so ist ein 4Kern Haswell wirklich nicht optimal für die Zukunft.

Die Option bleibt doch noch, spätestens wenn AMD bei der IPC aufgeholt hat oder sehr viel mehr Software wie Crysis von mehr Kernen profitieren wird Intel umschwenken, jetzt müssen sie das einfach nicht. Kein Druck, keine Not wenig Fortschritt.
 
Epix schrieb:
da werd ich wohl erstmal abwarten bis es neue MoBo test giebt wo der verbrauch getestet wird..

Wurde schon mal von CiTay gepostet:33 Haswell MBs

Erstaunlich, dass es zwischen den einzelnen MBs bis zu 24W Unterschied im Idle gibt. Bei Last (Cinebench) liegen fast 40W zwischen ersten und letzten.
 
Warum sollte ich nach meinem C2Q noch einmal einen 4 Kerner kaufen? Wenn sie mein Geld nicht haben wollen, dann muss ich wohl auf Steamroller warten.
 
Sublogics schrieb:
@leboh: du siehst also Moores Gesetz als erfüllt an, oder was? Naja, ich sehe das dann wohl von der pessimistischen Seite, bzw. nicht apologetisch. Für mich kann eine Erhöhung der Kerne bspw. in keinster Weise eine Erhöhung der Komplexität bewirken. Aber davon ab ist das ja nichtmal der Fall bei der Entwicklung seit Sandy im Endanwenderbereich.
Im Übrigen hat AMD ja das selbe Problem, nur falls man meint ich würde hier nur gegen Intel wettern.

Ja klar erhoeht die Anzahl der Cores die Komplexitaet, die Cores muessen ja auch irgendwie verbunden werden.
Wenn dem nicht so waere waere das Moorsche Gesetz seit den ersten Dual Cores ausser Kraft, aber davon geht keiner aus.
Solange die Anzahl der Transitoren auf konstanter Flaeche zunimmt wie vorhergesagt, ist alles wie gehabt.
Was die mit den Transistoren machen ist eine andere Frage.
Der Teil des Nehalems der das Powermanagement macht hatte wohl etwa soviele Transistoren wie ein kompletter Pentium2,
das muss man sich mal vorstellen. Die Kleinigkeiten in den Dingern haben inzwischen eine Komplexitaet, da hatten die in den 70ern
Albtraeume bekommen wenn sie sowas haetten entwerfen muessen.
Ich wuerde davon ausgehen dass der Teil eines Haswells der das Interface zum Bus macht der die Cores verbindet komplexer ist
als alles was in den 90ern auf dem Markt war.
Den ersten ARM haben eine handvoll Leute designed, mit Tools die sie nebenher selber entwickelt haben.
Heute arbeiten hunderte von Leuten jahrelang an so einem Teil, und jeder Teilaspekt ist komplexer als komplette Systeme vor 20 Jahren.
 
Wer braucht das Ding eigentlich ?

Erinnert mich fast an den Pentium 4, Modelle fangen ja auch mit 4 an.
 
Zurück
Oben