Test Intel „Haswell“-Prozessor für Desktop-PCs im Test

Vermutlich hätte "Haswell" noch schlechter ausgesehen,
wenn im Test der "ivy" i5 3570K enthalten gewesen wäre.

Leider wurde zum Vergleich ja nur der "sandy" i5 2500K hinzu gezogen.

Pilstrinker schrieb:
Ein wenig OC und 400 Watt sind ein bisschen arg knapp (CPU 135 Watt plus Titan (PT max.) 266 Watt + restliche Komponenten).

400 Watt funktionieren also nur ohne OC.

Die Verbräuche im Test weisen bereits Gesamtverbräuche inclusive OC auf.
Das bedeutet, dass ein 400 Watt Netzteil ohne Probleme trotz der Titan ausreicht.

Der gesamte Rechner verbraucht unter Last mit oc ca 300 Watt,
wenn das Netzteil über 90 % Effizienz auweist,
bleibt da noch genug reserve für weitere Hardware.

Gruss vom TTjoe
 
Zuletzt bearbeitet:
Mir, als E8400-Nutzer, sind die geringen Performancesprünge ziemlich egal. Was mir n bisschen Kopfschmerzen bereitet sind die hohen Temperaturen....
 
MikelMolto schrieb:
Ich würde den Haswell jetzt nicht als schlechte CPU betrachten.
Nein, aber meiner Meinung nach glänzt er eindeutig als Notebookprozessor. Da wird nun mal nicht overclocked, da bringt die starke igp von Intel was. Da ist Haswell in meinen Augen ein großer Schritt nach vorne.
Man merkt einfach, dass OC bei Haswell einfach vernachlässigt wird.

Viel schlimmer finde ich ja, dass man Werbung macht, dass man über den Referenztakt übertakten kann, dann stellt sich heraus, die Teiler ect sollen nur für die k-Modelle sein.

Besonders FIVR könnte schuld an der hohen Hitze sein, obwohl das auch nur eine Vermutung ist.
Die Integrierte Spannungsregulation wird aber hauptsächlich in mobile Devices ihren Vorteil finden.

Vorhersagen oder Vermutungen, was AMD da in der Zukunft wohl leisten könnte bringen mir nichts und beeindrucken mich auch nicht, weil ich es nicht kaufen kann.
Jup, deshalb habe ich gesagt, ich bin gespannt auf Kaveri. Sowenig ist bsp von Richland jetzt auch nicht bekannt, da ist auch schon einiges bekannt, und scheinbar kann man da schritt halten.
Was Kaveri angeht, da es eine Optimierung ist und kein neues Design, kann man mehr oder weniger Verbesserungen erwarten. Das bringt halt die komplett neu eingeführte Technologie mit.


Somit wiederhole ich, Haswell hat mein Interesse auf Kaveri und dessen Abschneiden zu Konkurrenz nur erhöht.
 
Zuletzt bearbeitet:
Die Verbräuche im Test weisen bereits Gesamtverbräuche inclusive OC auf.
Das bedeutet, dass ein 400 Watt Netzteil ohne Probleme trotz der Titan ausreicht.

Sehe ich anders. Der Verbrauch einer Titan mit maximalem PT beträgt nunmal 266 Watt.

Die genannten Werte sind in einschlägigen Tests nachzulesen.

400 Watt reichen also nicht.
 
Zuletzt bearbeitet:
@Cr4y
intel macht das auch kopfschmerzen.
deswegen kommen die K-modelle ja auch ohne kühler daher.
sie verlagern das problem auf den kunden und machen sich einen schlanken fuß. :D
 
Pilstrinker schrieb:
Sehe ich anders. Der Verbrauch einer Titan mit maximalem PT beträgt nunmal 266 Watt.

Die genannten Werte sind in einschlägigen Tests nachzulesen.

400 Watt reichen also nicht.

Dein Link zeigt die Titan unter Last mit Treibereingriff,
also OC,
mit einem Verbrauch von 223,81 Watt.

Rechne da die 110 Watt für die CPU (bezogen auf sandy-,ivy- und haswell)
unter Last und OC rauf,
dann reicht das 400 Watt Netzteil.

Bei den AMD'lern sieht das bekanntlich düster aus !

Welche restlichen Bauteile sollen dann nicht mehr ausreichen ???

Gruss vom TTjoe
 
Oh man o man,
das wird wohl ein etwas schleppender Start mit dem Haswell.
Und warum hat man die Sache mit dem USB Bug nicht verifiziert? Und Warum wurde der 3570K nicht zum Vergleich hergenommen?
Man kann Intel wohl nicht so auf die Füße treten wie AMD ?
Schade, der Test hat ein "Geschmäckle"

Ich bin mal gespannt auf das nächste Stepping, möglicherweise darf man da mehr erwarten ;) (AMD like :D )
 
Der Link beinhaltet nicht nur Grafiken, sondern auch Text:

Durch das Hochsetzen von TT und PT erreichten wir bereits über Anno 2070 die von NVIDIA gesetzten Limitierungen von 250 bzw. 266 Watt.
(HT4U)

Leistungsaufnahme i7-4770K bei 4,4 GHz 135 Watt.

Plus Festplatte(n) plus Arbeitsspeicher usw. und dann 400 Watt?

Das reicht gerademal für den normalen Betrieb ohne OC.
 
Mal schauen was die neue Generation noch so bringen wird.
Wie immer gutes Review, nur ist auf Seite 2 über dem Tick/Tock Developer Modelein Fehler. Ich glaub da fehlt ein Wort ;)
 
Flyto schrieb:
Sorry aber das Stimmt einfach nicht. Auch mit der alten Siliziumtechnologie wäre es überhaupt kein Problem eine cpu zu bringen die 2x oder gar 10x so schnell ist wie sandy.
Das Problem ist nicht die Technologie, das Problem ist, dass ein Konzern wie intel rein Profit orientiert handelt.
und da will man natürlich mit so wenig Aufwand wie möglich soviel Profit wie nur irgendwie geht herausholen. und mangels echter Konkurrenz ist intel in der lage eben genau das zu tun.
wiedermal ein klassisches Beispiel wie ungezügelter Kapitalismus den Fortschritt behindert.

lol.

Nenne mal eine Stelle in der CPU bei der man einen Faktor 10 von heute auf morgen holen koennte.

Wenn Du meinst, Intel haette nicht den Druck sprunghaft Innovation zu machen die sie machen koennten,
wie erklaerst Du dann das AMD, die seit 30 Jahren ums ueberleben kaempfen und unterm Strich evtl noch nie
Geld verdient haben genau diese Spruenge nicht machen um an Intel vorbei zu ziehen?
Glaubst Du AMD laesst Potential liegen nach dem Motto "das machen wir naechstes mal", anstatt rauszuhauen
was sie koennen im Gewinn zu machen?
Mein Eindruck ist im Gegentail das AMD manchmal Dinge raushaut, die sie besser noch etwas haetten reifen lassen.

Du scheinst auch davon auszugehen, das Intel keinen Wettbewerb hat, das ist falsch.
AMD hat im Mobilbereich im Moment sehr interessante Angebote mit starken Grafikeinheiten, um die muss sich Intel kuemmern
-> viel Energie fuer die eingebaute Grafik
Qualcomm ist der eigentlich Gegner von Intel, der Stromverbrauch muss runter -> viel Entwicklung geht in das Druecken der Energieverbraueche in Teillastbereichen, um im mobilen Bereich Fuss zu fassen. Haswell soll auch in Tabletts!
Im Highend Bereich (wo die Xeon EP verkauft werden mit 8, 10 und bald 12 und mehr Kernen) hat Intel Wettbewerb von Fujitsu und Oracle mit
SPARC und von IBM mit Power7. Das ist heiss umkaempft, und da wird die Grafik weggelassen und statt dessen Kerne verbaut, da kosten die CPUs auch aber auch 1000- ~4000 das Stueck. Da werden aber die selben Kerne verbaut, nur Caches und Busse sind etwas anders.

Nur weil die Benchmarks von heute Haswell nicht deutlich vorne sehen, heisst das nicht dass es keine Innovation gibt.
Aber die Innovationen werden immer schwerer, und im Bereich Single Thread Performance ist halt viel Luft draussen,
im Moment ist der Fokus Performance/Watt, und das auch in Teillast, und Integration, um die Gesamtstromaufnahme zu druecken.
Ein Mobilsystem soll aus so wenig wie moeglich Chips aufgebaut werden, das drueckt kosten und Stromverbrauch.
Die Integration schliesst auch spezielle Beschleuniger ein die Ersparnisse und Vorteile bringen, wie z.B. AES Support in den CPUs
und Video Verarbeitung, FMA Support und laengere Vektoren.
Unterm Strick kann Haswell garantiert mehr pro Watt als jedes System vorher, und im Laufe der Jahre wird es auch Software geben
die das zeigt. Wenn man in 2-3 Jahren nochmal Haswell gegen Samdybridge misst, wird das anders aussehen.
Ergänzung ()

joel schrieb:
Oh man o man,
das wird wohl ein etwas schleppender Start mit dem Haswell.
Und warum hat man die Sache mit dem USB Bug nicht verifiziert?

Du weisst das ein neues Stepping eines Chips ca 3 Monate dauert?
Dann haette Intel Milliarden in Haswell investiert, und muesste dann 3 Monate CPUs auf Halde produzieren,
weil es keinen Chipsatz gibt?
Da ueberlassen die doch lieber den Mainboard Herstellern das (kleine) Problem, die koennten fuer <5$ einen funktionierenden USB3 Chip draufloeten,
wenn sie den Kunden was gutes tun wollen.
Oder sie lassen es. Man wird sehen was sie machen.
 
krOnicLTD schrieb:
gott, also es war zwar von vorn herein klar das es so kommen wird, aber nun kann mans ja zumindest frei aussprechen. was fürn drck macht intel da eigentlich. das is schlicht und ergreifend die ultimative stagnation und es kotzt so langsam an. wollte von meinem 2500k auf nen 4670k oder 4770k wechseln aber so wies aussieht isses ja werlose geldverschwendung. die maximal 10% mehrleistung (takt mal angeglichen) nach 2 jahren sind peinlich und lächerlich und machne mich solangsam echt sauer

oh gott nein, du musst kein Geld zum Fenster raus werfen, wie schrecklich...
 
@elohim, ja genau, ungefähr 99,9% der Menschheit wären froh, sich solche White-Man-Problems, die krOnicLTD hier hat, leisten zu können! ;)

Ich find's jedenfalls super, dass hier kein Leistungssprung um 50% stattfindet, sonst würde ich mich über meinen 3770K ärgern, den ich erst seit Februar habe!
 
Tja, das Mooresche Gesetz ist wohl bei Desktop-CPUs endgültig nicht mehr anwendbar.
Da müssen Sinnlosigkeiten wie die Integration der Spannungswandler oder Befehlssätze die kein Softwarehersteller nutzt gebracht werden um überhaupt noch Änderungen anbieten zu können. Kein Wunder daß die bestrebt sind GPUs mit an Bord zu holen wo ja noch echte Fortschritte zu holen sind. Oder aber mit fadenscheinigen Begründungen immer wieder neue Sockel auf den Markt bringen um wenigstens darüber noch etwas rein zu holen was dann wohl mit der erzwungenen Bindung (Verlöten) enden wird.
 
wenn ich das immer lese...400 watt reichen...
grade netzteil ist eine der meist unterschaetzten und wichtigsten bausteine im gesammten system.
klar reichen 400watt...das nt wird wohl auch 410 watt liefern wenn es soll...
aber mal ehrlich wozu muss man die netzteile immer so unterdimensionieren...
der preis isses nicht...
 
PuscHELL76 schrieb:
wenn ich das immer lese...400 watt reichen...
grade netzteil ist eine der meist unterschaetzten und wichtigsten bausteine im gesammten system.
klar reichen 400watt...das nt wird wohl auch 410 watt liefern wenn es soll...
aber mal ehrlich wozu muss man die netzteile immer so unterdimensionieren...
der preis isses nicht...

Es ist der Wirkungsgrad, der nur zwischen 20% und 80% garantiert wird, weil er drüber und vorallem drunter meist deutlich abnimmt.
 
joel schrieb:
Und warum hat man die Sache mit dem USB Bug nicht verifiziert? Und Warum wurde der 3570K nicht zum Vergleich hergenommen?
Man kann Intel wohl nicht so auf die Füße treten wie AMD ?
Schade, der Test hat ein "Geschmäckle"

Stimmt. Ist sicher nicht ganz von der Hand zu weisen. Immerhin wurde kein CB-Award vergeben. Ist ja schon mal ein Anfang...

PuscHELL76 schrieb:
wenn ich das immer lese...400 watt reichen...
grade netzteil ist eine der meist unterschaetzten und wichtigsten bausteine im gesammten system.
klar reichen 400watt...das nt wird wohl auch 410 watt liefern wenn es soll...
aber mal ehrlich wozu muss man die netzteile immer so unterdimensionieren...
der preis isses nicht...

Sehe ich auch so. Aber Hauptsache, immer auf Zwang 80+ Gold... :rolleyes:
 
Also was man hier zum Teil liest geht ja auf keine Kuhhaut! Irgendwie scheinen die meisten nicht zu begreifen, dass Intel seit jeher nur alle 4-5 Jahre große Sprünge macht und wenn man dann noch sowas liest...

Flyto schrieb:
Auch mit der alten Siliziumtechnologie wäre es überhaupt kein Problem eine cpu zu bringen die 2x oder gar 10x so schnell ist wie sandy.

...fängt man an, an der Intelligenz der Forum-User hier zu zweifeln! Wie kommt man auf so eine Aussage? Wie lange beschäftigen sich die Leute hier mit PCs?

Ich denke, die meisten wurden von Sandy Bridge derart verwöhnt, dass irgendwo der Bezug zur Realität auf der Strecke geblieben ist. Auch Intel kocht nur mit Wasser! Klar ist momentan keine ernsthafte Konkurrenz da und klar sieht sich Intel momentan nicht dazu genötigt den großen Hammer rauszuholen.

ABER:

Was wäre, wenn Haswell 50% schneller gewesen wäre? Was hättet ihr von dieser Leistung? Wie viele von euch Encoden oder Rendern? Die meisten Leute hier Zocken doch nur! Also was hättet ihr von derartigen Leistungssprüngen im CPU-Sektor? Richtig, GAR NICHTS!

Also beschwert euch nicht und bleibt bei eurem 2500K! Der wird für eure Zwecke noch mindestens die nächsten 2-3 Jahre vollkommen ausreichen und sobald es Eng wird, holt Intel den Skylake-Hammer raus und ihr könnt euch wie beim Sandy wieder einen drauf abwixxen!

Junge Junge...
 
Zuletzt bearbeitet:
*hust* das sagt derjenige, der ein Apfel als Profilbild hat ^^
 
Was wäre, wenn Haswell 50% schneller gewesen wäre?
ohne jetzt mal auf die Polemik einzugehen, was wäre wenn Intel tatsächlich eine Rakete rausgehauen hätte mit - sagen wir mal 50% mehr Leistung?

- Es wäre eine massiver Leistungsschub und endlich könnten die Gamer die CPU-limitierenden Games ohne Probleme spielen
- es wäre eine CPU die man direkt empfehlen könnte ohne Abwägungen
- es würde einen Marktschub geben, da viele die CPU kaufen würden (auch die die eigentlich nicht bräuchten)
- andere Komponenten würden limitieren, das bräuchte dann wieder einen Innovationsschub bei anderen Komponenten
- der PC würde wieder ein Alleinstellungsmerkal haben, das würde die Entwicklung von Games beeinflussen
- die neuen Konsolen wäre schon wieder im Vergleich langsam, die Industrie würde die nächste Konsolen-Generation beschleunigen
usw.

alles in allem würde es überall Vorteile bringen. Leider ist es aber nicht so, deshalb werden im nächsten Jahr die Schlagzeilen auch wieder lauten
"Konsolen und Tablets im kommen, PCs werden bald aussterben"
"MS Betriebssysteme schuld an der PC-Misere"
"kein Wachstum im diskreten Grafikkartenmarkt"
"Browser-Games weiter groß im kommen, PC-Games Publisher mit Problemen"
usw.

Es bleibt dabei, eine für alle schlechte Entwicklung.......
 
etheReal schrieb:
Ich find's jedenfalls super, dass hier kein Leistungssprung um 50% stattfindet, sonst würde ich mich über meinen 3770K ärgern, den ich erst seit Februar habe!

Diese Einstellung halte ich für etwas engstirnig.
Bei den Ivy-CPUs war von Anfang an klar das sie nur das gleiche
in leicht anderer Form sind.
Man hat also genau gewusst was man kauft.

Bei einer "neuen" Architektur hätte ich allerdings wirklich mehr erwartet.
~6% mehr Leistung bei 12% mehr Verbrauch ist einfach kein Fortschritt.

EDIT:
Das geht mittlerweile schon so weit das es fast egal ist welche CPU man benutzt
man hat oft mit einem C2Q die fast gleiche Leistung wie mit einem modernen
Prozessor.
Der einzige echte Nachteil ist der höhere Stromverbrauch.
Die 775er Plattform ist deswegen auch nicht tot zu kriegen.
 
Zuletzt bearbeitet:
Zurück
Oben