News 14 „Haswell“-Desktop-Prozessoren von Intel durchgesickert

Intal kann sich auf den Lorbeeren ausruhen und gemütlich zum nächsten Sprung ansetzen. Warum sich in Eile üben, wenn die Konkurrenz nicht einmal mehr auf Sichtweite herankommen kann?

Das "Haswell"-Design tragt für meine Begriffe sehr viele technische Neuheiten, die gerade die Leistung im massiv parallelen Betrieb steigern könnten. Da Spielesoftware und das übliche Bürogedönse sowas kaum unterstützen, wird man wohl eher nicht so viel von diesen Neuerungen mitbekommen. Schade, daß die XEON-Typen dieser CPU erst sehr viel später erscheinen werden. Wir werden ja im Sommer erstmal die XEON Ivy-Bridge für den LGA2011 sehen, die dann wohl einige Verbesserungen mitbringen, wie DDR3-1866 und zwischen 6 und 12 Kernen - je nach version. Leider wird Intel, wenn man den gerüchten Glauben schenken darf, die Single-Socket XEON E5-1600v2 CPUs wohl wie die Ivy-bridge-E nur mit sechs Kernen versehen.

Intel baut die iGPU sowie deren Anbindung an den Speicher sowie an die CPU sukzessive aus und ich bin erstaunt, wie groß die Schritte sind, die Intel bisher mit jeder neuen Generation gemacht hat. Eine Ivy-Bridge iGPU HD3000 schafft mit OpenCL etwa die FLOPS, wie vier 3,5 GHz getaktete Ivy-Bridge Kerne. Mit Haswell wird sich das also nochmals steigern und jenachdem, was Intel weiterhin für die iGPU vorsieht, scheint die Fusuion zwischen CPU und GPU zur Unterstützung und letztlich Ersatz der FPU bei Intel sehr schnell vorwärts zu gehen. Was mich jetzt interessieren würde ist, wie groß die Latenzen bei den Kontrahenten AMD und Intel sein werden, denn je nach Anwendung wird die geballte GPGPU-Leistung komplett durch die hohen Latenzen beim Kopieren vom Host-Memory zum Device-Memory (im CUDA- oder OpenCL Jargon) annuliert - gemessen auf diskreten GPUs via PCIe 2.0/3.0. Eine IGPU hat hier enorme Vorteile wegen der geringen Latenzen bei der Speicheranbindung. Allerdings konkurrieren sowohl CPU als auch GPU um den Ringbus und die Speicherbandbreite, weswegen ohne intensive Tests wohl kaum vernünftige Aussagen gemacht werden können.
 
Naja war ja zu erwarten, dass er keine großartigen Leistungssprünge machen wird.
Für mich wirds dennoch interessant, da ich dann meinen i5-750 und Board in Rente schick...RAM kann ich ja weiternutzen :)
Zudem muss mal die WaKü gewartet werden, was zeitlich gut passt :D
 
Warum die da wieder neuen Sockel bringen - 1150. 5 Pins weniger. Gibts schon Hinweise wie lange der dann bestehen bleibt?
 
Decius schrieb:
Ein Ivy Bridge i5/i7 ist bei gleicher Taktfrequenz ca. dreimal (bis zu fünfmal in speziellen Anfwändungsfällen) so schnell wie dein C2Q.

... das muß aber schon sehr "speziell" sein. Unsere 4-Kern Q6600 mit 3 GHz sind, wenn es ums reine Compilieren (also Integerleistung) geht, nicht signifikant langsamer als die Maschinen mit den neuen Ivy-bridges (4x ~ 3 GHz, ohne SMT). Der Leistungszuwachs bewegt sich im Bereich von 25 - 30 % maximal.

Wird gerechnet und kann ich auf AVX und die sophistischere Logik bei der Speicheranbindung zurückgreifen, dann bleibt im Schnitt ein Zuwachs im bereich von 1,5 bis 2 "übrig", das ist bei gleicher Kern- und Taktzahl etwa eine Leistungsverdoppelung.

Du kannst nicht pauschal von drei- bis fünfacher Leistung ausgehen. Diese enorme Steigerung ist nur bei ganz speziellen Anwendungen, und dort nur für ganz bestimmte Code-Segmente erreichbar. Zum Beispiel kann man mit einem Ivy-Bridge AES-Routinen um den Faktor 10 beschleunigen, wenn ein treiber die Hardware im Chip für die Kodierung nutzen kann. Aber solcher Code macht weniger als 1% eines Programmes aus und wird in vielen üblichen Fällen weniger als 10% der Nutzungszeit gebraucht. Anders bei Servern, die Schlüssel für Netz- und Storageverbindungen erzeugen.

Extrem ist der im Ivy-Bridge integrierte Zufallsgenerator. Kann man diesen nutzen, beschleunigen sich Codesegmente in Monte-Carlo Simulationen, die große Mengen Zufallszahlen erzeugen, fast um den Faktor 100. Leider liegt der Anteil des Codes im Laufe einer Simulation im Subpromillebereich - viele der erzeugten Zufallszahlen - für atmosphärische Streuprozesse zum Beispiel - werden zu Beginn der Simulation erzeugt und danach nur noch sporadisch, wenn es zu seltenen Partikelkollisionen (Scattering) kommt.

Insgesamt aber wird auch Haswell einige Nettigkeiten mitbringen, die ihn für den wiss. Sektor interessant machen - diese neuen Cachetechniken zur verbesserung des Multithreadingbetriebes und die beiden neuen Ports für zwei weitere Ausführungseinheiten (leider beide nur Integer) werden gewiß mehr als nur die üblichen 15% IPC Steigerungen bieten. Das sollten wir nicht vergessen.
 
calluna
a? Die Logik für TSX (es wird doch einiges spekulativ ausgeführt), AVX2 und vor allem die erweiterte Anzahl an Ausführungseinheiten etc. erhöht ebenso den Verbrauch.

Stimmt, aber diese instruciton sets erhöhen die Effizienz, somit müssen sie nicht auch gleich die TDP in die höhe ziehen, anders bei der igp.

Klar lässt sich das trennen, sobald ein und die selbe Architektur in 2 Fertigungsstufen produziert werden.
Wenn IB bsp nur ein Shrinke von SB wäre ohne einer größeren igp oder kleineren Verbresserungen.
Man könnte trotzdem eine Verbesserung sehen.

Klar kommt es auch darauf an, ob man einen Chip dementsprechend fertigen kann, denn auch ein Design wird seine Ansprüche/Vorgaben haben und darum geht es ja auch. Wenn bsp bei AMD 32nm SoI die Anforderungen des Design nicht entspricht, wird man was schlechteres auf den markt bekommen als erwartet. Eventuell war SoI schon ein Fehlgriff, denn damals hat man ja davon gesprochen dass man bis 20 nm keine Probleme haben sollte. Stattdessen hatte man verglichen zu Intel mit Bulk, Probleme mit der igp und man konnte scheinbar die erwarteten Taktrate nicht erreichen.

Also sind Design und die Fertigung eher in einer Beziehung da sie sich beeinflussen (im Fertigen Produkt) und das eine ohne dem anderen sinnlos wäre, aber man kann im besten Willen nicht vom selben sprechen.
Die Architektur bestimmt den Chip und quasi das Layout für die Masken, und die Fertigung bestimmt wie gut die Chips dann umgesetzt werden können (wie gut es belichtet/geätzt ect wird).
Das ist genauso, als ob ich einem einen Filzstift und den anderen einen Bleistift in die Hand drücke und ihnen sage, sie sollen das gleiche Bild abpausen. Wenn man das passende Werkzeug hat, wird das eine Bild wesentlich genauer werden, oder wirst du anfangen und behaupten, es lege am Bild, das abgepaust worden ist ?


Voyager10
Es geht mir weniger darum, die igp von Intel zu bemängeln, sondern dass die Leser hier faire Vergleiche ziehen. Wenn AMD schon für etwas bemängelt worden ist, dann sollte man das wohl bei Intel auch machen, oder bist du einer anderen Meinung ?
Wie bereits erwähnt, es wurde klar bei Trintiy von Verbesserungen gesprochen, aber auch vom höheren Verbrauch, der bemängelt worden ist, obwohl die Performance stark angestiegen ist, trotz gleicher Fertigung.
Ich wollte lediglich aufweisen, dass Intel es auch nicht besser machen kann, obwohl es gern immer so dargestellt wird.
Stattdessen wird eine super Intel igp erwartet, mit der man endlich spielen kann (?) Die AMD in Effizienz schlägt obwohl man sogar 22nm verwendet und die igp von AMD immer noch auf 32 nm ist (die sogar angeblich durch SoI Probleme hat(te))

Man spricht von ja eine HD 2000 reicht für Office aus. Für einen HTPC braucht man wenn dann eine igp die ein Bild ausgibt oder man kauft sich gleich eine dgpu. Ich bin halt gespannt, wie die Leute hier sich verhalten werden, sobald die Intel igp einen A10 erreicht, ob man dann auch eine dgpu kaufen wird, oder ob die igp nicht auf einmal doch ausreicht :D

O._.O
Wenn das Gesamtprodukt gut ist, kann man über Mängel aber auch mal hinwegsehen.
Was ja dann sehr verwirrend wäre. Denn selbst der damalige CB-Test gezeigt hat, dass eine APU in seinem Gebiet, Preis/Leistung ein gutes Bild gemacht hat (sogar in vielen Stellen besser als Intel-Lösung)
Stattdessen wurden Sachen bemängelt wie Verbrauch unter Last, was ein solcher User, oder im dem Anwendungsgebiet, für die Llano gedacht ist, selten oder gar nicht Vorkommen. Man könnte sogar von einer Expedition in unbekannten Gebiete sprechen.

Wie ist das bei einer Intel CPU bsp i3 mit HD 5000 (?). Wenn diese Trinity nahe kommt (igp technisch) und im Multimedia gleich zieht, ist sie besser, weil sie im Verbrauch unter Last besser abschneidet, obwohl Trinity als APU momentan gar nicht gedacht ist, Videos zu rendern ?
:D Naja mal wieder was dazu gelernt heute :)

Was übrigens die CPU Performance angeht, kann man bei Intel momentan nichts bemängeln. Selbst dass sie nur 4 cores anbieten, kann man wenigstens von 8 Threads sprechen. Wobei es natürlich einen technical push gäbe, wenn man mehr cores und somit Threads im Mainstream anbieten würde.
Wie wäre es wenn Intel nur 6-8 core ohne HTT auf den Mainstream Markt los lassen würde ?
Der High-End-Klasse würde HTT vorbehalten.
Wesentlich interessanter finde ich den weg zum SoC.
 
Zuletzt bearbeitet:
>|Sh4d0w|< schrieb:
Naja war ja zu erwarten, dass er keine großartigen Leistungssprünge machen wird.
Für mich wirds dennoch interessant, da ich dann meinen i5-750 und Board in Rente schick...RAM kann ich ja weiternutzen :)
Zudem muss mal die WaKü gewartet werden, was zeitlich gut passt :D

... hehe, ich muß unter anderem einen Core2Duo i8400E in Rente schicken. Der Geschwindigkeitsrausch wird mich vermutlich wegfönen ;-)
 
Eisenfaust schrieb:
... hehe, ich muß unter anderem einen Core2Duo i8400E in Rente schicken. Der Geschwindigkeitsrausch wird mich vermutlich wegfönen ;-)

Ich persönlich empfand Umstieg von "drehender" HD auf SSD um einiges spürbarer als von Q9550 auf 3570K...
 
pipip schrieb:
calluna


Stimmt, aber diese instruciton sets erhöhen die Effizienz, somit müssen sie nicht auch gleich die TDP in die höhe ziehen, anders bei der igp.

... aber Effizienz ist dann Effizienz, wenn man etwas Sinnvolles mit dem Chip macht.

Wir haben große Leistungsgewinne zwischen 6-Kern Westmere CPUs mit 3 GHz und Sandy-Bridge-E mit 6 Kernen und 3 GHz verbuchen können, die jenseits der 25% Marge liegen. Die Software nutzt Dank Compiler bereits AVX und andere neuerungen und profitiert von der besseren Speicheranbindung der neuen LGA2011 Prozessoren.

Ähnliches erwarte ich beim Sprung von Ivy-Bridge auf Haswell (wenn es denn mal XEON Versionen geben wird), denn wie schon gesagt, Haswell bringt ja einiges mit, was den Durchsatz erhöhen könnte. Die c't spekulierte, daß die beiden neuen Ausführungseinheiten vornehmlich das SMT verbessern und anstelle der üblichen 12 % Leistungszuwächse vielleicht nunmehr 20 % bieten könnten.
Ergänzung ()

Thomas_B schrieb:
Ich persönlich empfand Umstieg von "drehender" HD auf SSD um einiges spürbarer als von Q9550 auf 3570K...

Das habe ich auch bereits hinter mir und ich gebe Dir völlig Recht ;-)

Allerdings kommt auf meinem Ivy-Bridge Server, der das System auf einer SSD hat, bereits mit dem ZFS-RAID an den lahmenden SATA 3 GB Ports bereits mit 245 MB/s mit vier WD Green (3 TB) an die Sättgungsgrenze - womit ich eine Schwachstelle des Intelschen Chipsatzes bereits ausgemacht habe. Die professionellen Chips bieten ja auch nicht mehr und im Moment ist ein SAS 2.0 Controller wegen der bevorstehenden Einführung von SAS 3.0 auch nicht im Fokus.

Ich hoffe, daß den kommenden Ivy-Bridge-E Typen sowie haswell ein potenterer Chipsatz zur Seite gestellt werden wird, dem nicht bereits bei drei oder vier SATA 6GB SSDs die Puste ausgeht.

Dann würde nämlich die schnelle CPU die meiste Leistungs verpuffen lassen, weil sie auf ein krüppeliges Restsystem warten muß.
 
pipip schrieb:
Wobei es natürlich einen technical push gäbe, wenn man mehr cores und somit Threads im Mainstream anbieten würde.
Wie wäre es wenn Intel nur 6-8 core ohne HTT auf den Mainstream Markt los lassen würde ?

Was los wäre? Nichts. Kein technical push. Dass die Programme in Zukunft mehr Kerne unterstützen ist doch nur eine Marketing Ente von AMD, als sie den Phenom X6 auf den Markt gebracht haben.

Es ist doch kein böser Wille der Programmierer oder Unfähigkeit, dass die Software nicht mit zig-Kernen skaliert. Es liegt schlicht und einfach daran, dass sich bestimmte Aufgaben nicht parallelisieren lassen.
 
pipip schrieb:
Nur hat Intel nicht den Fertigungsnachteil (man hat ja 22nm FinFet), scheinbar eher die schlechtere gpu-Architektur (ich rate das jetzt einmal) Was wird also gemacht ? Mehr Einheiten und einen aggressiven Takt, der übrigens schon sehr lange über 1 ghz ist.
AMD darf sich dank der schlechten Fertigung gerade mal bei 800 Mhz (Turbo wohlgemerkt) herumschlagen.
Damit Intel im 17 watt tdp AMD schlagen kann, setzt man sogar noch auf einen L4 cache.

Ich denke beide "GPU" Architekturen kann man schlecht vergleichen. Wenn man schaut wie die Leistung der Intel iGPU der HD4000 bei den 17W Modellen ist, so steht man in Punkto Effizienz ganz gut da. Vor allem auch wenn man die geringe Fläche in Relation setzt.

Klar erkennbar ist, dass Intel eine eher takt-orientierte GPU fährt (schon immer). Das ist rein architekturseitig so vorgesehen und 1,7 Ghz können heute oft effizienter sein als 800 Mhz. Ein Transistor braucht eine gewisse Schaltspannung immer. Bis zu einem gewissen Takt kann man nahe an dieser Schaltspannung bleiben und so sehr effizient fahren.

Bei dem hohen Budget das Intel hat + die sehr strukturierte und effiziente Architektur auf CPU Seite ist anzunehmen; dass die GPU hier auch sehr gut dasteht, eventuell sogar besser als bei AMD und Nvidia - vor allem auch durch die 22nm. Auch hat die GPU einige Optimierungszyklen hinter sich.

Bei Spielen wird das weniger oft bei rauskommen da Intel vor allem im Segment Treiber für Games abgeschlagen ist.

Ein direkter Vergleich beider GPU Typen ist folglich schwer. Wäre eventuell interessant wenn Intel den Plan fassen würde 1000 EU Shader auf eine GPU zu packen um eine richtige DirectX zu entwickeln. Das wird man eventuell angehen wenn man bei den Treibern soweit aufgeholt hat. (bitte keine Vergleiche zu Larrabee, das ist was komplett anderes)
 
Zuletzt bearbeitet:
Hmpf, die Konkurrenz fehlt so sehr.. Hätte doch mal auf den 2500k aufrüsten sollen als er neu raus kam :(
 
Bei dem hohen Budget das Intel hat + die sehr strukturierte und effiziente Architektur auf CPU Seite ist anzunehmen dass die GPU hier auch sehr gut dasteht, eventuell sogar besser als bei AMD und Nvidia - vor allem auch durch die 22nm.

Wenn man bedenkt das hier nur 20 Shader den 480 Shader auf Augenhöhe gegenüberstehen scheint Intel viel Leistung aus den Dingern zu holen.
 
Die reine Shader-Anzahl kannst du nicht vergleichen.
 
Och nö. Habe schon schweren Herzens Ivy übersprungen. Der i5 2500K ist insbesondere bei 4,5Ghz noch für alle Games mehr als schnell genug und den habe ich seit dem Release. Ich will aber wieder basteln. Was für ein Luxusproblem. :)
 
y33H@ schrieb:
Die reine Shader-Anzahl kannst du nicht vergleichen.

Ja diese EU kann man eher mit 1D Shader auf hohem Takt vergleichen.
 
Ich kann das schon nachvollziehen, dass Intel beim Grafikteil nachlegt. Denn wie wir ja alle wissen ist die CPU-Leistung mehr besser, an GPU-Leistung mangelt es aber. Dabei muss Intel nicht mal im Plan haben, die Grafikeinheit spieletauglich zu machen. Was wenn AMD mit seiner HSA-Initiative erfolg hat und plötzlich APUs einen rießigen Mehrwert bringen, weil eben Spielephysik durch die iGPU berechnet werden kann, beim Rendern von Videos/3D-Animationen/Bildern die iGPU das Gesamtsystem beschleunigt? Dann würde Intel ziehmlich blöd dastehen, wenn sie immer noch mit schwachen iGPU rumdümpeln. Es ist doch also nur logisch, dass da Verbesserungen notwendig sind. Ich denke Intel wird sicherlich nicht den Fehler begehen und erstmal abwarten mit der Meinung "ach papperlapapp das setzt sich eh nicht durch". Dabei sind ja nun die Renderer auf der Grafikkarte nur der Anfang der Fahnenstange.

Wenn Intel sich die bessere GPU-Leistung allerdings doch nur durch mehr Einheiten und höheren Takt erkauft, was ja bei gleicher Architektur (ohne Verbesserungen) in einer höheren Leistungsaufnahme resultiert, dann kann man auch getrost den AMD-Spruch raushauen: "Ööhhöhhöhh die erkaufen sich die Mehrleistung ja nur durch höhere Leistungsaufnahme".

Edit:
Kai85 schrieb:
Och nö. Habe schon schweren Herzens Ivy übersprungen. Der i5 2500K ist insbesondere bei 4,5Ghz noch für alle Games mehr als schnell genug und den habe ich seit dem Release. Ich will aber wieder basteln. Was für ein Luxusproblem.

PC auseinanderbauen und wieder zusammenbauen = Problem gelöst :D
 
Zuletzt bearbeitet:
Wo liegt der große Unterschied zwischen Sandy, Ivy und Haswell? TDP? Joah. Interne Grafikleistung? Hmjoah.

Geldmacherei? Stinkt danach.

Ich kann mich nur denen anschliessen, die einen starker Sandy oder Ivy ihr eigen nennen, denn diese werden noch einige Jahre ausreichen.
Zumal beim leicht gestiegenen TDP würde ich doch bei einem Ivy bleiben, auch wenn es auf der ersten Blick marginal erscheint.

BestQualityHS schrieb:
Ist echt zum himmel loben geil, das Intel wieder neue Prozessor haben.
Die Haswell sind doch nicht entäuschend.

Berrauschend finde ich Daten es jetzt auch nicht. Mal die Tests abwarten.

BestQualityHS schrieb:
2010 habe ganz neuen PC mit Intel i7 870 gekauft. War super Prozessor.
Jetzt 2012 habe ich neuen Intel I7 3770 mein PC einbauen lassen, der nochmal deutlich besser wie der I7 870.

2006 habe ich mir einen E6750 gekauft und 2011 auf den Q6600 @3,2Ghz (+HD6870) umgestiegen. Es läuft wie geschmiert und reicht vollkommen für Games, bissle Familienbilder- und Videos aus. Da kann jede PS3 und Xbox360 einpacken.

BestQualityHS schrieb:
Intel egal ob I3 I5 I7.... sind einfach die besten falsch macht man bei Intel nix.
Man bekommt immer top Prozessoren. Da kann AMD einpacken und brauchen nicht versuchen besser zu werden wie Intel.

Totgesagte leben länger heisst es. Go AMD Go!

BestQualityHS schrieb:
Noch könnt ihr einfach nix zu Haswell was sagen weil ihr noch keine kennt benutzt habt.
Nur so von daten her sagen die wären schlecht, entäuschend, finde ist sehr schwach von euch.
Natürlich sind auch die neuen Intel Haswells sehr leistungstark, schlechter wie alle vorgängern werden die auf jedenfall nicht sein, werden.

Ehm, ja. Wir werden sehen ;)
 
Zurück
Oben