News Intels „Haswell“-Prozessoren doch erst Anfang Juni?

Eisenfaust schrieb:
Ergänzung ()

... wenn eine CPU bereits im Schnitt > 20% Leistung mitbringt, würde ich es bereits als lohnend erachten, eine Neuanschaffung zu tatigen, solange der Mehraufwand in Relation zum Einkommen steht. Leider kann man solche Rechnungen nicht anfertigen, wenn Investitionen in den mehrfachen k-Euro Bereich gehen.

Naja ich bin keiner der sich jede Generation das Neuste kauft obwohl er es gar nicht braucht.Da nen Kollege eh schon seit ner Zeit scharf auf mein 1090T/formula IV/2x4 ddr1333 ripjaws ist und es immer noch manchmal szenen gibt zb in Crysis 1 mit rygel sowie extreme immersive mod wo es auf die 30 fps zugeht ist es denk ich ein guter Zeitpunkt im Juni.
 
MikeBe schrieb:
So ist es, eigentlich ist überhaupt keine Konkurrenz in Sichtweite.

Thats the problem!

und nur deshalb ist die Entwicklung lahm...Intel könnte mehr als nur 15% - aber wozu die ruhen sich aus und kassieren erstmal schön ab... schade!
 
@Oracle
Du bist ein Troll aber kein Oracel.
Aus Deiner Sich wird der Haswell auf jeden Fall ein Reinfall und davon versuchst du die Welt zu überzeugen. Egel was Haswell mehr an Perfomance haben wird, es wird trotzdem die stärkste CPU im Mainstream werden (oder kennst Du eine stärkere?).
 
@Oracle:
So würde ich das nicht sehen. Haswell wird ganz sicher kein "Fail" oder wie auch immer Du das Denglisch auszudrücken gedenkst.

Die höhere TDP ist der leistungsgesteigerten iGPU zu verdanken! Mir scheint, als seien die Funktionsblöcke CPU-iGPU so stark verzahnt, daß ein selektives Abschalten der iGPU nicht ganz möglich ist - und so ist die TDP auch höher. Andererseits muß ich als Käufer wissen, welche Energiemenge mein Kühlsystem minimal verkraften muß - und darob muß der Hersteller auch die maximal mögliche TDP angeben. AMD "bescheißt" bekanntlich seine Kundschaft zur Zeit - die TDP der aktuellen CPUs liegt deutlich oberhalb der angegebenen TDP - und das fast dauerhaft, wie jüngste Benchmarks und Vermessungen gezeigt haben. Und von 77 Watt TDP auf nun 85 Watt TDP bedeutet nicht die Welt. Das sind 8 Watt mehr für eine fast doppelt so schnelle iGPU.

Es ist grenzt aus meiner Sicht bereits an Dämlichkeit, wenn einige Hansels meinen wegen 8 Watt Meinung zu dreschen, aber gerne bereit sind, sich einen dedizierten GPU Boliden nur zum Spielen zuzulegen, der locker 280 Watt sinnlos verpulvert. Jeder vernunftsbegabte Deutsche, sofern es noch welche geben sollte, muß sich da doch an den Kopf fassen: Energiewende, Klimasensibilisierung und Umweltschutz allgemein - das hört genau da auf, wo das Individuum/-dummdumm in diesem Lande in die Pflicht genommen wird. Ob es nun ausgemachte Dummheit oder oder gemeingefährlicher Egozentrismus ist, oder gar eine Paarung aus beiden, ist eigentlich egal.
Ergänzung ()

Diablow51 schrieb:
Naja ich bin keiner der sich jede Generation das Neuste kauft obwohl er es gar nicht braucht.Da nen Kollege eh schon seit ner Zeit scharf auf mein 1090T/formula IV/2x4 ddr1333 ripjaws ist und es immer noch manchmal szenen gibt zb in Crysis 1 mit rygel sowie extreme immersive mod wo es auf die 30 fps zugeht ist es denk ich ein guter Zeitpunkt im Juni.

Warum sollte Dein Kollege auf Deinen Schnee von gestern scharf sein?
 
Zuletzt bearbeitet:
@Oracle
Wenn Haswell jetzt schon der große Fail ist, dann war Ivy Bridge erst recht einer. Rundum überzeugen konnte der nämlich auch nicht. Stichwort "Temps".
 
@Oracle
War Nehalem schlecht? So weit wie ich weiß haben sich viele einen i7 920/930 gekauft und die Prozessoren waren auch nicht schlecht.
Deine Liste ist nicht einmal Vollständig, da fehlen Prescott 2M, Cedar Mill, Smithfield, Kentsfield und Wolfdale und noch viele andere und auch ältere Architekturen
Zudem mal Prescott und Presler als eine Weiterentwicklung der Net Burst Architektur zählen.

Bei Nehalem sind viele von einem C2D E6xxx, E7xxx oder E8xxx umgestiegen
Viele Sandy und Ivy Bridge Käufer sind von einen Q6600,Q8xxx oder Q9xxx umgestiegen.
Bei Haswell werden wohl auch noch einige Q9xxx Besitzer wechseln und auch einige der Nehalem Besitzer.

Und dann gibt es noch solche die jede oder jede zweite Generation wechseln, weil sie stets das neuste haben wollen.
 
Zuletzt bearbeitet: (Grammatikfehler)
Eisenfaust schrieb:
Ergänzung ()

Warum sollte Dein Kollege auf Deinen Schnee von gestern scharf sein?

Weil er wiederum noch älteren Schnee hat.Naja eigtl nicht wirklich 4gb ram glaub ich board kplan mittelklasse.Er ist halt auf den 1090T und das formula 4 scharf.
 
grenn schrieb:
@Oracle
War Nehalem ein schlecht? So weit wie ich weiß haben sich viele einen i7 920/930 gekauft und die Prozessoren waren auch nicht schlecht.
[...]

"Schlecht" sicher nicht - aber im Vergleich zur allgemeinen zu bewältigen Workstationlast hat sich ein i7-930 gegen einen ältlichen Q6600 oder vergleichbaren XEON nie wirklich absetzen können. Gerade der Vergleich i7-920/930 ist vortrefflich gewählt, zeigt das Beispiel nach Meiner Meinung doch, daß viel Geld für nichts ausgegeben wurde.

Allerdings ist jedes Argument sinnlos verschossenes Pulver, wenn jemand nur aus Prestige für einen neuen Prozessor plädiert. Selbiges kennen wir auf dem stetig wachsenden Markt der Mobilfunkendgeräte.

Privat tätige ich wohl überlegte Investitionen, da ich schon gerne vernünftige Systeme haben möchte, da ich meine Arbeit oftmals auch nach Hause nehme. Leider haben mit die Plattformen der bisherigen Core i7 Systeme nicht überzeugen können. War der Urahne der Core i7, als die 9XX Serie für den LGA1366 noch zu neu und von vielen Plagen befallen, erschien der Chipsatz X58 auf der Höhe der Zeit. Die von uns eingesetzten "Westmere" CPUs dieser Baureihe sind flott und machen Laune, der Chipsatz (i5500) ist ebenfalls solide. Schlimm wurde es dann mit Sandy-Bridge und ist nicht bessergeworden, als Ivy-Bridge das Licht der Welt erblickte. Mit herkömmlicher Stangenware in Sachen SSDs kann ich den SATA 3GB Bus sättigen und auf der Workstation für "Verstopfungen" sorgen (Z77 Chipsatz meines Ivy-Bridge basierten Miniservers). Ein ZFS Array ist am Limit der Bandbreite des SATA 3GB Subsystems.

Intel hat noch im vergangenen Jahr sowie in diesem Frühjahr großspurig mit üppiger SATA 6GB Port Anzahl geklappert. Als dann der X79 den Markt erreichte, war es ein verkrüppeltes Stück Silizium und Sandy-Bridge-E hatte wohl massive PCIe 3.0 Probleme, die Intel nie direkt zugegeben hatte. Wurde Sandy-Bridge-E deshalb als "Fail" gehandelt?

Leider kommt auch mit Z77 und Ivy-Bridge keine Linderung und ich befürchte, daß auch die XEON Typen Ivy-Bridge-E/EN/EP auf einen Chipsatz setzen müssen, der einfach nur unausgereift ist. Das Dilemma mit diesem "Fail" (ob nun X79 oder Z77) wird klar, wenn man den Engpaß SATA 3GB durch einen dedizierten SAS 2.0 Controller umgehen will, der 8 Ports und damit 8-Lanes haben soll. Setzt man voraus, daß in der Workstation (meine Spezifikation) eine herkömmliche Graphikkarte zum Bildschirmbetrieb und eine weitere nur zum Rechnen (beide aber mit PEG 16x angebunden auf X79), wird es dann schon technisch eng für die SAS 2.0 8x Karte. Auf Workstation-Mainboards des Herstellers SuperMicro kann man diese Konstellation gar nicht fahren, weil der Hersteller - warum wohl? - die PCIe 2.0 Anschlüsse des MCH "Patsburg" (alias C602 alias X79) gar nicht erst verwendet, sondern alles onboard über die PCIe Lanes der CPU anbindet. Selbst für einen Zwei-Port GBIT Intel LAN Controller i350 werden vier kostbare CPU Lanes verbraten, obwohl man diese durchaus hätte vom Patsburg nehmen können. Man munkelt, daß das PCIe Subsystem des Chipsatz Probleme mache ...

Nun ... warum Geld für Dreck ausgeben?
 
Zuletzt bearbeitet:
MikelMolto schrieb:
@Oracle
Du bist ein Troll aber kein Oracel.

Ich habe nicht vor ein Orakel zu sein. Aber ein Troll bin ich auch nicht, weil ich einmal im halben Jahr eine sinnvoll begründete und durch Quellen belegte Meinung äußere.

MikelMolto schrieb:
@Oracle
Aus Deiner Sich wird der Haswell auf jeden Fall ein Reinfall und davon versuchst du die Welt zu überzeugen. Egel was Haswell mehr an Perfomance haben wird, es wird trotzdem die stärkste CPU im Mainstream werden (oder kennst Du eine stärkere?).

Das ist nicht gesagt: 1. könnte Ivy Bridge Haswell schlagen und 2. ist noch nicht klar, in wie weit sich Richland im Mainstreammarkt positionieren wird. Viel interessanter wird ohnehin das Duell Haswell gegen Steamroller und Broadwell (der Haswell sehr ähneln dürfte) gegen Excavator. Ferner kann Intel zur Zeit überhaupt nicht steigende Leistungsaufnahmen brauchen, da im Low-End Segment Qualcomm mit überaus effizienten CPUs Druck macht, was nicht zuletzt zu dem massiven Kursverfall der Intelaktie führt.
 
Zuletzt bearbeitet:
Ich dümpel noch mit einem c2q mit ~3GHz rum.
Wenn es um Spiele geht, bekommt der spätestens bei GW2 seine Grenzen so richtig aufgezeigt (GPU Auslastung @ ~20% bei <15fps, wenn die Hölle los ist).

Was für mich aber auch entscheidend ist, sind folgende Punkte:

- USB3 - habe zwar schon verschiedene USB3-PCIe Karten ausprobiert, aber keine funktionierte bei mir auf Dauer richtig
- SATA3 - kann ich das letzte Bisschen aus meiner SSD noch rausholen
- PCIe3 - zwar wohl nicht so gravierend, aber erhoffe mir trotzdem noch ein paar % mehr Leistung (habe selber nen P35 Chipsatz)
- DDR3 - Bei den Preisen für DDR2 lohnt es sich kaum noch 4GB dazu zu kaufen, DDR3 ist dagegen spottbillig.
- Performance/Watt um Welten besser


5 Wichtige Punkte, für die es für mich lohnt, aufzurüsten.
Wie man nur von SB/IB aufrüsten kann, entzieht sich mir (fast) jeder Logik, fast reine Geldverschwendung mMn


@Oracle:
Trollposts.
 
Oracle schrieb:
Ich habe nicht vor ein Orakel zu sein. Aber ein Troll bin ich auch nicht, weil ich einmal im halben Jahr eine sinnvoll begründete und durch Quellen belegte Meinung äußere...
...die ich nirgends sehe. Welche Quelle belegt, dass Haswell ein Fail wird?

melemakar schrieb:
Wie man nur von SB/IB aufrüsten kann, entzieht sich mir (fast) jeder Logik, fast reine Geldverschwendung mMn
Du hast doch zumindest für SB alle Punkte schon genannt (DDR3 zählt natürlich nicht dazu). ;)
Allerdings würde da auch ein neues Board reichen.
 
Oracle schrieb:
I[...] Viel interessanter wird ohnehin das Duell Haswell gegen Steamroller und Broadwell (der Haswell sehr ähneln dürfte) gegen Excavator. Ferner kann Intel zur Zeit überhaupt nicht steigende Leistungsaufnahmen brauchen, da im Low-End Segment Qualcomm mit überaus effizienten CPUs Druck macht, was nicht zuletzt zu dem massiven Kursverfall der Intelaktie führt.

Es wird kein Duell geben! Schon jetzt kann es ein Ivy-Bridge der Mittelklasse locker mit einem AMD der Spitzenklasse aufnehmen - in SachenRechenleistung (IPC), in Sachen Skalierbarkeit und vor allem in Sachen Watt/IPC. Haswell wird den Abstand nochmals vergrößern oder zumindest auf gleicher Distanz halten können.

Schon jetzt zeigen sich die Schockwellen, die diese Verzerrung und Konkurrenzlosigkeit loslöst: die kommende Ivy-Bridge-E generation für den Sockel2011 wird nur mit 6 Kernen bestückt (angedacht waren mindestens 10), während die schweren Eisen (Dual Sockel EN/EP oder 4-Wege EX) jetzt sogar Gerüchten zufolge mit 15 Kernen gehandelt werden.
 
die kommende Ivy-Bridge-E generation für den Sockel2011 wird nur mit 6 Kernen bestückt (angedacht waren mindestens 10),
Hast Du da einen Beleg für?
Ich habe da bisher noch nichts gelesen was das bestätigen würde - wäre auch ärgerlich für mich, da ich mit meinem alten Quad auch auf einen 6/8-Kerner aus der Ivy-E Reihe wechseln wollte! Würde es jetzt bei max. 6-Kernen bleiben, heisst das ja indirekt, alles wie gehabt - 6 Kerne erst ab 500 Ocken bei Zugleich kaum Mehrleistung zu Sandy-E!
Hier habe ich doch mit einer deutlicheren Leistungssteigerung gerechnet - im Gegensatz zu Haswell, was für mich völlig uninteressant ist.
Das würde mir so richtig gar nicht gut gefallen.......:(

edit:
gerade selber gefunden:
http://www.chip.de/news/Ivy-Bridge-E-Erste-Infos-zu-Intels-High-End-CPUs_58337497.html
Ist ja schon fast tragisch die Entwicklung auf dem PC-Markt! Hätte mir niemals träumen lassen, dass meine vor 4 Jahren gekaufte CPU immer noch genauso viele Kerne hat wie die Generation Ende 2013, kleinstes Modell im High-End Bereich.......
 
Zuletzt bearbeitet:
@Lars_SHG

Diese Meldung war, wenn ich mich recht entsinne, sowohl auf CB als auch auf HT4U kürzlich zu lesen.

Kann ich noch verstehen, daß Intel es gar nicht für notwendig hält im Spielzeugsektor für mehr Dampf durch mehr Kerne zu sorgen, so empfinde ich die Vorgehensweise im Highend-/Enthusiasten-Sektor schon nicht mehr traurig, sondern grenzwertig. Intel diktiert uns Kunden, was wir brauchen und es ist nicht umgekehrt.

Weil Ivy-Bridge-E wohl die gleiche Basis haben wird wie die kommenen XEON E5-1600v2, wird auch der UP-Workstationmarkt mit dieser Kastration leben müssen. Für meine Belange reichte bislang eine Einwege Maschine, also ein sockel, der dann aber genügend Kerne beherbergen kann/soll. Wer mehr Kerne haben möchte oder muß, wird dann wohl gezwungen werden, auf Dual-Sockel-CPUs umzusteigen. Das kostet dann das Stück bei 3 GHz Takt zwischen 1600 und 1900 Euro, also fast das doppelte dessen, was bislang die UP-CPUs alias E5-1600 gekostet haben. Und genau hier sehe ich eine böse Absicht Intels (wohlgemerkt: wenn das gerücht stimmen sollte)!

Mir sind die Enthusiasten-CPUs eigentlich egal, wären sie nicht in aller Regel identisch mit dem UP-Segment der XEON Reihe. Man sieht deutlich, wohin es führt, wenn im anglo-amerikanisch dominierten Manhattan-Kapitalismus kein Konkurrent existiert. Schade, wenn das Gerücht Wahrheit wird ...
 
Zuletzt bearbeitet:
@Eisenfaust

Da fehlt wohl was ;)

@Lars_SHG

Das Problem ist wie immer die Software. Die Hardware ist der Software aktuell gut 5-10 jahre vorraus. Ja es gibt Software die auf Multi Core "Optimiert" ist aber nicht extra dafür programmiert weil es einfach sau schwer ist gutes multi threading zu erreichen.
 
Cool Master schrieb:
[...]

Das Problem ist wie immer die Software. Die Hardware ist der Software aktuell gut 5-10 jahre vorraus. Ja es gibt Software die auf Multi Core "Optimiert" ist aber nicht extra dafür programmiert weil es einfach sau schwer ist gutes multi threading zu erreichen.

Das stimmt so nicht! Das mag für Windoof und seine vernagelten "Kompatibilitäten" gelten.

Aktuelle Compiler enthalten bereits seit geraumer Zeit die neuen Befehle kommender Prozessoren. Unter *BSD UNIX sowie vielen Linux Systemen ist es üblich, Software zu übersetzen - sofern der Compiler es versteht, via Autovektorisierung SSE/AVX etc. zu nutzen sind solche Funktionen instantan in der Software nutzbar. Das heißt aktuelle Software aus dem openSource Bereich nutzt neue Funktionen!

Darüberhinaus gilt das Kausalitätsprinzip - zumindest schwach. Die heute in Silizium gegossenen Funktionen sind mathematisch/algorithmisch bereits uralt! Mathematische Bibliotheken zum Beispiel, die dynamische "Registerbreiten" zulassen oder nicht auf eine durch die Menge der Bits in einem Register beschränke Darstellung einer Zahl beschränkt operieren, nutzen algorithmisch das, was gerade jetzt erst in hardware verfügbar gemacht wird.

Beschränkt man aber die Sicht auf die Spitze des Eisberges, so gebe ich Dir recht, da ist das Bild, vor allem unter Windoof, ziemlich trübe. Das aber sind die Konsequenzen der "Kompatibilität".
Das beliebte Werkzeug aus der Adobe Design Suite (für das meine Institution einige 10k-Euro für eine Campuslizenz ausgibt), der Photoshop, lastet maximal(!) 4 Threads aus und hat immer noch Probleme mit der Auslagerung von Filterfunktionen in OpenCL oder CUDA Routinen. Und Photoshop ist doch gerade eines jener Werkzeuge, die eigentlich am meisten von den vektoreinheiten und den skalaren Aufbauten moderner Prozessoren profitieren - zumindest kann man zeigen, daß die Filter, die Verwendung finden, bestens auf Vektorprozessoren überragen werden können.

Andererseits - OpenCL ist jetzt seit drei Jahren brauchbar verfügbar, bereits jetzt in Version 1.2. Die Software - also die Definitionen, Deklarationen etc. sind parat. Und dennoch ist die Hardware der Software (dem Modell) noch immer weit hinterher. Ich kenne keine GPU, die 100% OpenCL 1.2 kompatibel ist!

Meine Sicht mag vielleicht zu beengt auf mein (dynamisches) Umfeld sein. Dennoch ist es nicht schlimm, wenn jede Prozessorgeneration neue Techniken und Funktionen bringt, die ad hoc nicht genutzt werden können, weil das Gros der Software "kompatibel" ist und sich auf den kleinsten gemeinsamen Nenner einigt.

Und wiederum - aus Sicht der Betriebssysteme muß ich Dir Recht geben. Noch immer nutzen viele Basisbibliotheken die Unterstützung der Vektoreinheiten nicht. Bei calloc() zum Beispiel könnte man so, je nach Größe des Datentypes, eine quasiparallele Initialisierung des allozierten Speichers durchführen.
 
@eremit007

Die TDP ist nichts anderes als eine Angabe wie stark der Kühler sein muss. Die TDP hat keine Aussage über die Stromaufnahme und vorallem nicht den Verbrauch.

Wer jetzt schon was sagt bzgl. Leistunsaufnahme ist einfach nur ein Troll, arbeitet bei Intel oder hat ein Sample inkl. Motherboard und Treiber...

@Eisenfaust

Das Problem der GPU liegt einfach darin, dass nVidia und AMD Ihr Geld mit DirectX machen. Alleine der Daimler z.B. nutzt nur Windows und Windows Server. Ich glaube aber in Zukunft wird sich das ändern gerade dank Apple und der Verbreitung von OS X (das ich btw. auch nutze), da OpenCL ja das 1. mal in OS X Snow Leopard dabei war, wird Apple denke ich sehr großes Interesse haben die Technik zu pushen.

Aber ja ich stimme dir zu Unter Unix/Linux Betriebsystemen gibt es schon Software die Hardware an die Grenze bringt, keine Frage, aber der 0815 User nutzt nun mal Windows und da trifft meine Aussage leider zu vorallem bei Spielen ist es Programmier technisch sau schwer. Wobei die Zukunft hier auch besser wird dank verschidenen Core rednering. Sprich Ein Kern für Physik, ein Kern für die AI, usw. Aber bis das jedes Spiel hat vergehen noch ein paar Jahre ;)
 
Zuletzt bearbeitet:
Cool Master schrieb:
@eremit007

Die TDP ist nichts anderes als eine Angabe wie stark der Kühler sein muss. Die TDP hat keine Aussage über die Stromaufnahme und vorallem nicht den Verbrauch.

Danke, das ist mir klar. Nur würde ein integrierter Spannungswandler die TDP logischerweise erhöhen, dabei gleichzeitig aber auch die Effizienz steigern; allerdings muss der Spannungswandler dann auch vom CPU-Kühler mitgekühlt werden.

Wenn am CPU-Sockel nur die 12V-Spannungen anliegen, dann braucht der enorme Strom (Sagen wir mal 70W bei 1.2V ergibt knappe 60A) nicht von den Spannungswandlern über den Sockel bis zur CPU geführt werden, wodurch grosse Verluste entstehen.
Und anderseits durch das Schaltungsdesign. Einzelne Spannungswandler können deaktiviert werden, das ging bisher nicht, bzw. war es dem Mainboardhersteller überlassen, wie er das löst.
 
Zurück
Oben