News 14 „Haswell“-Desktop-Prozessoren von Intel durchgesickert

Also vielleicht bin ich da altmodisch, aber ich kaufe mir eigentlich eine CPU um die Grafikkarte schön mit Daten zu füttern.
Zum zocken kommt man um die dedizierte Graka eh nicht rum. Ich finde es nicht gut, das die Grafikeinheit so gepusht wird.

Bei Tablets und Handys macht das natürlich Sinn, am Desktop PC zum spielen leider überhaupt nicht.

Für den notfall wäre das sicherlich nett, nur weiss ich jetzt schon, das ich meine Interne GPU dann einfach ausschalte (wenn möglich !).
-> Weniger Stromverbrauch -> Weniger Abwärme -> Weniger Geld in der Tasche für eine sinnlose GPU ^^
 
in der cb-tabelle wurden daten der i7-4770k-cpu mit der ohne k durcheinander (grafiktakt mit turbo) gebracht.
bitte ändern.

grüße
 
Zuletzt bearbeitet:
terraconz
Konkurrenz haben wie eben die IGP. Wobei ich hier denke das Intel sich sogar das sparen könnte
Die Herausforderung für Intel ist es nicht, die CB-Forummitglieder zu beglücken, die fressen sowieso alles aus der Hand. Eher sehe ich das Ziel bei 0815 User.
Letztens hab ich spaßhalber wieder Fertig-PC in diversen Läden angeschaut.
NV : fast nur 630 GT, ein paar wenige Modelle mit 650 oder 660TI und ein Model mit 680 GTX.
AMD: Hat mich sehr verblüfft, ich hab bei den meisten Rechner gerade mal eine HD 7450 gefunden...

Also hier kann man Wildern. Wenn Intel eine potente HD 5000 auf den Markt bringt, wieso sollten Fertig-PC-Bauer dann noch so karten wie eine 630 gt oder 7450 verbauen ? Geht doch billiger.
Eigentlich sollte hier auch Trinity sehr interessant sein.
Diese PC werden übrigens mit den Titel Gaming-PC geschmückt... Meist wird zu Gunsten von Intel ein i7 verbaut und dann eine Grafikkarte dazu gesteckt die kaum oder gar nicht schneller ist...
Da soll noch wer die Welt verstehen hier :O ?

Somit kann ich mir gut Vorstellen wieso Intel auf den Zug mit aufspringt.

y33H@
Wo ist die TDP mit Trinity im Desktop-Segment gestiegen? Bis zu 100W, so wie Llano.
Tja da hast du den Vogel abgeschossen, dass man gleich TDP mit Verbauch gleich setzt, selbst wenn es eine Verbindung gäbe, da Intel die TDP hochgesetzt hat.
Es ist trotzdem bekannt und wurde bemängelt und ich spreche hier aber klar vom CB-Forum, dass Trinity in Gaming und co einen etwas höheren Verbrauch hat, sobald die gpu ausgelastet wird.

https://www.computerbase.de/2012-10/test-trinity-vs-ivy-bridge-im-gpu-test/14/
Unter Last dreht sich das Bild dann um: Egal ob in Spielen oder bei anderweitigen Aufgaben, der A10-5800K benötigt mehr Leistung als der Vorgänger. In Spielen reicht es so bei den APUs mit 118 Watt nur zu dem letzten Platz. Damit liegt die Leistungsaufnahme auch höher als bei der Llano-APU, die sich noch mit 93 Watt zufrieden gegeben hat – eine Differenz von 25 Watt. Hier wird wie im CPU-Bereich die höhere Leistung zumindest teilweise durch eine höhere Leistungsaufnahme erkauft.
Gespannt ob man das beim HSW Test auch lesen wird :O Aber da wird man wahrscheinlich eher davon lesen, wie toll und stark die Performance gestiegen ist. Bin gespannt ob der Mehrverbrauch auch zur gleichen Relation zum A10 steht, aber auch ob Richland VLIW (oder vllt doch GCN, wovon es ja wieder kurz Gerüchte gab) verwenden wird :O und den Abstand bewahren kann.

Glaube aber die größte Errungenschaft wird die starke igp nicht im Desktop sondern genau im Mobilen Markt erfahren. Dort wird es nicht nur AMD sondern auch NV zu spüren bekommen. Denn eine HD 5000 in Ultrabooks oder Ultra "like" books werden dann keine igp von AMD oder NV brauchen, wenn man die Performance eines A10 erreichen würde. Bei dickeren Notebooks, wird man wohl weiterhin noch nicht auf NV und AMD verzichten können.
 
Zuletzt bearbeitet:
calluna

Q1 2006: Presler - Pentium D
-> ~ 3 1/2 Jahre
Q4 2009: Lynnfield - i7
-> ~ 3 1/2 Jahre
Q2 2013: Haswell - i7

Den Bloomfield i7 habe ich dabei netteweise rausgerechnet.
Der Sprung vom Presler auf Lynnfield ist vorsichtig formuliert Phänomenal.

Mich interessiert kein angebliches Potential, ordentliche CPUs sind zum Start bereits eine Offenbarung. Das bessere HT hört sich interessant an, aber ich ahne es bringt auch keine Welten.

Mit der Entwicklungszeit hast du wohl teils Recht. Mangels Konkurrenz ist Ivy künstlich mies, mit der Paste im IHS und den HT Vorbehalt fürs Topmodell und die Übertaktungsbeschneidung. Wenn das alles nicht wäre, könnte es doch ein nette CPU sein, wenn auch man spürt, das die olle Grafikeinheit zu viel Raum einnimmt.
 
Die Leute, die AMD in die Pfanne hauen, sollten beachten, dass nur AMD wenigstens ein Quäntchen Wettbewerb in den Desktop-Prozessorenmarkt bringt...
 
matti30 schrieb:
na dann wird Haswell getrost übersprungen. Mein I5 3550 wird wohl tatsächlich die erste Cpu werden, die es länger als ein Jahr in meinem Rechner aushält ;)

Geht mir ähnlich. Das Sparprogramm, ws Intel da für mich auferlegt hat, findet auch bei meiner Frau Anklang :p Stellt sich nur di Frage, ob das für Intel so gut ist. Aber irgend etwas mußten sie ja gegen AMD unternehmen.

matti30 schrieb:
und die integrierte Gpu soll eh nur im Notfall eingesetzt werden.

Ich nutze die schon parallel zu meiner 6950.
Zum einen, weil die im Multi Monitor Setup deutlich m,ehr schluckt, zum andren zuckt die Grafik nicht so zusammen, wenn ich aus einem Spiel per TAB rausgehe.
 
matti30 schrieb:
na dann wird Haswell getrost übersprungen.

HeLlWrIteR schrieb:
Also nur ein Update mit verbesserter IGP- Leistung ?

Die Generation können wohl alle Sandy- und Ivybeeitzer getrost überspringen, es sei denn man ist auf die Leistung der IGP angewiesen.

StrokerAce schrieb:
Der Sprung hält sich auch mit Haswell in grenzen...

naja. Haswell bringt eher Vorteile beim Featureset und im GPU Bereich mit sich, noch weit mehr als Intel bei Sandy oder Ivy geleistet hat. Die Leistung ist wohl nötig um diverse Features wie Stabilisation des Bilders oder Echtzeit Frameraten Umrechnung zu realisieren.

Am wichtigsten ist wohl der neue Standby Mode, auch Connected Standby soll gehen womit man die Leistungsaufnahme IDLE wohl richtig anpackt und weiter reduziert. Wenn man bedenkt, wie lange zb ein Tegra / ARM idle verbunden sein kann... dagegen sind die Laufzeiten von X86 schlecht. Und das betrifft vor allem die ganze Architektur um die CPU herum.

Ich bin mal gespannt wie sich die neue Architektur hier schlägt. Auch die Video Features lesen sich wirklich nicht schlecht. Ich denke die Haswell iGPU dürfte was die Effizienz angeht vor der Konkurrenz liegen und sich gerade bei Multimedia PCs hervorragend schlagen. Für Gaming wirds wohl auch in Zukunft an den Treibern etwas fehlen.

Für mich ist Haswell wesentlich interessanter als Sandy und Ivy zusammen.
 
Thomas_B
Haha
Ich setze noch einen drauf, auch wenn es gewagt ist :D
Simon schrieb:
Vieles/einiges was an AMD's Architektur bemängelt wird, wird bei Intel mal gelobt und als was neues gehalten werden :)
 
Zuletzt bearbeitet:
hehe, so ist das ;)

Ich persönlich hoffe, dass AMD irgendwann mit neuen Generationen an die Klasse der damaligen XP+ Serie anknüpfen kann.
Ich hatte selbst einen XP2200+ für sage und schreibe 8 Jahre und konnte auch noch viel damit zocken.
 
DirtyOne schrieb:
Zum zocken kommt man um die dedizierte Graka eh nicht rum. Ich finde es nicht gut, das die Grafikeinheit so gepusht wird.

Bei Tablets und Handys macht das natürlich Sinn, am Desktop PC zum spielen leider überhaupt nicht.

Lass uns doch mal ein klein wenig spekulieren. Nehmen wir mal an, dass die neuen Konsolengenerationen auf eine APU + GPU setzen werden. Wobei die Grafikeinheit der APU Physik etc. berechnet. Und schon würde eine iGPU auch bei Spiele-Desktop-PC-Systemen Sinn machen, weil man einfach die normale GPU entlassten könnte.


Krautmaster schrieb:
Am wichtigsten ist wohl der neue Standby Mode, auch Connected Standby soll gehen womit man die Leistungsaufnahme IDLE wohl richtig anpackt und weiter reduziert.

Für den mobilen Bereich durchaus wichtig. Aber im Desktopsegment wird es keine spürbaren Vorteile bringen. Schau dir mal nen Desktop-Trinity an, unter Last nuckelt er unglaublich viel Strom aber der Idle-Verbrauch liegt laut AMD bei 1,08W und ich glaub kaum das nen Ivy deutlich mehr im Idle braucht als nen Trinity.
 
Atlan3000 schrieb:
Mich würden eher technische Details interessieren wie z.B. ob sie wieder zu direkt aufgelöteten Headspreadern zurückkehren oder ob der Unsinn mit der Wärmeleitpaste von Ivy übernommen wird.

Hi Atlan

ich kann Dir nur zustimmen . WG der Wärmeleitpaste habe ich auf Ivy verzichtet und würd ich auch auf den Hasswell verzichten .

Mein alter Rechner läuft noch und ich hab Zeit.


schoene Grüße von Mike ( Rhodan )
 
pipip schrieb:
Vieles/einiges was an AMD's Architektur bemängelt wird, wird bei Intel mal gelobt und als was neues gehalten werden :)
Wann/wo wurde das FMA bei AMD bemängelt?
 
Ich denke die Haswell iGPU dürfte was die Effizienz angeht vor der Konkurrenz liegen
Ui, wo meinst du jetzt genau ? Allgemein GPU-Technik oder jetzt ganz speziell was igps in Prozessoren angeht ? Naja Hut ab das Intel schon angeblich AMD und NV schlagen wird. Besonders da man bei AMD bsp schon gesehen hat was GCN für ein Potential hat (Grafik, gpgpu ect).
Also Intel wird bestimmt effizienter sein, wenn man bedenkt dass HSW igp-Architektur angeblich gegenüber IB kaum oder gar nicht geändert haben soll.

https://www.computerbase.de/2012-11/alle-desktop-trinity-im-gpu-vergleichstest/4/
Wenn wir aber von der Effizienz sprechen wollen

Der A6 ist ne spur schneller als der i7 mit der HD4000. Der Verbauch bei der Videowiedergabe spricht aber zugegeben momentan eindeutig für Intel (wobei NV wahrscheinlich genauso gut schlagen würde) und AMD hier klar nachzuholen hat.

Wenn man aber auf Verbauch geht, wird man sehen, dass der A6 gerade mal 5 watt mehr verbraucht.
https://www.computerbase.de/2012-11/alle-desktop-trinity-im-gpu-vergleichstest/9/
für dass, der A6 ca 13% schneller ist (wenn man die Optionen so wählt, dass man eher von der igp profitiert)

Bin aber trotzdem der Meinung das man hier Äpfel mit Birnen vergleicht.
Wenn ich aber lese
Haswell iGPU dürfte was die Effizienz angeht vor der Konkurrenz liegen
frage ich mich, ist hier jetzt allg nur die Architektur gemeint ? oder setzt man Architektur und Fertigung wieder gleich ?

Simon
Das war nicht an dich gerichtet, hab nur deinen Namen erwähnt, damit man sieht das FMA und AVX2 schon erwähnt worden ist.
Die FPU-Performance wurde ja lange an AMD bemängelt, obwohl man ja bei den 4 Moduler sieht, dass dessen FPU eigentlich sogar mit den 6 FPU von einem x6 mithalten können.
Bin gespannt, ob HSW, dann sogar nicht ein Auslöser dazu ist, dass ein Bulldozer auf einmal in gewissen Gebieten sogar gegenüber SB wieder aufholen kann. Bis dahin ist es aber sowieso schon vergessen und Schnee von gestern :)

Matzegr
Für den mobilen Bereich durchaus wichtig.
Man könnte vllt bei Intel von Back to the roots sprechen xD Vom Notebook-Prozessor zum Desktop-Prozessor und jetzt wieder zurück auf den Notebook-Markt :O
HSW ist in meinen Auge klar für mobile Devices gedacht. Das was übrigens Krautmaster bemängelt, kann man erste Fortschritte eventuell schon bei AMD mit Kabini sehen. Mal sehen, was Intel ähnliches bei HSW oder bei den ATOM vor hat.
 
Zuletzt bearbeitet:
pipip schrieb:
Die FPU-Performance wurde ja lange an AMD bemängelt, obwohl man ja bei den 4 Moduler sieht, dass dessen FPU eigentlich sogar mit den 6 FPU von einem x6 mithalten können.
Das Problem bei AMD ist, dass sie in ihre Module nur eine FPU bauen. Damit hat ein 4-Moduler (aka 8 Kerner) nur 4 FPUs, währen bei Intel ein 8-Kerner 8 FPUs hat...

Den Nachteil gleicht auf Fused-Multiply-Add nicht aus...
 
...und weiter wird gewartet auf Ivy-E!
Ich hoffe blos, dass Intel die nicht auch noch komplett kippt, da es ja keinen Wettbewerb mehr im PC-Markt gibt und Konsolentechnisch ja noch weniger passiert - evtl. ja nächstes Jahr.....
 
Tja eins scheint klar zu sein, damit ist die Zeit günstiger High Performance PCs vorbei. In Zukunft bleibt nur noch die Möglichkeit die teuren Workstation CPUs zu kaufen :(
 
Tja eins scheint klar zu sein, damit ist die Zeit günstiger High Performance PCs vorbei.

Kommt drauf an was man unter günstige High Performance PCs versteht ?
 
Zurück
Oben