Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Intels 32-nm-CPUs starten am 7. Januar 2010
- Ersteller Volker
- Erstellt am
- Zur News: Intels 32-nm-CPUs starten am 7. Januar 2010
Lithium-Ion
Ensign
- Registriert
- Juli 2009
- Beiträge
- 210
Lol, AMD hat so verkackt.
Ich glaube der Vergleich zu AMD X3 oder Intel Quads ist nicht ganz richtig.
Die neuen CPUs sollen ja in einen anderem Segment eingeführt werden.
In bestimmten Fällen ist halt so eine Kombination besser als ein Quad oder X3 + Chipsatz + diskrete Grafikkarte.
Es gab ja hier schon eine entsprechende Rechnung im Thread in der noch nicht mal die diskrete Grafikkarte einbezogen wurde und der Unterschied wird bereits im Gebrauch ersichtlich sein.
Und bzgl Fusion gibt es ja auch neue Informationen, laut hardware-infos wird dort auch erst ein K10.5 in 32nm Platz finden der allerdings nicht mehr als ein simpler shrink ohne Architekturverbesserungen ist.
Die neuen CPUs sollen ja in einen anderem Segment eingeführt werden.
In bestimmten Fällen ist halt so eine Kombination besser als ein Quad oder X3 + Chipsatz + diskrete Grafikkarte.
Es gab ja hier schon eine entsprechende Rechnung im Thread in der noch nicht mal die diskrete Grafikkarte einbezogen wurde und der Unterschied wird bereits im Gebrauch ersichtlich sein.
Und bzgl Fusion gibt es ja auch neue Informationen, laut hardware-infos wird dort auch erst ein K10.5 in 32nm Platz finden der allerdings nicht mehr als ein simpler shrink ohne Architekturverbesserungen ist.
BMWM3N400
Ensign
- Registriert
- März 2008
- Beiträge
- 143
Schon ma was vom 6 kerner Gulftown gehört?_H0schi_ schrieb:Die sollen mal, falls das überhaupt möglich ist 32nm auf 1366 rausbringen
Das mit der Grafikkarte kommt noch hinzu... danke Madbomb... ne 4650 hat auch noch 9W idle Je nach verbauten chipsatz sind das 4-9W weniger... zwar ist dafür der Grach bei hohen Ansprüchen aktiv, allerdings glaube ich dass ich dann sicher den Stecker in der Dose haben
Zuletzt bearbeitet:
_H0schi_
Lieutenant
- Registriert
- Juli 2009
- Beiträge
- 716
Schon ma was vom 6 kerner Gulftown gehört?
Jo, hätte trotzdem sein können das da was nachgeschoben wird in 32nm
ähnlich wie beim der Core 2 serie (selbe CPU anderer Fertigungsprozess)
sry hatte meinen 1. post falsch formuliert... meinte den i7 auf 1366 ... nicht den sockel 1366 im allgemeinen
Lithium-Ion
Ensign
- Registriert
- Juli 2009
- Beiträge
- 210
Also gibst du mir damit recht Whoozy?^^
Colonel Decker
Lt. Commander
- Registriert
- Dez. 2008
- Beiträge
- 1.793
Wird es dann möglich sein, seine PCI-E Grafikkarte im 2D-Windows-Betrieb abschalten zu lassen? Das wäre klasse, denn es ist ein echter Witz, wie stark sich eine Grafikkarte auf den Idle-Verbrauch auswirkt, obwohl man keinerlei Vorteile daraus zieht.
Und: Ist das dann D3D11-Grafik in den CPUs? Oder D3D10? Oder gar nur DX9?
Und: Ist das dann D3D11-Grafik in den CPUs? Oder D3D10? Oder gar nur DX9?
Den
Lt. Commander
- Registriert
- Apr. 2009
- Beiträge
- 1.268
es ist doch noch gar nicht bekannt wie schnell die grafik ist,warte mal die ersten test`s abKann man eigentlich die GPU in der CPU deaktivieren?
Würde gerne eine 32nm CPU in meinen HTPC bauen, allerdings mit etwas leistungsfähigerer Grafikkarte.
Dr.Pawel
Lt. Commander
- Registriert
- Nov. 2007
- Beiträge
- 1.765
Um ehrlich zu sein, glaube ich kaum dass bei diesen Preisen die CPUs ein Renner werden. Allerdings war es bei Intel schon immer so, dass die Preise bei kleineren Fertigungsprozessen enorm in die höhe gegangen sind. MMn macht dies aus Sicht von Intel auch Sinn, schließlich sollen die Restbestände der "alten" CPUs auch noch weg.
Ich persönlich sehe keinen Blumentopf mehr zu gewinnen für Duals über 100€. Für Office, Multimedia und I-net reicht nen Atom oder nen Sempron, für Gamer sind schlicht Quads viel interessanter. Im mobilen Bereich sieht die Sache natürlich anders aus, hier könnten die CPUs wirklich auftrumpfen.
Mfg
Ich persönlich sehe keinen Blumentopf mehr zu gewinnen für Duals über 100€. Für Office, Multimedia und I-net reicht nen Atom oder nen Sempron, für Gamer sind schlicht Quads viel interessanter. Im mobilen Bereich sieht die Sache natürlich anders aus, hier könnten die CPUs wirklich auftrumpfen.
Mfg
Interessant, dass man auch den Takt der Grafik-Einheit variiert, auch wenn ich bezweifle, dass der 661 gegenüber dem 660 irgendeinen praktischen Vorteil hat - dafür wohl einen Nachteil, weil er mehr Saft zieht.
Allgemein hatte ich zur TDP eigentlich wesentlich niedrigere Werte erwartet; besonders die beiden leicht abweichenden Modelle lassen vermuten, wie der Wert im Vergleich zu den realen Werten stehen dürfte: Der 661 kommt wegen einer 166MHz schneller getakteten GPU nicht mehr mit den 72W aus; wogegen sich eine eigene Einstufung des Pentium mit seiner 200MHz langsameren GPU, dem fehlenden SMT und des verkleinerten L2-Caches nicht lohnt.
Was die Mobiles angeht; nett nett! Hier ist es gelungen, die TDP der alten Modelle komplett beizubehalten, obwohl da jetzt Speichercontroller, GPU und weiterer Kram mit drin sind. Für die Namensgebung gehört intel allerdings geschlagen: Warum benutzt man einerseits die gleichen Bezeichnungen (i7, i5) wie für die Desktops, andererseits aber ein völlig anderes Namensschema? Im Ergebnis sind aufm Desktop nur die obersten Highend-Modelle "i7", fürs Lappie aber fast alle...
Allgemein hatte ich zur TDP eigentlich wesentlich niedrigere Werte erwartet; besonders die beiden leicht abweichenden Modelle lassen vermuten, wie der Wert im Vergleich zu den realen Werten stehen dürfte: Der 661 kommt wegen einer 166MHz schneller getakteten GPU nicht mehr mit den 72W aus; wogegen sich eine eigene Einstufung des Pentium mit seiner 200MHz langsameren GPU, dem fehlenden SMT und des verkleinerten L2-Caches nicht lohnt.
Was die Mobiles angeht; nett nett! Hier ist es gelungen, die TDP der alten Modelle komplett beizubehalten, obwohl da jetzt Speichercontroller, GPU und weiterer Kram mit drin sind. Für die Namensgebung gehört intel allerdings geschlagen: Warum benutzt man einerseits die gleichen Bezeichnungen (i7, i5) wie für die Desktops, andererseits aber ein völlig anderes Namensschema? Im Ergebnis sind aufm Desktop nur die obersten Highend-Modelle "i7", fürs Lappie aber fast alle...
FuchsDerBaer
Lt. Junior Grade
- Registriert
- Juni 2009
- Beiträge
- 408
damit steht dann vorerst fest, dass der pc-naukauf an das erscheinen von 32nm quads gekoppelt wird! hoffentlich frühling 2010 : )
Denahar
Banned
- Registriert
- Apr. 2008
- Beiträge
- 1.783
Für dich, aha. Für den objetikven Betrachter ist es ein wichtiger Mehrwert, der entsprechend der Anwendung auch ordentlich Mehrleistung mit sich bringt. Aber egal, die Tests werden es dir dann sicherlich auch noch zeigen.TeHaR schrieb:Leistungsfähigkeit von SMT? Soll ich mal lachen? Für mich ist das ne fehlgeschlagene Technik und Vorgauglung falscher Tatsachen für den Ottonormalbürger der bei Blödmarkt und co. kauft (Windows zeigt 4 Kerne an obwohls nur 2 gibt).
Jetzt vermischt du praktische Tests mit Spielen? Was soll das? Und, von Games hat auch niemand geredet, dass sollte klar sein.TeHaR schrieb:Laut CB (*) gibt es nie mehr als 3% Performancevorteil in prakt. Tests, in Games ist man mit SMT sogar langsamer unterwegs. Ein extra Kern hingegegn bringt zB. vom Phenom X2 zum X3 ganze 20% bei gleichen Takt!
Wie du selbst gesagt hast, war dies ein Beispiel. Ein 630 würde auch gehen, wenn es den dann geben würde.TeHaR schrieb:Dann nimmst du natürlich noch den i5-670 als Beispiel der ungefähr genauso sinnvoll ist wie der i7-950.
Nenne uns einfach mal 10% aller verfügbarer Software, die signifikant von mehr als 2 Kernen profitiert.TeHaR schrieb:2.) Nutzt schon sehr viel Software Multicores!
Tolle Einschränkung, die dann ebenfalls auf SMT zutrifft.TeHaR schrieb:3) Gibt es von Intel und AMD schon sehr günstige Quads welche einfach Sobald mehr als 2 Kerne genutzt werden, viel schneller sind.
Da stimme ich zu. Dafür gibt es dann darüber noch Dualcores mit SMT.TeHaR schrieb:Dualcores für > 120$ sind einfach nicht mehr sinnvoll!
Was meinst du? Es gibt exakt einen Sockel als Nachfolger eines alten Sockels und nicht einen einzigen mehr. Dir ist schon klar, dass der Sockel LGA1366 ein Server- und Workstationsockel ist, oder?Tekpoint schrieb:Die Intel CPUs gefallen mir überhaut nicht mehr esten 2 haputsockel schon ist miest und dann nicht shcneller als DRR3 1333 was soll das.
@Schaffe89: okay.
Ähnliche Themen
- Antworten
- 31
- Aufrufe
- 5.567
- Antworten
- 42
- Aufrufe
- 8.135
- Antworten
- 59
- Aufrufe
- 8.546
- Antworten
- 93
- Aufrufe
- 14.723
- Antworten
- 48
- Aufrufe
- 10.715