News Weitere Details zu mobilen „Sandy Bridge“-Prozessoren

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.338
Bevor Intels „Sandy Bridge“-Generation Anfang des nächsten Jahres auf den Markt kommt, sind die meisten Geheimnisse rund um die neuen Prozessoren bereits gelüftet. Unter den kommenden CPUs sind natürlich auch Varianten für den mobilen Sektor vorgesehen, zu denen nun weitere Details enthüllt wurden.

Zur News: Weitere Details zu mobilen „Sandy Bridge“-Prozessoren
 
so langsam bekommt man für Notebooks auch mal CPU's mit mehr Bumms dahinter.

Der Turbomodus haut auch echt rein.

Beim 2*20QM bis zu 1,1 GHz der CPU :lol: und bei fast allen eine Verdopplung des GPU Taktes :freak:

Bin schon gespannt wie die Spezifikationen des Nachfolgers aussehen werden.
 
Zuletzt bearbeitet:
Klingt für mich als ob sich auch Quadcore CPUs langsam bei den Notebooks durchsetzen könnten. Ich finde den Turbo des Core i7 2720QM mit bis zu 3,3 GHz auch ganz ansprechend, die Frage ist nur, ob er in der Realität überhaupt so weit kommt (anständige Kühlung vorrausgesetzt).
Gerade hier ergibt der Turbo, anders als bei den Desktop-CPUs meiner Meinung wirklich Sinn. Wenn sie dann auch noch gute Stromsparmechanismen bieten, wären das Top Mobil-CPUs. Mal sehen was sie dann unter realen Bedingungen und verschiedenen Lastzuständen aus der Steckdose/dem Akku ziehen.
 
Zuletzt bearbeitet: (Rechtschreibung^^)
bei den erzielten Werten von Anandtech nehme ich an, dass es sich bereits um ein 12 Shader Modell gehandelt hat.
Was aber ebenfalls interessant wäre, ist ob der Turbo nun aktiv oder nicht aktiv war, da dieser bereits für bis 58% Leistungssteigerung auf der GPU sorgen könnte.
Anandtech sieht das in einem Update ähnlich:
On the GPU side, the part I’m testing appears to be the single-core GPU configuration (6 EUs). Intel hasn’t released any info as to what parts will get the dual-core/12 EUs GPU configurations, although it may make sense for Intel to use the 12 EU parts in notebooks given the importance of integrated graphics to the mobile market. Update: The part we're looking at may actually have been a lower clocked 12 EU part, we're still waiting for additional confirmation.

Da der Turbo bei der CPU inaktiv war, bei Turbo 2.0 jedoch GPU und CPU Takt teil der Turbofunktion sind, ist es wahrscheinlich, dass man ca 50% Leistungssteigerung noch addieren muss da er inaktiv war.

Mit 32nm scheint auch Quadcore endgültig im mobilen Bereich angekommen zu sein. Bei niedrigem Grundtakt spielt der Turbo aber zunehmend eine wichtigere Rolle. 3,2 Ghz sind für das kleinste Modell schon verdamm viel...

Persönlich reichen mir im Notebook allerdings zwei Kerne / 4 Threads aus.

Für Spieler und andere Anwender mit höherem Anspruch an die Grafikleistung werden diskrete Lösungen aber nach wie vor unentbehrlich bleiben.

so sehe ich das auch.


Augenmerk sollte nach wie vor auf CPU, nicht auf GPU Leistung liegen. Wenn hier bei Sandy Bridge "nur" 20% IPC erreicht werden, wonach es aussieht wenn man dem Test glauben schenken darf, dann ist der Core i5 2520M | 2 / 4 | 2,5 / 3,2 GHz so schnell wie ein 3 Ghz / 3,82 Ghz Arrandale.

20% sehe ich als realistisch an, da Arrandale wie Clarkdale nicht an die IPC der normalen Nehalem Architektur herankommt, ein paar % aufgrund des in der GPU sitzenden Speicherinterface bzw die dadurch hohen Latenzen, abgeben muss. Sandy Bridge sollte dieses Problem beseitigen, da eine SingelChip Lösung.

Edit:

Nicht vergessen darf man, dass die TDP immer weniger mit dem Durchschnittsverbrauch aufgewogen werden kann und somit immer geringere Aussagekraft bezüglich des Energieverbrauchs liefert.

Bei den Quad Cores müssten alle 8 Threads voll belastet werden, was unter normalen Umständen so gut wie nie vorkommt. Selbst volle 4 Kern Auslastung ist eher selten.

Was auftreten sind einzelne "Last-Peaks" beim starten von Programme, normalen Operationen, beim Booten etc. Hier greift der Turbo - aber im Schnitt dürfte die Last bei unter 15% liegen.
 
Zuletzt bearbeitet:
Für Spieler und andere Anwender mit höherem Anspruch an die Grafikleistung werden diskrete Lösungen aber nach wie vor unentbehrlich bleiben.

Es soll endlich etwas im Desktop-Markt geschehen. Wieso wird nicht die Technologie aus dem Notebook-Segment übernommen? a'la Optimus (Nvidia), PowerExpress(AMD) ?

Im Idle-Betrieb brauche ich keine diskrete Graka, da reicht mir und wahrschlich 98% aller User die integrierte Grafiklösung.

Meine diskrete zieht zwar nur 27Watt im Idle, 12Watt wären aber besser.

Ist es auch. Jedenfalls bejahte mir Intel das mal bei einer Fragestunde bei PCGH. Aber die Grafikkarten- sowie Mainboardhersteller müssen da noch ihren Teil dazu beitragen. Die Ausgabe müsste ja immer über ein und den selben Anschluss geschehen.

Das wird wirklich das Hauptproblem sein. Ob die Anzeige über den PCB-Ausgang oder onboard-Ausgang geht, sollte egal sein. Es sind nur Bildsignale, die umgeleitet werden.
Maximal eine Bildverzögerung im ns-Bereich, die Bandbreite bleibt.

Die 12Watt sind nur ein Kompromis, eigentlich sollte es 0Watt heißen, da die Graka deaktiviert werden kann, wenn die integrierte arbeitet. Die Wattzahl ist aber nur 2.rangig.
Es geht um die Verlustleistung und Lautstärke. Und dazu ein 350Watt NT mit 85+ Gold, was sowieso Standard sein sollte.

Gruß Quarty
 
Zuletzt bearbeitet:
Quarty schrieb:
Es soll endlich etwas im Desktop-Markt geschehen. Wieso wird nicht die Technologie aus dem Notebook-Segment übernommen? a'la Optimus (Nvidia), PowerExpress(AMD) ?

seh ich auch so... wenns im Notebook Bereich funktioniert, warum sollten dann Dinge wie Optimus nicht auch im Desktopsegemnt verfügbar sein.


Dürfte doch ein leichtes sein, dies auch hier umzusetzen.
 
Für die Bezeichnungen könnte ich den Verantwortlichen bei Intel stundenlang gegen die Wand klatschen. :freak:

Aber tolle Prozessoren sinds auf jeden Fall.
 
Meine diskrete zieht zwar nur 27Watt im Idle, 12Watt wären aber besser.

Versteht mich bitte nicht Falsch - das ist jetzt auch etwas OT aber: Beim Stromverbrauch wird doch inzwischen auf recht hohem Niveau gejammert oder ? Von 27- auf 12 Watt sind doch gerade mal 15 Watt Unterschied, das bekommt man auch durch ein effizienteres Netzteil, Mainboard oder Ram hin (Das rechtfertigt natürlich nicht den unnötigen Mehrverbrauch einer einzelnen Komponente).
Weniger verbrauch bei gleicher Leistung ist immer besser aber irgendwann leidet dann doch auch die effiziens des Netzteils ("standard" 500W NT) darunter. Da sollte man wenn "man" schon auf jedes Watt guckt auch probieren die Netzteile im >20%-Bereich zu verbessern.

@ Unter mir

Wir hoffen halt weiterhin auf eine Besserung durch neue Architekturen und Fertigungsstrukturen ^^:evillol:
 
Zuletzt bearbeitet:
joa der Verbrauch hat sich stark gebessert wenn man sich noch die 8800 GTX Vergleichswerte reinzieht.

15 W ist natürlich wenig, aber nehm mal eine GTX 480 als Beispiel. Je dicker die Karte, dezo größer das Einsparpotential.

@ Über mir :D

ja hoffen wir. Prinzipiell dürfte für den Hersteller ja auch easy sein eine SLI /CF ähnliche Lösung auf einem PCB zu vereinen, heißt 16 Shader fürn Desktop / Wenig Load + ein 500 - X Shader Monster für die Games wecher im idle stromlos wird... Vielleicht würde man sich dadurch auch das aufwendige Integrieren und "erfinden" von Stromsparfunktionen sparen. Sollte doch prinzipiell sogar auf einem Chip vereinbar sein.

Hört sich auf den ersten Blick nicht leicht an... aber ist Optimus wirklich einfacher?
 
Zuletzt bearbeitet:
Sollte die Leistung des GPU Parts wirklich nochmal steigen, und Intel mit der Zeit auch die Treiber auf ein brauchbares Niveau hiefen ("Testlauf" für Larabee 2.0? ;) ) wären auf einmal sämtliche diskrete Einstiegs-GPUs obsolet. Nette Sache. Ich Frage mich allerdings, wie sich der Turbo verhält.

Nehmen wir an ich Zocke ein Spiel, der Turbo arbeitet und alles läuft bei rund 30fps flüssig, plötzlich ändern sich einige Parameter (Temp, Last, ...) und de GPU taktet runter -> Spiel ruckelt. Kurz darauf springt der Turbo wieder an -> Spiel läuft mit 30fps weiter.

So ein Verhalten wäre extrem nervend und würde letztendlich dazu führen, das man geringe Grafikdetails einstellt um in jedem Fall spielbare Frames zu erhalten. Somit wäre der Grafikturbo abesits von Benchmarks quasi vollkommen unbrauchbar und überflüssig...

Ich bin gespannt.
 
@digitalangel18

naja ... Intel wird schon schaun dass so ein Verhalten nicht auftritt. Imho takten heutige Grafikkarten bei wenig last ja auch herunter.
Wird man sehen wie die Dinger damit umgehen ^^ - und wieviel Energie Intel in den Treiber steckt.
Ob Spielen neue Bedeutung bekommen hat, kann man so noch schwer sagen.
 
@ digitalangel18

wirklich interessant die Frage. Aber eigentlich, müsste das doch klappen wenn z. Bsp. die Kühlung auf 45 Watt TDP ausgelegt ist und diese auch bei sagen wir mal 20°C Umgebungstemperatur abführen kann - also das der "Turbo" immer komplett ausgefahren werden kann. Demnach wäre der Turbo aber auch nichts anderes, als das die Rechenleistung im idle zurückgefahren wird wie bei heutigen GPUs schon üblich. Dann könnten AMD und Nvidia ihre Karten ja auch "mit Turbo bis zu 850 MHz" anpreisen^^ oder sehe ich das jetzt falsch ?
(schon klar das er sich der igp die tdp mit der cpu teilen muss)
 
Krautmaster schrieb:
Dürfte doch ein leichtes sein, dies auch hier umzusetzen.

Ist es auch. Jedenfalls bejahte mir Intel das mal bei einer Fragestunde bei PCGH. Aber die Grafikkarten- sowie Mainboardhersteller müssen da noch ihren Teil dazu beitragen. Die Ausgabe müsste ja immer über ein und den selben Anschluss geschehen.
 
Mich würde mal interessieren, was die IGP so bei etwas älteren Spielen leistet.
Gothic 3 z.B.: Wenn das flüssig auf der SB-GPU läuft, wäre mein Bruder über einen neuen Laptop sicherlich begeistert. Andere Spiele kennt er eh nicht :D

Obwohl ich zugeben muss, dass mich der Idle-Verbrauch im Test der Desktop-Variante etwas enttäuscht hat. Ich dachte, die SBs wären da nochmal etwas sparsammer als die Lynnfields.. Klar ist das Gejammer auch hohem Niveau, aber dann wäre es endlich problemlos möglich, mit dem TopFlow-Kühler semipassiv zu kühlen ;)

Grüße
jusaca
 
Zuletzt bearbeitet:
laut jedec gibt es keinen schnelleren speicher als DDR1333. erst recht keinen notebookspeicher. daher werden die mobilen sandybridge aucvh nur maximal mit einer ddr1333 speicherunterstützung kommen. man sollte hier nicht intels angaben zu was der speichercontroller alles so kann und dem was offiziell unterstützt wird vermischen. bei den desktopablegern geht das bis 2133mhz speicher soweit ich mich erinnern kann. das bedeutet allerdings lediglich dass die benötigten teiler zum referenztakt für solche speichertakte bereits vorhanden sind.
ddr3-1600 für mobile bedeutet lediglich dass ein 16x multiplikator zum referenztakt (100mhz) vorhanden ist. in etwa so wie früher die speicherteiler im chipsatz vorhanden sein mussten um den takt ohne übertaktung von fsb/agp/pcie bus zuzulassen.

derzeit sind die höchsten spezifizierten module für den mobilbereich ddr3 sodimm PC8500, also mit 1066 mhz. höhere sind zwar projektiert, entsprechende module allerdings noch nicht offiziell verfügbar.

Im desktopbereich gibt es demnächst erste jedec spezifizierte ddr3-1600 module, sowie projektierte spezifikationen bis ddr3-2133. gerüchte sprechend davon dass amd für bulldozer jedenfalls ddr3-1600 wenn möglich sogar den noch inoffiziellen standard ddr3-1866 verwenden will, während intel mit dem reiferen früheren sandybridge schon mit dem aktuellen ddr3-1333 standard auskommen möchte.
 
jusaca schrieb:

Da der Takt scheinbar im Idle nicht gesenkt wurde, kann EIST deaktiviert gewesen sein. Von daher sollte man dem nicht zu viel Beachtung schenken.


davidzo schrieb:
laut jedec gibt es keinen schnelleren speicher als DDR1333. erst recht keinen notebookspeicher. daher werden die mobilen sandybridge aucvh nur maximal mit einer ddr1333 speicherunterstützung kommen.

DDR3-1600 ist JEDEC abgesegnet!
 
abgesegnet schon, als desktopmodule mit einem genau spezifizierten takt timings und spannung. nicht aber die meisten module die derzeit im handel sind und mit sicherheit kein einziges sodimm ist mit 1600mhz jedec spezifiziert.

wie gesagt, die pläne sind da. das heißt noch lange nicht dass die notwendigen prüfungen erfolgt sind.
die meisten module im handel habven mit den jedec spezifikationen lediglich die taktfrequenz gemein. vom jedec entwurf bis zur jedec freigabe bis es dann nach den spezifikationen entwickelte module gibt dauert den herstellern zu lange. daher verwenden die selektierte chips die nach früheren spezifikationen hergestellt wurden und labeln die hoch. funktioniert meistens und erzeugt einen großen markt im retail, hat aber im oem-bereich absolut keine berechtigung.
 
Zuletzt bearbeitet:
davidzo schrieb:
derzeit sind die höchsten spezifizierten module für den mobilbereich ddr3 sodimm PC8500, also mit 1066 mhz. höhere sind zwar projektiert, entsprechende module allerdings noch nicht offiziell verfügbar.


ahja, komisch dass unsere notebooks seit monaten schon ddr1333 (PC10600) drin haben. :lol:

bild_anzeigen_kleiner.php
 
jusaca schrieb:
Obwohl ich zugeben muss, dass mich der Idle-Verbrauch im Test der Desktop-Variante etwas enttäuscht hat.

Mit den richtigen Netzteilen kann man da noch viel mehr rausholen. Effiziente Netzteile im 100-200 Wattbereich (und niedriger) werden gebraucht. Hoffentlich werden uns die Hresteller mal erhören. Auch sollte es mal Verbrauchstests mit diesen kleinen Netzteilen geben. ZUm Vergleich besseren Vergleich eine kleine Einstiegskarte rein. Bei den jetzigen Testmethoden geht es kaum noch eine bessere Leerlaufleistungsaufnahme zu haben.

PS: Gothic 3 wurde endlich mal so gepatched das es spielbar ist?
 
davidzo schrieb:
abgesegnet schon, als desktopmodule mit einem genau spezifizierten takt timings und spannung. nicht aber die meisten module die derzeit im handel sind und mit sicherheit kein einziges sodimm ist mit 1600mhz jedec spezifiziert.


JEDEC konformer DDR3-1600 CL9-9-9 gibt es zu genüge für Desktop.
 
Zurück
Oben