Bericht Bericht: Ivy Bridge trifft GTX 670M

Patrick

Rear Admiral
Registriert
Jan. 2009
Beiträge
5.267
Gut 15 Monate nach Sandy Bridge ist es soweit: Ende April wird Intel den Nachfolger Ivy Bridge ins Rennen schicken. Schon jetzt werfen wir einen Blick auf den Mobilableger und wollen klären, wie groß der Sprung geworden ist und für wen sich der Neuling in erster Linie lohnen könnte. Aber auch Nvidias GeForce GTX 670M wird einem ersten Test unterzogen und muss sich behaupten.

Zum Artikel: Bericht: Ivy Bridge trifft GTX 670M
 
könnt ihr testen ob die ivy bridge cpu auch mit 60er chipsätzen funktioniert?
 
:) ich freu mich schon auf meinen i5 3570k :) noch weniger stromaufnahme und eine schnellere IGP, mal sehen wie die sich bei knapp 2GHz schlägt...

hätte intel ruhig aggressiver fahren können, vllt bei 1,6GHz Turbotakt. Llano hätte keine chance wenn intel die ein wenig höher takten würde.
 
Interessanter Artikel.

Kleiner Fehler nebenbei auf der Fazit-Seite:

da zum Kauf eines Sandy-Bridge-Systems angesichts der vermutlich gleich bleibenden Preise nicht mehr geraten werden.
da muss doch ein 'kann' hinter oder nicht?
 
wirklich stromsparender sind die Neuen also nicht.
schneller ist die CPU auch nicht.
bleibt ne stärkere GPU

wirklich besser scheinen die Tri-Gate Transistoren wohl noch nicht zu sein.
(32nm zu 22nm ist ja nicht mal halb so groß)
da hätte ich weniger Stromaufnahme erwartet.
Dann bleibt zu hoffen das Tri-Gate bei 16nm vorteile bringt.
 
Zuletzt bearbeitet:
Wie schon beim Wechsel zu Sandy Bridge konnte die CPU-Leistung bei gleichem Takt gesteigert werden. Je nach Szenario und Anwendung konnten wir hier zwischen vier und dreizehn Prozent messen – ein nicht zu verachtender Wert. Berücksichtigt man zudem, dass die TDP im Vergleich zum verwendeten Sandy-Bridge-Vertreter mit 45 Watt fast 20 Prozent geringer ausfällt, wird die eigentliche Leistung Intels noch klarer erkennbar.

florian. schrieb:
wirklich stromsparender sind die Neuen also nicht.
schneller ist die CPU auch nicht.
bleibt ne stärkere GPU

wirklich besser scheinen die Tri-Gate Transistoren wohl noch nicht zu sein.
(32nm zu 22nm ist ja nicht mal halb so groß)
da hätte ich weniger Stromaufnahme erwartet.
Dann bleibt zu hoffen das Tri-Gate bei 16nm vorteile bringt.

Äh, was genau hast du dir denn vorgestellt?
 
@florian

Hast du auch den Test gelesen? Die CPU arbeitet schneller bei gleichen Takt auch wenn nur minimal, hat aber 20% niedriger angesetzte TDP. Also steigt die Effizienz ;)
 
Geht doch in die richtige Richtung. Hoffentlich funktionieren die Energiesparmechanismen bei der finalen Version dann aber richtig. Da ansonsten nur die TDP niedriger ist, nicht aber der reale absolute Verbrauch. Intel HD4000 würde mir reichen, da ich in der Regel nicht zocke. Aktuelle Titel bei niedrigsten EInstellungen flüssig wäre aber schon schön gewesen ;)
 
was bringt mir ein test mit einer 670m wenn nicht ein spiele-benchmark dabei ist?
so ein test ist einfach fürn arsch. jemand der sich ne 670 im notebook verbauen lässt, der will auch wissen wie flüssig er aktuelle spiele bei welchen details spielen kann. die 3d mark benchmarks interessieren mittlerweile doch nur noch die ober nerds, sonst kann niemand was damit anfangen.
 
Das Leistungsplus nimmt man gerne mit, auch wenn dabei bei nicht optimertem BIOS die Laufzeit etwas leidet.
 
Seltsam die Bad Company 2 iGPU Werte.


1366x768 Minimale Details, 1xAA/1xAF
3820QM HD4000- 38 fps
2960QM- HD3000- 37 fps

HD4000 wirklich nur 3% schneller?


1366x768 Maximale Details, 1xAA/1xAF
2620M HD3000- 17 fps
2960QM- HD3000- 14 fps
3820QM HD4000- 13 fps


Die gleich taktende HD3000 im 2620M schneller als im 55W 2960XM? Und HD3000 schneller als HD4000? Das mutet auf den ersten Blick kurios an.

1366x768 Maximale Details, 4xAA/16xAF
3820QM HD4000- 14 fps
2960QM- HD3000- 13 fps

Die HD400 gewinnt durch Zuschaltung von 4xMSAA an Leistung? Sollte 4xMSAA nicht Leistung kosten, insbesondere auf einer iGPU? Entweder der Treiber hat hier noch Verbesserungsbedarf, oder es liegt ein Testfehler zugrunde.
 
rebew schrieb:
Äh, was genau hast du dir denn vorgestellt?

Bully|Ossi schrieb:
@florian

Hast du auch den Test gelesen? Die CPU arbeitet schneller bei gleichen Takt auch wenn nur minimal, hat aber 20% niedriger angesetzte TDP. Also steigt die Effizienz ;)
Ich denke schon, dass florian. den Test gelesen hat. Er hat aber wohl auch die CB-News gelesen, in der stand, dass die "FinFET" Transistoren Einsparungen beim Energiebedarf von über 50% bewirken sollen.
Intel kündigt revolutionären 3D-Transistor an
 
tgsn4k3 schrieb:
hätte intel ruhig aggressiver fahren können, vllt bei 1,6GHz Turbotakt. Llano hätte keine chance wenn intel die ein wenig höher takten würde.

nett getrollt ;)

die hd4000 kommt gerade so an die A6(grafikleistung), mit nur etwas mehr takt ist da nicht viel gewonnen. und bedenke, dass trinity in einem monat nochmals bis zu 50% drauflegen soll ;)
 
Stromverbrauch ist wohl nicht gesunken, sehr enttäuschend. Scheint fast so als frist die HD 4000 sämtliche Effizienzvorteile von 22 nm auf.

Bessere Akkulaufzeit war für mich der Hauptvorteil von Ivy B.. Die geringere TDP scheint nur Marketing/ Politik zu sein. Na ich hoffe, das die Dualcorevarianten hier zumindest besser werden, sonst kann man auch gleich einen Trinity nehmen.
 
Die neuen Transistoren sollen für den Leistungszuwachs verantwortlich sein?
Na das wage ich mal zu bezweifeln. Damit lässt sich sicherlich die Effizienz steigern, aber die nicht die Rechenleistung der Architektur. Wie soll das denn funktionieren?

Ansonsten aber bewundernswert, dass ihr euch getraut habt, den Test durchzuführen. Gibt es da in Zukunft keine Probleme mit Intel bzgl. Vorabinfos/Produktversorgung?

Grüße
jusaca
 
Battlefield 3 auf Full-HD mit hohen Details noch spielber, die GTX 670m ist schon ganz gut.
Wenn man noch an den Einstellungen was dreht geht da bei minimal schlechterer Grafik bestimmt nochmal was um die 40fps zu knacken.
Für eine Notebookgrafikkarte sind das super Werte.
 
Zurück
Oben