Die Änderungen an der CPU selbst halte ich nicht für so weltbewegend - aber die an der GPU sind eine Revolution, und zwar keine kleine! Das Ding ist teilweise dreimal so schnell wie sein Vorgänger und übertrifft hier und da eine Radeon 5450. Sprich: Man kann praktisch sämtliche Spiele wenn auch in niedrigen Einstellungen _ohne_ eine Grafikkarte spielen und der Markt für Grafikkarten bis 50€ rauf ist tot. Das ganze dürfte enden, wie einst als die soundchips auf die Mainboards kamen: Nach ein paar Jahren hatten nur noch die Freaks eine Karte, der Markt für die "Hauptsache Krach"-Preisklasse existiert nicht mehr.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Erster Test: „Sandy Bridge“ kann überzeugen
- Ersteller Volker
- Erstellt am
- Zur News: Erster Test: „Sandy Bridge“ kann überzeugen
W
wadenbeisser
Gast
Zu meiner aktiven Zeit tat sich schon deutlich mehr bei meinen 4 Kernen allerdings ist das auch ein Einstellungssache.nille02 schrieb:Dieser ist aber nicht wirklich existent. Der Zweite Core zuckt mal ab und an aber das war es auch schon (Auch im Raid oder CPU lastigen gebieten wie Dalaran).
Die größten Leistungsfresser waren die max. Schattendetails und der Punkt mit der Verringerung der Eingabeverzögerung allerdings kann ich nicht genau sagen ob diese Features CPU oder eher GPU lastig waren. Das einzige was ich noch weiss war das nur noch ein Bruchteil der Framerate übrig blieb wenn die beiden Punkte eingestellt waren.
Das der Multicore Support allerdings nicht allso prall sein kann sieht man auch an der verhältnismäßig geringen Leistungssteigerung bei 50% mehr Kernen.
Weltenspinner
Inkubus-Support
- Registriert
- März 2009
- Beiträge
- 5.036
Schon mal versucht mit Intels Treibern zu spielen? Wenn sie da nicht
genauso gute Arbeit geleistet haben, war es das mit Spielen. 1/3 aller
Spiele läuft gar nicht erst an und selbst wenn, darf man lustige Grafik-
fehler bewundern. Ich bilde mir da aber erst ein Urteil, wenn die sand-
ige Brücke auf dem Markt ist. Eine Grundskepsis bleibt allerdings.
Das Fehlen von DX11 stellt für mich ein großes Manko da. Die GPU-
Beschleunigung bei Flash und Video-Material will ich nicht mehr missen.
genauso gute Arbeit geleistet haben, war es das mit Spielen. 1/3 aller
Spiele läuft gar nicht erst an und selbst wenn, darf man lustige Grafik-
fehler bewundern. Ich bilde mir da aber erst ein Urteil, wenn die sand-
ige Brücke auf dem Markt ist. Eine Grundskepsis bleibt allerdings.
Das Fehlen von DX11 stellt für mich ein großes Manko da. Die GPU-
Beschleunigung bei Flash und Video-Material will ich nicht mehr missen.
Jeder kann es nachrechnen - Taktnormiert leistet Sandy Bridge circa nur 10% mehr, was man allein schon auf den Shrink auf 32nm schieben koennte. Takt- und Kernnormiert leistet SB so viel wie ein hexacore Westmere.
High- und Low-End Bereiche durften den Shrink von 45nm auf 32nm schon Ende 2009 erfahren, Mainstream leider nicht. Einzige Quadcores mit dem Shrink sind bisher Xeons, die mit rund 300+ Euro aufwarten (LGA1366). Die lassen sich übrigens genial auf 4,1 bis 4,3 GHz im Dauerbetrieb, ohne Herzinfaktverursachende Voltages, takten.
Wenn man einen Nehalem, egal welcher Generation besitzt, lohnt ein Aufrüsten für den Gamer/Homeuser definitiv nicht. Dazu ist der P67 zu enttäuschend. Was den Multi-GPU-betrieb angeht.... 5% weniger FPS einfach weil man wieder Lanes spart. Ich bereue es eigentlich, nicht vor anderthalb Jahren einen Lynnfield gekauft zu haben, denn mit SB kommt ausser 10% Mehrleistung nichts brauchbares. Nichts.
Achja, liebe Redaktion, ihr habt wohl vergessen die ganzen Overclocking Restriktionen zu erwähnen Dass man NICHTS am RAM-Takt drehen koennen wird oder gar am QPI Takt; nur bei gesonderten Modellen den Multiplikator verändern darf - also bitte! Das bedeutet 100MHz QPI fest, 1333RAM fest. Kein Overclocking mehr im herkömmlichen Sinne, nur ein hochdrehen des Multiplikators. Keine Budget CPUs mehr gen MHz-Himmel jagen. Mich ärgert so etwas zu tiefst, da hierdurch sicher keine weltuntergangeinleitende Verluste eingefahren werden.
Vorläufiges Fazit:
Trotz aufgemöbelter Grafik und guter Mehrleistung bleibt dieses Produkt ein Papier-Drache.
Ein nett overclockter Lynnfield übersteht diesen Tock mit einem Lächeln und darf die Arme gen Ivy entstrecken.
High- und Low-End Bereiche durften den Shrink von 45nm auf 32nm schon Ende 2009 erfahren, Mainstream leider nicht. Einzige Quadcores mit dem Shrink sind bisher Xeons, die mit rund 300+ Euro aufwarten (LGA1366). Die lassen sich übrigens genial auf 4,1 bis 4,3 GHz im Dauerbetrieb, ohne Herzinfaktverursachende Voltages, takten.
Wenn man einen Nehalem, egal welcher Generation besitzt, lohnt ein Aufrüsten für den Gamer/Homeuser definitiv nicht. Dazu ist der P67 zu enttäuschend. Was den Multi-GPU-betrieb angeht.... 5% weniger FPS einfach weil man wieder Lanes spart. Ich bereue es eigentlich, nicht vor anderthalb Jahren einen Lynnfield gekauft zu haben, denn mit SB kommt ausser 10% Mehrleistung nichts brauchbares. Nichts.
Achja, liebe Redaktion, ihr habt wohl vergessen die ganzen Overclocking Restriktionen zu erwähnen Dass man NICHTS am RAM-Takt drehen koennen wird oder gar am QPI Takt; nur bei gesonderten Modellen den Multiplikator verändern darf - also bitte! Das bedeutet 100MHz QPI fest, 1333RAM fest. Kein Overclocking mehr im herkömmlichen Sinne, nur ein hochdrehen des Multiplikators. Keine Budget CPUs mehr gen MHz-Himmel jagen. Mich ärgert so etwas zu tiefst, da hierdurch sicher keine weltuntergangeinleitende Verluste eingefahren werden.
Vorläufiges Fazit:
Trotz aufgemöbelter Grafik und guter Mehrleistung bleibt dieses Produkt ein Papier-Drache.
Ein nett overclockter Lynnfield übersteht diesen Tock mit einem Lächeln und darf die Arme gen Ivy entstrecken.
Zuletzt bearbeitet:
Vitec
Commodore
- Registriert
- Okt. 2006
- Beiträge
- 4.920
Ein nett overclockter Lynnfield übersteht diesen Tock mit einem Lächeln und darf die Arme gen Ivy entstrecken.
Tja der 2400er wäre für mich ja interessant da ich noch einen e6600 habe und der das halbe jahr noch überstehen muss.
Allerdings spricht eine absichtliche oc-sperre für den kauf eines amd wenn dieser nicht wesentlich schlechter wird.
Mal abwarten und Tee trinken .
Mfg
V
Tja der 2400er wäre für mich ja interessant da ich noch einen e6600 habe und der das halbe jahr noch überstehen muss.
Allerdings spricht eine absichtliche oc-sperre für den kauf eines amd wenn dieser nicht wesentlich schlechter wird.
Mal abwarten und Tee trinken .
Mfg
V
Zuletzt bearbeitet:
Und wie viele Leute mit Quad-Nehalem spielen heute mit HD 5450?TheK schrieb:Die Änderungen an der CPU selbst halte ich nicht für so weltbewegend - aber die an der GPU sind eine Revolution, und zwar keine kleine! Das Ding ist teilweise dreimal so schnell wie sein Vorgänger und übertrifft hier und da eine Radeon 5450. Sprich: Man kann praktisch sämtliche Spiele wenn auch in niedrigen Einstellungen _ohne_ eine Grafikkarte spielen und der Markt für Grafikkarten bis 50€ rauf ist tot. Das ganze dürfte enden, wie einst als die soundchips auf die Mainboards kamen: Nach ein paar Jahren hatten nur noch die Freaks eine Karte, der Markt für die "Hauptsache Krach"-Preisklasse existiert nicht mehr.
Also, wenn ich mir einen Quad von Nehalem kauf und eine Grafik brauche, dann kaufe ich mir eine dementsprechende potente Grafikkarte.
Die Sandy-Bridge Quad-Notebooks werden genausowenig Massen-Ware sein, wie die alten Nehalem-Quads.
Und die Sandy-bridge-Dual-Core-Notebooks werden ebne nur die halbe GPU-Power des Quads haben.
Und drittens kommt 2011 eh eine neue Low-End-GPU von AMD, die sich wahrscheinlich auf die neue Situation (=mehr SP & Co Einheiten) angepasst hat.
Und viertens, so überragend ist das nicht.
HD 5450 ist mit der Problematischen 40nm-TSMC gefertig, während Intel das mit 32nm-HKMG fertigt.
Interessant wird es, wenn AMD mit Fusion und vielleicht 480 SP (=6 mal so viel wie HD 5450) daherkommt.
Zuletzt bearbeitet:
Lustig diese "da passen sich die anderen an"-Kommentare. Darum geht es aber gar nicht! Wer nicht ausschließlich FPS-Geile Gamer mit mehr oder minder unbegrenztem Budget um sich herum hat, wird schon gemerkt haben, dass die Tage der allgegenwärtigen Grafikkarten gezählt sind – wer nicht spielt, hat heute keine mehr. Aber wer keine hat, kann eben auch nicht spielen, denn die Leistung gerade bei Intels integrierter GPU ist viel zu schlecht, als dass sich die Entwickler das Ding antun. Da sagt man einfach 'geht nicht' und erledigt ist die Sache.
Und jetzt kommen wir an den Punkt, wo man sich mit dem Verzicht auf eine Grafikkarte nicht mehr völlig gegen Spiele entscheiden muss. Nun gibt es eine GPU in (mittelfristig) *jedem* Rechner, die auf einem Stand ist, an den man sich anpassen kann und sicherlich auch anpassen wird. Zu einer GPU wird dann nicht mehr gegriffen, wenn man *überhaupt* spielen will, sondern wenn die Ansprüche an die Optik höher sind – entsprechend muss auch der Mehrwert einer solchen Karte wesentlich größer sein, denn niemand wird 40€ ausgeben, um 20% mehr Leistung gegenüber dem Grundsystem zu haben.
Und jetzt kommen wir an den Punkt, wo man sich mit dem Verzicht auf eine Grafikkarte nicht mehr völlig gegen Spiele entscheiden muss. Nun gibt es eine GPU in (mittelfristig) *jedem* Rechner, die auf einem Stand ist, an den man sich anpassen kann und sicherlich auch anpassen wird. Zu einer GPU wird dann nicht mehr gegriffen, wenn man *überhaupt* spielen will, sondern wenn die Ansprüche an die Optik höher sind – entsprechend muss auch der Mehrwert einer solchen Karte wesentlich größer sein, denn niemand wird 40€ ausgeben, um 20% mehr Leistung gegenüber dem Grundsystem zu haben.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
aylano schrieb:Überzeugen, tut mich die CPU-Architektur nicht so.
Denn die paar % IPC-Performance-Steigerung hatte ja damals Penryn schon geschafft.
Und mit 32nm vs. 45nm sowie 1,00 Volt statt 1,15 Volt ist so eine Reduktion im Last-Stromverbrauch jetzt auch nicht sooo die Überraschung.
https://www.computerbase.de/2007-10/test-intel-core-2-extreme-qx9650/22/#abschnitt_performancerating
Penryn hat also im Schnitt eine Steigerung von 5% gebracht.
Beim Peryn -> Nehalem waren ec ca 20% abzüglich des Turbos der aber bei der 1366er Reihe gering ausfällt. Also ca 15%.
https://www.computerbase.de/2008-11...5-extreme-edition/11/#abschnitt_cinebench_r10
Lynnfield war noch einen Tick besser, allerdings macht der hohe Turbo das Ergebnis schwammig.
Von Nehalem gibt es keinen wirklichen Shrink. Deswegen lässt sich das schwer beurteilen.
Allen Anschein nach holt Intel aber ein ganzes Stück mehr raus - was bei den heutigen x86 Kernen anscheinend alles andere als leicht ist. Sprünge wie P4 -> C2D werden wir wohl nicht mehr erleben da die CPUs an der Grenze des mit x86 machbaren sind. Alles über 5-10% wäre schon erstaunlich viel.
Die wichtige Idle Leistunsgaufnahme sank im Desktopbereich beachtlich, mit 32nm schlägt das auch deutlich auf den Last Verbrauch durch.
Edit: Zum Vergleich bei AMD:
Athlon XP -> Athlon 64
https://www.computerbase.de/2004-05...lus/22/#abschnitt_leistungsrating_fortsetzung
XP3200 (2,2 Ghz) vs Athlon 64 3400+ (2,2 Ghz)
-> 14%
Athlon 64 -> Phenom I
https://www.computerbase.de/2008-05/test-amd-phenom-x4-9850-black-edition/4/#abschnitt_super_pi
Super PI (1 Kern)
X2 6000+ (F3) @ 2,20 GHz vs X4 9550 (B3 sim.), 2,2 GHz
-> 8%
Phenom I -> Phenom II
https://www.computerbase.de/2009-01...-940-black-edition/7/#abschnitt_cinebench_r10
Phenom X4 9950, 2,60 GHz -> Phenom II X4 2,60 GHz
-> lausige 3%.
Edit2:
Beim P4 -> C2D waren es teilweise fast 100% (bezogen auf den Takt)
https://www.computerbase.de/2006-07/test-intel-core-2-extreme-x6800/12/#abschnitt_cinema4d
Pentium D 930 S775 (3,0 Ghz) vs Core 2 Extreme X6800 (~3Ghz)
-> 93%
Ergänzung ()
michbekk schrieb:Vorläufiges Fazit:
Trotz aufgemöbelter Grafik und guter Mehrleistung bleibt dieses Produkt ein Papier-Drache.
Ein nett overclockter Lynnfield übersteht diesen Tock mit einem Lächeln und darf die Arme gen Ivy entstrecken.
du hattest nicht ernsthaft was anderes erwartet?
Zuletzt bearbeitet:
WulfmanGER
Commander
- Registriert
- Juli 2005
- Beiträge
- 2.298
Irgendwas kommt mir hier spanisch vor ... Intel will eine neue CPU aufm Markt schmeißen die "nur" ca. 160€ kosten wird, von der Performance aber eine ca. 1000€-CPU aus eigenem Hause (i7-980X) alt aussehen lässt? Glaube ich nicht dran ... Gefakte CPU-Benchs?
Grafisch möchte ich die Performance nicht in frage stellen - aber CPU-Seitig ganz klar! Intel wird nen Teufel tun freiwillig statt 1000€ nur noch 160€ zu verdienen [ok das sind Endkundenpreise - aber es geht ums verhältnis]
Gruß
Grafisch möchte ich die Performance nicht in frage stellen - aber CPU-Seitig ganz klar! Intel wird nen Teufel tun freiwillig statt 1000€ nur noch 160€ zu verdienen [ok das sind Endkundenpreise - aber es geht ums verhältnis]
Gruß
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
Wulfman_SG schrieb:Irgendwas kommt mir hier spanisch vor ... Intel will eine neue CPU aufm Markt schmeißen die "nur" ca. 160€ kosten wird, von der Performance aber eine ca. 1000€-CPU aus eigenem Hause (i7-980X) alt aussehen lässt? Glaube ich nicht dran ... Gefakte CPU-Benchs?
Grafisch möchte ich die Performance nicht in frage stellen - aber CPU-Seitig ganz klar! Intel wird nen Teufel tun freiwillig statt 1000€ nur noch 160€ zu verdienen [ok das sind Endkundenpreise - aber es geht ums verhältnis]
Gruß
naja... vergess nicht, dass die CPU erst in ca 4 Monaten auf den Markt kommt. Und bei Multithreading Anwendungen, wofür der X6 geeignet ist, behält er auch die Nase vorn.
Der 2600K wird auch 500€ aufwärts kosten bzw gegen die 1000€ gehn. Neues High-End Modell ersetzt ein älteres - der richtige Nachfolger kommt aber erst Mitte 2011 mit dem 6 / 8 Kern Sandy Bridge für den neuen High End Sockel.
Edit:
Außerdem kommt deine besagte 160€ CPU ohne HT daher!
Zuletzt bearbeitet:
Für beides brauchst du kein DX11.Weltenspinner schrieb:Das Fehlen von DX11 stellt für mich ein großes Manko da. Die GPU-
Beschleunigung bei Flash und Video-Material will ich nicht mehr missen.
Beschleunigung von HD-Videos können auch DX9 Karten (bei Intels IGPs seit dem GMA4500HD ohne Probleme) und Adobes GPU-Beschleunigung funktioniert auch mit DX10.0 Karten.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
korrekt, das wollte ich auch noch anmerken. Genauso sinnfrei ist AMDs Fusion Präsentation, welche das tolle MS Office 2010 mit standardmäßig aktivierter GPU Beschleunigung zeigt. Selbst in Clarkdale hat mit Full HD damit kein Problem ^^
Genau für so Spielereien ist die IGP auch da, nicht für Crysis oder anderen Käse.
Und DX11 beschleunigtes "browsen" halte ich auch für ein Luftschloss. Wüsste nicht wie oft ich auf GPU gestütztes Webseiten Rendering angewiesen war. Natürlich ein extrem gutes Gefühl 3000 Icons in 3D über meinen TFT rasen zu sehen. Ganz ehrlich, viele installieren Adblock um genau solchen Krampf zu unterbinden
IGP ist IGP und die wird so konzipiert sein, dass sie auch für Windows 8 / optische Spielereien in Office, M$ 3D Schach, Transparenz etc ausreichend ist. Mehr ist auch gar nicht nötig.
Warum soll ich mir einen 400 "Shader-Klotz" ans Bein binden, wenn ich den Rechner für rein Office benötige? Jedes W den der Verbrauch dazu steigt wäre verschenkt. Es muss halt in gesundem Rahmen bleiben.
Genau für so Spielereien ist die IGP auch da, nicht für Crysis oder anderen Käse.
Und DX11 beschleunigtes "browsen" halte ich auch für ein Luftschloss. Wüsste nicht wie oft ich auf GPU gestütztes Webseiten Rendering angewiesen war. Natürlich ein extrem gutes Gefühl 3000 Icons in 3D über meinen TFT rasen zu sehen. Ganz ehrlich, viele installieren Adblock um genau solchen Krampf zu unterbinden
IGP ist IGP und die wird so konzipiert sein, dass sie auch für Windows 8 / optische Spielereien in Office, M$ 3D Schach, Transparenz etc ausreichend ist. Mehr ist auch gar nicht nötig.
Warum soll ich mir einen 400 "Shader-Klotz" ans Bein binden, wenn ich den Rechner für rein Office benötige? Jedes W den der Verbrauch dazu steigt wäre verschenkt. Es muss halt in gesundem Rahmen bleiben.
Zuletzt bearbeitet:
noskill
Lieutenant
- Registriert
- Sep. 2008
- Beiträge
- 925
@Krautmaster
Mit deiner GPU garnicht, weil die kein dx11 unterstützt.
@bensen
Das funktioniert längst nicht bei allen Formaten und bei noch höheren Auflösungen schon garnicht mehr...da funktioniert aber super OpenCL und nun rate mal mit welcher dx Version das hinzugekommen ist.
Genauso wie man mit OpenCL alle anderen Dinge wie z.B. Packprogramme und Videokonvertierung massiv beschleunigen kann.
Mit deiner GPU garnicht, weil die kein dx11 unterstützt.
@bensen
Das funktioniert längst nicht bei allen Formaten und bei noch höheren Auflösungen schon garnicht mehr...da funktioniert aber super OpenCL und nun rate mal mit welcher dx Version das hinzugekommen ist.
Genauso wie man mit OpenCL alle anderen Dinge wie z.B. Packprogramme und Videokonvertierung massiv beschleunigen kann.
Zuletzt bearbeitet:
(dx10 zu dx11 korrigiert)
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
noskill schrieb:@Krautmaster
Mit deiner GPU garnicht, weil die kein dx10 unterstützt.
@bensen
Das funktioniert längst nicht bei allen Formaten und bei noch höheren Auflösungen schon garnicht mehr...da funktioniert aber super OpenCL und nun rate mal mit welcher dx Version das hinzugekommen ist.
Genauso wie man mit OpenCL alle anderen Dinge wie z.B. Packprogramme und Videokonvertierung massiv beschleunigen kann.
ähm, um was gehts? Deine GPU? Dx10 ? hä?
-> super OpenCL und Dx11 sind seit einem Jahr am Markt, wow wirklich atemberaubend wie schnell meine Programme seither geworden sind.
Ich sehe noch keine Packprogramme die davon Profitieren. Außerdem wir die Zahl derer, die Videokonvertierung in großem Stil zu Hause durchführen, sehr gering sein. Die CPU ist für die breite Masse konzipiert, nicht für einzelne Anwendungen die vielleicht bei 0,5% der Bevölkerung Vorteile bringen würde. Da spart sich Intel lieber das Geld und setzt auf die ältere DX Version. Um die GPU Dx11 zu zertifizieren müsste man zudem eine Tessellationseinheit etc einbauen...
Krautmaster schrieb:[...]
-> super OpenCL und Dx11 sind seit einem Jahr am Markt, wow wirklich atemberaubend wie schnell meine Programme seither geworden sind.
Ich sehe noch keine Packprogramme die davon Profitieren. [...] Da spart sich Intel lieber das Geld und setzt auf die ältere DX Version. Um die GPU Dx11 zu zertifizieren müsste man zudem eine Tessellationseinheit etc einbauen...
Nur weil Intel als Marktführer es nicht gebacken bekommt, hier endlich mal aufzuschließen, heißt das noch lange nicht, dass die Alternativen der Konkurrenz überflüssig sind bzw. über das Ziel hinausschießen.
Es ist auch sowas von im Sinne der Weiterentwicklung, wenn weiterhin auf alte Dx-Versionen gesetzt wird, obwohl man es Dx11 effizienter erledigen könnte.
noskill
Lieutenant
- Registriert
- Sep. 2008
- Beiträge
- 925
@Krautmaster
dx11 bringt dir nichts, weil die Hardware aus deiner Signatur kein dx11 unterstützt.
Wie willst du also Geschwindigkeitsvorteile bemerken?
Ausserdem ist OpenCL im Kommen, aber kein Wunder, dass Intel das blockt indem die eigene immernoch lahme Grafik kein dx11 unterstützt.
Wenn es nach Intel ginge würde sich OpenCL genau wie CUDA niemals durchsetzen, damit Intel weiter für 1000€ Oberklasse-CPUs verkaufen kann.
dx11 bringt dir nichts, weil die Hardware aus deiner Signatur kein dx11 unterstützt.
Wie willst du also Geschwindigkeitsvorteile bemerken?
Ausserdem ist OpenCL im Kommen, aber kein Wunder, dass Intel das blockt indem die eigene immernoch lahme Grafik kein dx11 unterstützt.
Wenn es nach Intel ginge würde sich OpenCL genau wie CUDA niemals durchsetzen, damit Intel weiter für 1000€ Oberklasse-CPUs verkaufen kann.
HITCHER_I
Commodore
- Registriert
- Okt. 2006
- Beiträge
- 4.777
Ja, der Annand war fleissig, aber ihr kopiert da gleich alle Charts von ihm,
da braucht man dann schon fast nicht mehr auf seine Seite und dort
den originalen Artikel durchzulesen.
10% mehr Leistung bei gleichem Takt, und geringerer Stromverbrauch
gegenüber aktuellen i5/i7, oder aber noch höherer Takt und ca. 25% mehr Rechenleistung bei den freigeschalteten CPUs bei dann gleichem Stromverbrauch.
(nicht vergessen, man kann von den 95W ja die TDP der integrierten Grafik abziehen,
wenn man die nicht verwendet, und dann mit einem i5-760 vergleichen)
Ist schon ein schöner Schritt zu mehr effizienter Rechenleistung, sogar ohne
dafür die Anzahl der Kerne noch weiter zu erhöhen.
Hoffentlich kann AMD mit Bulldozer da gut mit der Rechenleistung mithalten.
da braucht man dann schon fast nicht mehr auf seine Seite und dort
den originalen Artikel durchzulesen.
10% mehr Leistung bei gleichem Takt, und geringerer Stromverbrauch
gegenüber aktuellen i5/i7, oder aber noch höherer Takt und ca. 25% mehr Rechenleistung bei den freigeschalteten CPUs bei dann gleichem Stromverbrauch.
(nicht vergessen, man kann von den 95W ja die TDP der integrierten Grafik abziehen,
wenn man die nicht verwendet, und dann mit einem i5-760 vergleichen)
Ist schon ein schöner Schritt zu mehr effizienter Rechenleistung, sogar ohne
dafür die Anzahl der Kerne noch weiter zu erhöhen.
Hoffentlich kann AMD mit Bulldozer da gut mit der Rechenleistung mithalten.
digitalangel18
Vice Admiral
- Registriert
- Mai 2005
- Beiträge
- 6.581
Wulfman_SG schrieb:Irgendwas kommt mir hier spanisch vor ... Intel will eine neue CPU aufm Markt schmeißen die "nur" ca. 160€ kosten wird, von der Performance aber eine ca. 1000€-CPU aus eigenem Hause (i7-980X) alt aussehen lässt? Glaube ich nicht dran ... Gefakte CPU-Benchs?
Grafisch möchte ich die Performance nicht in frage stellen - aber CPU-Seitig ganz klar! Intel wird nen Teufel tun freiwillig statt 1000€ nur noch 160€ zu verdienen [ok das sind Endkundenpreise - aber es geht ums verhältnis]
Gruß
Gehen wir mal die Benches durch
Bild 1 - Photoshop CS4 - etwa 11% Mehrleistung gegenüber dem gleichgetakteten Core i7 880. 980X scheint nichts aus seinen zusätzlichen 2 Kernen holen zu können, gleiches gilt für den 6 Kern AMD. Hier ist also die Software mal wieder "veraltet".
Bild 2 - Mpeg 2 zu Divx transcoding - gleichstand mit gleichgetaktetem core i7 880 ~0% Mehrleistung. Core i7 980X setzt seine zusätzlichen beiden Kern recht gut ein, dem AMD 6 Kerner fehlen die Intel SSE4 Erweiterungen die von der Software stark genutzt werden, drum fällt der zurück.
Bild 3 - mpeg 2 zu h264 transcoding - hier kann man sich rund 15% vom core i7 880 absetzen. Der Phenom X6 scheint diesmal auf allen 6 Kernen zu laufen, trotzdem fehlen wieder die Erweiterungen für ein noch besseres Ergebnis. Warum der Core i7 980X hier nicht mehr reisst kann ich aber auch nicht sagen.
Bild 4 - 3dsmax 9 - hier wieder gleichstand mit gleichgetaktetem Core i7 880 bzw. etwa 9% Vorsprung mit aktiviertem HT. 6 Kerne scheinen auch wieder nicht viel zu bringen.
Bild 5 - Cinebench R10 single threaded(!)- hier erreicht man wieder die schon vorher oft beobachtete ~12% mehreistung gegenüber der alten architektur. da der bench nur einen kern nutzt kann der i7 980x hier keinen vorsprung erarbeiten, die amd architektur fällt erwartungsgemäß zurück.
Bild 6 - Cinebech R10 multi threaded - hier wieder ~11% (bzw. ~19% mit HT) vorsprung auf die alte Architkeur. 6Kerner sowohl bei Intel als auch bei AMD endlich mal voll genutzt und mit erwarteter Leistung.
Bild 7 - POV-Ray - hier scheint HT sehr viel zu bringen. Mit aktiviertem HT ist man wieder ~15% schneller als der i7 880(mit ht), ohne langsamer. 6 Kerne werden auch voll genutzt, drum rennt der 980X hier allem davon. Dem AMD fehlt HT, drum sieht er hier kein Land gegen Intels (noch) Flagschiff, behauptet sich aber ganz gut gegen die anderen Intel CPUs.
Bild 8 - Games Batman - hier werden offensichtlich max. 4 Kerne genutzt und der Takt macht auch keinen großen Unterschied, alle CPUs quasi gleichschnell, so wie man das kennt. Die Graka macht die ganze Arbeit.
Die GPU Benches erspare ich mir jetzt mal.
Zusammenfassend kann man also sagen, das Sandy Bridge in diesen Benches im Mittel also rund 10-15% Mehrleistung gegenüber der alten Architektur (bei gleichem Takt) für sich verbuchen kann. Was soll daran bitte Fake sein?
Ausserdem sieht man, das 6 Kerne bei entsprechender Nutzung gut abgehen un der Core i7 980x dann (weit) vorne liegt. Sind nur maximal 4 Kerne genutzt hat er ausser dem höheren Takt keinen Vorteil mehr. Das ist aber alles nicht weiter verwunderlich oder? Klar dass das 1000€ Monstrum unter solchen Bedingungen nicht viel schneller als die neue günstige CPU sein kann.
Zuletzt bearbeitet:
- Registriert
- Juni 2006
- Beiträge
- 44.444
LHC schrieb:nur 20% mehrleistung, das ist doch nichts, ein umstieg von einem Q9550 lohnt sich immer noch nicht, dann muss ich bis 2012/2013 warten oder bei AMDs Bulldozer auf hoffnungen warten
Ja, das sehe ich auch so.
Nein, mein i5 750 läuft bei 2,6 GHz auch mit 1 Volt. Und nun?Masterchief79 schrieb:Überrascht eigentlich niemanden die Tatsache, dass das Ding bei 3.1GHz inkl. Turbo bei unter 1V lief?
Ich versteh die Komplimente ebenfalls nicht. In manchen Tests aus dieser News ist der i5 2400 bis zu 1/4 schneller als ein i5 760. Allerdings hat der i5 2400 dafür auch rund 10% mehr Takt, wenn ich das richtig sehe. Da relativiert die Geschichte schon mal empfindlich.michbekk schrieb:Jeder kann es nachrechnen - Taktnormiert leistet Sandy Bridge circa nur 10% mehr, was man allein schon auf den Shrink auf 32nm schieben koennte. Takt- und Kernnormiert leistet SB so viel wie ein hexacore Westmere.
High- und Low-End Bereiche durften den Shrink von 45nm auf 32nm schon Ende 2009 erfahren, Mainstream leider nicht. Einzige Quadcores mit dem Shrink sind bisher Xeons, die mit rund 300+ Euro aufwarten (LGA1366). Die lassen sich übrigens genial auf 4,1 bis 4,3 GHz im Dauerbetrieb, ohne Herzinfaktverursachende Voltages, takten. [...]
Vorläufiges Fazit:
Trotz aufgemöbelter Grafik und guter Mehrleistung bleibt dieses Produkt ein Papier-Drache.
Ein nett overclockter Lynnfield übersteht diesen Tock mit einem Lächeln und darf die Arme gen Ivy entstrecken.
Wer jetzt noch eine sehr teure Sockel 1366 Plattform hat ist mit einem 32nm Xeon - auch für 300 Euro - vermutlich kaum schlechter gestellt. Man muss nicht gleich das vermutlich 150-200 Euro teure Mainboard weg werfen und so ein Xeon wird auch noch in 2 Jahren einen akzeptablen Wiederverkaufswert erzielen unter Kennern. Wozu also Sockel 1155?
Nein, die Benchmarks stimmen meinetwegen. Aber es sollte doch wohl jedem, der einen Schritt weiter denkt, auffallen, dass hier die Software die Leistung des Sechskerners nicht abzurufen weiß. Ergo ist er in manchen Charts rund 10% schneller als etwa der i5 2400.Wulfman_SG schrieb:Irgendwas kommt mir hier spanisch vor ... Intel will eine neue CPU aufm Markt schmeißen die "nur" ca. 160€ kosten wird, von der Performance aber eine ca. 1000€-CPU aus eigenem Hause (i7-980X) alt aussehen lässt? Glaube ich nicht dran ... Gefakte CPU-Benchs?
Warum ist das so? Weil er 10% mehr Takt hat.
Fazit:
Wer untervolten und übertakten kann, dem dürfte diese Generation ein müdes Lächeln entlocken. Mal sehen, was der Bulldozer so kann. Insgesamt ist die Proessorleistung derzeit wohl einfach schon sehr solide, aber das hängt natürlich wie immer davon ab, was man damit rendern, rechnen oder erstellen lässt.
Sehe ich ähnlich.Zusammenfassend kann man also sagen, das Sandy Bridge in diesen Benches im Mittel also rund 10-15% Mehrleistung gegenüber der alten Architektur (bei gleichem Takt) für sich verbuchen kann. Was soll daran bitte Fake sein?
Ähnliche Themen
R
- Antworten
- 463
- Aufrufe
- 211.027