Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Offizielle Details zu „Bobcat“ und „Bulldozer“ von AMD
- Ersteller Volker
- Erstellt am
- Zur News: Offizielle Details zu „Bobcat“ und „Bulldozer“ von AMD
Das verstehe ich nicht. Das müssen doch Tester wissen. Warum nutzen manche Seiten Cinebench 10 und manche 11.5?
Warum ist bei Cinebench 10 ein X4 965 auf gleichen Niveau mit einem i5 750 und bei Cinebench 11.5 ein X4 965 deutlich schneller als ein i5 750?
Nach welchen Kriterien werden dann solche Benches in den Parcours aufgenommen?
Warum ist bei Cinebench 10 ein X4 965 auf gleichen Niveau mit einem i5 750 und bei Cinebench 11.5 ein X4 965 deutlich schneller als ein i5 750?
Nach welchen Kriterien werden dann solche Benches in den Parcours aufgenommen?
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.665
Cinebench basiert auf Cinema4D und wird daher genutzt um das Leistungsbild für diese Software abzubilden. Die 11.5 ist aktueller und wird falls möglich eingesetzt. Woher sollen "Tester" wissen, was Maxon da geändert hat, sofern es Maxon nicht selbst kommuniziert? Den Code zerlegen?
F
Fuzi0n
Gast
Lonely Shepherd schrieb:Jetzt wird (mir) auch klar, wie das gemeint ist mit den 50% mehr Leistung, bei 33% mehr Kerne. Ein 8 Modul (16 nicht ganz vollwertige Kerne) Bulldozer erreichet 50% mehr Leistung als ein 12 (echter, vollwertiger) Kern Magny Cours. So gesehen ist die Merhleistung nicht so schlecht, wie anfangs so viele angenommen hatten, als diese Meldung von AMD kam.
Mangy Cours (12 Kerne) hat 2x 904 Mio. = 1808 Mio. Transistoren (45nm)
Bulldozer mit 8 Modulen (16 Kerne) hingegen soll 2000 Mio. bis 2200 Mio. Transistoren haben (32nm). Bulldozer soll also 10 - 20% mehr Transistoren haben.
Wenn diese durchgesickerten Daten tatsächlich stimmen sollten, dann ist hier eine Leistungssteigerung von bis zu 50% bei gleicher Leistungsaufnahme sehr Bemerkenswert.
nowar schrieb:Wenn immer geschrieben wird, AMD hätte eine schlechtere IPC als Intel, muss man sich auch mit dem Compiler auseinandersetzen.
In einem Forum habe ich einen Test gefunden, bei dem ein User einen Intel Prozessor aus einem AMD gemacht hat. Plötzlich sind gleich mal 10% mehr Leistung da gewesen, weil das Programm Cinebench 10 gedacht hat, es ist eine Intel CPU im Rechner.
Kann man auch hier lesen: http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1282229350
Intel ist immer noch am tricksen.
Suxxess
Admiral
- Registriert
- Feb. 2005
- Beiträge
- 7.213
Beim 10er kam dann wohl der Intel Kompiler zum Zuge und beim 11.5er der AMD Compiler.nowar schrieb:Warum ist bei Cinebench 10 ein X4 965 auf gleichen Niveau mit einem i5 750 und bei Cinebench 11.5 ein X4 965 deutlich schneller als ein i5 750?
HITCHER_I
Commodore
- Registriert
- Okt. 2006
- Beiträge
- 4.732
ich tippe da eher drauf, dass Maxon hier sich für spezielle Optimierungen für die andere Architektur mal etwas mehr Zeit genommen hat. Also nicht einfach nur normalen C++ Code in den Compiler gefüttert, sondern auch die besonders Kritischen Stellen mit Inline-Assembler handoptimiert, und nachträglich nochmal genau analysiert ob das Ergebnis auch optimal ist.
Es ist sicher ein großes Problem, wenn hier die Entwickler alle Optimierungen einfach nur dem Compiler überlassen und sich selbst diesbezüglich keine Gedanken machen.
Es ist sicher ein großes Problem, wenn hier die Entwickler alle Optimierungen einfach nur dem Compiler überlassen und sich selbst diesbezüglich keine Gedanken machen.
Es gibt keinen AMD Compiler in Cinebench 11.5 so wie es einen Intel Compiler bei Cinebench 10 gibt.
Deswegen frage ich nochmals, warum viele Seiten weiterhin Cinebench 10 nutzen, obwohl es da klar ist, dass eine Intel CPU durch den nicht legalen Compiler bevorzugt wird. Wie will man da CPU testen und dann daraus ein Fazit ziehen?
Deswegen frage ich nochmals, warum viele Seiten weiterhin Cinebench 10 nutzen, obwohl es da klar ist, dass eine Intel CPU durch den nicht legalen Compiler bevorzugt wird. Wie will man da CPU testen und dann daraus ein Fazit ziehen?
Ned Flanders
Fleet Admiral
- Registriert
- Aug. 2004
- Beiträge
- 11.594
nowar schrieb:Wie will man da CPU testen und dann daraus ein Fazit ziehen?
Zieh einfach dein eigenes Fazit!
Das ist ja nicht erst seit gestern so....
Die Reviews haben halt alle bisherige Hardware durch ihren Standard Testparcours geschickt. Wenn sie die Software jetzt ändern dann kann man die Ergebnisse nicht mehr mit den alten vergleichen. Alles nochmal testen ist zu aufwendig.
Es wäre aber durchaus machbar den Cinebench 11.5 außer Konkurenz mit aufzunehmen bei neuen Tests...
boxleitnerb schrieb:Für hohe Auflösungen brauchst du eine schnellere Grafikkarte, keinen schnelleren Prozessor.
Ich will halt nicht das es so wird wie bei INTEL, in niedrigen gut in hohen mau.
Fusion wurde nie eingestellt.Wehrwolf schrieb:Fusion wurde doch schon von AMD vor dem Barcelona-Desaster gehandelt und dann irgendwann eingestellt? Haben sie jetzt also die alten Pläne wieder rausgeholt...
Bobct wird maximal SSSE3 unterstützen. Genauso wie Atom. Bulldozer wird darüber hinaus auch SSE4 und AVX (+XOP) unterstützen.rony12 schrieb:sehe ich das richtig, dass bobcat und bulldozer beide ssse3 unterstützen werden?
Das ist richtig. Aber was nützt dir eine CPU, die 150% IPC bietet und mit 2 GHz schon 80 W braucht, wenn du auch eine CPU mit 100% IPC, 3 GHz und 50 W haben kannst? Unterm Strich hast du die gleiche Performance pro Thread (was immer noch entscheidender ist als IPC), hast mit der 50 W CPU aber weniger Abwärme (gut für die Lebensdauer aller Komponenten) und geringere Stromkosten.Fetter Fettsack schrieb:Wenn ich das Wesen der IPC nicht völlig missverstanden habe, dann bedeutet eine "höhere" IPC, dass man für die Leistung X ein gewisses Maß an Takt weniger benötigt
Das hingegen ist nicht richtig. Bzw ist das keine Garantie. Dafür musst du das thermische Verhalten des Designs kennen, was auch stark von der Fertigung abhängt. K10.5 bietet zB gegenüber K10 nur etwa 5-10% mehr IPC, lässt sich aber wesentlich höher takten.Fetter Fettsack schrieb:was sich wiederum positiv auf das OC-Verhalten einer solchen CPU auswirken sollte
HITCHER_I schrieb:also bei dem AMD Bulldozer-Vergleich zum aktuellen Zwölfkerner,
da wurde wohl ein Bulldozer mit 8 Modulen, also 16 Kernen genommen,
der bei selber TDP um 50% schneller rechnet, mit seinen 33% mehr Kernen.
Gut, was das jetzt für die IPC bedeutet, die ja normalerweise für einen einzelnen Rechenkern angegeben wird, und nicht für ein Modul von 2 Kernen, ist auch noch interessant.
Es rechnet eben ein einzelner Kern mit 100%, die Gesamtleistung von einem Modul mit 2 Kernen ist aber nur 180%, nicht 200%. Somit ist die IPC je nach Verwendung leicht unterschiedlich.
Man weiss ja auch nicht, ob die Taktraten die selben waren, aber wenn schon,
dann wäre die IPC bei +12,5%, oder bei Verwendung von nur einem Kern im Vergleich bei 13,9%
mannimmond schrieb:Hmm ich weiß ja nich. 50% mehr Performance bei 33% an Mehrkernen und nem neuen Fertigungsprozess klingt für mich jetz nicht sooo gigantisch. Ich meine das könnte genau so gut an nem guten 32nm Prozess liegen.
Bei dem neuen 32nm Prozess sollen ja HKMG und u-low-K zum Einsatz kommen da wäre es vllt schon möglich die TDP von 45nm um 20% zu drücken. Und bei einer um 20% niedrigeren TDP +33% mehr Kerne lesen sich die 50% an Performancegewinn schon ganz anderst.
Das kann man so nicht rechnen bzw kommt dabei kein sinnvolles Ergebnis raus, da Kerne nicht 1:1 skalieren. Da spielen noch ganz andere Faktoren eine entscheidende Rolle, wie zB Bandbreite. Westmere konnte zB trotz 50% mehr Kernen nur etwa 33% zulegen (spec rate). In der Desktopwelt sieht es noch schlechter aus. Siehe Test bei ComputerBase, Performancerating Anwendungen, i7-980X vs i7-975, +23%. Insofern sind 50% mit 33% mehr Kernen schon eine ordentliche Hausnummer. Die Performance pro Thread sollte daher einen ordentlichen Sprung machen. Inwiefern sich dies am Ende aus IPC und Takt zusammensetzt, bleibt abzuwarten, bis finale Leistungsdaten veröffentlicht werden.NoD.sunrise schrieb:Irgendwie fürchte ich dass Bulldozer in sachen Leistung nicht mit den Intel mithalten kann.
Ich meine bis zu 50% mehr leistung bei 33% mehr kernen da bleibt nicht mehr viel übrig, die durchschnittliche pro kern und mhz Leistung scheint mir da nur wenig über der eines Phenom II zu liegen.
Volker schrieb:Aber 80% sind halt nicht 100% also ist ein Modul quasi nur ein 80%-Zwei-Kern-Prozessor.
Die 80% beziehen sich auf den Speedup, den der zweite Kern bringt, also 180% insgesamt. So hat es AMD zumindest bisher immer gesagt. Wenn, dann wäre es ein "90%-Zwei-Kern-Prozessor" (180%/2). Wie auch immer, ob 80% oder 90%, beides ist wesentlich besser als Intels Hyperthreading zu bieten hat (~60%).Volker schrieb:Die 80% beziehen sich aber auf ein reines Dual-Core-Design (CMP), also bringt der erste Kern 100 und der zweite "Kern" von Bulldozer noch 60% bzw. 50 und 30, wie man es drehen will
Dann siehst du das falsch. Orochi = 1 Die, Clovertown/Harpertown = 2 Dies. Das sind zwei grundsätzliche verschiedene Baustellen. Wenn überhaupt, dann ist Magny-Cours/Interlagos vergleichbar mit Clovertown/Harpertown. Wobei AMD hier deutlich mehr in das MCM Design investiert (Quad-Channel, interne HT Bridge) und nicht so billig zusammenklebt, wie das Intel getan hat (FSB Flaschenhals).Voyager10 schrieb:Zitat: "Und so kann dieses Modul im Baukastenprinzip mit weiteren Modulen gekoppelt werden, der Bereich außerhalb des eigentlichen Moduls mit L3-Cache & Co. bleibt identisch. So baut AMD am Ende sehr leicht Prozessoren mit vier, sechs und acht Kernen und bringt diese in den Markt."
So wie ich das sehe beruht das immernoch auf demselben Prinzip , man nimmt fertige Module und schaltet die zusammen .
Ja, womöglich bei 1P Systemen. Barcelona war aber ein Server Design und in der Welt von 2P und 4P Systemen zu Hause. Und da war der FSB definitiv ein Flaschenhals. Schon damals konnte Barcelona trotz niedrigerem Takt nicht selten gleich- oder gar vorbeiziehen. Man sollte schon den Anwendungsbereich berücksichtigen und nicht einfach so pauschalisieren.Voyager10 schrieb:Es gab verschiedene Artikel die gezeigt hatten das es kaum Unterschiede gab bei einer FSB Erhöhung.
Hier hätten wir zb. einen http://ht4u.net/reviews/2009/intel_cpu_roundup/index7.php
http://ht4u.net/reviews/2009/intel_cpu_roundup/index31.php
Das liegt dann aber oft auch an der Software. Zudem hatte AMD mit K7 und K8 lange Zeit die Nase vorn. Deine Aussage trifft eigentlich erst ab dem Core 2 zumindest teilweise zu.MopedTobias schrieb:Bei den direkten Performancevergleichen in der Praxis, also so einem Querschnitt der Nutzeranwendungen sah die Sache dann trotzdem anders aus. Unterm Strich hatte Intel dann doch wieder die Nase vorn.
Einer der letzten Tests von CPUs hier bei ComputerBase, Performancerating Spiele (1680x1050). i7-975, 4 Kerne (+SMT), 3,33 GHz (+Turbo), 99,6%. X4 965, 3,4 GHz, 96,6%. Trotz Turbo und SMT liegt der i7 also gerade mal 3% vorne. Wo ist die von dir so oft fälschlicherweise kolportierte "gigantische Lücke"? Selbst aktuelle CPUs werden von Spielen immer noch nicht vollständig ausgelastet. Eine schnellere CPU wird da nicht helfen, wenn I/O und Grafikkarte idR die limitierenden Faktoren sind.y33H@ schrieb:Vor allem wenn man sich Spiele anschaut, klaffen teils gigantische Lücken bei gleichem Takt und Kernen
Zuletzt bearbeitet:
gruffi schrieb:Einer der letzten Tests von CPUs hier bei ComputerBase, Performancerating Spiele (1680x1050). i7-975, 4 Kerne (+SMT), 3,33 GHz (+Turbo), 99,6%. X4 965, 3,4 GHz, 96,6%. Trotz Turbo und SMT liegt der i7 also gerade mal 3% vorne. Wo ist die von dir so oft fälschlicherweise kolportierte "gigantische Lücke"?
Die siehst du in verschiedenen Spielen. Der Link bringt nichts, kannst gerne gleich 2560er Benches bringen. Beweist leider gar nichts. Zumal timedemos oder saves geringer Auslastung das Bild leicht verfälschen können. Kannst dir gerne mal Spiele ansehen wo CPU Leistung gefragt ist: Supreme Commander, GTA4, Flight Simulator usw. Leider macht sich kaum jemand die Mühe solche Spiele ordentlich zu testen.
B
boxleitnerb
Gast
Nun, die Lücke ist sicherlich da, insofern hat y33H@ Recht. Die verlinkten Benchmarks (in der Auflösung) sind wenig aussagekräftig, insofern hat Ralf Recht. Aber da bei Spielen zwei Komponenten gefordert werden, ist es schwierig, hier allgemeine Rückschlüsse bezüglich der CPU zu ziehen - das meinte Gruffi vielleicht. Ganz so einfach scheint es nicht zu sein (siehe unerklärliche Intel-Schwäche in hohen Auflösungen). Aber das hatten wir alles schonmal und das muss nicht nochmal hier durchgekaut werden. Außerdem sind Spiele nicht alles, auch wenn das hier oft behauptet wird
Y
YoWoo
Gast
Es kann nur zwei Antworten von AMD geben, warum sonst diese Verschwiegenheit. Entweder die haben einen absolut sauberen Chip entwickelt, der Intel in den Schatten stellt oder es Ihnen schon peinlich, die Werte zu veröffentlichen. Ich kann nur hoffen das die neue Architektur gut ist, sonst könnte es wirklich das Ende von AMD sein. Man bedenke, die wollen für die kommenden 2 bis 4 Jahre auf diese Architektur aufbauen. Ein Tik-Tok Konzept erwarte ich von Seiten AMD nicht.
F
Fuzi0n
Gast
YoWoo schrieb:Es kann nur zwei Antworten von AMD geben, warum sonst diese Verschwiegenheit. Entweder die haben einen absolut sauberen Chip entwickelt, der Intel in den Schatten stellt oder es Ihnen schon peinlich, die Werte zu veröffentlichen. Ich kann nur hoffen das die neue Architektur gut ist, sonst könnte es wirklich das Ende von AMD sein. Man bedenke, die wollen für die kommenden 2 bis 4 Jahre auf diese Architektur aufbauen. Ein Tik-Tok Konzept erwarte ich von Seiten AMD nicht.
Werte über SandyBridge gibt es auch noch nicht. Vielleicht ist es Intel peinlich die Werte zu veröffentlichen, weil sie wissen, dass der Bulldozer einschlagen wird wie eine Bombe?
Das ist nun mal gang und gäbe, wir müssen uns halt noch etwas gedulden.
Zuletzt bearbeitet:
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.665
Weil es extrem zeitaufwendig ist, x CPUs neu zu testen.nowar schrieb:Deswegen frage ich nochmals, warum viele Seiten weiterhin Cinebench 10 nutzen, obwohl es da klar ist, dass eine Intel CPU durch den nicht legalen Compiler bevorzugt wird.
GPU-Limit Die Lücke sieht man ohne GPU-Limit wunderbar, siehe beispielsweise Starcraft II.gruffi schrieb:Wo ist die von dir so oft fälschlicherweise kolportierte "gigantische Lücke"?
Starcaft 2 ist ein reines CPU spiel und gehört zu den ausnahmespielen , ausserdem wurde in 1024 gebencht und zudem noch ohne AA/AF, wer spielt den bitteschön so ? Also auf keinen fall gamer die ansprüche an die Grafik stellen.
In 1920x1080 sieht es fast immer so aus wie hier zwischen Intel und Amd ;
Quelle: http://www.gamestar.de/hardware/sch...rafikkarte_p2.html#EL_12816000932067580238727
In 1920x1080 sieht es fast immer so aus wie hier zwischen Intel und Amd ;
Quelle: http://www.gamestar.de/hardware/sch...rafikkarte_p2.html#EL_12816000932067580238727
Zuletzt bearbeitet:
Fetter Fettsack
Fleet Admiral
- Registriert
- Nov. 2009
- Beiträge
- 10.216
Zitat von gruffi
Das hingegen ist nicht richtig. Bzw ist das keine Garantie. Dafür musst du das thermische Verhalten des Designs kennen, was auch stark von der Fertigung abhängt. K10.5 bietet zB gegenüber K10 nur etwa 5-10% mehr IPC, lässt sich aber wesentlich höher takten.
Ich habe es zugegebenermaßen schleißig formuliert. Mir ging es da nur um das Grundkonzept, das ja wohl so vorhanden ist, wenn die restlichen "Teile" mitspielen.
M
MC BigMac
Gast
Der Server CPU sieht schon gut aus, kann Intel Konkurrenz bieten, im Notebook/Netbook Sektor werden wir sehen, ob sich Bobcat durchsetzt oder nur eine Rand Architektur wird. Im Desktop kommt ja Fusion, da ist es genauso wie bei Bobcat eine Grafikeinheit mit dem Prozessor dabei, bin auf die Leistung des Grafik Chips gespannt.
F
Fuzi0n
Gast
MC BigMac schrieb:Der Server CPU sieht schon gut aus, kann Intel Konkurrenz bieten, im Notebook/Netbook Sektor werden wir sehen, ob sich Bobcat durchsetzt oder nur eine Rand Architektur wird. Im Desktop kommt ja Fusion, da ist es genauso wie bei Bobcat eine Grafikeinheit mit dem Prozessor dabei, bin auf die Leistung des Grafik Chips gespannt.
Bulldozer ist für den Server- als auch den Desktopsektor vorgesehen. Im Desktop-Bereich vorerst wahrscheinlich nur mit 4 Modulen (8 Kerne).
Bobcat wird mit aller größter Wahrscheinlichkeit schneller als Atom sein.
Also AMD hat da reichlich Arbeit reingesteckt und offenbar die richtigen Wege beschritten, Bobcat sollte die Atom deutlich in die Schranken weisen, nicht zuletzt wegen des besseren GPU Teils, Intels echte Schwachstelle. Nicht zufällig wird Bobcat ja auch bei TMSC in 40nm gefertigt werden, halt wie die GPUs auch. Könnte mir vorstellen, daß man in ein paar Jahren einem großen GPU Kern ein paar Bobcat Kerne zur Seite stellt und das dann in einer Spielekonsole wiederfindet, sobalt ein <30nm Prozess dies erlaubt.
Bulldozer scheint auch sehr gelungen zu sein und bringt hoffentlich keine Geburtsfehler mit. Nach dem Artikeln von planet3dnow und AnAndTech sollte das Design in der Lage sein mit Intel um die Spitze zu streiten, worauf wir wohl alle schon lange hoffen. Ein Monopolsituation wie Intel sie derzeit bei den Top Desktop CPUs hat, für eben zu den Preisen die Intel für seine 6 Kerner verlangt. Mit dem Phenom II X6 hat sich der Preis des i7-870 ja auch sogleich drastisch nach unten bewegt, was sicher von Intel ohne AMDs Neuvorstellung nicht so durchgeführt worden wäre. Also egal oder AMD-Fan oder Intel Jünger, wir alle profitieren von der Konkurenz auf dem Markt und jeder der blind immer Intel kauft, sollte deswegen auch mal überlegen ob dies langfristig die richtige Entscheidung ist.
Aber zurück zum Bulldozer. Ich verstehe nicht ganz, wie manche offenbar enttäuscht über die Module sind, die keine vollen 2 Kerne enthalten. Macht man mal die Rechnung auf, so sind 80% Merhleistung bei 13.6% (12% der Gesamtfläche des Moduls) Diefläche doch ein Super Geschäft. Zumal das Mehr an Wall sicher näher an den 13.6% als an den 80% liegen dürfte, die Leistung pro Watt also deutlich günstiger aussehen sollte. Außerdem sollte man zwei Dinge nicht vergessen:
1. Bei nur etwas mehr als 10% besserer IPC durch andere Massnahmen wären die 180% eines Moduls, also 90% eines Kernes gegenüber den Phenom II schon wieder ausgeglichen, ein Modul wäre also zwei Phenom II Kernen leistungsmäßig gleichwertig.
2. Bringt gerade die Zusammenführung zweier Kerne zu einem Module die Chance die IPCs deutlich zu steigern, besonders während ein Thread nichts macht.
Auf jeden Fall warte ich schon ungeduldig aufs nächste Jahr und die Leistungsdaten des Bulldozers und freue mich, daß dieser auch auf den vorhandenen Sockeln (wohl nur dem AM3) mit den derzeitigen Chipsätzen (zumindest dem 800ern) laufen wird. Dies scheint ja nun fest zu stehen, wenngleich die volle Performance wohl erst mit einem neuen Chipsatz zu erreichen sein wird. Trotzdem eine sehr viel verbraucherfreundlichere Modellpolitik als bei Intel, wo man für SandBridge schon wieder einen neuen Sockel einführt.
Also hoffen wir mal, daß sich AMD mit diesen neuen Architektuen Erfolg hat und sich soweit wirtschaftlich erholen kann, daß der Innovations- und Preisdruck im CPU Bereich erhalten bleibt. Zum Wohle der gesamten IT Welt sollten es weder AMD noch Intel jemals schaffen ein Monopol bei x86 Hochleistungs-CPUs zu erlangen.
Bulldozer scheint auch sehr gelungen zu sein und bringt hoffentlich keine Geburtsfehler mit. Nach dem Artikeln von planet3dnow und AnAndTech sollte das Design in der Lage sein mit Intel um die Spitze zu streiten, worauf wir wohl alle schon lange hoffen. Ein Monopolsituation wie Intel sie derzeit bei den Top Desktop CPUs hat, für eben zu den Preisen die Intel für seine 6 Kerner verlangt. Mit dem Phenom II X6 hat sich der Preis des i7-870 ja auch sogleich drastisch nach unten bewegt, was sicher von Intel ohne AMDs Neuvorstellung nicht so durchgeführt worden wäre. Also egal oder AMD-Fan oder Intel Jünger, wir alle profitieren von der Konkurenz auf dem Markt und jeder der blind immer Intel kauft, sollte deswegen auch mal überlegen ob dies langfristig die richtige Entscheidung ist.
Aber zurück zum Bulldozer. Ich verstehe nicht ganz, wie manche offenbar enttäuscht über die Module sind, die keine vollen 2 Kerne enthalten. Macht man mal die Rechnung auf, so sind 80% Merhleistung bei 13.6% (12% der Gesamtfläche des Moduls) Diefläche doch ein Super Geschäft. Zumal das Mehr an Wall sicher näher an den 13.6% als an den 80% liegen dürfte, die Leistung pro Watt also deutlich günstiger aussehen sollte. Außerdem sollte man zwei Dinge nicht vergessen:
1. Bei nur etwas mehr als 10% besserer IPC durch andere Massnahmen wären die 180% eines Moduls, also 90% eines Kernes gegenüber den Phenom II schon wieder ausgeglichen, ein Modul wäre also zwei Phenom II Kernen leistungsmäßig gleichwertig.
2. Bringt gerade die Zusammenführung zweier Kerne zu einem Module die Chance die IPCs deutlich zu steigern, besonders während ein Thread nichts macht.
Auf jeden Fall warte ich schon ungeduldig aufs nächste Jahr und die Leistungsdaten des Bulldozers und freue mich, daß dieser auch auf den vorhandenen Sockeln (wohl nur dem AM3) mit den derzeitigen Chipsätzen (zumindest dem 800ern) laufen wird. Dies scheint ja nun fest zu stehen, wenngleich die volle Performance wohl erst mit einem neuen Chipsatz zu erreichen sein wird. Trotzdem eine sehr viel verbraucherfreundlichere Modellpolitik als bei Intel, wo man für SandBridge schon wieder einen neuen Sockel einführt.
Also hoffen wir mal, daß sich AMD mit diesen neuen Architektuen Erfolg hat und sich soweit wirtschaftlich erholen kann, daß der Innovations- und Preisdruck im CPU Bereich erhalten bleibt. Zum Wohle der gesamten IT Welt sollten es weder AMD noch Intel jemals schaffen ein Monopol bei x86 Hochleistungs-CPUs zu erlangen.
Ähnliche Themen
- Antworten
- 172
- Aufrufe
- 24.336
- Antworten
- 77
- Aufrufe
- 13.446
- Antworten
- 37
- Aufrufe
- 6.599