Test Test: AMD „Bulldozer“

Ameisenmann
Glaubst du selber es gibt von PC hardware keine i7 Systeme ??? ist irwie lächerlich die Behauptung...
Wenn selbst bei Hardware Deluxe gesagt wird, es kommt auf die Anwendungen an. Bei Anwendungen ist der bulldozer kein schlechtes Produkt.
Was Game Benchmarks angeht, kann ich hier nicht viel sagen. Ich hab kein einziges Game das im Test vertreten ist gespielt. Nehme aber stark an dass die meisten auf 2 cores optimiert sind, bzw am meisten davon profitieren, und somit sich das Bild gestaltet. Das würde auch erklären warum der A8 vor dem FX 4100 ist, was eigentlich völlig unlogisch ist.
Doch schaut es bei BF3 bzw BF BC2 nicht schlecht aus. Und man sieht dass es immer mehr games gibt, die mehr als 4 cores verwendet. Ob Bulldozer ein flop ist oder nicht kann hier keiner richtig Beurteilen, weil es zum 100sten mal, zeit braucht, um eine objektive Bewertung zu geben.
 
pipip schrieb:
wenn die ipc bei der nächsten generation
Ja wenn..., hier gehts um Bulldozer und nicht um den "vielleicht" besseren Piledriver,sorry aber Ich kann mir einfach denn Bulldozer nicht "schönsaufen".
 
pipip schrieb:
was ist wenn die ipc bei der nächsten generation auf Phenom II niveau kommt, vllt etwas drüber.... dann wäre man kleiner als ein 8 kern Phenom II aber gleich schnell... Hat schon mal daran wer gedacht ?

kleiner? Na hoffentlich, immerhin reden wir von 32nm im Vergleich zum Phenom mit 45nm. DIe Fläche nimmt quadratisch ab.

Ein Quad Phenom II braucht ~750 Mio Transistoren, ein Bulldozer 2 Mrd. Da passt der fast 3 mal rein, was dann 12 Kerne wären.
Thuban mit 6 Kernen kommt übrigens nur auf 904 Mio Transistoren... da sieht man mal wie wenig die 2 extra Kerne beim Phenom II X6 ins Gewicht fallen.
Außerdem reden wir immer noch von Phenom II mit L3 Cache... wie viel hat ein Athlon II X4?

300 Millionen
169 mm²
in 45nm

Und so viel schlechter als der BD ist der nicht, vermutlich bei der Kernleistung ähnlich.
Wenn AMD hätte also ne gute Server CPU bauen wollen, hätte man vllt einfach sogar den Athlon nehmen sollen und skalieren...
Natürlich kommt noch etwas Overhead dazu, aber wohl nicht linear sodass in 2 Mrd Transitoren schon Minimum 6! Athlon II X4 reinpassen, das wären 6*4 = 24 Kerne & Threads...

Da Cache weniger Platz braucht wäre ein 6x4 Kern CPU in 32nm wohl trotzdem zu groß, aber lass es 12 sein...

Genau deswegen ist die Performance dazu im Verhältnis gerade lachhaft, da die Effizienz pro Transistor durch diese CMT Technik ja eigentlich hätte massiv gesteigert werden sollen.

Die Pro Kern Leistung liegt also vllt bei der Hälfte dessen wo sie sein sollte.
 
Zuletzt bearbeitet:
x-polo
Nein das mein ich gar nicht, aber ich kann nicht eine Architektur verurteilen, in dem ich nur das Top Modell beurteile. Man muss eben ein Produkt verwenden dass auch richtig Verwendung finden kann. Und nach den Test hier ist der FX 4000 eben mehr geeignet als der 8 kern.
Ist ja genauso lächerlich wie man damals für den Llano zwischen CPU und Grafik geteilt hat, obwohl es ein Gesamtprodukt ist...

Krautmaster
dürfte aber auch einiges am Speicher, und Spartechniken/ instruction sets und und und liegen, die du nicht vergessen darfst ^^
 
Das Hauptproblem ist einfach, dass AMD 4 Jahre geschlafen hat. Sie haben zwar Forschung betrieben und alle möglichen Theorien ausprobiert, aber da sie mehrere Jahre keine wirklichen Gegner für Intel hatten, haben sie ihre Produkte nicht "vergleichen" können (im Hintergrund versteht sich). Mir war es so und so klar, dass Bulldozer scheitern wird, aber das Endergebnis schockiert schon irgendwie, dass es so schlimm geworden ist... Aber das ist das eine, das andere ist weil AMD wieder einmal floppte und einen hohen Preis für diesen "Flopp" haben will Intel mit den Preisen hochgeht und das gefällt mir überhaupt nicht! Ich hoffe nur, dass bis zu Weihnachten die Preise für den Intel Core i5-2500K wieder runter gehen, weil der 2500K hat im September beim Geschäft in meiner Nähe 165€ gekostet und jetzt kostet er schon über 185€ -.-
 
Ich kann nur sagen das ich es echt sehr schade finde für AMD. ABER vor allem für uns User! Denn viele hier im Thread haben Recht wenn sie sagen das dass Intel in die Hände spielt.

Auch kann ich die ganzen "Mit Software und Update für Windows wird alles besser" Leute nicht verstehen! Warum? Weil wenn man sich mal einen Kopf drüber macht. Für wenn werden wohl Softwarehersteller mehr Optimieren für eine Firma die 80% des Marktes hat oder eine die 20% hat? In dieser Hinsicht kann ich mich buntstift23 Meinung nur Anschließen.

Auch glaube ich das AMD hier ein zu Spezielles Design im Bezug auf die Architektur von BD gebracht hat. Denn eine Optimierung ist hier sehr Unwirtschaftlich für Softwaregersteller da der BD derzeit der einzige Prozessor ist der diese Architektur besitzt. Man wird wirklich erst in 1 bis 2 Jahren sehen können ob ich damit recht habe. Aber ich vermutte es doch sehr stark.

Ein weiteres Problem sehe ich in der doch sehr hohen Leistungsaufnahme und folglich auch Wärmeabgabe des BD. Denn damit verbaut sich AMD die beste einnahme Quelle. Nein damit meine ich nicht uns "selbst Bastler" sondern den OEM Markt. Den da sind schwer zu Kühlende Prozessoren nicht gerne gesehen! Viele hier schaffen es oft leider nicht über ihren Tellerrand zuschauen. Denn nicht die Privatleute die einen Prozzi kaufen bringen das Geld nein es ist der OEM Markt. Auch ist der im Bezug auf den David(AMD) gegen Goliath(Intel) Kampf bezogen sehr sehr wichtig und hier hat man zumindest beim BD die Chance verpasst. Bei Liano sieht das schon wieder anders aus aber um den geht es hier ja nicht.

Weiterhin bin ich auch der Meinung wie viele andere hier ein K10.5 shrink mit den Liano verbesserungen hätte sehr viel mehr Sinn gemacht. Dafür den BD erst bringen wenn er Konkurenzfähig bzw. Ausgereift ist.

So viel von mir
MFG Killer
 
@micha

wenn du mal selber den link den du gepostet hast lesen würdest
kannst du erkennen das in den auszügen auch nix berauschendes steht
ausser das der bd nunmal mega schlecht ist,da brauch ich auch kein blatt vor den mund zu nehmen
selbst wo intel seine neuen cpus rausgebracht hatt ohne optimierter software haben die auch alles gerockt verstehst

allerdings versteh ich nicht warum manche probieren den bd so anzupreisen! ;-))
 
pipip schrieb:
Krautmaster
dürfte aber auch einiges am Speicher, und Spartechniken/ instruction sets und und und liegen, die du nicht vergessen darfst ^^

vollkommen richtig. Aber schau dir die Skalierung Phenom II X4 Phenom II X6 an...
Die zusätzlichen Kerne brauchen kaum was.

Beim Bulldozer mag die Hälfte vom Chip nur für Stromsparen, SI und Cache gut sein. Dennoch kann es kaum sein, dass ein Phenom II / Athlon II so wenig Overhead für anderen Krams brauchen und BD so viel, da müsste BD ja aus 3/4 Overhead und 500 Mio Transistoren für eigentlichen Kernen bestehen...
(edit, tut er wohl auch)

So kann man eine CPU auch ineffizient bekommen.

Schau ich mir die DIE an merkt man, dass kaum was für die eigentlichen Kerne da ist...

https://www.computerbase.de/2011-10/test-amd-bulldozer/2/

Vielleicht übertreibt man es auch mit Speicher.

Bulldozer:
5-1080.2811401480.jpg


Sandy:
10-1080.4122262524.jpg


Achtung, beim Sandy muss man den GPU Teil mal wegdenken.

Auch ganz interessant:
http://www.3dcenter.org/artikel/launch-analyse-amd-bulldozer
 
Zuletzt bearbeitet:
Krautmaster
Mal sehen mich würde sehr interessieren, wie groß der unterschied wäre vom Bullozer mit und ohne l3chache. denn könnte man auf den l3 cache verzichten, wäre alles viel effizienter...
Oder stattdessen hätte man die cores eventuell verbessert und auf den l3 cache verzichtet... den rest halt über die schnelle 1866 Verbindung, da würde der etwas bessere Speicherkontroller auch mehr Nutzen haben. Mir scheint einfach, dass die ipc schwächer geworden ist als erwartet... und deshalb momentan einige Verbesserungen gar nicht mal Verwendung finden. erklärt sich auch warum Bulldozer beim Übertaktung sehr linear an Leistung gewinnt, was meist aber nicht so üblich ist oder ?
 
Zuletzt bearbeitet:
kann man schwer sagen.

Ausgehend von den DIE Shots bleibt beim Bulldozer vllt n Viertel von der ganzen CPU über das rechnet... dazu sind es Module die nur bei 8 Threads auch wirklich arbeiten, während der SB seine Kerne schon bei 4 ans Limit treiben kann =/

Ich find L2 als auch L3 ist wahnsinnig groß, macht vermutlich zusammen 50% der CPU aus.

Intel ist auch ein Meister wenn es darum geht Cache zu packen und vor allem energiesparend.

Edit:

Interessant ist, dass die Skalierung fast hinkommen könnte. Bei Sandy Bridge unten links ist sogar ungenutzer Silizium o.O

Wie gesagt.. GPU Part muss man wegdenken.

http://www.3dcenter.org/artikel/launch-analyse-amd-bulldozer

Den Artikel kann man nur unterstreichen. =/

Wieso nimmt gerade AMD nach dem P IV Desaster bei Intel eine lange Pipeline und hohen Takt bei niedriger Kernleistung in Kauf ?!... das versteh ich ums Verrecken nicht, zumal man mit Athlon gerade deshalb punkten konnte und man doch davon ausgehen muss, dass gerade Intel in der Fertigung immer weiter sein wird.
 
Zuletzt bearbeitet:
Ich hätte kein Problem damit, wenn AMD CPUs grundsätzlich 10, 20% langsamer wäre, dafür halber Stromverbrauch. Wer braucht schon die Topmodelle für den ganzen Alltagskram. Die kaufen sich ohnehin nur Nerds. Oder ganz, ganz wenige Leute, die das wirklich brauchen. Prof. Videostudios und solche.

Ich finde, alles jenseits von TDP 65W für normale Desktop-PCs ist nicht mehr zeitgemäß. Eigentlich sollte es nicht mal 50W sein, besser 35W. Und irgendwann sollte man sie passiv kühlen können, ohne Spezial-Monsterkühler für 80 Euro.
 
Krautmaster
Stimmt schon aber auch SB bekommt dank den gpu part vorteile gegenüber BD, somit ist das nur teils legitim. Ich glaube dass Pivedriver, eben doch die gesteigerte ipc, schon um einiges mehr Performance bekommen könnte, da man eben Cache und Anbindung dann vllt endlich/besser ausnützen kann...

Code46
da eine 90 euro cpu meist für den 0815 user schon zu schnell ist. Gibt es auch erst die 35 watt tdp Modelle. Würde aber der Bedarf an Leistung der meisten so schnell steigen wie die Performance die möglich werden durch neue Architekturen und Fertigungstechnik, würden solche niedrigen Stromsparmodelle sehr selten sein, und der FX 8150 würde ein viel besseres Bild bringen.
Der Phenom II x6 reicht eben den meisten was Anwendung angeht aus. Man bekommt beim 2600k beim Intel eben etwas schnelleres (jz mal Spiele ausgenommen, rede von Anwendungen)
Doch wie ich bereits schon zum 10ten mal erwähne. Das eigentliche interessante Model ist der FX 4100, der hat 4 mb l2 cache und 4 mb l3 cache, die offensichtlich ausreichen, um ein gleiches Ergebnis zu bekommen wie der FX 8150 mit turbo.....
Somit verdient der 4100 bei games das Label FX mehr als der FX8150. Bei Anwendungen schaut es wohl wieder umgekehrt aus. Ich bin halt gespannt, wie gut ein FX 8100 auf 4,2-5ghz ghz und mehr so anstellt.

Btw, falls ich irwie heute etwas durcheinander schreibe, und was nicht verständlich ist, bitte um Nachsicht, da ich sehr viel leisten musste die letzten tage... xD und endlich Feierabend habe :D
 
Zuletzt bearbeitet:
Wenn man das hier so liest, könnte man meinen die Chipdesigner und -tester bei AMD sind alles Vollidioten und haben 4 Jahre lang in der Nase gepopelt.
 
Wenn man das hier so liest, könnte man meinen die Chipdesigner und -tester bei AMD sind alles Vollidioten und haben 4 Jahre lang in der Nase gepopelt.

Wenn man liest was ehemalige AMD Mitarbeiter zu der Entwicklung bei AMD sagen könnte man meinen das du recht hast ;)
 
pipip schrieb:
Krautmaster
Stimmt schon aber auch SB bekommt dank den gpu part vorteile gegenüber BD, somit ist das nur teils legitim.

hm, gerade bei Intel wird der GPU Part wohl relativ strickt zum Rest getrennt sein, im Gegensatz zu einer APU.
Dürfte auch bei Verwendung einer externen GPU komplett deaktiviert sein.

Die Vermengung GPU / CPU Kerne wäre sonst auch weit ausgeprägter.

Noch was Interessantes... findest du den L2 Cache bei Intel...?
Der ist 256Kb groß... bei AMD 2048kb.

Ich glaube dass Pivedriver, eben doch die gesteigerte ipc, schon um einiges mehr Performance bekommen könnte, da man eben Cache und Anbindung dann vllt endlich nützen kann...

hoffentlich schon früher über ein recht "starkes" Stepping.

Nichts Anderes wird man seit einem Jahr versucht haben =/
 
Zuletzt bearbeitet:
Dann kauf ich gleich direkt mal nen Bulldozer, könnte ein seltenes Sammlerstück werden. :evillol:
 
Zuletzt bearbeitet:
naja... wirklich viel mehr ins Gespräch bringen als er eh schon war ist ja fast nicht möglich ^^

Viel eher wurde wohl gesagt "haut jetzt endlich den Scheiß raus die Boardpartner und OEMs warten" und dann 100% Fokus aufs Nachfolgeprodukt.

Auch richtig so.

Leider hat 3dcenter hiermit vorerst absolut Recht:

AMD ist im Performance- und HighEnd-Segment nun einmal rund zwei Jahre gegenüber Intel im Hintertreffen, die heute vorgestellte Bulldozer-Architektur ändert dies nicht, sondern zementiert diesen Zustand sogar noch.
 
Fischkopp
naja ins Gespräch bringen xD ja fraglich ob positiv oder negativ. Die hätten lieber mal die untere klasse liefern sollen, die FX 4000 mit eigener maske. Eventuell wenn man dann besseres Stepping hat die FX 6000 und 8000. Man hätte ein besseres Image für den Bulli gehabt, und besser vorbereiten.
Würde man den FX 4000 wie die alten Phenom II auch als 125 watt tdp model anbieten mit sehr hohen Takt. Würden wir über die kommende FX 8000 nach weihnachten, ganz anders denken.... Versteht ihr was ich meine ??? . Selbst wenn die neuen BD besser werden, werden sie, wie beim Phenom I damals, im Gedächtnis bleiben, und immer wieder zu hören bekommen.
 
Fischkopp schrieb:
@Krautmaster:
In einem anderen Thread ist bereits ein neues BD Stepping angekündigt worden!
Also doch nur ein Paper Launch von AMD, um sich im Vorweihnachtsgeschäft ins Gespräch zu bringen?

Kann man ein neues Stepping auch einfach auf ne älter FX CPU "aufspielen" oder werden die Dinger sofort mit dem neuen Stepping ausgeliefert?
 
Zurück
Oben