Test AMD Bulldozer im Test: Ein schwarzer Mittwoch

@PiPaPa

dein Realitätsverlust besteht darin, dass du den CB Test diskreditierst indem du dich auf den Standpunkt stellst, dass es eben keine Desktop CPU ist und der CB Test entsprechend nicht zieht bzw. nicht aussagekräftig ist.
Ich finde, dass der Bulli noch viel zu gut im CB Test wegkommt. Ich finde den Test einfach vernichtend für AMD.
 
Damokles schrieb:
Es ist schon sehr interessant zu sehen wie maßlos die Erwartungen waren und wie riesig jetzt die Enttäuschung.
Aber auch von anderer Seite: Man hat im Intel-Lager schwere Geschütze aufgefahren. Da war doch die Rede davon, dass es lächerlich ist, wenn man 8 Kerne benötigt um die 4 Kerne eines 2500K oder 2600K zu schlagen. Oder wie weit das AMD-Topmodell hinter dem Intel-Topmodell liegen wird (also 1000-Euro-Intel gegen 250-Euro-AMD). Dabei war die ganze Aufregung unnötig: Man hat mit Kanonen auf Spatzen (Bulldozer) geschossen...

AMD hat quasi die niedrigen Erwartungen der Intel-Fraktion noch mal unterboten. ;) Man muss es so sehen. Aber wie gesagt: Das betrifft jetzt alles nur den Achtkerner. Natürlich ist das enttäuschend, aber es gibt immer noch Grund zur Hoffnung für AMD, wenn die kleineren Bulldozer ein gutes P/L-Verhältnis bieten. 200-Euro-CPUs gehören zwar schon zum Mainstream, aber ich glaube nicht, dass der meiste Umsatz mit dieser Preisklasse gemacht wird, sondern mit ein bis zwei Klassen darunter.
 
Zuletzt bearbeitet:
Ich habe eine Seite gesehen, bei deren Tests schneidet der BD sehr gut ab, in allen Spielebenchmarks schlägt er dort den 2600k o.o

http://www.hardwareheaven.com/review...evolution.html

Und warum?
weil die dort mit höheren Auflösungen getestet haben.

Was CB hier angibt

Spiele (hohe Auflösung)

Performancerating Spiele (1680x1050)

ist einfach Quatsch, die die sich so eine CPU kaufen spielen in höheren Auflösungen
und da interesiert mich was die CPU in diesen Auflösungen schaft
und nicht umgekehrt..

und das man dann noch 640x 480 als Vergleich hinzufügt ist der Gipfel :(
 
FreeYourMind schrieb:
...
ich denke trotzdem das die FX-Serie sich gut verkaufen lassen, zumal der preis um ein vielfaches geringer ist/sein wird als die konkurrenz und das die cpu's sich relative hoch übertakten lassen...l

Du hast wohl die Zahlen verwechselt??? :lol:

Und übertakten??? Wenn die Leistung schon vom Grundtakt nicht vorhanden ist, dann bringt das wohl nix,
außer viel warme Luft, die hinten aus dem PC raus kommt und nen warmes Zimmer. :D
Aber Elektroheizkörper sind halt net billig in den Stromkosten.
 
dergraf1 schrieb:
http://www.hardwareheaven.com/review...evolution.html

Und warum?
weil die dort mit höheren Auflösungen getestet haben.

Was CB hier angibt



ist einfach Quatsch, die die sich so eine CPU kaufen spielen in höheren Auflösungen
und da interesiert mich was die CPU in diesen Auflösungen schaft
und nicht umgekehrt..

und das man dann noch 640x 480 als Vergleich hinzufügt ist der Gipfel :(



Warum hat jeder andere Website mit FX 8150 Benchmarks in Full-HD GANZ andere Werte ?
Hardwareheaven sollte man wirklich nicht als Anlaufstelle für seriöse Reviews nutzen.
Shogun 2 hat sogar Probleme über Steam mit den neuen CPUs und crasht beim laden...
 
Schade, sehr schade. Zum Glück bin ich mit meinem PII X4 955BE aber noch ganz flott unterwegs. Ansonsten würde ich nach diesem Test nach wie vor zum i5 2500K als Nachfolger greifen. AMD enttäuscht mich sehr, hoffentlich wird das bei den kommenden CPUs wieder was.
 
dergraf1 schrieb:
http://www.hardwareheaven.com/review...evolution.html

Und warum?
weil die dort mit höheren Auflösungen getestet haben.

Was CB hier angibt



ist einfach Quatsch, die die sich so eine CPU kaufen spielen in höheren Auflösungen
und da interesiert mich was die CPU in diesen Auflösungen schaft
und nicht umgekehrt..

und das man dann noch 640x 480 als Vergleich hinzufügt ist der Gipfel :(

Warum wird das wohl so sein, dass CB und andere Seiten es in den Auflösungen testen?
Wer lesen kann ist klar im Vorteil, meines Wissens nach steht das sogar in jedem Test drin, warum man diese Auflösungen wählt.

Und den Test von Hardwareheaven mag ich kein Glauben schenken, der wiederspricht ja beinahe allen anderen Reviews.
 
@dergraf1
Es ist so geil. Lässt man 640x480 weg meckern die Leute, weil man die Rohleistung der CPU nicht sehen kann.
Nimmt man 640x480 dazu dann meckern die Leute warum man nicht in "normalen Auflösungen" arbeitet.

Ist scheissegal. Irgendeiner muss immer rummeckern. Ist jedesmal so.
Wärst Du so gut und besorgst Dir einen BD und machst bitte 20 Game-Tests in 20 verschiedenen Auflösungen mit 20 verschiedenen Taktraten? (Ach ja, bitte jeden Test 3x und das Ergebnis mitteln)
Wir sprechen uns dann in einem Jahr wieder.

Und selbst wenn Du die 24.000 tests gemacht hast, wird immer noch einer schreien: Warum hast Du die Auflösung nicht gemacht, warum hast Du diesen Test nicht gemacht, und warum ist die Config vom Testrechner so und nicht anders. SCHEISSEGAL. Hauptsache man hat was zu meckern^^
 
Zuletzt bearbeitet:
Wie gesagt, sehe ich nicht so.

ich denke die SOI 32nm Fertigung läuft sogar ganz gut. Es liegt schlicht an der enormen Chipgröße die auch entsprechend Saft benötigt. Das sind locker 60-70% mehr Fläche als der CPU Part bei Intel.
Wir bräuchten einen auf 32nm geshrinkten Phenom II, dann könnten wir genau sagen was der Prozess allein genau bringt. Und das ganze dann mit Core 2 Quad vergleichen der von 65 auf 45 ähnliche Technologie verpasst bekam.


ich mein wer ist denn in heutiger Zeit noch erheblich auf Singlethread Leistung angewiesen? In Spielen begrenzt doch eh meistens die Graka, und die meisten aktuellen Engines sind schon mehrkernoptimiert.
Bei Games ist single Thead Leistung sehr wichtig, SC II verwendet nur 2 Kerne hier besondern, aber auch bei Games die viele Kerne nutzen wie Anno macht das am Schluss viel aus.

Sogar bei einem Game wie Dirt 3 das 6 Kerner extrem bevorzugt ist Bulli nur 2% vor dem 6 Kern Phenom II: http://ht4u.net/reviews/2011/amd_bulldozer_fx_prozessoren/index43.php
Also weder die singel Thread Performance stimmt, noch die 6 Kern. Komplett versagt. Intel ist mit einem 4 Kerner hier schneller und das bei einem AMD Game. Autsch...


Nvidia kam aus dem Geforce FX Loch...ATI kam aus dem HD 2900 Loch...jetzt hopp AMD:

Zeig, was man aus der Architektur wirklich zaubern kann!!!!
Unterschied ist nur das Phenom I+II auch ein Loch war, 10% Marktanteil und weit hinter Intel seit Core 2 Quad war schon eine Durststrecke. Jetzt kommt eine noch heftigere. Sowas gabs bei GPUs nur bei ATI mit HD 2000/HD 3000.
 
FreeYourMind schrieb:
@ Krautmaster

Das diskutieren ist, sorry, etwas anstrengend mit Dir, weil Du von einem Thema ins andere springst. Presler war defacto massiv unterlegen. Du hast geschrieben, dass der Performanceunterschied lediglich 1% betrug, aber lässt vollig aussen vor, dass hierfür ein höherer Takt von 1,1GHz (!) nötig war (2,6GHz vs. 3,7GHz). Die Unterschiede waren also nicht nur existent, sondern auch massiv. Das der FX-60 kein OC-Wunder war brauchst Du mir nicht zu erzählen, denn ich hatte selbst einen. Brauchte er aber auch gar nicht, denn er war ja selbst mit 1,1GHz weniger Takt immer noch schneller. ;)

Heute ist die Situation umgekehrt, dass hast Du richtig bemerkt. Deswegen sollte man aber nicht die Vergangenheit verklären. ;)

P.S.

BtT

naja, genau umgekehrt kann man nicht sagen:

1. haben wir nicht nur 1% Leistungs-Differenz (egal bei welchem Takt)
2. waren damals der FX und der Intel beide am Rande ihres Machbaren, takttechnisch, auch der AMD wie du ja selbst sagst ;)

Gerade letzter Punkt ist heute offensichtlich nicht der Fall, da die Intel auch im Rahmen bis 125W noch locker die 4 Ghz wegstecken würden. Wäre Intel gezwungen Maximum zu fahren, hätten wir demnächst wohl einen i7 der an den 4,5 Ghz - 5 Ghz knabbern würde.

Erst dann hätten wir die (ähnliche) Situation von damals, nur umgekehrt... dabei aber mit wesentlich großerer Leistungsdifferenz.

Damals konnte sich weder Intel noch AMD ausruhen und AMD war klar besser, gerade wegen der super Performance bei kleinem Takt (im Desktopbereich). Aber... zu AMD FX Zeiten gab es schon die Pentium Ms die wiederum ein noch besseres Takt / Leistungverhältnis hatten.

https://www.computerbase.de/artikel...c-test.407/seite-29#abschnitt_leistungsrating

Das war noch vor den ersten AMD Dualcores.

Den Core Prozessor, also praktisch die Weiterentwicklung des Pentium M zum Dualcore, gibt es seit Januar 2006.

Ich finds lustig dass CB schon damals die Core CPU im Verbrauch aufgeführt hat, wohl gemerkt mobile Modell im Desktoptest:

https://www.computerbase.de/artikel...955-test.527/seite-4#abschnitt_stromverbrauch

Die Redakteure wussten schon welche Bombe 6 Monate später einschlägt.

Die praktisch bessere Architektur war also bei Intel schon damals vorhanden, nur eben nicht im Desktop Segment.

Edit:

Sry, ja BtT ;)
 
Zuletzt bearbeitet:
Schade, wollte eigentlich mit dem Bulldozer aufrüsten und hatte gedacht, dass sich der Name auf die Leistung bezieht und nicht auf den Verbrauch, der nicht mehr zeitgemäß ist. Stellt sich nur die Frage, ob ich mir einen 2500k zulege oder noch mehr Geduld aufbringe und etwas länger auf den Nachfolger der Sandy Bridge warte ..
 
Krautmaster schrieb:
@Uwe F.

85W ist schon viel, ich kam per default mit 2600K @ 4,6 Ghz + HD6850 auf 55W idle , 52W non OC

Habe ja auch geschrieben woran das liegt.
An der GraKa.
Die 9800 GT hat keine Stromsparmechanismen und zieht gegenüber einer neueren Karte einfach mal 20-25W mehr im Idle.
Evtl. sogar um 30W, da die Karte von Hause aus OC ist und mit erhöhter Spannung arbeitet.

Gruß Uwe
 
Ich habe jetzt noch nicht die 43 Seiten gelesen, aber den Test.

Das Ergebnis ist doch ernüchternd. Würde ich aufrüsten, müsste ich doch mehr Geld auftreiben und ein 1155-Board plus 2600K kaufen. -.-
 
Erst ein mal vielen Dank an die CB-Redaktion für den wie üblich vorzüglichen Test; auch wenn die Zeit vermutlich viel zu kurz war ;).

Daß BD nicht der Burner werden wird war aufgrund der zuvor durchgesickerten Leaks von OBR und Donanim Haber ja fast zu erwarten - erstaunlich daß die wohl im Endeffekt doch recht gehabt haben.

Dennoch sollte man aber auch sehen, daß BD für AMD den Grundstein einer gänzlich neuen Architektur darstellt. Darauf kann (und muß) AMD aufbauen. Und in einigen, massiv multithreded Anwendungen geht der BD ja recht gut ;). Das Hauptproblem ist doch die zu niedrige IPC; diese bewegt sich IMO auf K8-Niveau. Man stelle sich nur einmal vor, die IPC pro Core bzw. Modul des Bullis wäre 20% höher gewesen. Dann hätte das Fazit vermutlich ganz anders ausgesehen. Dennoch: Mit der insgesamt durchwachsenen Leistung könnte man ja - wohlwollend betrachtet gerade noch einigermaßen leben wenn

1. die Leistungsaufnahme nicht derart exorbitant hoch wäre (OBR hatte da in einem Leak mal von ein paar Watt mehr als beim 2600k gesprochen) und

2. der Preis nicht so hoch angesetzt worden wäre. Das Preisniveau des 2500k ist für den FX-8150 meiner Meinung nach das absolute Maximum für diesen Chip. In diese Richtung dürfte es auch recht bald gehen.

Bleibt zu hoffen daß AMD, bevor der BDv2 (Piledriver) rauskommt noch ein neues Stepping des BDv1 launcht um vor allem die Leistungsaufnahme deutlich zu reduzieren.
 
wirklich traurig was amd da abliefert. ich hatte gehoft das amd mit dem BD wieder oben anschliessen kann aber statt dessen wird der abstand immer groesser. intel legt ein tempo vor dem amd nicht stand halten kann. und man hat den eindruck das intels tick-tock-tempo auch wenn es sich um 2-4 monate jedes mal verspaetet viel viel zu schnell fuer amd ist.
 
Iceberg87 schrieb:
Bleibt zu hoffen daß AMD, bevor der BDv2 (Piledriver) rauskommt noch ein neues Stepping des BDv1 launcht um vor allem die Leistungsaufnahme deutlich zu reduzieren.

da hab ich recht wenig Hoffnung... zumindest erwarte ich da keine massive Verbesserung. Bezogen auf den einzelnen Transistor ist die Aufnahme schon gut, auch die benötigten Spannungen sind im Rahmen. Es liegt schlicht an der Größe und Anzahl an Rechenenheiten die gepowerd werden müssen.

@Uwe F.

jep, hab ich gelesen, wollte dir nur nen Wink geben, dass noch mehr drin is ;)
 
Viele haben auf Bulldozer gewartet & wollen jetzt ihren Unmut kundtun für die verschenkte Zeit. Ist doch nicht schlimm.
 
Planet3dnow bringts echt aufn Punkt im Fazit:

"Nichts desto trotz gibt es auch Grund für Optimismus. Denn wenn die neuen FX-Prozessoren mit Software bedacht werden, die ihnen liegt, dann ziehen Sie mitunter Kreise um die Konkurrenz. Solche Beispiele sind der AES-Test im AIDA64 sowie WinRAR - hier schlägt Bulldozer alles deutlich, auch aus dem Hause Intel."

"Es ist unumstritten, dass die FX-Prozessoren Potenzial in sich schlummern haben. Ob dieses aber jemals konstant abgerufen werden kann, wird sich erst in einigen Monaten, wenn nicht gar Jahren zeigen. Zum jetzigen Zeitpunkt sollte daher gut überlegt werden, ob der Einsatz eines FX-Prozessors sinnvoll ist oder nicht."

Wenn jemand keine Geduld hier hat sehr konservativ mit neuen Software-versionen ist oder nicht daran glaubt das Entwcikler fähig sind neuere Kompiler zu benutzen, dann ist die cpu klar nix.

Es ist wohl ein Risiko das so oder so ausgehen kann, es kann sein das es weitgehend so bleibt und die AMD cpu eher langsamer ist, wie die Sandy bridge, es kann aber auch sein das in halben Jahr oder so die ersten spiele dann deutlich schneller sind bzw eben Anwendungen. Es scheint so das die Hardware an sich schneller ist wie auch Sandy bridge, es ist halt die frage wann die Software so weit ist. Bzw was für software man einsetzt.

Es spricht z.B. viel dafür das Opensource Software gut ab gehen wird auf der cpu weil diese dann sicher auch deren optimierungen nach und nach nutzen werden.

Es sieht auch danach aus als wäre es eine super Spiele-cpus, aber eben nicht für die alten Spiele die bisher raus kamen, die frage ist dann wenn es mal wieder irgendwelche Hardwarehungrigen spiele geben wird (vermutlich erst wenn es neue konsolen-generation gibt ;) ) wie bulldozer dort ab schneidet, es liegt nahe das dort dann bulldozer sandy bridge zersägen wird.

ABER noch bisschen warten, bis solche benches rein kommen wäre keine schlechte idee, wenn man unbedingt jetzt dann direkt kaufen will, hängts wohl davon ab ob man amd oder intel lieber mag, oder ob man risikofreudig ist oder nicht, und vielleicht ob der stromverbrauch der cpu noch ok ist oder nicht.
 
Nach all der Zeit... langsamer als mein "langsamer" 3,1ghz i5-2400, bei deutlich mehr Verbrauch und dem Preis?
Ich hatte vom P2 bis zum kürzlich erstandenen Sandy immer AMD CPUs wegen der Preis-Lesitung, aber das Ergebnis ist nicht anders als mit >traurig< für den Markt zu beschreiben. :mad:


@blackiwid das mag ja sein, aber zukünftige Software - insbesondere Spiele - interessiert keinen Käufer von Heute.. insbesondere nicht bei 'Verfallsware' Pc-Hardware.
 
Zuletzt bearbeitet:
Zurück
Oben