Test AMD Bulldozer im Test: Ein schwarzer Mittwoch

"Die Architektur kann aktuell nicht mit der Vorgänger-Generation mithalten."
Das ist das mit abstand traurigste, was ich je in einem Hardwaretest gelesen habe. Wie kann man nur sowas auf den Markt bringen. Das hinterlässt doch tiefe Narben beim Image.
 
Da bin ich mit meinem i5 760 auf 3,8 Ghz, ja noch völlig ausreichend dabei.

Konkurrenz belegt wahrlich das Geschäft, aber momentan ist der Bulldozer leider nicht konkurrenzfähig :freak:

Ich als Konsument bin momentan der Verlierer und hoffe, dass AMD ein kleines "Wunder" schafft, obwohl ich INTEL in den letzten 5 Jahren genutzt habe und wohl weiterhin nutzen werde.
 
@PiPaPa

da kannst du Gift drauf nehmen! Im Gegensatz zu dir ist mir Objektivität kein Fremdwort, deshalb brauche ich den CB Bulldozer Test nicht verteidigen oder mit in meinen Augen lächerlichen Argumenten schön reden.
 
Nun, es wird wohl (hoffentlich) so wie beim Phenom. Version 1 enttäuscht und Version 2 haut rein.

Wenn Bulldozer auf dem Markt ist, dann wird automatisch mehr für Bulldozer optimiert als heute, denn es gab ihn bislang ja noch nicht. Windows 8 bringt auch Verbesserungen. Auch wird es immer mehr Programme und Spiele geben, die 6 oder 8 Kerne besser nutzen als heute.

Im Grunde könnte der jetzige Bulldozer also ein Wegbereiter für die nächste Bulldozer-Generation sein. Und wenn die nächste Generation wirklich 10-15% schneller wird und dann noch die Software auf den Achtkerner hin optimiert wurde, dann könnte es 2012 deutlich besser aussehen als heute. Es wäre zumindest ein Lichtblick für AMD.

Denn man kann ja viel mit den ungleichen Finanzmitteln, "unnötiger" Leistung, etc. argumentieren. Aber wenn AMD nicht mal im Bereich der 200-Euro-CPUs Intel das Wasser reichen kann, dann ist das einfach nur schlecht, zumindest für's Image. Denn auch wenn viele Menschen so viel Leistung gar nicht brauchen bzw. bezahlen wollen: Wenn man Bulldozer als Desktop-CPU rausbringt, muss er sich natürlich mit der gleich teuren Desktop-CPU von Intel messen lassen.

Wichtig ist jetzt noch ein Test der kleineren Bulldozer-CPUs. Vielleicht kann AMD hier besser mithalten und die Enttäuschung über den Achtkerner wettmachen.
 
Zuletzt bearbeitet:
Schöner, umfangreicher Test. So lob ich mir das!

Testsubjekt enttäuscht allerdings. Wenn ich mir die Diskussionen des letzten Jahres ins Gedächtnis rufe, in denen es immer wieder hieß, Intel könne wegen Bulldozer einpacken, oder man solle lieber noch mit dem Prozessorkauf warten, dann empfinde ich irgendwie Genugtuung.

Aus Verbrauchersicht ist das natürlich weniger schön. Intel kann jetzt fast die Preise diktieren. Hoffentlich kann sich AMD irgendwie noch wieder aufrappeln, denn das war ein ziemlicher Griff ins Klo. Da hilft auch kein Schönreden :(
 
calluna schrieb:
Ich habe nichts Gegenteiliges geschrieben.

Nach dem Test hier auf CB taugt der Bulldozer derzeit nicht als Desktop-CPU.


Nach dem Test hier auf CB sehe ich das diese CPU sehr wohl als Desktop CPU taugt. Und das befriedigend. Jedoch im Vergleich zum gleichpreisigen Gegenprodukt taugt es nichts mehr.

Bitte nicht einfach stumpf verallgemeinern
 
Ich habe seit Jahren nur noch Intels inside. Aktuell noch den alten Q6600. Es ist schon sehr interessant zu sehen wie maßlos die Erwartungen waren und wie riesig jetzt die Enttäuschung. Fakt ist ... auf BD zu wechseln macht imho keinen Sinn. Weder von der reinen Performance her .. noch vom Preis her.
Ich warte persönlich auf Ivy Bridge ... auch wenn ich vermute das er jetzt durch dieses Fiasko von AMD viel später kommen wird. Geld kann Intel auch noch mit Sandy verdienen. Und Konkurrenzdruck haben sie ja aktuell nicht.
 
Ja Volker jetzt ist klar das du nicht objektiv bist, erst die Texte, dacht ich voll gut, etwas pro AMD und dann sieht man irgendwann mal Balken und dann schlägt man nur noch die Hände überm Kopf zusammen :D ;)

Jeder der sich an meine Posts aus den letzten Tagen erinnerte, weiß wohl das ich mich auf Bulli gefreut habe, und man ihn objektiv wirklich gut reden konnte.
Aber das was da jetzt rausgekommen ist, sry, ist absoluter scheiß seitens AMD.
Was haben wir noch gedacht das ein 0815 ähm 8150 ja wohl besser sein wird als ein geshrinker 1100T und dann dieses ergebnis, oh mein Gott.
Ich bin sowas von entäuscht!
Am besten Bulli2 absagen und nen Phenom mit den neusten Befehlen voll klatschen shrinken und Takten was geht, es kann nur besser werden :freak:

wirklich ich war noch nie so entäuscht, als sie merken das sie das nicht 2008 oder 2009 bringen können, wo das ja noch richtig gut gewesen wäre, hätten sie es verwerfen sollen, 2011 ist es wirklich nicht mehr angebracht ...

ich wiederhole mich, aber ich bin wirklich traurig über das ergebnis, nichtmals nur die Performace, vielmehr die Leistungsaufnahme für diese performance, das einzige positive ist Idle OC leistungsaufnahme :king: , für optimisten xD ...
 
Zuletzt bearbeitet:
Ich habe eine Seite gesehen, bei deren Tests schneidet der BD sehr gut ab, in allen Spielebenchmarks schlägt er dort den 2600k o.o
 
Precide schrieb:
Ich habe eine Seite gesehen, bei deren Tests schneidet der BD sehr gut ab, in allen Spielebenchmarks schlägt er dort den 2600k o.o

Und Wiso gibste keinen Link ?
 
WAS IST DAS HIER FÜR EIN HAUFEN VON MIESEPETERN?

Mein klar der Test ist auch so geschrieben, das dies nahe liegt so zu reagieren, aber hinterfragt doch bitte ein wenig die Werte und nehmt sie nicht hin für in Stein gemeiselt mal ein paar Fakten und Anregungen die fairer sind als das einseitige Bashing auf 40 Seiten:

1. Es ist kein Quantensprung das stimmt
2. wer das letzte bisschen Power jetzt braucht muss wohl zu Intel greifen

ABER ES STIMMT AUCH:

3. der Prozessor ist gut genug für alle heutigen spiele und bei neuen Spielen wo es dann wirklich drauf an kommt scheint er Vollgas zu geben (Planet 3dnow Alien vs Predator) und das obwohl noch kein gepatches Windows 7 oder Windows 8 eingesetzt wird.
4. es gibt softwareprobleme z.B. Sheduler die aber noch gelöst werden.
5. in Anwendungsbenchmarks ist er in manchen sehr schlecht in manchen extrem gut, das deutet darauf hin das man wenn man Software so schreibt das sie auch auf diesem Prozessor gut laufen er alles was bisher da ist zersägen kann, siehe z.B. Winrar Test (dort wird Sandy zersägt, ca. 20% vorsprung) und sonst in anderen ist er ungefähr auf Sandy-bridge Ebene wie z.B. bei Avidemux h264, was bei dem Preis doch super ist.
6. ja es stimmt er ist wohl unter last nicht der Sparsamste
ABER
7. dafür ist er unter Idle sparsamer, das ist wichtiger und der bei CB gemessene Wert ist deutlich höher wie bei anderen seiten.

Es mag sein das ichs grad zu rosig sehe, es mag sein das die cpu zwar physisch in der Lage ist viel zu leisten, aber viel Software auch in ein paar Monaten immernoch nicht optimiert ist auf diese cpu, das kann ich nicht ausschließen, aber ihr und auch cb übertreiben dafür auch Masslos in die andere Richtung.

Man kann nicht sagen in einem kleinen Test mit wenigen Anwendungen sieht die cpu eher schlecht aus, und wenn morgen durch ein paar softwarepatches die cpu 500% schneller ist (ja schon klar übertreib grad masslos ^^), ist das wurscht, wenn mans bis zum release nicht gebacken bekommt gibts keine change das weg zu patchen.
Nun mag bei cpus bisher Software-unterstützung nicht so wichtig gewesen sein, außer vielleicht beim Pentium 4, nun scheint das hier aber nunmal anders zu sein, es gab auch schon grafikkarten wo Treiber teilweise noch einiges gut machen konnten in ein paar Monaten.

Nun ist das bei grafikkarten wirklich kein trost, da man oft die power direkt nach dem kaufen braucht, hier jetzt aber wegen spielen zu jammern die jede der cpus locker alle packt, versteh ich nicht so richtig, wenn es sehr wahrscheinlich ist das dies bei zukünftigen spielen deutlich besser aus sehen wird. Dort wo man die volle Power dann braucht.

Zu anwendungstests fände ich Linux-tests sehr interessant, dann könnte man heute viellicht einen Teil des Potentials sehen das in der cpu steckt oder auch nicht, das würden wir dann ja sehen. Das windows nunmal bei den lahmen Releasecyrcles weit dem Status Quo hinterher hinkt sollte ja mitlerweile bekannt sein.

DAS TRIFFTS MEINER ANSICHT NACH AUFN PUNKT: http://www.planet3dnow.de/vbulletin/showthread.php?t=399114&garpg=24#content_start
 
Zuletzt bearbeitet:
Marius schrieb:
@RIPA

QX 6700 ist ein Stromfresser, aber so arg?!

Hast du die Stromsparsachen eingeschaltet?!
180W sind sehr schwer nachzuvollziehen.
Das braucht mein Sys bei Spiellast!

Ist dein Meßgerät kaputt?

GPU läuft mit 157MHz und GRAM mit 300MHz. CPU Multi geht auf 6, wenn Idle.
Kann doch nicht alleine daran liegen, dass ich den Bus-Speed auf 440 angehoben habe, oder?
 
Ameisenmann schrieb:
@PiPaPa

da kannst du Gift drauf nehmen! Im Gegensatz zu dir ist mir Objektivität kein Fremdwort, deshalb brauche ich den CB Bulldozer Test nicht verteidigen oder mit in meinen Augen lächerlichen Argumenten schön reden.
Wo rede ich den Test schön? Realitätsverlust?
 
Ich muss sagen, ich bin froh dass ich mir vor einigen Monaten eine SB-CPU gekauft habe. Bulldozer wurde derart gehyped, da war es klar, dass es nicht so prall wird. Sicherlich eine kleine Enttäuschung für AMD-Liebhaber - wie ich früher auch mal war - aber man kann nur hoffen, dass AMD nicht aufgibt und auch weiterhin am Ball bleibt um mit Intel zu konkurrieren.
 
Nachdem ich jetzt einige Tests gelesen habe, muss ich sagen: Nein, Bulldozer ist nicht das, was ich im Moment kaufen würde. Aber fairerweise muss man sagen: Die Multithreading-Performance ist für einen (eigentlich) 4-Kerner schon sehr gut. Aber die CPU setzt nun mal auf Verteilung ist und ist damit nicht für den üblichen Desktop gedacht. Leute, das ist eine Server-CPU und dafür ist sie auch sehr schnell. Nur frage ich mich, was AMD sich für die nächsten FX einfallen lässt. Der Phenom II war ja auch viel schneller als der Phenom I, weil der dann endlich mal "fertig" entwickelt war.

Und zum Strombedarf. Im idle verbraucht er genauso viel wie die Core i. Ht4u hat für die CPU (incl. Wandler) 4 Watt ermittelt, die Core i liegen bestenfalls bei 3 Watt, Quelle unten. Kritik kann man hier sicher nicht anbringen. Also ist die CPU idle sehr sparsam, der idle-Verbrauch des Systems steht und fällt mit dem eingesetzten Board und vor allem dessen Ausstattung...

Quelle
 
Erst einmal Danke an Volker und CB für den ausführlichen Test in der kurzen Zeit, die zur Verfügung stand.

Die ersten Leaks haben ja schon angedeutet, daß BD mit einer relativ schlechten Singlethread Performance aufwarten wird, aber ich hätte nicht gedacht, daß er beim Verbrauch so grottig abschneidet.
Es scheint also wieder so zu laufen wie damals beim Phenom I.

Bedauerlich ist auch, daß man bei AMD nichts zur Cacheproblematik bzw. zu fehlerbereinigten Steppings sagt, aber schon 10-15% Leistungssteigerung für jede der folgenden BD Generationen verspricht.

(siehe auch: "Zudem sind einige Performance-fressende Bugs bekannt, die sich möglicherweise durch einen Prozessortreiber noch beheben oder reduzieren lassen, bevor B3 oder C0 ihnen später wohl ganz den Garaus macht. Für Linux existiert jedenfalls seit Ende Juli ein Kernel-Patch (noch nicht bei den Distributionen), der das häufige gegenseitige Hinausschmeißen von Cachelines (Thrashing) wegen eines Aliasing-Problems im L1-Instruktionscache vermeidet. Er wird unter „[PATCH]x86.AMD:Correct F15h IC aliasing issue“ auf gmane.org diskutiert")


Oli.Rockcity schrieb:
Die Kollegen von Gamestar sind auch merkwürdig. Liefern genau das gleiche Testergebnis wie CB und geben der CPU eine Bewertung von 86%
Gamestar ist auch nur Müll und taugt höchstens zum Hintern abwischen. :rolleyes:

PiPaPa schrieb:
Wie oft wurde AMD schon angedichtet pleite zu gehen...
Wie oft haben die Investoren Geld nachgeschossen? Oder auch Intel?
Das ist genauso wie bei Griechenland: Solange die anderen noch so blöd sind, Geld reinzustecken, gehen sie nicht pleite.

PiPaPa schrieb:
Und warum wird dann Titan nicht mit IBM CPUs ausgestattet?
Erstens ist IBM nicht so blöd ist und stattet einen Konkurrenten mit den eigenen CPUs aus und zweitens würden die Interconnects (SeaStar/Gemini) von Cray nicht so einfach mit den IBM CPUs kommunizieren können, da sie dafür HT-Links benötigen.

Außerdem ist die Frage falsch gestellt, denn sie sollte lauten: Wieso wird Titan nicht mit AMD GPUs beschleunigt? ;)

PiPaPa schrieb:
Die allermeisten Käufer von OEM System[en]
wenden sich an einen großen Hersteller und verlangen nach einem Intel System mit vPro und rennen nicht in einen der Blöd- oder Geiz-ist-geil Märkten, wenn sie Rechner für den Firmeneinsatz brauchen.
PiPaPa schrieb:
Sollte Bulldozer im Servermarkt trotz des Verbrauchs punkten können verdienen sie dort mehr mit den CPUs als an irgendwelchen heimischen PC Schraubern.
Naja, zumindest bis zum Lauch der SB-E Xeons hätte AMD das Monopol auf Mehrsockelserverprozessoren mit AVX Unterstützung.
Dank FMA wären sie auch eine gute Wahl fürs HPC, aber IBMs BlueGene/Q dürfte bei weniger Verbrauch deutlich flotter rechnen.
 
oh je! ich habe im januar aufgerüstet und hatte da überlegt auf bulldozer zu warten. jetzt bin ich froh gleich die sandy genommen zu haben. ich hatte AMD besseres gewünscht (war mal AMD fan) aber so wird das nix jungs!

trotzdem weiter machen, nur bitte nicht so!
 
ripa schrieb:
Wieder so ein Test, bei dem ich mich frage wie ihr auf solch geringe Idle-Verbräuche kommt.
Mein System verbraucht Idle 180 Watt (ohne TFT)...wenn ich Battlefield 3 zocke genau 300 Watt.

Ist bei mir der Wurm drin, oder wird bei diesen Tests nur mit der CPU internen Graka getestet? (Dann könnte aber z.B. kein Q9550 getestet werden)


Also 180W im Idle, Hut ab.
Da stimmt etwas nicht, das ist eindeutig zuviel.

Mein System, siehe Sig., hat im Idle 85W.
Mit einer aktuelleren GraKa wären es 20-25W weniger.

Gruß Uwe
 
PiPaPa schrieb:
Komisch, ich habe meinen problemlos um 500Mhz hochziehen können, genauso wie ich meinen XP 1700+ JHIUB Stepping mit 1466Mhz Standardtakt auf 3000Mhz mit dem legendären Abit NF-7S bekommen habe und die CPU noch immer läuft.

Bei den XP mag das noch gegangen sein, nicht aber bei den Athlon 64 Clawhammers. ;)

@Uwe F.

85W ist schon viel, ich kam per default mit 2600K @ 4,6 Ghz + HD6850 auf 55W idle , 52W non OC
 
Zurück
Oben