Test Test: AMD „Bulldozer“

Fischkopp schrieb:
Die Frage ist, in wie fern die Hardwarecanucks Werte stimmen. Bei Guru3D verbraucht der FX ja "nur" 430 Watt oder so! Allerdings auch mit weniger Spannung und die HC´s werden die Spannung wohl für den Takt gebraucht haben!
Bei den ganzen "3D"Seiten habe ich ein ungutes Gefühl hinsichtlich der Objektivität.(Genau wie ich es auch bei einer "Core-i-lover" Seite hätte;) )
Aber selbst dort sind es 180W mehr, bei deutlich geringerer Leistung des Bulli gegenüber SB. Danke nochmal für deine Kurztests. Ich schaue morgen wieder rein, der Wecker rappelt bei mir morgen sehr früh! Gute Nacht!
 
Für alle die es interessiert, hier das Zitat von Volker:
Du musst übelst vorsichtig mit der Spannung sein bei dem Ding, wenn du übertaktest. Mit 0,1 Volt mehr verdoppelst du schon fast die Leistungsaufnahme. Ich hab dem mal voller Enthusiasmus zu Anfang ohne dieses Wissen für Luftkühlung gern mal noch genutzte 1,50 Volt gegeben .. also +0,25 Volt .. das Testsystem hat sich dann abgeschaltet, weil das Gold-Netzteil mit 600 Watt zu schwach war auf den notwendigen Leitungen^^ Die FX-Serie kann so krass viel ziehen, hab ich seit vielen Jahren nicht mehr gesehen.

Wir wissen ja nun das Bulldozer ein Schluckspecht ist, aber das es so schlimm ist hätte ich nicht für möglich gehalten. :eek:
 
Oh mann, das klingt irwie lustig wenn man eure Beiträge ließt xD
Ich möchte nicht wieder den Konjunktiv schwingen, somit bin ich gespannt wie es dann in paar Monaten aussieht, wenn es vllt bessere Optimierungen und Stepping für BD gibt.
Aber wenn man bedenkt dass GF mit er Fertigung noch nicht so klar kommt, und BD 2 mil. Transistoren hat, und trotzdem auf so hohen Takt noch werkelt, würde ich sagen ist trotz des Verbrauch beeindruckend ist.
Weiteres ist die 45 nm Fertigung schon in einem guten level gewesen. Anfangs hat man auch 140 watt tdp für den Phenom II BE 965 benötigt. jz bekommt man in die 125 watt tdp klasse sogar schon 3,8 ghz rein (wahrscheinlich mehr)
Somit ist die schlechte 32nm Fertigung (die auch am Anfang steht) ähnlich gut wie die schon wirklich ausgereifte 45 nm Fertigung. Da Intel schon am Ende der 32nm ist, finde ich den Abstand zu intel nicht mal so schlimm wie oft dargestellt wird. Somit verbraucht dieser laut CB 74 watt mehr. ( hier 2500k mit dem FX8150 verglichen, da die Leistung ähnlicher ist als zum 2600k. hier müsste man mit HT 60 watt Differnenz haben, beim FX 8120 95 watt tdp bsp schon 30 watt weniger ... somit wäre man bei 44 watt gegenüber dem 2500k Mehrverbrauch)

Somit wird es eben das neue Stepping und die Software Optimierung zeigen, wie gut BD gegen SB sich aufstellen könnte. Denn wenn man die Elektromigration minimieren, würde BD auf einem hohen Takt auch weniger Verbrauchen.

Jz Konjunktiva.
Somit falls AMD folgende Punkte verbessert, Verbrauch (durch bessere Fertigung, was klar ist), Software (bessere Arbeitsaufteilung in den Threads) würde BD um einiges attraktiver werden.
Mit einer besseren IPC und Turbo 3.0 dazu würde der Nachfolger sogar richtig interessant werden.
Was wäre wenn GF ab Jänner den Prozess im Griff hat, und man könnte sogar die Prozessoren von der 125 watt tdp in die 95 watt tdp und die 95 watt tdp in die 65 watt tdp klassen setzen. Würde Phenom II schon mal wie altes Eisen aussehen. Der Abstand zu SB wäre bis auf games nicht einmal so weit weg (Performance/watt)
Mit bessere IPC und eben den Turbo der pro Modul ein Kern abschaltet und somit mehr Ressourcen hat, würde gegen SB nicht mehr schlecht aussehen.

Aber das klingt alles zu gut und unrealistisch xD Eher ist wahrscheinlich dass man bei BDII dann ein 1000 watt Netzteil zum overclocken braucht.
Bei AMD war es noch nie so, dass der Refresh eigentlich das war was man sich gewünscht hatte. Man hat noch nie Anfangs einen hohen Verbrauch gehabt, und in laufe der zeit optimiert.
Bitte wo lebt ihr ??? AMD kann nix anders machen, als kleine aber sichere Sprünge zu machen.
https://www.computerbase.de/2011-10/test-amd-bulldozer/4/#abschnitt_servervarianten
Die Servervarianten werden attraktiv genug sein, sonst würde man jz nicht schon welche auf Bestellung haben. Man wird Desktopmarkt sowieso nicht soviel verkaufen können, da man vllt nicht soviel produzieren kann. Wenn man dann den Fertigungsprozess im Griff hat, wird man so schnell wie möglich den Refresh für llano und bd bringen. Btw wird wohl zuerst der OEM markt davon bekommen, und dieser wird 8 kerne und hohen Takt gut vermarkten. Von den meisten User wird kaum wer einen Unterschied zu einem Intel bemerken, da man sowieso meist eine langsamen Prozessor hat. Pentium IV war auch mehr verkauft als Athlon 64 obwohl dieser um einiges schlechter war.
Ich bin gespannt was Trinity kann. Denn letztens hab ich schon gelesen dass Microsoft auf APUs eingehen möchte und mehr Funktionen unterstützen möchte. Stellt euch vor Microsoft würde für ihre nächste Konsole-Generation AMD APUs nehmen (sind ja völlig zufrieden mit AMD). Momentan ist es zwar noch ein 3 core IBM aber wieso sollte dieser nicht durch einen für Microsoft entwickelter modifizierter-Piledriver ersetzt werden ?) Würde das passieren, würde man sich bei Microsoft auf BD und APUs konzentrieren.... Das wäre bsp etwas, was den Kompletten Markt verändern könnte, da nun auch AMD-Prozessoren optimiert würde. Wäre ein Szenario was man AMD nur wünschen könnte. Also man weiß eben nicht was die Zukunft bringt. Aber ich finde es lächerlich immer vom schlimmsten auszugehen...
 
Zuletzt bearbeitet:
@Pipip: Du willst einen Verbrauch der fast dem eines Systems das 3X so vielen Threads liefert entspricht mit der neuen Architektur erklären? Was soll denn bitte bei einem neuen Stepping den Last Verbrauch derart senken?
Immerhin macht AMD Werbung mit der OC Fähigkeit des AKTUELLEN FX, vergisst dabei aber "beiläufig" zu erwähnen das die CPU dabei gut und gerne doppelt soviel verbraucht wie eine Vergleichs CPU?

Okay...
 
Zuletzt bearbeitet:
Fischkopp
ganz einfach, warum hat man so einen hohen verbrauch 2 milliarden Transistoren. Durch eine bessere Fertiung verringert sich auch oft die Elektromigration. Diese würde bei dieser Anzahl von Transistoren bemerkbar machen.
Übrigens ja man darf werben. Wenn du zum PC markt gehst, oder MM, oder Saturn, fragen wirklich selten leute nach dem Verbrauch.
Oft wenn ich wem zusammenstelle, frage ich als ersters, wie schaut es mit den Verbrauch aus. Habe bis heute 80% zurückbekommen, ist mir scheiß egal...
Btw sind 60 watt ca eine Glühbirne.


=> eine 60 Watt Glühlampe verbraucht 60 Watt pro Stunde,
in 24 St. also 24 x 60 Wh, gleich 1440 Wh oder auch 1,44 kWh (Kilowatt pro Stunde).

Wenn Du jetzt den Kilowattstunden-Preis Deines Stromanbieters hernimmst,
zum Beispiel 17 Cent, erhältst Du nach Adam Riese 1,44 x 17 = 24,48.

Der 24-stündige Betrieb einer 60 Watt Birne schlägt also mit 24,48 Cent zu Buche.


Übrigens noch was interessantes.
Im Jahr 1900 trat auch der in der Elektrobranche tätige Ferdinand Porsche auf der Weltausstellung in Paris mit einem Elektrowagen in das Rampenlicht der Öffentlichkeit, den er im Auftrag von Lohner konstruiert hatte.
Das Auto war das erste seiner Art soviel ich weiß, und hatte schon einen Wirkungsgrad von 83% (konnte ca 50 km fahren). Moderene Elektroautos haben 90%. Das heißt 1011 Jahre früher... Somit zeigt es, dass eben einiges möglich ist was man nicht erwartet hat.
 
Zuletzt bearbeitet:
2 milliarden Transistoren

Moment:
Der Faktor drei ist auch bei den Transistoren fast 1:1 zu sehen, denn ein Clarkdale bringt es auf 384 Millionen, der Gulftown bekanntlich auf 1,17 Milliarden.

https://www.computerbase.de/2010-03/test-intel-core-i7-980x-extreme-edition/2/#abschnitt_ueberblick

Das macht bei 2 Gulftowns in Form des Xenon 5690 Summa Summarum 2,34 Milliarden Transistoren die befeuert werden wollen :rolleyes:
Dazu ist die CPU Architektur deutlich älter!
 
pipip schrieb:
Ich möchte nicht wieder den Konjunktiv schwingen, somit bin ich gespannt wie es dann in paar Monaten aussieht, wenn es vllt bessere Optimierungen und Stepping für BD gibt.
Dann gibt es SandyBridge-E und Ivy Bridge, die dem (vielleicht eventuell möglicherweise) verbesserten BD um die Ohren rechnen. Und da sie die AVX2 Extensions beinhalten, werden sie auch die letzte Disziplin, bei der BD konkurrenzfähig ist, dominieren. So einfach ist das.
Und wenn AMD der Architektur wider Erwarten doch mal noch für Normaluser brauchbare Produkte auf den Markt bringt, legt Intel einfach eine Schippe drauf.
 
frankpr
Was Instruction sets angeht, wird IB nicht besser als BD II dastehen, FMA wird sogar erst bei IB Nachfolger kommen, XOP ebenso. BDII soll sogar schon FMA3 haben.

"Und wenn AMD der Architektur wider Erwarten doch mal noch für Normaluser brauchbare Produkte auf den Markt bringt, legt Intel einfach eine Schippe drauf."

Ist das echt so einfach ??? dass man einfach sagt, ich lege jz was drauf ?
 
Zuletzt bearbeitet:
Ich kann mir durchaus vorstellen, dass Intel einfach sagen kann "wir legen noch was drauf."

Einfach deswegen, weil es sein kann, dass Intel Leistung die schon möglich wäre einfach noch nicht veröffentlicht. Warum auch? AMD übt ja im Moment keinerlei Druck auf Intel aus.
 
pipip bewirb dich doch mal bei AMD's Marketing Abteilung die könnten so jemanden wie dich gut brauchen. Den so wie du hier den BD mit Zähnen und Krallen verteidigst das ist schon nicht mehr normal.

Danke an Fischkopp für deine mühen. Das was du aufzeigst denke ich schon seit 3 Tagen. Was nützt es wenn der BD in manchen Gebieten an die Leistung des SB ran kommt aber dann immer noch fast das doppelte an Strom frist? Aber ich weis es kommen noch Optimierungen:freak:
MFG
 
wieder knapp am Ziel vorbei und dafür hat AMD so lange gebraucht ,
ich hatte eigentlich erwartet das AMDs Neuer die Intel Top Modelle
knapp übertrumpft in Leistung?

sehr schade :freak:
 
finde es sehr interessant, dass der verbrauch kritisiert wird und dann in den signaturen sich so stormsparwunder wie 6970/570/580 als grafikkarte finden :). mal abgesehen davon, dass cpu's nie wirklich unter volllast laufen und sich somit der abstand ja eher relativiert, würde es mehr bringen nicht immer das licht überall brennen zu lassen und standbygeräte abzuschalten (dicke plasma tvs im wohnzimmer z.B.) nur so ein gedanke... :)

eins noch vorweg ich habe einen intel und das natürlich aus leistungsgründen, weil die dinger nun mal seit der core-architektur uneinholbar schneller sind und allein aus leistungsgründen würde ich nun auch zu intel greifen, aber..das blaue unternehmen ist
einfach ein laden von verbrechern geworden. natürlich kann man nun sagen, es herrsche freie marktwirtschaft und da verdrängt der stärkere nun mal den schwächeren. ja, in der tat, zeigt intel ja auch eindrucksvoll, aber ist es vernünftig das zu unterstützen?

ich denke die einzig wirkliche demokratie, die wir als menschen der westlichen welt ausleben können, ist die in der wir mit unserer kaufentscheidung betreiben. somit ist meine auffassung, dass es schädlich ist intel noch mehr milliarden in den arsch zu blasen.

kann natürlich nur für mich sprechen, aber wenn ich nun aufrüste wird es amd sein, weil es mir egal ist ob ich bei einer 1650er auflösung 90 oder 140 fps hab, weil der flatscreen eh nur ~60 erfassen kann und das bisschen mehr an verbrauch nehm ich gerne in kauf und schalt dafür das licht immer brav aus und stell den kühlschrank nicht auf -20 grad. damit will ich auf keinen fall sagen, dass amd der bessere laden wäre, sondern ich bin einfach stark dafür, dass 2 teufel (amd - intel) die sich gegenseitig bekriegen besser sind, als ein oberteufel (intel als eventueller monopolist) der uns arme seelen fangen und ausnehmen will.
 
finde es sehr interessant, dass der verbrauch kritisiert wird und dann in den signaturen sich so stormsparwunder wie 6970/570/580 als grafikkarte finden .

Ich hätte es auch anders ausdrücken können!
Die Werte habe ich in erster Linie deshalb rausgesucht, weil ich wissen wollte was für ein NT ich brauche und bei den Werten blieb mir die Spucke weg, denn immerhin muss man beim übertakten des BDs praktisch ein doppelt so starkes Netzteil wie für den SB einplanen wenn man in die Taktregionen kommen will ;)

Das sowas nicht jeder macht und es auch nicht jeden interessiert ist für mich ziemlich egal. Für andere wiederum ist das sicher interessant.
 
vielleicht gibt es ja auch Leute die einem Gamer PC mit Hi.end Grafikkarte haben
nur zum zocken und noch einen 2.PC mit schneller CPU nur zum arbeiten
Internet Multimedia PC z.b. ? und mal was Neues brauchen ?

das mit den Grakkarten stimmt schon diese Hi-End dinger ziehen ganz gut da gebe ich dir recht gibt kaum alternativen außer man verbaut was aus mit MittelKlasse dann ist es aber kein Gamer PC mehr,
aber wenn die CPU dann auch noch mehr verbraucht als nötig währe und die Konkurrenz eine schnellere und sparsamer hat ? bei mir läuft der Allrounder PC jeden Tag 8 Stunden da macht ich mir schon Gedenken wenn ich mal was Neues brauche kommt mir bestimmt kein Ersatz PC mit 125 Watt hier hin, mein jetztiger PC einer von 3 der nur für Internet Media benutzt wird zieht ca 65 Watt bei Windows, I 5 650 32nm glaub da ist eine ATI 5560 oder 5570 drin die CPU ist ca. 1.5 Jahre auf dem Markt und mehr als ausreichend schnell wenn ich mal was Neues kaufen würde dann auch wieder so was in dieser Art seitdenn AMD hat entlich mal was was mich voll überzeugt ?
 
Zuletzt bearbeitet:
KillerGER87

Personen können 2 wichtige Positionen beziehen:
1. Der selektive Konsument sein
2. oder in die Politik gehen
 
Zuletzt bearbeitet:
Also für einen PC nur zum Surfen muss man ganz klar eigentlich einen Liano vorziehen. Die CPU power reicht dafür dicke und die Graka ist um welten besser als die von Intel. Aber nur zum surfen ist selbst die Graka der Lianos zu Overpowerd. Rein zum sürfen tut es ein kleiner Intel auf Sandybasis. Bei Multimedia würde ich aber den Liano bevorzugen. Muss halt jeder selbst wissen was macht bzw. braucht. Aber aus rein Ökolgischer sicht ist der BD eine Katastrophe und das kann man auch nicht schön reden.

Edit:
@pipip
Also ich wage zu behaupten das mir da einige die diesen Thread verfolgt haben mir da recht geben würden. Aber ich will mich da auch nicht auf einen Streit einlassen bzw. einen herrauf Beschwören. Also war das jetzt mein letzer Kommentar dazu
 
Zuletzt bearbeitet:
derbiber842 schrieb:
finde es sehr interessant, dass der verbrauch kritisiert wird und dann in den signaturen sich so stormsparwunder wie 6970/570/580 als grafikkarte finden
Wie viel verbraucht denn eine solche Karte im Desktop Betrieb? Mit ziemlicher Sicherheit weniger als ein BD. Eine CPU dürfte da deutlich öfter in Teil-/Vollastbereiche kommen.
Nachdem der Test veröffentlich wurde, habe ich aus Interesse mal den Verbrauch meines HTPC, der sich Dank verwendetem Board nicht übertakten läßt und nur 4 Threads zur Verfügung hat und trotzdem im Cinebench bis auf 0,4 Punkte an BD heranrückt, gemessen. Unter absoluter Vollast (OCCT Netzteil Test) verbraucht er so viel, wie Wolfgangs BD Testsystem im IDLE, 98W.
 
KillerGER87

einige wären genau diese, bei denen ich mich quer gestellt habe. Würden einige auch anders sehen, dass ich es einfach nicht okay finde eine Technik der art schlecht zu reden die nicht einmal völlig genutzt werden kann. Der Verbrauch ist um Welten besser bei Intel, 2 Jahre ca, keine Frage. Aber die Leistung des Bulli verglichen zum phenom I damals, ist um einiges besser. Doch wird BD behandelt als wäre es ein erneuter Phenom I, und das ist er nicht.
Aber die 75 watt sind nicht die Welt zwischen 2500k und FX 8150. Bzw ist es nicht der doppelte Verbrauch.
Und so fängt es nämlich an. zuerst is es etwas mehr, dann viel mehr, dann doppelt soviel.

In der Politik bin ich nicht (aus gewissen Gründen), aber selektiver Käufer schon. Wette von FairTrade hast du wohl noch nie gehört. Und ich persönlich würde sicherlich für ein Gamer PC einen i3 kaufen, mehr aber nicht. Und da AMD aber in dieser Region für mich eine Alternative hat, nehme ich die Firma, die eben angeschlagener ist, weil ich ein Wettbewerb haben möchte.
Ob ich jz 10-20% weniger in Gaming-Benchmarks habe, (hab sowieso nur eine 6870 die nächsten 2 jahre) brauch ich kein SB 2500k (auf 4,5 ghz kA, in einen Bereich, din er sowieso nie takten wird, egal ob BD oder SB, wird meist eher in einer der unteren P-State verweilen), und werde diesen auch nicht kaufen.
Also wieso ist das nicht legitim ?? wieso sollen die 95 watt tdp FX bulldozer so schlecht sein nur weil das Topmodell soviel verbraucht ??? (75 watt - 30-35 watt wäre somit noch weniger, sobald der FX 8120 in 95 watt tdp rauskommt, der ca 5-10% langsamer ist)

Wenn ich jz im Moment sagen würde, ist der 2500k oder FX 8150 besser, würde ich sagen klar, der 2500k. Aber wie gesagt, das kann sich alles noch ändern, und das soll man eben nicht verschweigen... Wird aber gern getan.
 
Zuletzt bearbeitet:
Unter absoluter Vollast (OCCT Netzteil Test) verbraucht er so viel, wie Wolfgangs BD Testsystem im IDLE, 98W.

Zumindest der hohe Idle Verbrauch liegt aber einzig und allein am Testsystem, denn mit 4W für CPU + Wandler liegen die Zambezis auf einem Niveau mit den Sandys. Was den Lastverbrauch angeht, hast du aber absolut Recht.
 
Zuletzt bearbeitet:
Zurück
Oben