Test Test: AMD „Bulldozer“

Wers besser macht wird man sehen.
Ja die Zukunft wird es zeigen!
Nützt zwar denen nichts die jetzt eine CPU kaufen wollen, aber die Leutchen sind ja Leidensfähig.
Okay man könnte auch zu Intel greifen und aktuell auf dem neuesten stand sein, aber wer weiss?
Vielleicht muss AMD ja nur einen Schalter umlegen und alle Probleme mit dem BD erweisen sich als Seifenblase. Ist ja nicht so das AMD dazu nicht schon genug Zeit hatte ;)
 
Hier sind Verbräuche aufgelistet, auch für OC:
http://www.rage3d.com/reviews/cpu/amd_fx_8150/index.php?p=7

Wenn man dann überlegt wieviele sich wie die Blöden übertaktete i7-920 eingebaut haben. Dann muss man sich mit der gleichen Berechtigung, mit der jetzt auf FX rumgehackt wird, schon fragen, ob die ganz rund gelaufen sind.

Schaut man sich die OC-Gaming Benchmarks mit einer der stärksten verfügbaren Grafikkarten, der HD6990, an. Dann sieht man fast überhaupt keinen Unterschied zwischen i7 und FX in maximalen Settings:
http://www.rage3d.com/reviews/cpu/amd_fx_8150/index.php?p=9

Insbesondere Northbridge Overclocking und die Vermeidung von ungünstigen Multis >18, nebst 1600er Speicher, können sehr gute Verbesserungen bringen. Allein es fehlte der Spielraum für höhere Northbridge Takte. Insofern ist nicht unbedingt das ganze Design schlecht. Es krankt an der Umsetzung in Silizium. Und das kann man nicht AMD vorwerfen, sondern muss es Global Foundries ankreiden.
 

Rage 3D ist für Objektive Käufer ungefähr so Aussagekräftig wie eine Seite mit Namen NvidiaBridge es wäre!

Aber alle anderen angesehenen Hardwareseiten lügen ja:
http://www.guru3d.com/article/amd-fx-8150-processor-review/7

Bei CB Volker hat ein 600 Watt NT nicht gereicht um den FX 8150 bei 1,5 Volt, zum starten zu bewegen!

Falls jetzt wieder die " 2 Milliarden Transistoren" in den Raum geworfen werden:
Ein Dual 6 Core Xeon System hat 2,34 Milliarden Transistoren zu befeuern ;)
 
Zuletzt bearbeitet:
Fischkopp schrieb:
Rage 3D ist für Objektive Käufer ungefähr so Aussagekräftig wie eine Seite mit Namen NvidiaBridge es wäre!

Wo ist da dein Problem?

Battlefield wurde bereits bestätigt, Crysis 2 liegt Intel vorn, Dirt 3 liefert in Max.settings >100 fps und ist GPU limitiert, ebenso scheint es bei Civ5 und 40/70 fps min/avg, und bei Medal of Honor scheint der i7-2600k ein Speicherbandbreitenproblem zu haben, denn der alte i7 ist massiv schneller, ebenso FX. Was solls? Maximale Settings meistern alle OC CPUs mit einer 6990 im GPU Limit. Die ganze Gaming Diskussion am Leistungslimit, ist also höchst fragwürdig und antiquiert. Das hatte vielleicht noch in den 90ern Bedeutung, heute offensichtlich nicht mehr. Eher unter dem Leistungslimit einer 6990 und mit kleineren Auflösungen wird es interessant. Nur wer kauft sich da einen i7 oder FX-8? Und wo liegen da überhaupt unspielbare Bereiche vor?

Die 100 Watt mehr vom FX OC ggü. i7-2600k machen in einem massiv auf Leistung getrimmten System ganze 20 % Mehrverbrauch aus. Und alle Games unter diesen Settings, rennen locker ins GPU Limit.

Wenn ich maximale Leistung und Settings will, brauche ich so ein System. Ansonsten reicht auch ein 0815 System mit i5 oder X6. In dem Bereich will AMD die X6 abschaffen. Und dort sehe ich Probleme, nicht an der Leistungsspitze. Mit den Stromfresserboards und Grafikkarten, liegt die Effizienz bei Intel wie AMD fernab von gut und böse.
 
In dem Bereich will AMD die X6 abschaffen.
Stimmt das?
Damit würde AMD sich ja selbst ins Bein schiessen!

Was die Gamingperformance angeht, so muss man immer sehen was man der einzelne unter Gamingperformance versteht. Ich weiss der Vergleich mit Konsolen ist sehr weit hergeholt, aber wenn ich 1920x1080 spielen wollte, bräuchte ich keinen PC!
Es gibt aber Leute die mit höheren Auflösungen, Multimonitorsetups, 3D und/oder massivem Einsatz von AA/Af spielen.
Da kommt man mit einem normalen Gamingsetup das einige als "Wer braucht mehr?" bezeichnen nicht weit.
Dort kommt man dann auch irgendwann Zwangsläufig in den Genuss das ein 2600K 5Ghz unter Umständen halb soviel verbraucht wie ein vergleichbares AMD FX System.
Wer davor die Augen verschliesst zahlt seinen Strom entweder nicht selber oder ist wirklich AMD infiziert!
Bei letzterem ist dann aber auch Hopfen und Malz verloren und eine vernünftige Diskussion praktisch unmöglich ;)

Edit:
Wie es dann im Anwendungsbereich aussieht, wenn der FX seine 4 Module Dauerhaft unter Hochlast laufen lassen muss, steht auf einem anderen Blatt!
Aber sowas wird leider nicht oder sehr selten getestet, weil ja die Gamer fast immer im Vordergrund stehen ;)
 
Zuletzt bearbeitet:
Einen schon effizienten i5 auf einer Mittelklassekarte noch weiter ins GPU Limit zu schieben, treibt doch nur den Stromverbrauch hoch. Klar, ein i5@5 GHz mit einer Geforce 7100 GS verbraucht dann die Hälfte eines FX-8. Mit einer 6990 sind es 20 % weniger, tolle Logik.

Thuban soll Anfang 2012 ins EOL gehen. Das finde ich zumindest bedenklich, wenn man sich den ollen FX-6 oder FX-4 anschaut. Die nativ designten FX-6 und FX-4 könnten zumindest weniger verbrauchen, da sie nicht so viel Transistoren herum schleppen. Die könnten dann in der Effizienz und vom Preis etwas aufschließen, wenn auch noch der 15% effizientere Piledriver Kern dazu kommt. Kleiner und kostengünstiger zu produzieren, sind sie für AMD dann allemal als X4 oder X6. Für Durchschnittsgaming reicht es. Bei Anwendungen sieht die Effizienz aber trotzdem nicht so prall aus.
 
Zuletzt bearbeitet:
Und wo genau liefert dann ein i5 @ 5 GHz deutlich mehr fps mit einer Mittelklassekarte wie HD6950?

Vermutlich bei Spielen die CPU Lastig sind?
Aber ich sehe da hat mal wieder jemand an mir vorbei gelesen, denn ich redete von Systemen die eben nicht nur eine Mittelklassekarte enthalten!
Das es Leute gibt denen ein Normales Setup reicht ist schön, aber andere Nutzen eben High End Karten und manchmal mehrere davon und da ist das GPU Limit dann etwas weiter weg als bei einer 6950! Da muss dann auch die CPU entsprechendes liefern können!

Aber schön das mal jemand die Logik von OC bei Spielzeugsetups in Frage stellt, kommt selten genug vor :)
 
Dann noch eine andere Seite mit 6970 CF:
http://www.tweakpc.de/hardware/tests/cpu/amd_fx-8150_bulldozer/s14.php

Performancerating 1920x1200 ohne AA (hirnrissig):
FX-8 -19%

Performancerating 1920x1200 4x AA (grenzwertig):
FX-8 -14%

Performancerating 1920x1200 8x AA (üblich):
FX-8 -11%

Dabei trotzdem in allen Spielen:
[1] Crysis Warhead (DX10)
[2] FarCry 2 (DX10)
[3] Stormrise (DX10)
[4] Battleforge (SSAO/DX11)
[5] Dawn of War 2 Chaos Rising
[6] Dirt 2 (DX11)
[7] Dirt 3 (DX11)
[8] Just Cause 2 Dark Tower (DX11)
[9] Metro 2033 Benchmark (DX11/High/NODOF)
[10] Alien vs Predator (DX11)

über 100 fps in jedem Setting lt. Spielbarkeitsanalyse.
 
Qwerty08 schrieb:
Wenn man dann überlegt wieviele sich wie die Blöden übertaktete i7-920 eingebaut haben. Dann muss man sich mit der gleichen Berechtigung, mit der jetzt auf FX rumgehackt wird, schon fragen, ob die ganz rund gelaufen sind.
Natürlich ist es im Prinzip richtig was du sagst, allerdings gibt es zwischen dem Intel von damals und dem AMD von heute den kleinen aber wichtigen Unterschied von drei Jahren.

Damals war AMD in der Lage, zu den neuen Nehalems aufzuschließen und hatte mit dem Phenom II schließlich einen guten Wurf. Trotzdem blieb ihnen die absolute Leistungsspitze verwehrt. Heute hat man Intel mit ihrer Sandy-Bridge Architektur fast ein ganzes Jahr lang Zeit und Vorsprung gelassen, bevor man den Bulldozer ins Rennen schickte. Dann stellte sich heraus, dass man mit den neuen Prozessoren nicht mal die bis zu drei Jahre alten Architekturen - sowohl von Intel als auch AMD - überzeugend schlagen konnte.

Was gerne vergessen wird ist zudem noch die Tatsache, dass es sich bei den FX-8000er CPUs ja fast um Octacores handelt. Ich kann mich noch an einige Artikel vor mehreren Monaten erinnern, die ein Bulldozer-Modul schneller als zwei herkömmliche K10-Kerne dargestellt hatten und selbst wenn man nicht so optimistisch war, wurde trotzdem mit Zahlen von +75% und ähnlichem herumgeworfen. Schließlich ist von diesen Modulen (= Dual-Core light) aber nicht viel übrig geblieben, denn die Leistung fehlt und den hohen Stromverbrauch hat man Dank der großen Transistoranzahl trotzdem.

Ich wundere mich daher, wie du ein damals absolut konkurrenzfähiges Produkt wie den i7-920 mit dem aktuellen FX von AMD vergleichen willst, wenn es sich dabei doch um zwei vollkommen unterschiedliche Situationen handelt.
 
Ich wollte damit nur sagen, dass der Stromverbrauch eines FX-8 genauso abartig ist wie seinerzeit der eines i7, der einfach hingenommen wurde. Was kann AMD dafür, dass Global Foundry Fertigungsprozesse bastelt, die um >2 Jahre hinter denen von Intel hinterher hinken? Dann ist der Vergleich zur alten Riege, die Ende 2008 vorgestellt wurde, durchaus plausibel. Schaut man sich an, was die im Erstversuch ohne Steppingoptimierungen verbraten haben, mit z.T. 280 Watt @ stock:
https://www.computerbase.de/2008-11...treme-edition/26/#abschnitt_leistungsaufnahme
dann wird einem der Zeitabstand plausibel.
Der FX-8150 Verbrauch ist etwas niedriger und die Leistung in Anwendungen etwas höher als beim damaligen i7 Spitzenmodell.
Dann sieht man schon, welche enormen Fortschritte Intel in der Zeit gemacht hat. AMD+GloFo
hängen einfach Jahre hinterher, Ende der Geschichte. Und das müssen sie nun über den Preis regeln.
 
Qwerty08 schrieb:
Ich wollte damit nur sagen, dass der Stromverbrauch eines FX-8 genauso abartig ist wie seinerzeit der eines i7, der einfach hingenommen wurde. Was kann AMD dafür, dass Global Foundry Fertigungsprozesse bastelt, die um >2 Jahre hinter denen von Intel hinterher hinken?
Man muss sich an dem messen was die Konkurrenz zu bieten hat. Bei der GTX480 wurde auch gesagt sie hätte einen hohen Idle-Stromverbrauch, im Vergleich zu ner 4890 war der aber OK, nur eben im Vergleich zu einer 5870 katastrophal.
Es interessiert doch jetzt keinen wie er gegen Bloomfield aussieht. Er muss jetzt gegen SandyBridge antreten. Und als der Bloomfield rauskam war er auch mit Abstand die schnellste CPU am Markt.

Und zum Fertigungsprozess. Ist doch total egal wer es hier verbockt. AMD und Global Foundries sind nun mal ein Verbund der diese CPU fertigt. Und hier wird ja in erster Linie die CPU bewertet.
 
Aii.. das ist echt hart. Vor allem weil ich mir ein AM3+ Board gekauft habe da sich mein altes verabschiedet hatte.
Dann wird die nächste CPU wohl von Intel sein.
 
Gibt es schon linux tests?
mich würde mal interessieren wie viel die task verwaltung in windows 7 wirklich verbockt
 
Man sieht schön dass der Bulldozer selbst bei 4,5GHZ nicht übermäßig viel vcore braucht, somit kann euren Verbrauchstest in die Tonne treten.

1,48 Volt bei 5 Ghz und schwupps sind wir da wo auch Hardwarecanucks und CB Volker waren:

Von Verbrauchswerten kann ich da, im Gegensatz zu einem objektiven Test der auf sowas eigentlich hinweisen sollte, auch nichts lesen!
Das wäre dann noch immer doppelt soviel Verbrauch wie beim SB 2600K @ 5Ghz ;)
Dazu zieht der BD bei jeglicher Erhöhung der Vcore mehr Strom aus der Dose als Ohnehin schon, Physikalisch auch nicht anders möglich!

Edit: Übrigens habe ich das schon selbst relativiert, weil der BD bei Guru3d ja auch "nur" 430 Watt bei 1,44 Volt zieht!

Und nochmal Edit:
https://www.computerbase.de/2011-10/test-amd-bulldozer/22/#abschnitt_overclocking

Wenn man sich am Rande der Stabilität bewegt ist natürlich noch weniger Vcore drinnen!
Aber auch da sind es schon deutlich mehr Verbrauch, als ein SB bei selber Vcore und/oder eben 5 Ghz:
https://www.computerbase.de/2011-01/test-intel-sandy-bridge/50/#abschnitt_overclocking

Edit:
Und jetzt mal die Objektivität schlechthin und da wird es richtig böse:
Wenn ich mir den Standardverbrauch des FX 8150 ansehe, dann kann ich den I5 2500K auf 4,5 Ghz übertakten, spare noch immer Strom gegenüber dem FX 8150 und spare sogar noch beim Kaufpreis:
http://geizhals.at/deutschland/580328
http://geizhals.at/deutschland/689396
 
Zuletzt bearbeitet:
Ralf T schrieb:
...

Sollten sich mal die Tester die den Bulldozer "getestet" haben durchlesen, da lernt ihr vielleicht noch was (falls ihr der englischen Sprache mächtig seit).
Man sieht schön dass der Bulldozer selbst bei 4,5GHZ nicht übermäßig viel vcore braucht, somit kann euren Verbrauchstest in die Tonne treten.

Nächste mal einfach etwas mehr mit der CPU beschäftigen, ich weiß einer Pro Intel Seite fällt das schwer aber etwas Objektivität sollte man schon haben.
...

Hast du irgendwelche Hinweise darauf, dass die CB-Tester (und praktisch alle anderen Reviewer) sich beim Übertakten der Intel-CPUs wesentlich mehr Mühe geben, als bei AMD?

Ich halte es für wahrscheinlicher, dass die Intel-CPUs einfach unkomplizierter zu übertakten sind und man mit viel weniger Feintuning gute Ergebnisse erreicht.

Wenn das so ist, dann sind die Reviews zu Bulldozer doch ganz in Orndung. Die meisten "Normalsterblichen" werden bei ihren Übertaktungsversuchen zu ganz ähnlichen Ergebnissen kommen, wie die Reviewer.
 
Herdware schrieb:
Ich halte es für wahrscheinlicher, dass die Intel-CPUs einfach unkomplizierter zu übertakten sind und man mit viel weniger Feintuning gute Ergebnisse erreicht.

Wenn das so ist, dann sind die Reviews zu Bulldozer doch ganz in Orndung. Die meisten "Normalsterblichen" werden bei ihren Übertaktungsversuchen zu ganz ähnlichen Ergebnissen kommen, wie die Reviewer.

Ungünstige Einstellungen beim Übertakten lassen Bulldozer total abstinken. Und den ungünstigsten Fall haben fast alle reviewer unbewusst eingestellt (22,5*200). Hier mal das Optimum, wo man sieht wie groß der Unterschied auf gleichem Takt ist:
http://img840.imageshack.us/img840/7694/multihttscale.jpg
http://www.xtremesystems.org/forums...nce-Scaling-Charts-max-OCs)LN2-Results-coming!

Das sind mal eben locker flockige 25 % Leistungsunterschied bei gleichem Takt. :rolleyes:

Mich würde mal interessieren, wieviel man davon nutzen kann ohne den Gesamttakt gleich auf 4,5 GHz zu erhöhen. Könnte effektiver sein optimale Einstellungen auf niedrigerem Takt und Vcore zu fahren. 4 CU/4 C bringt in Spielen z.B. auch 10 %, so dass der CMT FX-8 nicht mehr hinter sondern vor Deneb, bei gleichem Takt liegt. Mit angepassten settings würde sich das s.o. noch verbessern.
 
Zuletzt bearbeitet: (link vergessen)
Logisch, dann werden ja auch die Rechenkerne mehr beschäftigt. Man hat also seitens AMD den FX nicht ohne Grund so verkrüppelt ausgeliefert. Optimale settings, hätten ihn noch mehr saufen lassen. Und dann hätte man nicht mehr die 4 GHz erreicht. Hat sich ja offensichtlich gelohnt. :freak:

Im Nachhinein wäre es vielleicht schlauer gewesen, lieber 200 MHz weniger Takt, dafür optimale settings und niedrigeren Turbo einzubauen. Dann wäre man wenigstens durch die Bank pro Takt vor den alten K10 geblieben.
 
Hm - da stelle ich mir die Frage, hat AMD das tatsächlich wegen des höheren Stromverbrauchs nicht gemacht, oder womöglich diese Möglichkeit selbst nicht gesehen hat? Und wie weit läßt sich das Spielchen noch treiben?

Und stimmt das überhaupt?

CB - bitte testen :)
 
Zuletzt bearbeitet:
Zurück
Oben