Test AMD Bulldozer im Test: Ein schwarzer Mittwoch

Also folgendes. Ich würde echt gern einen Test sehen mit dem FX 4000. Vllt werde ich selber einen machen.
Der FX 4100 verbraucht im Vergleich zum 965BE weniger.
Würde gern sehen wie sich der FX 4100 gegen einen 965BE schlägt, im stock, und max overclocking, (auch im Verbrauch)
Witers sollte man den Turbo etwas erhöhen, 200 Mhz.... man könnte die single core Leistung erhöhen.
Overclocking wird man auch noch abgewartet müssen. Wenn man bedenkt dass der FX 8150 auf wenigeren modulen 5 ghz erreichen kann, sollte es der FX 4100 ebenfalls erreichen können. Und mit dessen Performance, sollte ein übertakteter Phenom II x4 ghz eventuell der i3 das nachsehen haben.
Also wie bereits erwähnt, ich sehe ein dass viele enttäuscht sind, doch hat eine Technik auch immer eine Zeit verdient, in der eben aussortiert wird, was gut oder schlecht ist.
Beim 8 Modul sehe ich nur das Problem dass dieser nicht richtig funktioniert was turbo angeht. Denke nicht mal dass der Oft richtig reinspringt. Gescheiter wäre es lieber gewesen 2 module hauptsächlich auf hohen Takt laufen zu lassen und bei multicore Anwendungen einfach 2 module per Software dazuschalten zu lassen, wie bei NV Optimus wo man Grafikkarte dazu und wegschalten kann bzw das neue Programm von AMD, dass das gegenstück von NV Optimus ist, hier häte man das eventuell integrieren können. Wieso ist keiner auf so eine Idee gekommen ? Oder ist das unmachbar

https://www.computerbase.de/artikel.../seite-17#abschnitt_spiele_geringe_aufloesung
18 % langsamer als der gleich getaktete Phenom II, dabei weniger Verbrauch.
Somit ein 5 ghz Bulldozer würde somit ca ein 4,8 ghz Phenom II sein, laut milchmädchen Rechnung. um 110 euro finde ich das nicht schlecht. Also es wird sich zeigen.
Der Turbo von 200 mhz ist aber von seiten AMD einfach lächerlich... hätte man schon 400 mhz machen sollen, dann wäre man dem Phenom II X4 3,6 ghz schon um einiges näher
 
Zuletzt bearbeitet:
So lächerlich die ganze Potential diskussion...

Bulldozer ist und bleibt Müll! Da gibts nichts zu diskutieren. Auch unter Windows 8 wird das Ding Müll bleiben, denn wenn dieser Schund-Prozessor davon profitiert, dann die Intels erst recht!

Auch die Zukunftsaussichten sind mehr als nur Düster! Wie sich bereits jetzt herausgestellt hat, taugt die komplette Architektur nichts! Anders kann es nicht sein, wenn selbst vorherige Generationen schneller und effizienter sind. Selbst mit Verbesserungen und Struktur-Verkleinerungen bleibt das Konzept für die Tonne.

Intel hatte zu Zeiten von Netburst ebenfalls dieses Problem. Sie haben einen Schritt zurück gemacht und auf Basis der Pentium 3 Architektur die Core 2 Duo Plattform entwickelt, anstelle Netburst (heute Bulldozer) zu "verbessern".

AMD muß mehr denn je handeln, anstatt weiter großspurige Ankündungen zu betreiben. Mehr als schwätzen können sie derzeit nämlich nicht.
 
Zuletzt bearbeitet:
HiLogic schrieb:
So lächerlich die ganze Potential diskussion...

Die Architektur kann sehr wohl Potential haben, aber daran sieht man das du nicht viel Ahnung von Chipdesign hast. Es kann nur eine kleine Ungereimtheit sein, die zwischen Erfolg und Misserfolg entscheidet. Ebenso das AMDs Konzept eben niegelnagelneu ist. Aber zum Glück kannst du ja in die Zukunft schauen - das ist viel lächerlicher Nostradamus.
 
CHAOSMAYHEMSOAP schrieb:
Auch Intel verscherbelt seine Server-CPUs als Gamingprozessoren für die Enthusiasten.
Der Unterschied zu AMD besteht darin, daß AMD es sich eigentlich nicht leisten kann dicke CPUs für den Desktop zu verschwenden.
Also nur ein Dualchannel Speicherinterface und einen möglichst kleinen Cache (und somit einen kompakten Die) damit man im Desktopmarkt preislich attraktiv sein kann.
(Intels S.1366 bieten Triplechannel, SB-E sogar 4 Speicherkanäle und noch einen größeren Cache als die Mainstreamsandys; die alten Gallatins hatten noch einen L3 Cache, während die normalen P4 ohne auskommen mußten).
https://www.computerbase.de/artikel...581/seite-30#abschnitt_sisoft_sandra_mem__avx

Tja und trotz des Triplechannel RAM Interface liegt Sandy Bridge hinter dem Bulldozer zurück.

CHAOSMAYHEMSOAP schrieb:
Ich erinnere mich an einen Prozessor von Intel, der war auch ganz anders und hatte viel Potential. Sein Name war/ist Itanium. :rolleyes:
Den Itanium mit dem Bulldozer zu vergleichen ist aber mal alles andere als ein guter Vergleich, denn der Itanium ist vor allem daran gescheitert, das er 32Bit nur Emulieren konnte und damit 32bit Software lief wie sau und 64bit Software in den meisten Anwendungsfällen damals noch nicht nötig war.

CHAOSMAYHEMSOAP schrieb:
Und der vernünftige Anwender kauft sich nicht jetzt eine CPU, weil damit die zukünftige Software vielleicht besser läuft, denn in der Zukunft gibt es dann noch leistungsfähigere CPUs.
Wie schon erwähnt, werden sich die allermeisten Entwickler nicht damit rumschlagen müssen, den hier sind vor allem die Entwickler von Compilern, Scheduler und Bibliotheken(Ich spreche von Bibliotheken wo man auch wirklich Leistung aus Mehrkernoptimierungen ziehen kann, wie z.B. OpenCV) gefragt und diese machen nur einen sehr kleinen Teil der Entwickler aus.

EDIT:
Achja und was einige hier meinen, das man ja lieber einfach den K10.5 weiter hätte optimieren sollen. Tja was meint ihr wohl wie viel K10.5 noch im Bulldozer steckt? Das wird schon noch eine Menge sein.
Die frage ist auch ob es langfristig was bringt, weiter auf ein klassisches Kern Design zu setzen, vor allem wenn man die Verbindung zwischen dem Fusion Projekt und dem Bulldozer Design sieht. Der Bulldozer ist auf Modularität ausgelegt, genauso, wie das Fusion Konzept. Es dürfte mit dem neuem Design für die Entwickler nun deutlich einfacher sein Punktuell Änderungen vorzunehmen, die Anzahl der Module zu erhöhen usw..
Auch im Bereich der Software macht es nun mal irgend wann Sinn ein Konzept zu überdenken und an neue Anforderungen anzupassen und die neue Anforderungen an ist Flexibilität bzw. Modularität.
 
Zuletzt bearbeitet:
FormatC schrieb:
@FreeYourMind + Winrar-Charts:

Ein Kind ist völlig unmusikalisch, trifft aber rein zufällig den Kammerton a und kann ihn sogar konstant über 1 Minute halten, ansonsten rennen aber alle weg, wenn mehrere Töne gefordert sind. Ein anderes Kind braucht zwar den Ton als Vorgabe, singt aber danach fehlerfrei in der vorgegebenen Tonlage. Wer darf im Chor in der ersten Reihe stehen und wer putzt in der Zwischenzeit von beiden das Besucherklo?

Fischkopp schrieb:
Und das ist, was in der Realität davon übrig bleibt:

Quelle: http://www.tomshardware.de/fx-8150-zambezi-bulldozer-990fx,testberichte-240885-16.html

Ja sehr toll der Winrar Benchmark... und so Aussagekräftig... :rolleyes:

Offensichtlich habt Ihr beide meinen Post falsch interpretiert. Weder hatte ich damit ausgedrückt, dass BD eigentlich ganz gut ist, noch hatte ich damit ausgedrückt, dass WinRAR besonders aussagekräftig ist.

Soviel zum Thema :rolleyes:! (:rolleyes:)
 
@ PiPaPa

don't feed the trolls. Den Hinweis habe ich hier schon von Moderatorenseite bekommen ;)

Es wird sich zeigen was die Zukunft bringt. Jetzt lass sie mal alle kräftig draufzahlen, Preise sind ja grad gestiegen :D Und ich glaube auch nicht das es das Ende der Fahnenstange ist.

@ pipip

gute Idee. Auf diesen Test wäre ich auch gespannt.
 
Frage mich was da falschgelaufen ist bei AMD?
Seitdem Intel die Verhältnisse umgedreht hat setzen sie sich mit jeder Generation weiter ab.

Haben die in den letzten Jahre wichtige Designer verloren? Ich kann es mir nicht erklären...
 
meiermanni schrieb:
@ TigerRC: Die pro Watt-Leistung(wurde ja immer wieder rausgeholt bei AMD Grafikkarten vs Nvidia) dürfte bei Intel fast doppelt so hoch sein wie bei AMD.
Die Sandys müsste man ja schon bei 5,5GHz takten um den Verbrauch der AMDs zu erreichen und dann nehmen die die vollends auseinander.

Schau mal in den CB-Test, da sind es ca. 35 % Energieeffizienzvorsprung.

Das bei CB verwendete Mainboard schluckt zu viel. Bei Heise verbraucht BD z.B. 10 % weniger als Thuban.

SB könnte man also lt. dem folgenden Bild mit 4,3 GHz takten:

power_psu_load.png



Dann hätte SB also gut 25 % mehr Takt und Leistung als vorher. Dann muss man aber von der Effizienz die erhöhte Leistungsaufnahme von 30 % wieder abziehen und kommt auf das Gleiche heraus, nämlich ca. 30 % Effizienzvorsprung.

Also bitte etwas sachlicher und nicht immer so furchtbar übertreiben. Auch wenn es am Fazit nichts ändert.
 
Zuletzt bearbeitet:
Fonce schrieb:
https://www.computerbase.de/artikel...581/seite-30#abschnitt_sisoft_sandra_mem__avx

Tja und trotz des Triplechannel RAM Interface liegt Sandy Bridge hinter dem Bulldozer zurück.

Sandy Bridge hat DualChannel und max 1333Mhz.

Außerdem hat CB den Bulldozer schon mit etwas teurerem und deutlich schnellerem 1866er Ram gebencht.

https://www.computerbase.de/artikel...dozer-test.1581/seite-26#abschnitt_testsystem

im Gegensatz zu den SB und Nehalems.

Außerdem spielt das SI nur ne sehr kleine Rolle.
 
Zuletzt bearbeitet:
LeCars
Ja man hätte lieber den FX 4000 als gamer CPU aufbohren sollen. Der schlägt sich gegen die alte Generation nicht mal schlecht. Der Turbo hätte etwas höher ausfallen müssen.
um 110 euro, bekomme ich mehr Leistung gegenüber dem 955BE, hab einen geringeren Verbrauch, hab das höhere Overclockpotential, und kann die 4 cores gut verwenden. Außerdem habe ich den Turbo den ich über K10 state den turbo (1modull) selber bestimmen kann. Somit kann ich in Games die nur 2 kerne Verwenden noch mal mehr rauskitzeln.
Das Problem hier im Forum ist, dass hier zu wenige Leute denken, und sich leicht von der allg. Stimmung anstecken lassen. Falls der FX 4100 auf die 90 euro runterfällt. Ist der I3 für do it yourself Fans Geschichte... Da billiger, da mehr Möglichkeiten. (denn ein 955BE ist einem i3 2100 schon sehr gefährlich und der FX 4100 schlagt den 955 wohlmöglich)

Krautmaster
der unterschied sind laut HT4U vllt gerade mal 1-3% also ist es sowieso egal, deshalb hab ich oben meine Vermutung geändert
 
OMG ... sowas ist schlecht für den Konkurrenzkampf.
Intel kann sich jetzt entspannt zurück lehnen kommt doch bald der Shrink von Sandy Bridge -> Ivy Bridge.

Damit werden wir sobald keine 8 Kerne Prozessoren von Intel für den Massenmarkt sehen.
 
HiLogic schrieb:
So lächerlich die ganze Potential diskussion...

Bulldozer ist und bleibt Müll! Da gibts nichts zu diskutieren. Auch unter Windows 8 wird das Ding Müll bleiben, denn wenn dieser Schund-Prozessor davon profitiert, dann die Intels erst recht!

Wovon soll denn Intel profitieren, wenn die SB überhaupt keine Probleme mit dem Windows 7 Scheduler haben?

Wenn dann sieht es momentan eher so aus, dass die SB unter Windows 8 schlechter abschneiden:

win%208%20wow%201680.png


Rechnet man die 10 % Leistung dazu, ist der FX-8150 pari mit dem i7-2600k unter Anwendungen. (Blick in Performancerating hilft)
 
ich bin mehr oder minder entsetzt über die ergebnisse dieses tests. nach all dem warten und hochloben der architektur nun das. ich wusste teilweise nicht ob ich lachen oder weinen sollte. damit ist amd keinen schritt weiter gekommen. und das nach all den jahren entwicklung und verschiebung. diese prozessoren müssten die sb von intel um 10-20% schlagen um amd wieder konkurenzfähig in der prozessorsparte zu machen, aber das ist ja leider nicht passiert...
intel bleibt weit vorn und kann sich zurücklehnen und in aller ruhe ihre neue generation auf den markt bringen.
echt nicht marktfördernd
 
Humptidumpti schrieb:
AMD hat sich mit dem BD halt ein Ei gelegt. Das ist aber noch lange kein Grund zum Trübsal blasen. Die werden das überleben.

Ostern ist schon Vorbei :D bald kommt Weihnachten ;)

Also ich hab schon ganz Nett und Direkt meine Meinung zu Bulldozer bzw AMD abgegeben. (S51)
Und falls du das nachliest, AMD legt sich nicht nur mit denn Bulli ein EI, sondern mit sovielen ANDEREN auch.

Obwohl ich selbst einen AMD habe und diesen auch Gut finde, AMD stellt sich selbst gern im WEG.
Also die haben nicht nur ein faules Ei, die haben schon mindestens ein Sixbeck an faulen Eiern.

Bei AM3+ SLI (das die da Pfuschen zeigt nur die respektlosigkeit gegenüber denn Endverbraucher)
Bulldozer ist eben so ein EI.
Und da gibts noch mehrere solche 'Eier', wenn man das genau nimmt.
AMD hat meiner Meinung noch immer Probleme mit Multicores, Leistungsmässig beim PII weniger aber in sachen Multicore Optimierung hinken sie hinter, nicht so derbe wie mit denn Atlhon 64 X2 wo es noch EXTREM war (bei manchen spielen auffallend).'das ist ein halb faules Ei'

AMD ist in meinen Augen im Grunde so ein RAST und RUH Betrieb, Vormittags geschlossen Nachmittag zu.

Und mit dem wo sie für Spieler vllt etwas mehr interessant werden könnten, eiern sie auch lieberherum.
Das hat zwar jetzt mehr mit Grafikkarten zutun, aber das ist eben für denn Spieler auch ein sehr wichtiger Aspekt, wo so mit Hilfe Nvidia auf INTEL druck machen könnten, lehnen sie lieber AB (PhysX) und entwickeln sowas selbst, was es ja zumindest seit der HD2XXX schon gibt aber eben nicht genutzt wird, sie nennen ihr Produkt Physics..... was zb bei MAFIA II oder Batman GARNICHTS bringt.

Also egal wo ich dahin schaue, AMD macht sich bewusst oder unbewusst, für einen ANTIFANBOY uninteressant.

Denn CPU Leistungs mässig wie OC-Potenzial lässt AMD zu wünschen über und das eben nicht nur seit BD, und schlagen mit freuden Türen ZU, die ihnen sicher auch helfen würden im Prozessor und im Grafikkarten MARKT.
Denn ja ich würde in Erwegung eine ATI als MAIN, und eine NV als PhysX karte zugebrauchen.
Und ja es ist möglich durch einen Patch, aber auch nur INOFFIZEL, und weit mehr aufwendiger als mit 2 NV Karten.

So ende damit das hat nur auch am RANDE mit AMD zutun, und eben mit denn Bulldozer.
 
Qwerty08 schrieb:
Rechnet man die 10 % Leistung dazu, ist der FX-8150 pari mit dem i7-2600k unter Anwendungen. (Blick in Performancerating hilft)
Genau... Ganz feste glauben und beten... dann wird das mit den 10% (vielleicht) noch was.
Aber selbst dann liegt der BD Schund-Prozessor immernoch 63% hinter der Energieeffizienz des i7-2600 ;)
 
Die Architektur kann sehr wohl Potential haben, aber daran sieht man das du nicht viel Ahnung von Chipdesign hast. Es kann nur eine kleine Ungereimtheit sein, die zwischen Erfolg und Misserfolg entscheidet. Ebenso das AMDs Konzept eben niegelnagelneu ist.
Hallo! Das Problem bei diesem ganzen "Potentialgequatsche" liegt doch wo anders.
Bulli braucht optimierte Software um halbwegs mit den SBs mithalten zu können, denn so umwerfend ist sein Vorsprung selbst in Multikernanwendungen selten und hat anderswo keine Chance.
Sandy hat selbst bei nicht optimierten Anwendungen ganz schön Dampf.
Das ist also kein Problem der Softwareentwickler per se (obwohl die durchaus etwas flotter sein könnten), sondern ist definitiv architektonisch bedingt, weshalb der Bulli wie ein Schluck Wasser in der Kurve hängt. Hätte der Bulli tatsächlich soviel NUTZBARES Potential, wäre er in etwa gleichauf mit Sandy, was für beide ungepasste Software angeht. (Die gibt es!) Aber da ist Bulli eine Ente, während Sandy auch mit unangepaßter Software gut zurechtkommt. Mit Spezialanpassungen kannst Du alle CPUs "Wau" machen, aber wenn du nicht mithalten kannst bei Software die keinem Hilfestellung bietet, dann hast du am Zeichenbrett Mist gebaut.

Und selbst wenn da noch etwas auf Softwareseite kommt, der Stromverbrauch ist ein Witz, wenn man sich anschaut, was er in der Theorie können sollte, bei dieser Fläche und Transistorenzahl und was er letztlich schafft. Hoffentlich baut man die Bullis ganz oben in die Gehäuse, da kann er wenigstens eine abgestellte Teetasse warmhalten.

Bullis Problem ist auch, daß er nicht gegen Netburst antritt, sondern gegen SB, was im Gegensatz zu ersterem ein richtig großer Wurf ist. Ich glaube, bei AMD ist vor ein paar Jahren im Zuge von Athlon/X64 der Erfolg zu Kopf gestiegen und anstelle den Vorsprung vor Intel auszubauen, hat man in unsinnige Prestigeobjekte sein Geld versenkt, dabei nicht beachtend, daß Intel irgendwann mal wieder richtig gutes Silizium haben wird. Intel hat aus seinen Fehlern mit der "Gigahertzfalle" gelernt. Denn die CPUs seither waren alle richtig ordentlich bis vorzüglich.
 
Krautmaster schrieb:
Sandy Bridge hat DualChannel und max 1333Mhz.

Außerdem hat CB den Bulldozer schon mit etwas teurerem und deutlich schnellerem 1866er Ram gebencht.

https://www.computerbase.de/artikel...dozer-test.1581/seite-26#abschnitt_testsystem

im Gegensatz zu den SB und Nehalems.

Außerdem spielt das SI nur ne sehr kleine Rolle.
Ach stimmt, der Bloomfield hatte ja nur TripleChannel und halt die Server Varianten. Sry, mein Fehler.

Trotzdem ist die Aussage von nicht richtig, den der Interlagos besitzt übrigens sogar ein Triple- bzw. QuadChannel RAM Interface
http://news.softpedia.com/news/AMD-...et-20-Cores-and-PCIe-3-0-Support-214594.shtml

Und zum verwendeten 1866er RAM. Tja es wird aber nun mal unterstützt...;)

Aber man kann schon sagen das wenn AMD womit keine Probleme hat, dann ist es( spätestens seit dem A64) die Speicherbandbreite.
 
Ur-Shak

sry, aber deine Kommentare zeigt einfach nur, dass dein Horrizont begrenzt ist. Da du immer davon ausgehst, das AMD selbst ein Kunde ist der riechen soll, was du willst.
Das AMD Produkte von der Konkurrenz nicht fördert ist dir doch klar oder. Oder unterstützt Intel oder NV AMD so sehr ??? und AMD ist ignorant, oder wie sollen wir das verstehen ?
Die games die ich bis jz gespielt habe, waren nicht mal Physik X vorhanden, auf den scheiß kann ich gänzlich verzichten. Nv fordert dass ich eine 2 te grafikkarte kaufe damit ich meine 3 monitore benützen kann, sehe ich nicht ein. Kann genauso viel schlechtes über NV reden wie du über AMD.
Nur hab ich schon NV karten gekauft, du AMD karten ??? (du antifanboy)
Hör lieber mal auf zu bashen und werde sachlich. Das mit den SLI ist eine Baustelle, doch überlege mal wie lange es SLI auf AMD Plattformen wieder gibt. Dass man daran arbeiten muss ist doch selbstverständlich.... Würde Intel selber Grafikkarten vertreiben, glaubst du echt, sie würden NV oder AMD unterstützen xD so wie sie es schon mit den Compiler Geschichte gemacht haben ?
 
Qwerty08 schrieb:
Wovon soll denn Intel profitieren, wenn die SB überhaupt keine Probleme mit dem Windows 7 Scheduler haben?

Was kann jetzt Microsoft und Intel dafür das AMD zu dämlich ist das Maximale bei gegebenen Faktoren rauszuholen. Windows 7 ist ja nicht erst seit gestern draußen, wenn es da ein Problem gibt kann man das mit Microsoft schon Monate vorher kommunizieren.
Glaube kaum das Microsoft so einen Imageverlust hinnehmen würde wenn man sie rechtzeitig informiert.
 
Zurück
Oben