Test AMD Bulldozer im Test: Ein schwarzer Mittwoch

den Verbrauch des BD würde auch keinen Interessieren wenn er 50% vorne wäre was er dem verbrauch und den Transistoren nach sein MÜSSTE.
Ich frage mich eher was der Scheduler besser machen muss bei den MultiCore Apps die auf 8 Threads ballern... wie kann er hier etwas verbessern?

Soll er raten welche Threads vielleicht Vorteile daraus ziehen auf einem Modul zu laufen und diese dann zusammenlegen?

Man redete von 25% mehr Transitoren und bis 80% Mehrleistung, super Werte... wären die Module ohne CMT so leistungsstark wie Phenom II Kerne dann müsste ein Phenom II X4 DIE + 25% also einem 80% Phenom II X8 entsprechen, was selbst dem 990X gefährlich werden sollte.

Wir haben aber keinen Phenom II X4 + 25%, von den Eckdaten her haben wir sogar mehr. Der phenom II X4 hat 258 mm², geshrinkt auf 32nm entspricht das etwa 140mm² (geschätzt) ... was haben wir... 315mm².

Das ist mehr als 100% mehr.

Auch die Transitorenanzahl... 758 Millionen Transistoren vom Phenom X4 + 25% sind bei mir ~950 Mio.
Bulldozer hat 2000 Millionen Transitoren, ... klar, davon auch Cache, aber in Summe verdammt ineffizient wenn man schaut was Stand heute dabei rauskommt.

Wir haben die dreifache Menge (300%) der Transistoren eines Phenom II X4 und können diesen bei mehr Takt gerade so in Schach halten.

Die Zahl 300% und 2 Mrd. Transitoren verdeutlichen auch wieso die CPU so viel frisst und bedeuten zu gleich, dass sie auf den Transitor eigentlich sogar recht effizient ist.

@esox66

auch ein X4 oder ein i3 2100 kann deine GPU schnell genug mit Daten versorgen... das war also nichts Neues, ergo eig. sinnfrei zu testen. Hat sehr wenig mit CPU Leistung zu tun...

@Drifter!

jap, das stimmt. Die Frage ist wie das der Scheduler wissen soll ob FPU oder INT etc... =/
Ich glaube das stellt man sich viel zu einfach vor...

Das ist ja nicht seit gestern bekannt und AMD wird mit MS auch schon Jahre daran tüfteln, vielleicht geht es einfach nicht so wie man sich das mal eben vorstellt.
 
Zuletzt bearbeitet:
Für alle, die sich so sehr gefreut haben, dass Intel seine Prozessorpreise "hoch gesetzt" habe:
Beim AMD x6 ist es ebenfalls der Fall.

http://ht4u.net/news/24461_amds_fx-...erfuegbar_-_preise_fuer_phenom_ii_x6_steigen/

>

Die extrem guten Minimalframes des AMD FX-8150 bei Battlefield lassen darauf hoffen, dass sich mit der Zeit noch einiges für AMD dreht in puncto Software. Wie schon gesagt, sahen die i7 900er zu Beginn ebenfalls nicht durch die Bank grundsolide aus.
 
@freifracht
keine frage. :)

@usopia
bei jedem test bei dem ich nachgeschaut habe wurde das selbe mainboard verwendet. pcgh schreibt dazu z.b.
"Punkten kann der Bulldozer im Leerlauf, denn hier ist er genügsam, allerdings ist das von AMD zur Verfügung gestellte Asus Crosshair V Formula kein Stromsparwunder. Abgespeckte Mainboards könnten hier sparsamere Systeme ermöglichen."

je mehr ich gelesen habe, desto eher relativiert sich der kontrast halt für mich zu dem schwarz auf cb. es ist zwar noch immer ein dunkeleres grau, aber noch lange kein schwarz, und je mehr wir in die zukunft blicken, desto heller wird das grau. :)
für verrückt erklär ich jedenfalls keinen der sich nen BUlldozer holen möchte.

aber schluss damit, deinem letzten absatz stimm ich uneingeschränkt zu und drücke dieser entwicklung auch die daumen.

btw bin ich auch sehr zufrieden mit meinem 2500k, das geilste system was ich bis jetzt gehabt habe. :)

bin raus
all is well, all is well
 
Auch auf die Gefahr hin, dass dies schon besprochen wurde, aber ich möchte mir keinen 1000+ Beiträge Thread in Gänze durchlesen.

War nicht bei der Präsentation der ersten K10 Modelle (Phenom I), die Produkte ähnlich desaströs? Und mit der ersten Modifikation (Phenom II) wurden dann durchaus zufriedenstellende Produkte aus dem Hut gezaubert?

Ich muss gestehen dieses Fazit im Artikel nicht gefunden zu haben. Eigentlich schade, denn der Bericht über die ersten Phenom II war mehr als überschwenglich.
 
@onkelosuppo: die Parallelen zum Phenom I-Launch wurden hier schonmal angesprochen aber man darf nicht vergessen, wie hoch BD schon jetzt getaktet ist, das (u.a.) war beim Phenom I anders. Wahrscheinlich ist beim BD nicht mehr so viel rauszuholen.
 
Vor allem auf nen BD 2 zu hoffen der dann etwas mehr bringt, was bringt das? AMD hätte JETZT konkurenzfähig sein müssen und das ist in die Hose gegangen. Wenn BD2 rauskommen sollte muss er gegen Ivy Bridge antreten und da wird es sicher noch schlechter für ihn aussehen
 
Der Phenom II war ca. 10% schneller als sein Vorgänger. Das reichte aus, um zum Core2 aufzuschließen, an dem der erste Phenom noch gescheitert war. Deshalb das positive Fazit beim damaligen Test.

Seit dem hat sich bei Intel aber einiges getan.
Wenn jetzt der erste Bulldozer nicht wirklich schneller ist, als ein Phenom II, bzw. pro Takt und Core sogar langsamer, dann liegt er damit ebenfalls bestenfalls auf dem Niveau der alten Core2. Er müsste sich aber mit den zwei Generationen neueren Sandy Bridge messen und Ivy Brigde steht schon fast vor der Tür.

10% mehr werden nicht reichen, um das aufzuholen. Was AMD jetzt bräuchte, wäre eher ein Leistungssprung, wie er bei Intel zwischen Pentium 4 und Core2 lag. Das mit der selben Architektur und dem selben Fertigungsprozes hinzubekommen, wäre ein mittelgroßes Wunder. Nicht mal AMD selbst rechnet mit sowas, sondern nur mit den besagten 10%.

Damit liegt der Bulldozer+ oder Piledriver oder wie auch immer, dann etwa auf dem Niveau der Nehalems. 3-4 Jahre hinter Intel. Das wird keine Jubelstürme auslösen.
 
ich finde es halt sehr gefährlich wenn die grösste seite einen schon sehr geschwächten aber doch "sooo" wichtigen hersteller derart platt macht. sollte keinem gefallen, besonders nicht im hinblick auf objektivität.


@ grensen

Ich sehe von der Grundaussage ebenfalls überall das Gleiche stehen. Rethorisch unterschiedlich, in der Sache aber dennoch ident.

Außerdem machst du folgenden Fehler:

Du (und viele andere) sehen die Marktsituation AMDs und sehen in dem Unternehmen einen Underdog, den es zu unterstützen gilt. Dass auch noch in Deutschland produziert wird, tut sein übriges. Es kommt daher unterschwellig oft (wie auch indirekt von dir) die Forderung, bei AMD nicht so streng zu sein.

Dabei wird folgendes verkannt: es ist nicht die Aufgabe von CB zu versuchen ein Gleichgewicht auf dem Markt herzustellen. CB ist dazu da, Informationssuchende mit den relevanten Fakten zu informieren (Leistung absolut, Leistung in Relation zum Verbrauch, Verbrauch absolut, Vergleich zur Konkurrenz usw.) und das wird auch getan. Wenn man immer Bauchpinselei betreiben würde, würde sich vielleicht AMD freuen und man müsste sich nicht mit so manchen Fanatiker herumschlagen, aber am Ende hat dann der Konsument den Scherm auf. Wieso?

Weil er dann auf eine Empfehlung vertraut hat, die ihn de facto bevormundet und seine Bedürfnisse ignoriert, im schlimmsten Fall ihn falsch informiert. Das kann doch nicht das Ziel sein.

Bzgl. Objektivität: es wäre gerade eben nicht objektiv auf die Marktsituation Rücksicht zu nehmen und aufgrund dieser zu sagen, dass ein Produkt für einen normalen Heimanwender gut sei. Das, was du da ansprichst, ist keine Objektivität, es wäre in letzter Konsequenz eine Bevormundung vieler Nutzer und das ist nicht die Aufgabe CBs.

Des Weiteren:

Diese CPU ist eigentlich eine technisch sehr interessante Server-CPU. Sie ist sehr gut in multiplen Workloads mit vielen Threads, allerdings mit einer für die heutige Zeit eklatanten Schwäche bei der Leistung pro Takt (IPC).

Wenn wir nun einen durchschnittlichen Heimanwender/Spieler hernehmen, wie schaut dessen Anwendungsgebiet aus? Braucht der wirklich so eine CPU? Kann man diesem soetwas wirklich empfehlen angesichts dessen, dass diese CPU de facto auf einen völlig anderen Nutzungsbereich zugeschnitten ist und bei Last einen für heutige Verhältnisse unangenehm hohen Verbrauch hat? Soll man ihm Produkt A empfehlen, wenn er für das selbe Geld das für seine Anwendungsbereiche bessere Produkt B bekommt?

Ich sage nein und das sollte dem Konsumenten auch unmissverständlich kommuniziert werden.

(BD ist für sich gesehen abgesehen vom Verbrauch und der IPC-Schwäche eine sehr schöne CPU, aber momentan meiner Ansicht nach nicht für Heimanwender brauchbar/empfehlbar, nur damit hier kein Missverständnis aufkommt.)
 
hmm es wurde ja schon viel angesprochen was das ergebnis relativiert. Im Grunde ist es auch eine Frage die wir so bei den Quadcores auch schon mal hatten, da standen zu der zeit wo die quads raus kamen die Dualcore cpus auch gut da und wenn man die benches so 1:1 auch für die zukunft gesehen hätte und Softwarefirmen so eingeschätzt hätte das sie unfähig sind für die nächsten 10 jahre irgendwelche spiele zu entwickeln die auch von 4 Cores profitieren, dann hätte man sich damals einen dualcore kaufen müssen.

Die meisten haben sich dann aber doch für einen Quadcore entschieden, und die wenigsten haben das wohl bereut.

Das gleiche seh ich hier, natürlich kann ein Octacore Prozessor (ja kein richtiger aber so halb ^^) bei Programmen mit 4 Threads mit einem gleich teuren nativen 4 oder 6 Core mit ziehen, aber selbst hier schlägt sich die cpu nicht sooo schlecht.

Werden jetzt auch mal Spiele kommen die auf 8 Kerne setzen wird das anders aus sehen.

Kurzum, wer jetzt die aktuellen Programme die er hat beschleunigen will und in Zukunft keine neuen spiele mehr kaufen will, soll sich einen Intel kaufen, wer daran glaubt das Spielefirmen auch ihren Code auf 8 Kerne irgendwie aufteilen können soll das kaufen.

Andererseits reicht für Spiele ja dank den Konsolen im Moment ja eh fast jede uralt cpu ;)

Es gibt noch einen Punkt der damals auch sehr für die Quadcores gesprochen hat, zum Teil hatten die dualcore Leutz ja recht dqas einige spiele von mehr Mhz wirklich profitiert haben bzw mehr leistung pro kern (über die mhz ^^), aber es ist auch die frage ob man eben mal mehrere Sachen nebeneinander macht, wenn man mehrere Prozesse fährt spielt es auch keine große Rolle mehr das in einem Benchmark wo nur ein Programm lief das nicht alle kerne auslastete das Programm ein bisschen lnagsamer lief, dafür bleibt bei so einer app der pc dann ansprechbarer.

Ich hätte (sofern ich nen neuen zu der Zeit gekauft hätte) mir lieber einen quadcore gekauft auch wenn durch die bank die spiele vielleicht auf nem hoch getakteten dualcore schneller gelaufen wären (so wars ja glaub auch), warum weil bei spielen cpupower eh eine theoretische zahl ist uind bei zukünftigen spielen man von mehr kernen stärker profitiert als durch stärkere kerne.

Ich denke das die ganzen Konsolenports (was anderes gibts doch eh kaum noch) die mal für ps4 und xbox720 geschrieben werden (so lange ists da auch nimmer hin) sehr gut auf Bulldozer skalieren werden, für xbox360 spiele, reicht dagegen ja eh fast jede alte cpu (ab x2)
 
Zuletzt bearbeitet:
Im Grunde kann man es so zusammenfassen:
AMD hat jetzt seinen P4, also eine CPU die unter bestimmten Umständen eine gute Leistung bringt, mehr Strom verbraucht als die Konkurrenz (auch aus eigenem Hause) und im Grunde kaum etwas besser macht als der Vorgänger!

Mit Pech kommt jetzt genau so eine Flickschusterei wie beim P4 die damit endet das die Taktraten und damit der Stromverbrauch in Regionen vorstossen die man heutzutage nicht mehr Gutheissen kann!

Aber weiterhin gibt es Leute die sich das auch noch Schönreden (wie damals auch die Intelaner ;) ) und was bleibt hängen? Nüscht!

Objektiv betrachtet müssten die Leute die damals den P4 verrissen haben jetzt auch den BD zerreissen, aber letzterer kommt ja nicht von Intel und AMD tut ja allen so leid (Warum einem ein Schlipsträgerverein leid tun kann werde ich nie begreifen?!) und Intel hat ja sooo viel Geld! Das hat AMD früher auch nicht davon abgehalten Intel einen auszuwischen, aber da war AMD noch eine Firma der man den Enthusiasmus anmerken konnte! Wo ist der geblieben?
AMD hat mal aus Scheisse Gold gemacht (siehe die ersten Athlon, A64 usw.) und das geht auf einmal nicht mehr?
Woran liegt es? Kein Interesse? Keine fähigen Ingenieure mehr?
Wo sind die Entwickler die damals den A64 auf den Weg gebracht haben? Die müssten doch heulend vor den Testberichten sitzen, meiner Meinung nach!

Edit: Was das Sheduler Problem angeht... Wieviele haben sich damals über HT lustig gemacht? Das hat schon "damals" bei einigen Anwendungen etwas gebracht, aber wurde als Unsinnig und bestenfalls Zukunftsmusik abgetan. Nun beim BD wird diese Zukunftsmusik von einigen über den grünen Klee gelobt.
Aber ist ja auch verständlich, denn Intel hat ja mittlerweile bewiesen das HT eben doch nicht so unsinnig ist wie viele behauptet haben. Es besteht also Hoffnung, vor allem das es nicht so lange dauert wie bei HT ;)
 
Zuletzt bearbeitet:
Kann mir mal einer sagen, wo ich ersehen kann, was für Komponenten von CB für diesen Bulldozertest genommen wurde? Board, Grafikkarte, Speicher usw. Ich finde nix.
 
Krautmaster schrieb:
den Verbrauch des BD würde auch keinen Interessieren wenn er 50% vorne wäre was er dem verbrauch und den Transistoren nach sein MÜSSTE.

Ich denke diese Rechnung geht nicht so ohne weiteres auf. Es kommt nicht selten vor ,dass Transistoren- und Dieflächenmonster sich kaum von schlankeren Designs absetzten können.
GF100 vs Cypress ist so ein Beispiel. Oder bleiben wir mal innerhalb einer Architektur, ein Athlon II hat im Vergleich zum Phenom II nur 1/3 der Transitoren, ist bei gleichem Takt aber verhältnismäßig weit weniger langsamer, nur ca. 10-15%. L3 Cache halt...
 
noman_ schrieb:
http://www.insideris.com/amd-spreads-propaganda-ex-employee-speaks-out/

Es scheint so als ob in dem Laden derzeit tatsächlich wenig nach Plan läuft (Ausnahme: die Radeon-Sparte).

das richtige Video haben se ja verlinkt. Da hätten se noch direkt was zum "grandiosen" Marketing schreiben können welches es schafft in ein doch recht wichtiges Werbevideo so eklatante Fehler einzubauen.

Die Comments lesen sich wirklich mit Ernüchterung, schau ich mir das 2Mrd Monster BD an hat er wohl absolut recht.
 
Ich denke das die ganzen Konsolenports (was anderes gibts doch eh kaum noch) die mal für ps4 und xbox720 geschrieben werden (so lange ists da auch nimmer hin) sehr gut auf Bulldozer skalieren werden, für xbox360 spiele, reicht dagegen ja eh fast jede alte cpu (ab x2)
Genau so sehe ich das auch. Es könnte so kommen.

Und wenn man sich jetzt noch so sehr gegenseitig zerfleischt und die AMDs auslacht: Wir wissen nicht, was in 2-3 Jahren mit den neuen Konsolen Tenor sein wird. Genauso wenig wie man damals gewußt hat, dass ein Q6600 (mit OC) selbst heute noch nach 3 Jahren Laufzeit ein im Grunde für alle Spiele gewappneter Prozessor sein würde.
Wenn man damals anstelle des mit Heiligenschein gekrönten E8400 einen Q6600 empfohlen hat, wurde man beinahe gesteinigt von den Kids.
 
Da hätten se noch direkt was zum "grandiosen" Marketing schreiben können welches es schafft in ein doch recht wichtiges Werbevideo so eklatante Fehler einzubauen.

Das schöne dabei ist, das sie es tatsächlich auf einen Fehler schieben können, denn im Nachspann des Videos ist beim Cinebench der 2500K dann plötzlich gelistet und keine Rede vom 980X!
Schuld ist natürlich der Editor der das Video erstellt hat ;)
 
Diese Architektur ist sowas von unterirdisch schlecht, dass die "das ist das Ende von..." - Proklamation diesmal als sehr angebracht erscheint.

Das Schlimme ist, dass die Zukunft aufgrund der völlig verkorksten Architektur (hohe Taktraten) schlicht und ergreifend überhaupt nicht zu sehen ist. Man müßte eigentlich nochmal reseten und neu anfangen. Dazu fehlt aber wohl das Geld und die Zeit.

AMD-Aktie ist im Vergleich zum Jahresanfang um 50% gefallen.

Also AMD wird seine Probleme so und alleine nicht mehr in den Griff bekommen.
 
Zuletzt bearbeitet:
Zurück
Oben