Test AMD Bulldozer im Test: Ein schwarzer Mittwoch

allel schrieb:
Intel sollte die Preise für Sandy Bridge gleich mal verdoppeln.

Das ist ja auch genau das was alle fürchten.
:rolleyes:

Wenn Intel keine Konkurrenz hat, wird's duster.
Das hatten wir schon mal und es war nicht lustig.
 
fippi22 schrieb:
Also ich bin schon enttäuscht. Aber diese CPU`s sind schon i.O
- Preis ist Gut
- Leistung reicht doch völlig oder nicht? Das ist doch nur noch ein Menschlicher Wahn diese Übermässige Leistung...
Klar, aber wer die Leistung nicht braucht kann sich dann einen kleinen i3 in den Rechner schnallen und hat ein System mit einem IdleVerbrauch um die 30W - und nicht knapp 100 (oder bei den kleineren BDs meinetwegen dann auch 60 oder 50). Und da ein Rechner eh die meiste Zeit idlet, sind dass dann Werte auf die es wirklich ankommt.

@Topic: War ja nicht viel anderes zu erwarten nach der Vorgeschichte. Schade, dass es so krass ausfällt.
@alle die hier auf multicore Andwendungen verweisen: Das hier ist als DESKTOP-CPU gedacht. Nicht Server, nicht Workstation. Und da der Otto Normalverbraucher fast nur bei Spielen (und vielleicht mal bei einem Urlaubsvideo, da aber nicht mit prof., optimierter Software) die Leistung abruft, ist das Ding für den Desktop Markt eine Katastrophe. Was interessiert es einen DAU, dass sein Rechner beim emulieren oder in 3dsmax 10 mal schneller wäre, wenn er in den Programmen, die der DAU benutzt, total abstinkt und dabei noch Strom zieht ohne Ende.

Die Server Modelle sind da wieder was ganz anderes und gehören gesondert bewertet. Zumal auch Rechenzentren der Verbrauch nicht egal ist....
 
Kauf dir einen RISC...da hast du nicht das Problem von schlecht optimierter Software...
Bei CISCs ist das aber nunmal der Fall, dass eine neue Architektur nicht schneller ist, wenn die neuen Instruction Sets noch nicht unterstützt werden.

Auch die x86 CPUs sind intern schon lange alle RISC-basiert..
 
Seltsam ist das er bei planet3dnow wesentlich weniger Strom verbaucht als ein X6 1100T! Bei Vollast!
 
@Towatai

Falsch, es wird über den Decoder intern in RISC Befehle zerlegt, aber es werden trotzdem CISC Befehle von der Software angesprochen und wenn die nicht genutzt werden, fehlt die Performance.
 
vermutlich katapultiert der Test auch Sockel 1155 zur ausdauernden Plattform da IB noch darauf laufen wird. Wer von AM3 auf 3+ gewechselt hat weil seine beabsichtige BD CPU als nicht kompatibel galt hat das doppelte Fettnäpfchen.

wer jetzt AM3+ hat hat:

1. keine Möglichkeit eine APU einzusetzen
2. die Aussicht auf 10-15% Mehrleistung zum Phenom II 1100T / FX-8150 bis Ende 2012 o.O
3. vielleicht Chance auf noch ne Generation und 15% auf dem Sockel.

Im Endeffekt bedeutet das, dass Intels Mainstream Plattform AMDs HighEnd Desktop Plattform überlegen ist und auch noch bessere Aufrüstmöglichkeiten bietet. =/

Auch ein Punkt der viele Kunden bindet.
 
Zuletzt bearbeitet:
  • Wenn ich das alles noch mal so resümiere, dann sollte der Launchpreis eher bei 200$ liegen. Das entspricht dann eher dem Mittel aus den Preisen von i5 & i7 und bildet dann auch die Anwendungsleistung sowie Preisleistung ungefähr ab.
  • Den exorbitanten Stromverbrauch kann mit Undervolting ein wenig abmildern.
  • Bleibt noch das Problem, dass das Transistorenmonster vermutlich nicht so einfach wird verramscht werden können.
 
@Digger66a:
Ich hab den Test auch schon verlinkt, geht aber keiner drauf ein. Außer Flamen können die meisten nichts. Und Französisch scheint auch keiner mehr zu lernen heutzutage.
 
joh wobei die grafik ja selbsterklärend ist

das sind eklatante unterschiede zwischen

4M/4T und 2M/4T
 
Da sehr viel Gelder in eine Entwicklung geflossen sind welche auf Jahre angelegt , sich nun bereits in der Anfangsphase als Flop herausstellt ist mehr als fraglich wie lange sich AMD überhaupt noch über Wasser halten kann.
Die neue Architektur war im Prinzip die große Hoffnung der Marke (und sicher auch der Investoren - welche im Endeffekt das letzte Wort haben).

Will man ein Horrorszenario an die Wand malen war das des Anfang vom Ende und AMD wird sich in einen Nischenmarkt zurückziehen oder die Fertigung auf x86 Architektur komplett zu den Akten legen.

Auch wenn sich viele das nicht vorstellen können ist es doch so das so wenig Bewegung wie in dieser Hinsicht in den letzten Jahren eigentlich ungewöhnlich für den Bereich ist.

Den Jüngeren sei gesagt das es Beispielsweise zu 486er Zeiten 7 Produzenten dieser Chipgeneration gab - neben AMD und Intel waren da SGS,Cyrix,IBM,Texas Instruments und UMC zugange.
Kurze Zeit später waren nur noch AMD und Intel übrig ..... bis heute....
 
Zuletzt bearbeitet:
Ich habe erwartet das es eventuell nicht viel unterschied gibt, aber das der unterschied wirklich nur so minimal ist, ist eine Spur zu krass. die hatten soviel Zeit um eine CPU zu entwickeln und verhauen es. Das ist echt schlimm.
Naja warten wir mal auf die 2. Generation der CPUs, AMD braucht leider immer zwei Anläufe, was nicht schlimm ist.

werde bei meinem 965 X4 bleiben
 
@ thommy86,

Es ist ja schön, dass Du uns an deinen geistigen Ergüssen bzw. an deiner Abneigung gegen AMD teilhaben lässt.
Aber was hat das denn hier im dem Thread zu suchen?

In diesem Forum nimmt die Basherei und Spammerei leider seit einigen Monaten massiv zu
Man könnte denken, das man sich auf dem Schulhof befindet.


P.S
Das musste ich mal loswerden (auch wenn's im Aquarium landen sollte).
 
han123 schrieb:
@Digger66a:
Ich hab den Test auch schon verlinkt, geht aber keiner drauf ein. Außer Flamen können die meisten nichts. Und Französisch scheint auch keiner mehr zu lernen heutzutage.

Des braucht ja auch kaum einer im Job, wenn er nicht direkt mit Franzosen zu tun hat.
Und mein Schulfranzösisch reicht für den Urlaub! :p
In der Wirtschaft gilt: English FTW, fertig.
 
@Graf-von-Rotz

Ja eben, das ist eine Zukunftinvestition und in Zukunft werden die Scheduler auch besser mit der Architektur umgehen können.
Bisher verdampft ein großer Teil der Leistung sinnlos, weil der Scheduler den Bulli nicht reiten kann...
 
blackiwid schrieb:
hmm, ja ich finde das alles sehr zweifelhaft die Tests, warum:

1. es gibt ja die Diskussionen über andere Sheduler und andere Probleme die die Ergebnisse verfälschen
2. es werden irgendwelche Spiele getestet wie z.B. auch starcraft 2 oder andere, diese laufen aber alle perfekt mit der cpu, daher spielt es keine große Rolle ob dort nur 500 oder 600 fps bei entsprechender Grafikkarte erreicht werden oder nicht.
3. diese spiele nutzen praktisch fast durch die bank höchstens 4 Kerne meistens sogar nur 2, wie will mit solcher Software die Leistungsfähigkeit bei zukünftigen Spielen wo eine aktuelle CPU vielleicht mal zu einem Bremsklotz werden könnte messen.

Daher ein Spiel das auf 8 Cores optimiert ist, wird auf einem solchen Bulli sicher mindestens gleich schnell wenn nicht sogar schneller laufen wie auf einem 6core core i7 und sowieso wie auf einem 4core Core i7 oder einem Phenom x4/x6.

4. in manchen Spieletests zersägt der Bulli jeden Core I7 (hardwareluxx, 3dmark 2011, lost planet...) in anderen ist es der langsamste Prozessor, diese extreme Spreizung deutet für mich auf Softwareprobleme hin. Wenn man in 1-2 tests alles zersägt wieso sollte man dann woanders aufm letzten platz sein, das ist unlogisch.


so weit erstmal Punkt 5 fällt mir grad spontan nicht ein, aber es riecht danach das dies noch nciht das endgültige Urteil über die cpu ist.


Srsly? Ich glaube nicht, das CB es nötig hat sowas zu fälschen.
Außerdem bringt es doch was ob 500 oder 600 FPS, denn so weiß man wann deine GraKa/CPU an deren Grenze gekommen ist und ob man durch aufrüsten noch etwas "rauslutschen" kann.
Zu 2 sag ich nur: Bist du auf Droge? 90% Der Spiele sind Intel Optimiert, und ob 4M/8T oder 4C/8T ist auch nicht so die Welt.
AMD ist einfach nur schrott. Die bringen nach 2 Jahren eine CPU mit den Stats einer CPU von Q4-2009. GJ AMD. Warum einen BullShit kaufen, wenn es für den gleichen Preis(bzw. 10~30€ teurer) nen 2600K gibt?
Ich sag dir und den anderen AMD Pros hier, die CPU hat 0 Chance gegen die neuen Intel 2000'er, geschweige denn mit den 2700K oder die neuen Ivy Bridge.
 
Ich wurde von dem Test nicht enttäuscht.
Das Ergebnis war doch für jeden, der keine AMD Brille auf hat, vorhersehbar.
Wo soll den von einer CPU Genaration auf die Nächste eine Leistungssteigerung von 50%/Watt herkommen.
Das wäre nötig gewesen um auf SB aufzuschließen.

Die Voraussetzung für eine schnelle und sparsame CPU ist ein schneller und sparsamer Single Core Prozessor.
Wenn man diesen hat, kann man ihn weiter entwickeln und vervielfachen.
Genau den hat AMD nicht.
Und damit multipliziernen sich die Probleme mit steigender Anzahl von Kernen.

Mit dem BD kann man auch keine leistungsstarken Notebooks bauen, da hier ja der limitierende Faktor die TDP ist.

Kein schöner Tag für AMD.

Gruß Uwe
 
Falsch, es wird über den Decoder intern in RISC Befehle zerlegt, aber es werden trotzdem CISC Befehle von der Software angesprochen und wenn die nicht genutzt werden, fehlt die Performance.

wo ist jetzt der unterschied zu dem was ich geschrieben habe?! N Decoder zerlegt die CISC-Befehle in RISC und diese werden dann intern von der CPU verarbeitet. Ergo muss diese intern ja RISC-basiert sein.
 
noskill schrieb:
@Graf-von-Rotz

Ja eben, das ist eine Zukunftinvestition und in Zukunft werden die Scheduler auch besser mit der Architektur umgehen können.
Bisher verdampft ein großer Teil der Leistung sinnlos, weil der Scheduler den Bulli nicht reiten kann...

Den Quatsch kann die PR-Abteilung von AMD jemand anderem erzählen....alle Jahre der gleiche Krampf....
 
Volker schrieb:
Der Vorhang für AMDs umfassendste Prozessor-Überarbeitung der letzten Jahre ist gelüftet! Wir zeigen, was hinter „Bulldozer“ steckt und wie viel das Desktop-Flaggschiff FX-8150 leistet. Parallel dazu wird von uns aber auch der Vergleich mit den Vorgängern bei gleichem Takt, gleichem Speicher und auch ansonsten identischen Voraussetzungen näher beleuchtet. mehr…

Ich setze seit Jahren AMD CPUs und GPUs ein.

Und muss sagen ich bin von BD enttäuscht. :(

Die billige Ausrede: es sollen die Anwendungen angepasst werden, gilt nicht. Nicht einmal Intel bekommt sämtliche Software optimiert. AMD mit 20% Markt ganz zu schweigen.
Wäre es so, dann könnte man die Software auf der X6 1100T optimieren und dann würde es ziemlich alles platmachen was auf dem Markt ist und AMD müsste nicht einmal etwas neues rausbringen.

Nebenbei: der BD hat 33% mehr Kerne und 10% mehr Takt als der X6. Dort wo BD, wenn überhaupt, schneller ist als ein X6, entpricht die Leistung nicht einmal der Taktunterschied.

Abgesehen von Syntetische Benchmarks (welche für mich nicht zählen) und WinRAR (mal ehrlich, 90% der Benutzer werden 1-2 Mal por Monat ein rar oder zip datei entpacken. Und die meiste Dateien sind so klein, dass man keine 8-Core CPU braucht um sie zu entpacken) :evillol:

AMD hätte besser der X6 bzw. X4 nehmen sollen, auf 32nm Shrink machen, Takt erhöhen und die eine oder andere Optimierung vornehmen.
Hätte mehr Leistung gebracht, besser ausgesehen und vor allem massiv günstiger gekommen. ;)

BD erinnert mich irgendwie am Nvida Fermi. Es war für Servers und GPU-Computing ausgelegt, aber waren so in Rückstand geraten, dass es unbedingt ein Desktop-Version bringen musste, auch wenn nicht optimiert.
Es könnte sein dass BD soviel für Server optimiert ist, dass für Destop nur ein Notlösung ist.
Es wird interessant zu wissen wie sich der BD im Server-Bereich schläg.
 
Zuletzt bearbeitet:
Zurück
Oben