News Gefälschte Benchmarks eines „Bulldozer“-Prototypen

Status
Für weitere Antworten geschlossen.
Das hört sich alles schon richtig gut an, meine nächste CPU wird definitv wieder eine von AMD.
Werde mir den Bulli zulegen, auch wenn sie Intel nicht schlagen sollten, Preis/Leistung wird denke ich mal immernoch besser sein
 
@aylano

ich bin auch mal gespannt wie der Verbrauch aussieht. Für 4,2 Ghz Turbo wird schon einiges an Saft notwendig sein. Lass mich aber gern überraschen, vielleicht verhält es sich ja wirklich komplett anders als bei Llano.

@Kasmopaya

Dirt wäre wie wohl jedes andere Spiel ein denkbar schlechter Benchmark für diese CPU. Wenn man dabei was ablesen kann dann eventuell wie gut der Turbo funktioniert und wie die Leistung bei weniger als 8 Threads aussieht (Auch wenn Dirt dank Parallelisierung verhältnismäßig gut skaliert).
 
Zuletzt bearbeitet:
Das sieht auf jeden Fall sehr interessant aus. Bleibt abzuwarten, wann erste CPUs ausgeliefert werden und was der Spaß genau kostet. Irgendwie brauch ich etwas mehr Leistung für Office und co.
 
Hört sich gut an. Wenn das alles stimmt und der PReis stimmt, dann steht meiner neuen Gamerkiste nix im weg :).
 
Zuletzt bearbeitet:
BustaFiles schrieb:
Mich erstaunt gerade die sehr schlechte Performance im Cache; die ist wirklich sehr deutlich schlechter als beim Vorgänger.
Beim Everest Test wird dies sehr deutlich, beim Donanimhaber wurde die CPU ja sogar auf 4,2Ghz gejagt, mein X6 1090 hier mit genau 4Ghz per Multi, alles andere Standard. Everest hat da nur ein paar Werte gemixt.
Also woran kann das liegen, teilweise wirklich so mies im Vergleich zum Vorgänger, teils auch weit überlegen.

Das ist der Cachebug den ich und einige hier beschrieben haben und weswegen der Bulldozer verschoben wurde.
Man kann wie gesagt aufgrund des schnelleren Caches bei der Verkaufsversion auf bestimmt 5-20% mehr Leistung hoffen (grade bei Spielen, die ja sehr Cacheintensiv sind).
 
DAASSI schrieb:
.....
Ich für meinen Teil kaufe mir auf jeden Fall einen Bulldozer mit 4 Modulen, allein weil er sparsamer und sowieso schneller als mein Phenom II 955BE C2 ist!


......

Das sind die letzten 2 core I Generation aber auch schon gewesen falls das dein einziger Grund ist umzusteigen. Was die Leute angeht die posten 8 oder 4 Kern es ist wie gesagt doch eh völlig latte verstehe nicht wie man sich darüber aufregen kann. Die CPU wird weder schneller noch langsamer ob sie jetzt 4 oder 8 Kern genannt wird. das einzige was am Ende zählt ist der Preis.
Also reg dich nicht so drüber auf sondern lies einfach darüber hinweg und gut ist, ist auch sehr gut für das geistige Wohlbefinden wenn man sich in den Schmutz von anderen nicht reinziehen lässt. Du musst meinen Rat natürlich nicht annehmen, ich habe für mich festgestellt das sich über Foren Themen aufregen nicht lohnt.
 
herby53 schrieb:
Das sieht auf jeden Fall sehr interessant aus. Bleibt abzuwarten, wann erste CPUs ausgeliefert werden und was der Spaß genau kostet. Irgendwie brauch ich etwas mehr Leistung für Office und co.
War das ernst gemeint? Wenn nicht, dann kam der jetzt ziemlich gut! Word 2009? Aber bitte mit 8 Threads! :-).
 
Mike Lowrey schrieb:
[...]

Absehbar ist daher folgendes: Stark parallelisierbare Anwendungen werden auf dem Bulldozer wohl gut arbeiten. Wenn dabei aber die Leistungsfähigkeit der einzelnen Kerne auch zugenommen hat, wird Intels SB und erst recht IB auch bei weniger Kernen der MultiThreading und erst Recht der SingleThreading Performance überlegen sein.

Von daher kann man sich die reinen Performance vergleiche direkt sparen und muss sehen was die anderen Werte: Preis/Leistung, Leistung/Verbrauch so sagen.

Als HTT beim P4 eingeführt wurde, hatte das große Vorteile bei allem, was mit Integer-Rechnungen zu tun hatte - aber es war katastrophal, wenn FPU-lastig gerechnet wurde. Je nach Einsatzgebiet schaltete man besser das HTT ab. Kernelcompilationen oder das Betriebssystem übersetzen ging mit HTT flotter von der Hand, aber dafür brach das numerische Modell um bis zu 30% ein (gemessen ohne HTT).
Von Kollegen am Kernforschungszentrum Jülich, die einen Westmere-XEON Cluster haben, hörte ich, daß man für einige der rechenlastigen Anwendungen das HTT der CPUs abgeschaltet hat, weil es kontraproduktiv war. Angeblich soll mit der Core-i7 Architektur, spätestens aber mit Westmere/Gulftown dieses Problem gelöst worden sein. Die Praxis zeigte allerdings anderes. Näheres kann ich dazu nicht sagen.

Ich denke daß man AMD und Intel hinsichtlich CMT und HTT schon vergleichen muß und vor allem können muß, um Aussagen über deren Eignung und Leistungsfahigkeit machen zu können. Ich sehe bei AMDs Ansatz jetzt schon zwei kritische Punkte:

1) Die IPC pro Kern hat sich offenbar, wenn man den Resümees Glauben schenken darf, im vergleich zur K10 Architektur nicht oder nur marginal geändert. Gerade im Hinblick auf eine Optimierung der pro Instruktion verbratenen Taktzyklen hat Intel gegenüber AMD in den letzten Jahren massiv aufgeholt. Die für den naturwissenschaftlichen Bereich wichtige Fließkommaarithmetik ist mitlerweile der AMDschen überlegen - es war einmal anders herum! In der Regel sind die meisten FPU Instruktionen auf dem AMD Silizium heute im Schnitt drei Takte langsamer, bei komplexeren Instruktionen, wie Divisionen oder Wurzel/RADIX sind es erheblich mehr. Und unter dem Strich läppert sich da einiges zusammen.

2) Je zwei Integer-Kerne (die offenbar der K10-Architektur angehören) teilen sich Arbiterlogik, welche für die Datenbereitstellung/-versorgung zuständig ist. Die geteilte FPU ist zwar relativ 'autonom', was das Datafetching betrifft(ich las, daß man ihr eine Art Bypass verpaßt hat, so wie das früher bei den FPUs der Alpha AXP und beim Itanium II der Fall ist), aber inwieweit sich zwei Threads mit Fließkommaoperationen, die einem Modul zugewiesen wurden, gegenseitig behindern, muß noch festgestellt werden.

Unterm Strich erscheint mir das als ein kleverer Aufguß alter Technik - ganz so wie Intel in seinen Mehrkernexperimenten Pentium-Kerne zu Hauf verdrahtet. Sicher ist wichtig was am Ende pro Euro und verbratenes Watt herauskommt, aber es macht sich bei mir ein wenig Enttäuschung breit. BD wird sicherlich im Rahmen der bisherigen Geschehnisse ien Erfolg, aber der große wUrf wird er vermutlich nicht.

Und wiederhole nochmals: ein richtiger Benchmark mit ein paar selbsgebastelten routinen, die viele Threads mit hoher Last starten ... Man könnte damit einen BD gegen einen 990X antreten lassen, beim Intel schaltet man mal HTT ein, mal aus und schaut, wie sich beide in Sachen Skalierung schlagen.

Letztlich ist das Gesamtbild entscheidend. Wenn AMD mit dem Bulldozer und einem potenten Chipsatz ein rundes Bild abliefern kann, ist er ganz gewiß eine ernsthafte Überlegung wert. Mich würden aber eher die Opteronen dieser Gattung mit ihrem 4-Kanal Speicherinterface interessieren. Schade, daß AMD zuerst den Spielzeugmarkt bedient. Offenbar hat das Unternehmen seinen ursprünglichen Pfad verlassen und versorgt den Profisektor nicht mehr zuerst. Aber wenn man sich den Anteil am Markt dort anschaut, wird einem auch klar warum.
 
Zuletzt bearbeitet:
Werde auf den Bulldozer setzen. Was mich aber genauso nervt wie die 8 Kern Diskussion ist dieses "Das ist nur ein Sample und das wird alles schneller mit neuen Bios blabla"

Diese Träume gab es schon beim Phenom und dem Phenom 2 und jedes mal haben sich die früh veröffentlichten Werte als korrekt herausgestellt. Trotz neuen Biosen und Revisionen waren die CPUs nicht schneller. Also sagt nicht immer das er 5-20% schneller wäre und noch Reserven da wären. Wenn es wirklich ein B1 Stepping ist dann wird das B2 nicht ernsthaft schneller sein.

Das wäre jedenfalls das erste mal.
 
sachma Eisenfaust, leidest du unter einem AMD Komplex? Kannst du eigentlich noch ruhig schlafen?
 
Felixxz21 schrieb:
Das ist der Cachebug den ich und einige hier beschrieben haben und weswegen der Bulldozer verschoben wurde.
Man kann wie gesagt aufgrund des schnelleren Caches bei der Verkaufsversion auf bestimmt 5-20% mehr Leistung hoffen (grade bei Spielen, die ja sehr Cacheintensiv sind).
Ach so, Danke. War da jetzt nicht wirklich auf dem laufenden.
Vom Gesamtbild scheint der BD ja schon recht gut da zu stehen und wer den ganzen Tag SuperPi spielt, hat eindeutig zu wenig zu tun. :evillol:
 
(Auch wenn Dirt dank Parallelisierung verhältnismäßig gut skaliert).
Dirt 3 ist gerade zu perfekt und jeder Test vom Bulli der dieses Spiel nicht drin hat ist 100% fail. Begründung ->

Dirt 3 arbeitet mit 6 Haupt Threads, wird der 5. und 6. nur unzureichend versorgt sinkt die Leistung rapide wie beim HT von Intel. Sollte also Bulli mehr Power haben und die 2 zusätzlichen Threads ausreichend versorgen können, ist man ganz weit vorne, hat man zu wenig Leistung wie HT ist man nur ein 4 Kerner für das Game.

Meiner Meinung ist das sowieso kein Zufall das Dirt 3 ein AMD Game ist und die 6 Thread so dringend braucht -> X6 + Bulli. Die haben da ein bisschen unterstützt damit ihre CPUs besser dastehen, trotzdem immer noch ein perfekter Gradmesser.

Und von gut skalieren kann gar keine Rede sein, 6 Kerne(egal welche Architektur) haben extreme Vorteile:
http://www.pcgameshardware.de/aid,8...1-Modus/Rennspiel-Sportspiel-Simulation/Test/
Was mich richtig interessieren würde währe hier ein Core 2 6 Kerner(hats nur für die Server gegeben) gegen einen AMD Phenom X6. Einfach nur um zu wissen wie gut der alte 6 Kern Core 2 wirklich gewesen währe, hätte man ihn für den Desktop kaufen können. :freaky:
 
Zuletzt bearbeitet:
Felixxz21 schrieb:
Ihr wisst aber schon, dass diese Stepping noch nicht die finale IPC hat? Die Leistung der Verkaufsversion könnte durchaus nochmal ein paar Pronzente höher liegen (siehe Phenom I mit TLB-Bug).
Das Problem ist nur das nicht der TLB Bug die Rechenleistung frass sondern der Software Fix mit seinem Eingriff in die Cache/Speicher Verwaltung.
 
Wischmopps schrieb:
[...]

Diese Träume gab es schon beim Phenom und dem Phenom 2 und jedes mal haben sich die früh veröffentlichten Werte als korrekt herausgestellt. Trotz neuen Biosen und Revisionen waren die CPUs nicht schneller. Also sagt nicht immer das er 5-20% schneller wäre und noch Reserven da wären. Wenn es wirklich ein B1 Stepping ist dann wird das B2 nicht ernsthaft schneller sein.

Das wäre jedenfalls das erste mal.

Traume sind Schäume und beim Phenom/Barcelona hat alle Welt geglaubt, AMD könnte den Glückstreffer von 2003 wiederholen. Die Welt ist leider böse, die wirklichen Innovatoren waren allesamt tot und ausgeschlachtet, es gab nichts mehr zu fleddern. Intel war bereits aus dem Dornröschenschlaf erwacht und sah sich einem Konkurrenten konfrontiert, der es wagte, am lukrativen Serverkuchen zu knabbern. AMD wird wohl mit dem BD allesMachbare vollbracht haben, jetzt warten wir mal ab, was er wirklich kann. Für (Ende) dieses Jahr und die erste Hälfte des kommenden Jahres aber wird Intel mit PCIe 3.0 und Sandy-Bridge E/EN die technisch bessere Plattform anbieten, auf Seiten AMDs sehe ich keine wirklichen innovativen Chipsätze, auch nicht im Bereich der Serverplattformen. Bleibt zu hoffen, daß AMDs Eisen wirklich so gut ist wie man hier dichtet - das wird auf Intel mächtig Druck ausüben und gewiß eine Korrektur des Preisgefüges zur Folge haben. Derzeit verdient sich Chipzilla mit seinen Leistungsvorsprüngen im Dekaprozentbereich im Ganzzahlbereich > 1 dumm und dämlich.

HOOKii schrieb:
sachma Eisenfaust, leidest du unter einem AMD Komplex? Kannst du eigentlich noch ruhig schlafen?

Nein, hast Du einen, kannst Du noch ruhig schlafen? Wie kommst Du auf diese absurde Idee?
Ergänzung ()

wadenbeisser schrieb:
Das Problem ist nur das nicht der TLB Bug die Rechenleistung frass sondern der Software Fix mit seinem Eingriff in die Cache/Speicher Verwaltung.

Auch ohne den Bugfix konnte die "Architektur", wenn man bei diesem Aufguß alten Kaffees von neuer Architektur überhaupt sprechen konnte, nicht wirklich überzeugen. Was hat man dann Intels Quad-C2D herabgemacht - ein Bretterverhau, zusammengeschustert ... und und und. Und? Wer hat am Ende das Rennen gemacht? Es gab ein fall, wo sich ein Opteron gegen seine C2D-Penryn XEON Konkurrenten durchsetzen konnte - namlich wenn mehr als zwei Sockel im System steckten und der Opteron aufgrund seines deutlich besseren HT seine auf den Frontsidebus verdammten Intel-Kollegen in die Schranken verweisen konnte.
 
Du Eisen das lag aber an der Schussterei^^

Aber unterm strich war der C2Q trotzdem der Hammer.
Bei selbem takt stehts ebenwürdig Meistens schneller.

Die 1156 Sachen Sind in meinem Augen kein gedanken wert.
SB hätte der nachfolger von C2Q werden sollen.

Sind wir erlich AMD war die letzte zeit schon immer Taktfreudig gemacht bzw brauchte mehr Takt um Intel zu Kontern und das wird woll Diesma auch so.

Fragt sich nur ob der BD über 6ghz packt um SB den rangabzulaufen.
bzw 5ghz 24/7 Easy macht.

Weil 4ghz waren unter gewalt mit 775 schon machbar und aktuell sind 4,5-5ghz bei SB 24/7 Fest.
 
Steht zwar nicht in der News, aber BD liegt teilweise über 30% vor einem i7 2600k

Verbraucht ja auch über 30% mehr und benötigt damit auch eine stärkere Kühlung; passiv geht da gar nichts - beim 2600K schon. Wenn man schon vergleicht, sollte man auch den Verbrauch berücksichtigen. Ein 2,0-Liter FSI hat logischerweise mehr Power, als ein 1,2-Liter. Dafür frisst er auch entsprechend mehr. Wenn man also den Bulldozer mit SandyBridge wirklich unbedingt vergleichen will, muß man fairerweise auch einen mit gleicher TDP dazu nehmen und kein 125Watt-Modell, was hier aber generell unter den Teppich gekehrt wird.

Es wäre ja wirklich schön, wenn AMD endlich mal den Anschluß finden und im nächsten Jahr auch behalten könnte, denn erst nächstes Jahr kommen die 125Watt IVYs mit denen sich der Bulldozer(FX-8130P) messen muß - ein 2600K mit 95Watt kann doch nicht ernsthaft als Vergleich herangezogen werden..... Wäre ja wie Vitali Klitschko gegen Arthur Abraham............. Also wenn schon, dann den FX-8110 mit dem 2600K vergleichen - alles andere ist Augenwischerei !

Je stärker der Bulli, um so günstiger mein nächster Intel für lautlose Kühlung mit ohne Lüfter ;)
 
@Eisenfaust

Von Kollegen am Kernforschungszentrum Jülich, die einen Westmere-XEON Cluster haben, hörte ich, daß man für einige der rechenlastigen Anwendungen das HTT der CPUs abgeschaltet hat, weil es kontraproduktiv war. Angeblich soll mit der Core-i7 Architektur, spätestens aber mit Westmere/Gulftown dieses Problem gelöst worden sein. Die Praxis zeigte allerdings anderes. Näheres kann ich dazu nicht sagen.
Also wenn dieses problem im naturwissenschaftlichen auftritt, dann hat da jemand was falsch gemacht, wissenschaftliche berechnungen, die auf computern wie in jullich laufen sind normalerweise hochparallel. und gerade so berechungen profitieren am meisten von ht. ht beschleunigt den contextswitch, hat somit gerade bei großer cpu last vorteile.

Die für den naturwissenschaftlichen Bereich wichtige Fließkommaarithmetik ist mitlerweile der AMDschen überlegen - es war einmal anders herum!
Das liegt häufig an SSE4.1/4.2 und AVX... das sollte mit dem Bulldozer aufgeholt werden ;)
Und auch sonst ist der scheduler der fpu beim bulldozer zum ersten mal überhaupt unabhängig von dem der alu. der decoder ist auch 4 fach skalar wie bei intel. die fpu leistung sollte durch die sehr mächtige fpu im bulldozer steigen.

In der Regel sind die meisten FPU Instruktionen auf dem AMD Silizium heute im Schnitt drei Takte langsamer
ist mir neu, quelle?
superpi sagt da nix aus. es gibt andere tools, die pi schneller berechnen, und nicht speziell auf intel optimiert sind.

edit:
@crackett
unabhängig von der leistungsaufnahme von amd oder intelprozessoren. hat sich wohl immer noch nicht rumgesprochen das TDP nicht gleich TDP ist?
 
Zuletzt bearbeitet:
Desweiteren muss noch hinzugefügt werden, dass die TDP direkt nichts mit der Leistungsaufnahme des Prozessors zu tun hat. Denn die TDP gibt eigentlich an wie die Kühlung ausgelegt werden muss.

Natürlich kann man daraus schlussfolgerungen anstellen, jedoch ist es geschickter auf einen seriösen Test hier auf CB zu warten.
 
Könnte ein interessantes Kräftemessen werden. Mal sehen, wie die Bulliz Daten wegschuppern, wenn die B2 Stepping haben. Bis dahin sollte es ja nicht mehr solange sein :D
 
Mike Lowrey schrieb:
Absehbar ist daher folgendes: Stark parallelisierbare Anwendungen werden auf dem Bulldozer wohl gut arbeiten. Wenn dabei aber die Leistungsfähigkeit der einzelnen Kerne (edit: nicht) auch zugenommen hat, wird Intels SB und erst recht IB auch bei weniger Kernen der MultiThreading und erst Recht der SingleThreading Performance überlegen sein.

Von daher kann man sich die reinen Performance vergleiche direkt sparen und muss sehen was die anderen Werte: Preis/Leistung, Leistung/Verbrauch so sagen.
Du dürftest anscheinend nicht so ganz das CMT verstanden haben.

Bulldozer wird sich per IPC in Cinebench ganz anders verhalten als Sandy-Bridge.

Denn Bulldozer wird von Cinebench-Multi zu Cinebench-Single-Thread in Sachen IPC zulegen, da der eine Integer-Core dann das ganze aufgeblähte 4-Fach-Front-End nutzen kann (ausgehend von 3-Fach-Front-End-K10 (= +33%))
Hingegen wird Sandy-Bridge von Cinebench-Multi zu Cinebench-Single-Thread in Sachen IPC sinken, da SMT im Single-Thread SMT nicht genutzt wird.

Wie gegesagt, es dürfte eben kein Zufall sein, dass der Single-Thread-Wert nicht gebencht wurde, obwohl der wahrscheinlich mit Abstand wichtiges/wertvollste Wert wäre.

Und das abgesehen von den Takten & Turbo-Core, der ebenfalls in Single-Thread etwas mehr als die Konkurrenz zulegen könnte, weil er eher für etwas höhere Takte ausgelegt sein sollte.

Also, es steckt viel Potential im Bulldozer, sodass er in Single-Thread in "Best-Case" schneller als Sandy-Bridge sein kann.
Die Frage ist, wie viel AMD generell vom Konzept & Co (R&D-Ressourcen, generelle Entwicklung) sowie momentan von der HKMG-Fertigung nutzen kann.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben