Test Test: AMD Piledriver vs. Bulldozer – Teil 1

Herdware schrieb:
Selbst wenn der dann wirklich z.B. stolze 30% zulegt... Intel bleibt in den nächsten 1-2 Jahren ja nicht untätig. Haswell bringt vielleicht auch wieder "nur" 15%, aber das sind 15% mehr als die schon weit über AMD liegende Leistung eines Ivy Bridge, während Steamrollers 30% auf den vergleichsweise schwachen Bulldozer und Piledriver basieren würden. Da würde die Lücke immer noch eher größer als kleiner.

Nun gerüchteweise wird bei Haswell ja vor allem die GPU aufgebohrt, also wenn es denn überhaupt 15% werden. Mehr ist da von Broadwell zu erwarten.

Nun 30% können es bei Steamroller schon werden, die doppelten Decoder reissen viel raus und wenn dann noch die Latenzen, Caches, Branch Prediction etwas optimiert wird, dann ist es so schlecht nicht mehr.

Dann immer noch auf FM2 oder evtl AM3+ was will man mehr?

Diejenigen die immer schreien man hätte bei Stars bleiben sollen haben keine Ahnung.
Stars war in eine Sackgasse gekommen. Für einen weiteren Stars Phenom in 32NM hätte man den halbe Design (Pipeline etc.) umkrempeln müssen. Man sieht es sehr gut am Llano.
Die 45NM Phenom oder Athlon II (K10.5) waren bis 4 Ghz gut taktbar, mit dem 32NM Llano (K10.5+) ist das ebenso die Grenze. Da kann man gleich das neue Architektur einführen, an der eh schon Jahre getüftelt wird. Hätte die Fertigung etwas besser mitgespielt wäre das alles nicht so übel gewesen. Wobei der Intel Fertigungsvorteil sicher nicht wegzudiskutieren ist.


Bis dahin ist allerdings nach der neuerlichen vermuteten Entlassungswelle eher die Frage gibt es AMD noch? Ist es evtl. nicht schlauer anderswo zu sparen als bei den (ATI) Ingenieuren in Canada (Knowhow!!)?

Rory Read ist ein ********, externe Beraterfirmen heranziehen welche eh immer nur dieselbe Masche zur "Optimierung" fahren-> Entlassungen. Nein wie clever!
Aber bitte nicht an der falschen Stelle!

Die ende 2011 aufgrund von RR entlassenen, wurden bereits fast vollständig wieder ersetzt.
Tolle Strategie! (Knowhow?) :rolleyes:

Nun ich werde es weitehin so betreiben wie schon seit Jahren. Wo irgendwie möglich wird AMD
eingesetzt oder verkauft. Nur wenn es nicht anders geht oder nix verfügbar ist gibt es einen Intel.
Das sollten viel mehr so machen, wenn einem eine "einigermassen gesunde Konkurrenz oder Preise"
interessieren.
 
Zuletzt bearbeitet:
Palmdale schrieb:
Moin Moin,

die für mich relevanten Spiele mal herausgezogen (ohne mich jetz darauf zu fixieren, aber die drei besitze ich nunmal zum zocken):

- AMD A10-5800K, 2M/4T, 3,80 GHz, 32 nm, Turbo
https://www.computerbase.de/2012-10/test-amd-piledriver-vs-bulldozer-teil-1/31/
> Anno2070, HD Auflösung (bei GTX 680, minimaler Zoom): 64,5fps
> Batman, HD Auflösung (bei GTX 680): 81fps
> Elder Scrolls, HD Auflösung (bei GTX 680, Durchschnitt): 66,65fps

- Intel Core i3-3220, 2C/4T, 3,30 GHz, 22 nm, SMT
https://www.computerbase.de/2012-10/test-trinity-vs-ivy-bridge-im-cpu-test/42/
> Anno2070, HD Auflösung (bei GTX 680, minimaler Zoom): 81,5fps
> Batman, HD Auflösung (bei GTX 680): 82fps
> Elder Scrolls, HD Auflösung (bei GTX 680, Durchschnitt): 85,49fps
Also ehrlich gesagt lassen mich genau diese Zahlen am ganzen Testsystem und deren Aufbau zweifeln.
Ein Trinity mit 2 Modulen (2 FPUs - 256bit), ein Phenom X6 mit 6 Kernen (6 FPUs - 128bit)und ein Bulldozer mit 4 Modulen (4 FPUs - 256bit) wären nach diesem Szenario alles gleich schnelle CPUs/APUs - das soll irgendjemand nun wirklich glauben?

Sorry aber diese Testaufbauten sagen genau null aus über die CPUs, sie sind nur für Gamer relevant die das richtige System zum zocken suchen. Sprich es sind eigentlich Software Tests und wie diese auf unterschiedliche Hardware optimiert ist. Den Anspruch CPU-Tests zu machen den darf man da nicht stellen.
 
@ modena.ch

Von Haswell ist auch im CPU-Bereich eher mehr Leistungszuwach zu erwarten, als von Sandy Bridge zu Ivy Bridge. Haswell ist schließlich ein vollwertiger "Tock". Broadwell wird wiederum nur ein "Tick", bei dem es (wie bei IVB) hauptsächlich um eine Strukturverkleinerung geht, nicht um grundlegende Änderungen an der Architektur.

Man muss auch nicht mehr nur auf Gerüchte hören. Es gibt von Intel inzwischen schon sehr ausführliche Angaben zu den Änderungen und Neuerungen von Haswell. (Die lassen uns da nicht so im Dunkeln tappen, wie AMD. ;) )
http://www.anandtech.com/show/6355/intels-haswell-architecture

Ich halte "bis zu 15%" für durchaus realistisch, angesichts von verbesserter Sprungvorhersage, breiteren Ausführungseinheiten, verdoppelter Cache-Bandbreite usw.. Und zwar Steigerung pro Takt, nicht wie bei AMD inklusive Takterhöhung.

Die wirklich großen Änderungen sind aber tatsächlich zum Einen in der GPU, zum Anderen vor allem im Verbrauch. Da hat Intel die Schwerpunkte gelegt. Es wird z.B. wohl ziemlich erstaunliche kleine 8W-Haswells geben, die damit schon in bisherigen Atom- und Bobcat-Gewässern fischen.

Ob K10/Stars eine Sackgasse war, das kann wohl keiner von uns wirklich beantworten, es sei denn, wir haben ausgesprochene Experten in Sachen CPU-Architektur mit Insiderwissen aus AMD Entwicklungsabteilung unter uns. ;)

Intel hat zumindest offensichtlich keine unüberwindbaren Probleme damit gehabt, eine uralte Architektur (Pentium Pro von 1995) Schritt für Schritt immer weiter zu entwicklen.
Die größte Neuerung war zwischendurch noch Netburst und das hat sich als untauglicher Irrweg erwiesen. Die Core(2)-CPUs sind danach wieder einen Schritt zurück zur P6-Basis gegangen und wurden von dort aus bis heute höchst erfolgreich kontinuierlich weiterentwickelt.

Intel verkaufte uns damals Netburst übrigens auch als unbedingt notwendigen Neuanfang, weil die alte P6-Archtektur vermeintlich total ausgereizt sei. So war es auch hier bei Computerbase zu lesen:
https://www.computerbase.de/2002-03/test-intel-pentium-4-2.2-ghz-vs-athlonxp-2000-plus/3/
:lol:

Ich neige deshalb zu der Theorie, dass auch AMD wahrscheinlich besser gefahren wäre, wenn sie auf konsequente Weiterentwicklung statt radikalem Neuanfang gesetzt hätten. Sie haben hoch gepokert und allem Anschein nach verloren. :(
 
nur war p6 mit den technischen mitteln ausgereizt als netburst eingeführt wurde. nach deiner logik hätte intel netburst sein lassen sollen und halt die paar jährchen bis core2duo mit nem 500 mhz pentium pro überbrücken sollen.
 
@ Onkelpappe

So ausgereizt war P6 auch damals nicht. Es taugte nur nicht für den Weg, den Intel sich vorgenommen hatte, nämlich die MHz-Zahl gnadenlos immer mehr in die Höhe zu treiben. Kurzfristig über 5GHz hinaus und dann immer weiter bis 10 GHz und mehr.
Das ging vor 10 Jahren nicht und geht bis heute tatsächlich nicht mit dieser Architektur. (Immerhin kommt man inzwischen dank besserer Fertigungsverfahren in die Nähe von 5GHz. Aber eben 10 Jahre zu spät.)

Die israelischen Entwickler von Intel gingen aber (ausgehend von ihrer Aufgabenstellung, eine besonders energieeffiziente CPU für Notebooks zu entwicklen) schon damals einen anderen Weg als ihre amerikanischen Kollegen und optimierten die P6-Archtelktur auf mehr Leistung pro Takt.

Wie erfolgreich sie damit waren, wissen wir heute ja. Die Pentium M, Core- und Core2-CPUs rannten Kreise auch um viel höher getaktete Pentium 4, bei sehr viel niedrigerem Verbrauch. Und das im selben Fertigungsprozess.

Dabei wurde die Entwicklung dieses alternativen P6-Zweiges der Intel-CPUs noch durch unglückliche Umstände ausgebremst. Ursprünglich entwickelten die Israelis nämlich gleich eine CPU mit integriertem Speichercontroller. Ganz ähnlich, wie parallel AMD mit Hammer/K8. Nur setzten die Intel-Entwickler entsprechend der damaligen Intel-Politik dabei auf RDRAM von Rambus. Das war aber zu der Zeit unerschwinglich teuer und setzte sich gegenüber DDR-RAM letztlich nicht durch, weswegen diese zukunftsweisende CPU gleich wieder in die Tonne getreten und mit dem Pentium M nochmal ein Schritt zurück gemacht werden musste.

Hätte es diesen Umweg nicht gegeben, hätten die P6-basierten Core-CPUs schon viel früher die in jeder Hinsicht bessere Alternative zu den Netburst-Pentiums dargestellt.

Im Nachhinein kann man natürlich leicht den Kopf darüber schütteln, wie dämlich Intel damals war. Aber aus damaliger Sicht schien nichts dagegen zu sprechen, mehr Leistung einfach durch immer mehr Takt zu erreichen. Schließlich vervielfachte man bis da hin den Takt schon seit vielen Jahren erfolgreich immer weiter.
Und auch RDRAM war technisch gesehen eine ausgezeichnete Ablösung für DRAM und löste mit seiner schlanken seriellen Anbindung elegant die Routing-Probleme auf den Mainboards, die sich aus zwei (oder sogar mehr) Speicherkanälen ergaben. (Das selbe Prinzip wie USB, SATA und PCIe.)

AMD hat sich mit Bulldozer zu einer Mischung des Netburst-Ansatzes (hoher Takt) kombiniert mit einem kompromisslosen Multicore-Design entschlossen. Beides eigentlich schon seit Jahren absehbare große Risiken.
Aber auch das hätte seine Vorteil gehabt, wenn die Rechnung aufgegangen wäre. Nämlich mit ein und der selben Architektur sowohl breite aber niedrig getaktete CPUs für Server und Workstations, als auch hoch getaktete und dafür je nach Leistungsklasse schmalere Consumer-CPUs und sowohl schmale als auch realtiv niedrig getaktete, sparsame Mobilvarianten zu fertigen.
Alles nur durch Drehen an der Taktschraube und mehr oder weniger vielen Modulen.
Das ist schon sehr elegant.

Aber ich wundere mich bis heute, dass AMD so viel Vertrauen in seine (damals noch) eigene Fertigung gehabt hat, die Taktschwelle einfach so zu überschreiten zu können, an der der Riese Intel damals spektakulär gescheitert ist und gleichzeitig so viel Vertrauen in die schnelle Entwicklung der Software in Richtung Multithreading zu haben.
Würde heute jede Software gut mit mehr als 4 Cores/Threads skalieren, würde die auf einem 5GHz-Bulldozer wunderbar laufen. Auch trotz kleinerer sonstiger Schwächen/Fehler in der ersten Ausprägung der neuen Architektur, die man später noch ausbügeln muss.
Aber beides ist eben nicht eingetreten.

Was bleibt sind die Schwächen von Bulldozer. CPUs mit dieser Archtektur sind weder wesentlich leistungsfähiger noch effizenter oder kleiner (und damit billiger herzustellen), als vergleichbare K10-CPUs. Davon, wie sich kontinuierlich weiterentwickelte "Phenom III" vielleicht hätten schlagen können, ganz zu schweigen.
 
Zuletzt bearbeitet:
Herdware
ein vollwertiger "Tock
Was auch bedeutet, dass man eine neue oder Verbesserte Architektur bringt. Kann aber auch sein, dass eine Verbesserung schon Richtung SOC geht. Glaub man hat ja von einer besseren IPC von 10% gesprochen ?

Kann gut sein, dass die Mainstream nicht so derart an Performance zunehmen werden, wie die Extreme Edition und dass Intel sich jetzt noch verstärkt auf Ultrabooks fokussiert.
Somit können die Verbesserungen auf Effizienz als auf mehr CPU Performance gehen. Da ja viele so geil drauf sind, kann Intel das auch so vermarkten und verkaufen.

Schätze mal AMD musste sich fokussieren. Deshalb hat man den eigentlichen Bulldozer Nachfolger gecancelt und piledriver nur abgespeckt ? auf den markt gebracht. Somit sollte man trotzdem nicht das selbe von Steamroller erwarten. Kann gut sein, dass man hier mehr Zukunft sieht und mehr Wert daraufgelegt hat.
Wichtig ist, dass Piledriver mit seinen % Zugwinn auf gleichen Verbrauch, IB trotzdem nähern konnte.
Immerhin war der Performance Gewinn von SB auf IB auch nur 7% ? (und da war auch teils eine Taktsteigerung inbegriffen)
Somit konnte AMD hoffentlich die 95 watt tdp Varianten attraktiver machen.
 
Zuletzt bearbeitet:
@ pipip

Das stimmt. Beim "Haswell-Tock" liegen die Prioritäten ganz klar zuerst auf Energiesparen, dann auf der GPU und erst an dritter Stelle auf der eigentlichen CPU.

Trotzdem denke ich, dass "bis zu 15%" mehr x86-Leistung gegenüber IVB durchaus realistisch sind. Und zwar pro Takt mit üblicher herkömmlicher Software. Handverlesene Ausnahmen, die z.B. schon von AVX2 und TSX Gebrauch machen, dürften nochmal ordentlich mehr zulegen.
Und da Haswell energieeffizienter arbeitet, gibt es zumindest theoretisch auch Potential für mehr Takt bei selbem Verbrauch. (Es sei denn, es kommen solche Temperaturprobleme dazwischen wie bei Ivy Bridge. Woran auch immer es da genau hakt.)

Da wird es selbst für einen wirklich überzeugenden Steamroller schwer, noch Anschluss zu finden.

Ich könnte mir vorstellen, dass Steamroller das werden könnte, was AMD letztes Jahr gebraucht hätte, um mit Intels Sandy Bridge ungefähr gleichzuziehen. Aber das käme dann ca. 3 Jahre zu spät. :(
 
Herdware schrieb:
Ich neige deshalb zu der Theorie, dass auch AMD wahrscheinlich besser gefahren wäre, wenn sie auf konsequente Weiterentwicklung statt radikalem Neuanfang gesetzt hätten. Sie haben hoch gepokert und allem Anschein nach verloren. :(

Wenn man eh schon hinten liegt, dann muß man etwas riskieren, sonst rennt man immer hinterher.
Und wenn man sich mal im Vergleich Trinity und Llano anschaut, dann ist die K15-Architektur nicht schlechter als K10.5. Immerhin sind ja ein paar neue Instruktionen wie SSE4.1, SSE4.2, AES, CLMUL, AVX, XOP und FMA3/4 hinzugekommen.
 
@Herdware

Jetzt haben sie "verloren" die Frage ist, ist das immer noch der Fall, wenn endlich mal der Arsch von den Entwicklern zusammengekniffen wird und im 2012 die Software endlich mal parallellisiert wird wo möglich. Oder vorhandene, mächtige Befehlssätze genutzt werden....

Mein Gott seit x Jahren sind bei Endkunden Mehrkernproz. vorhanden und wir haben immer noch mit Crapsoftware wie iTunes, Winrar, Lame und Co zu leben die im besten Falle einen Thread benutzt.
Wir könnten alle bei vorhandener Optimierung gewaltig davon profitieren. Aber nein, es könnte ja Aufwand entstehen und der Gewinn geschmälert werden. (ich was schon dass nicht bei allem möglich, aber bei sehr vielem!)

Ist im Serverbereich schon seit fast ewigen Zeiten der Fall und bewährt, sollte es so langsam auch mal auf den Consumerbereich übergreifen. Hat schlicht was mit Nutzung vorhandener Ressourcen zu tun und Effizienz.

Der K10 basiert auf K7 (die ersten Slot Athlon) und die Pipeline war an einer Grenze angekommen. Eine weitere Verlängerung hätte auch eine radikales Neudesign der Cachestufen, des Frontend (Durchsatz) und Schaltungswege bedeutet. Da kann man genau so gut eine komplett neue Architektur, die sich in ein paar Jahren gewaltig auszahlen wird, verwenden.
Laut Gerüchten gab es auch AMD interne Phenom 32NM Shrinks (nur Shrink). Aber da die Fertigung so grottig lief, war der Vorteil zu den 45NM Phenoms mit dem ausgereiften Prozess nicht gegeben.
 
Zuletzt bearbeitet:
modena.ch schrieb:
Jetzt haben sie "verloren" die Frage ist, ist das immer noch der Fall, wenn endlich mal der Arsch von den Entwicklern zusammengekniffen wird und im 2012 die Software endlich mal parallellisiert wird wo möglich.
Die Antwort ist ein klares: "Jein".
Auch bei Software die massiv multithreaded aufgebaut ist sehen die Bulldozer nur teilweise gut aus, oft auch eher sehr schlecht.
Siehe den Artikel von AnandTech den ich in diesem Post verlinkt habe (der Link ist ziemlich am Ende).


modena.ch schrieb:
Mein Gott seit x Jahren sind bei Endkunden Mehrkernproz. vorhanden und wir haben immer noch mit Crapsoftware wie iTunes, Winrar, Lame und Co zu leben die im besten Falle einen Thread benutzt.
In Winrar kann man Multithreading in den Optionen aktivieren, von Lame gibts ne MT Version.
Bei iTunes weiß ichs nicht.

"Bestenfalls" einen Thread ist Schwachsinn.
Jede Software nutzt mindestens einen Thread, sonst würde sie garnicht laufen.
Schau doch mal in den Windows Taskmanager auf die Liste der laufenden Prozesse und schalt mal unter Ansicht --> Spalten... die "Threads" Spalte hinzu.
Die Prozesse die nur einen Thread nutzen kannst du wahrscheinlich an einer Hand abzählen.

Mehrere Aufgaben, die (mehr oder weniger) unabhängig voneinander sind auf mehrere Threads zu verteilen ist meist kein Problem.
Schwierig (bis unlösbar) wirds erst, wenn man eine einzelne "große" Aufgabe auf mehrere Threads verteilen will.
Es ist eben oft der Fall, dass gewisse Abhängigkeiten bestehen, die sich nicht so einfach auflösen lassen, sodass die einzelnen Threads permanent auf die Ergebnisse der anderen Threads warten müssen, was dann natürlich 0 Vorteil gegenüber einem einzigen Thread bringt.
 
modena.ch schrieb:
Jetzt haben sie "verloren" die Frage ist, ist das immer noch der Fall, wenn endlich mal der Arsch von den Entwicklern zusammengekniffen wird und im 2012 die Software endlich mal parallellisiert wird wo möglich. Oder vorhandene, mächtige Befehlssätze genutzt werden.

Meiner Meinung versucht man so, das Pferd von hinten aufzuzäumen.

Eine CPU muss so konzipiert sein, dass sie mit aktueller Software optimale Leistung bringt. Jedenfalls definitiv nicht weniger, als der direkte Vorgänger.
Erweiterungen, die von den Entwicklern erfordern, dass sie in zukünftige Software speziell implementiert werden, müssen als "Bonus" oben drauf geliefert werden.

So wie z.B. beim Athlon 64, der in erster Linie eine hervorragende 32-Bit-CPU war. Die 64-Bit-Erweiterung lag in den ersten paar Jahren ungenutzt brach und wurde erst viel später verbreitet genutzt. Aber zu dem Zeitpunkt hatte sich der Athlon 64 schon aufgrund seiner konventionellen Stärken etabliert und damit auch AMD64. Intel blieb dann nichts anderes über, als das auch für seine CPUs zu übernehmen.

Ein Gegenbeispiel war der Pentium Pro (auf dessen damals zukunftsweisenden Architektur bis heute die Intel-CPUs aufbauen). Der war anfangs derartig stark auf 32Bit-Software ausgelegt, dass er in den 1995 noch stark verbreiteten 16Bit-Anwendungen gegenüber dem alten Pentiums abstank. Dementsprechend floppte der PPro.
Das hat Intel dann mit dem Pentium II ausgebügelt.

Der K10 basiert auf K7 (die ersten Slot Athlon) und die Pipeline war an einer Grenze angekommen. Eine weitere Verlängerung hätte auch eine radikales Neudesign der Cachestufen, des Frontend (Durchsatz) und Schaltungswege bedeutet. Da kann man genau so gut eine komplett neue Architektur, die sich in ein paar Jahren gewaltig auszahlen wird, verwenden.

Warum sollte AMD nicht gelingen, was Intel offensichtlich auch kann?
Einfach die vorhandene Architektur immer wieder schrittweise erweitern und so dafür sorgen, dass man sich nicht Rückschritte einfängt, nur um irgendwelche Funktionen zu implementieren, die von aktueller Software noch gar nicht genutzt werden können.
Dann steuert man nämlich geradewegs in ein Henne-Ei-Problem. Die neue CPU wird sich nur dann verbreiten, wenn passende Software vorhanden ist und die gibt es nur für weit verbreitete CPUs.
 
Das Umgestalten wären bei den K10 derart massiv ausgefallen und dazu der schlechte 32NM Prozess dass es sich schlicht nicht gelohnt hat. Es wäre sicher möglich gewesen, aber aufwendig.
Vor allem wenn man bedenkt, dass seit Jahren am BD entwickelt wurde und man ihn irgendwann auch mal bringen musste. Somit haben wir zwar noch einen Beta BD, aber er wird natürlich immer besser.
 
Zuletzt bearbeitet:
@ modena.ch

Natürlich ist es jetzt viel zu spät für AMD, noch umzukehren und wieder auf K10 zu setzen. Der Zug ist abgefahren. Diese Entscheidung hätte vor vielen Jahren getroffen werden müssen.
Rückblickend ist es natürlich leicht, eine Entscheidung für falsch oder richtig zu erklären. Ich gebe zu, dass mich damals die beeindruckenden technischen Daten der Bulldozer-Architektur auch begeistert haben und ich fast sicher mit einem zweiten Athlon 64 gerechnet habe, der Intel wieder in Bedrängnis bringt.

Dass Bulldozer immer besser werden wird, bezweifele ich auch nicht. Wie gesagt garantiert eine kontinuierliche Weiterentwicklung ein und der selben Architektur nahezu, dass man sich keine wesentlichen Rückschläge einhandelt.

Das Problem sehe ich darin, dass der Rückstand gegenüber Intel jetzt schon so groß geworden ist und Bulldozer wahrscheinlich einfach zu langsam besser wird, um diese Lücke zu schließen oder auch nur nicht weiter anwachsen zu lassen.
Da jetzt auch Piledriver höchstwahrscheinlich nicht das von vielen erhoffte "kleine Wunder" geworden ist, müsste es Steamroller in gut einem Jahr dann schon mit dem besagten "mittelgroßen Wunder" richten. Sowas passiert aber nicht allzu oft.
 
Zuletzt bearbeitet:
Herdware schrieb:
@ modena.ch
Rückblickend ist es natürlich leicht, eine Entscheidung für falsch oder richtig zu erklären. Ich gebe zu, dass mich damals die beeindruckenden technischen Daten der Bulldozer-Architektur auch begeistert haben und ich fast sicher mit einem zweiten Athlon 64 gerechnet habe, der Intel wieder in Bedrängnis bringt.

Zu diesem Thema habe ich hier etwas für Dich (von vor 3 1/2 Jahren), das Dich interessieren könnte. So hat man das damals noch gesehen:
While it is currently true that 128-bit SSE instructions were executed slower due to reliance on 32 and 64-bit FPUs, we have to wait and see who will have better a FPU unit: 256-bits inside Larrabee and Sandy Bridge or Bulldozer ones.
und
According to our sources, this is one of the problems in Bulldozer design - it isn't easy to design a FPU, especially when you have to put engineering resources to fix the Barcelona core and shuffle scientists around.
Diese Einschätzung hat sich bewahrheitet. Leider. Wo liegt also das Problem? Manpower und technische Expertise bezüglich dieser Herausforderungen?

Übrigens ist *nun* Jim "DEC Alpha" Keller wieder zurück bei AMD (als Chefarchitekt CPU).

Fehlt nur noch Dirk Meyer, dafür könnte man vielleicht auf ein paar Bürokraten verzichten.
 
Zuletzt bearbeitet: (typo)
Nun AMD ist zwar jetzt deutlich im Rückstand. Aber Intel kann so viele Stellen an den aktuellen Designs
nicht mehr ohne Weiteres aufbohren, zumindest beim CPU Teil nicht so dass es es viel bringen würde. Die CPU IPC kann nur noch unwesentlich gesteigert werden, man kann höchstens noch den Takt erhöhen. Und die nächsten Fertigungsschritte werden auch nicht so ohne Weiteres problemlos zu machen sein....

Deshalb bin ich guter Dinge mit dem BD Design. Die Module werden sich bald auszahlen denn die nächsten BD Generationen werden deutlich aufgebohrt, die Software entwickelt sich, wenn auch langsam, auch weiter. Und vielleicht macht ja auch mal wieder die Fertigung einen Schritt nach vorn bei GF.
 
Warten wir mal ab, bis eine CPU mit Bulldozer-Architektur tatsächlich einen genauso großen Performancesprung hinbekommt, wie Intels mit seiner vermeintlich ausgereizten P6-basierten Architektur.

Angesichts des großen Vorsprungs, den Intel derzeit schon hat, müsste diese Bulli-CPU schon um die 25% zulegen, um absolut gerechnet mit einem typischen 15% Zuwachs bei Intel mitzuhalten. (IVB liegt ohne GPU-Limitierung etwa 40% vor einem FX, Taktunterschiede und SB-E lassen wir der Fairniss halber mal außen vor ;) ).
Das wäre das "mittlere Wunder", von dem ich geschrieben habe. Das ist ungefähr die Größenordnung, die der Core 2 gegenüber dem Pentium4 zugelegt hat. Sowas gab es nicht besonders oft, in der jüngeren CPU-Geschichte.

Und damit hätte AMD immer noch erst den Punkt erreicht, an den der Rückstand nicht mehr weiter größer wird. Um aufzuholen wären nochmal größere Steigerungen nötig und da kommen wir wirklich langsam in Regionen, von denen man nur noch kühn träumen kann.
Die einzige realistische Chance, dass das passiert, sehe ich für den Fall, dass nicht nur AMD und GF alles richtig machen, sondern gleichzeitig Intel eine Bauchlandung hinlegt.
Aber wie gesagt ist das Risiko eines Rückschlags nur sehr gering, solange man auf bewährtem aufbaut.
 
modena.ch schrieb:
Nun AMD ist zwar jetzt deutlich im Rückstand. Aber Intel kann so viele Stellen an den aktuellen Designs nicht mehr ohne Weiteres aufbohren, zumindest beim CPU Teil nicht so dass es es viel bringen würde. Die CPU IPC kann nur noch unwesentlich gesteigert werden, man kann höchstens noch den Takt erhöhen.
Deswegen hat Intel pro Takt seit dem Core 2 (der über sechs Jahre alt ist) ja auch nur über 50 Prozent an IPC pro Kern zugelegt. Zudem viele neue Befehlssatz-Erweiterungen, SMT wieder eingeführt und bis zu acht respektive zehn Kerne aktuell (Sandy Bridge EP bzw Westmere EX). Haswell steigert die IPC erneut ... aber hey, nur unwesentlich im hohen einstelligen bis eventuell gar zweistelligen Prozentbereich :rolleyes:
 
y33H@ schrieb:
Deswegen hat Intel pro Takt seit dem Core 2 (der über sechs Jahre alt ist) ja auch nur über 50 Prozent an IPC pro Kern zugelegt.

Nicht zwangsläufig. Zwischen Sandy und Ivy Bridge gibt es bei der IPC keinen Unterschied.

Von Nathalem zu Sandy Bridge ist es ein Performancesprung von <12% (Quelle)

Von Core2 zu Nathalem sind es ca. 15% (Quelle).

Summiert man das auf hat man seit dem Core2 zu Ivy Bridge eine bessere Single-Thread IPC Leistung von weniger als 30%.

Die 50% erreicht man nur, wenn man Multi-Threaded Anwendungen (Core2 zum Nathalem auf +22% (wPrime)) betrachtet oder den langsam gestiegenen Takt mitrechnet (Q6600@2.4 vs i5-3470@3,1 =+ 30%).
 
Zurück
Oben