Notiz Mike Clarke: Chefarchitekt von Zen wird Corporate Fellow

Bulldozer war wirklich ein mieser Wurf. Ich verstehe schon nicht, wie man auf die Idee kommen kann, eine Architektur nur auf hohen Takt auszulegen, und dabei die IPC bewusst zu verschlechtern. Das ist schon allein deshalb nicht nachvollziehbar, weil AMD gesehen hat, wie dieses Konzept beim Pentium 4 gescheitert ist. Rückblickend betrachtet wäre es erheblich besser gewesen, die K10-Architektur des Phenom II noch weiter zu optimieren, da wäre man garantiert konkurrenzfähiger gewesen.
 
RYZ3N schrieb:
@Whiskey Lakezum anderen könnte man schon einmal hinterfragen warum du einen Käse wie Bulldozer so vehement verteidigst.
Warum sollte ich so etwas dummes machen?
Immer diese Unterstellungen...

mario_mendel34 schrieb:
Ich verstehe schon nicht, wie man auf die Idee kommen kann, eine Architektur nur auf hohen Takt auszulegen, und dabei die IPC bewusst zu verschlechtern.
Weil AMD wusste, daß sie gegenüber Intel einen gewaltigen Fertigungsnachteil haben werden, "Bigcores" wie bei Zen wären damit nichts geworden, man mußte wo es nur geht Transistoren einsparen.

Das ist schon allein deshalb nicht nachvollziehbar, weil AMD gesehen hat, wie dieses Konzept beim Pentium 4 gescheitert ist.
Dieses Konzept gab es bei P4 doch nicht...

Rückblickend betrachtet wäre es erheblich besser gewesen, die K10-Architektur des Phenom II noch weiter zu optimieren, da wäre man garantiert konkurrenzfähiger gewesen.
Ein optimierter K10 hätte was genau am nicht ordentlich funktionierendem 32nm Prozess geändert?
 
  • Gefällt mir
Reaktionen: Thraker, Tanzmusikus und Ned Flanders
RYZ3N schrieb:
@Whiskey Lake

Nichts für ungut, aber für einen Bulldozer der FX-Serie 8xxx musste man schon arg schmerzfrei sein.
Ach habe nie Schmerzen, wenn ich am alten FX 8320 16GB GTX 1060 PC zocken muss. Die Graka ist immernoch wichtiger als die CPU in vielen Spielen. Mein alter I7 2XXX Laptop mit seiner GTX560M ist da schon wesentlich schmerzvoller.
 
iGameKudan schrieb:
Meine Güte - Koduri war seit 2013 oder so bei AMD - da war die Fiji- und Vega-Katastrophe schon lange beschlossene Sache...
Nur das Koduri auch vorher schon mal bei AMD war.

Und Vega ist ziemlich sicher von ihm angeleitet worden, auch wenn er sicher Probleme der GCN geerbt hat. Wir hatten aber zu dem schon so einige Diskussionen und am Ende muss man sagen: Koduri ist Visionär und lebt vielleicht etwas zu oft in der Zukunft. ;)

RYZ3N schrieb:
Das Modul-Design ist in der Form ja eigentlich nicht mal ein wirkliches Problem, wenn man bestimmte Flaschenhälse entsprechend ausgelegt hätte. Zeigt sich ja über die Generationen.

IPC wiederum war ja teilweise auch ein Problem, dass sie due ALUs und AGUs gegenüber Phenom reduziert haben. Der Gedankengang war ja auch nicht so schlecht. Sie wollten hardwarebasiertes SMT umsetzten. Ich erinnere mich ja gut an die damaligen Folien und Präsentationen. Man sprach damals wohl bei SMT von 5% mehr Transistoren für 30% mehr Leistung und bei dem Ansatz von AMD von irgendwas um 30% mehr Transistoren und dafür 100% mehr Leistung.

mario_mendel34 schrieb:
Ich verstehe schon nicht, wie man auf die Idee kommen kann, eine Architektur nur auf hohen Takt auszulegen, und dabei die IPC bewusst zu verschlechtern.
Nur gibt es da ein kleinen Unterschied. AMD hat bei Bulldozer vereinfachte Intereger-Cores genutzt und wollte ein - wie erwähnt - Hardware basiertes SMT umsetzten. Die Idee dahinter ist nicht mal schlecht - zahlen hab ich oben schon genannt. Hätten sie die K10-Kerne genommen und entsprechend darauf ausgelegt, wäre Bulldozer sogar eine richtig tolle CPU gewesen.

Bulldozer war aber nicht wirklich schlecht. Im Serverbereich konnten die Bulldozer-CPUs sogar mit SandyBridge-Xeons mithalten und haben bei so manchen Tests diese CPUs sogar übertroffen, da die Software in manchen Tests deutlich besser mit vielen Kernen skaliert haben.

Nur gibt es bis heute Software-Bereiche, bei denen eine beliebige Skalierung mit Kernen nicht möglich ist. Gibt da ein paar Regeln von Mathematikern und theoretischen Informatikern.
 
  • Gefällt mir
Reaktionen: Thraker und Tanzmusikus
Ok, ein AMD-Entwickler hat jetzt was Neues auf seiner Visitenkarte stehen...
und warum genau ist das jetzt eine News wert?

Gruß,
CTN
 
Ich hoffe einfach, dass AMD Personal besitzt, dass in der Lage sein wird, Zen und etwaige Nachfolger-Architekturen erfolgreich weiterzuentwickeln und auch dann noch leistungsmäßig mit Intel mitzuhalten, wenn die irgendwann ihren Core-Nachfolger vorstellen. Ein Bulldozer darf AMD schlicht nie wieder passieren, denn das dürfte die Firma nicht überleben.


Whiskey Lake schrieb:
Schlecht war die Bulldozer-µArch nicht, der Unsinn wurde nur von relativ Ahnungslosen Personen in die Welt gesetzt:\

Sorry, aber diese Ansicht teile ich ebenfalls nicht. Einige Ideen hinter Bulldozer waren sicher gut - schließlich lebt das Modulkonzept in gewisser Form in Zen weiter. Es bleibt aber Fakt, dass die Leistung pro Takt stets zu gering war, selbst ein Beinahe-5-Ghz-Piledriver wurde seinerzeit schließlich von weit sparsameren i3- und i5-Prozessoren geschlagen.


CrunchTheNumber schrieb:
Ok, ein AMD-Entwickler hat jetzt was Neues auf seiner Visitenkarte stehen...
und warum genau ist das jetzt eine News wert?

Gruß,
CTN

Es ist eine Notiz wert ;D
 
Es bleibt aber Fakt, dass die Leistung pro Takt stets zu gering war
Newin, das ist einfach nur typisches "Computerbildwissen":\

Die Leistung pro Takt wäre egal, wenn der takt dementsprechend hoch genug wäre.
Und genau da hat GF halt mehr versprochen und die erste Generation von Bulldozer hätte eigentlich auch ein Jahr früher kommen sollen.
 
mario_mendel34 schrieb:
Ich verstehe schon nicht, wie man auf die Idee kommen kann, eine Architektur nur auf hohen Takt auszulegen, und dabei die IPC bewusst zu verschlechtern.

Das sind doch alles nur Märchen von Leuten mit der roten Fanboybrille, mit der man die Schuld auf andere abzuwälzen versucht ("lag an der Fertigung" :rolleyes:).
Keine Architektur wird auf hohen Takt designed, weil damit die benötigte Spannung überproportional steigen muss. Hohe Takte sind immer nur ein Notnagel, wenn die IPC grottig ist.
 
kisser schrieb:
Das sind doch alles nur Märchen von Leuten mit der roten Fanboybrille, mit der man die Schuld auf andere abzuwälzen versucht ("lag an der Fertigung" :rolleyes:).
Keine Architektur wird auf hohen Takt designed, weil damit die benötigte Spannung überproportional steigen muss. Hohe Takte sind immer nur ein Notnagel, wenn die IPC grottig ist.
Klar ist hier wohl jedem, dass die FX Prozessoren den Core Prozessoren deutlich unterlegen waren. Ich habe immer auf neue bessere Versionen gehofft. Habe jedoch trotzdem mit meinem FX8320 durchgehalten bis Zen fertig war. Und dann mit dem R7 1700 ist mir auch nicht der Draht aus der Mütze gesprungen. Ich schaue wohlbemerkt auf echte Performance in meinen Spielen und Anwendungen in FHD. Der Wechsel auf eine GTX 1080 hat deutlich mehr gebracht als der Wechsel auf Zen. Die läuft auch in der FX Kiste recht gut. Daher kann ich den Bulldozer bis heute nicht als Fail sehen, Intel lag vorne, für mich jedoch völlig irrelevant und immer viel zu teuer.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Whiskey Lake schrieb:
Dieses Konzept gab es bei P4 doch nicht...

Doch, der Pentium 4 war genau so ein Hochtaktdesign. IPC schlecht, Takt hoch.

Whiskey Lake schrieb:
Die Leistung pro Takt wäre egal, wenn der takt dementsprechend hoch genug wäre.
Und genau da hat GF halt mehr versprochen und die erste Generation von Bulldozer hätte eigentlich auch ein Jahr früher kommen sollen.

Die Visheras gab es in Serie mit maximalen Taktraten von 5 GHz. Das bewegt sich bei komplexen CPU-Designs schon am Rande des physikalisch machbaren, auch mit einer besseren Fertigung wären da keine großartig höheren Taktraten drin. Und selbst mit diesen 5 GHz war AMD immer noch hinter einem damaligen i7 auf Werkstakt.
 
Whiskey Lake schrieb:
Newin, das ist einfach nur typisches "Computerbildwissen":\

Die Leistung pro Takt wäre egal, wenn der takt dementsprechend hoch genug wäre.
Und genau da hat GF halt mehr versprochen und die erste Generation von Bulldozer hätte eigentlich auch ein Jahr früher kommen sollen.


Mit dem gleichen Argument könnte man auch die Netburst-Architektur des Pentium 4 loben, denn theoretisch hätte das von Intel einstmals angepeilte 10-Ghz-Ziel deren Defizite in anderen Bereichen ja kompensieren können. Praktisch wurden extreme Taktraten jenseits der 8 Ghz (von Pentium 4 und Bulldozer übrigens) immer nur unter extremen Kühlmitteln erreicht und schon jenseits der 3,5 Ghz wurde trotz moderner Fertigung zu viel Strom benötigt.

Du kannst es Computerbildwissen nennen, Binsenweisheit oder sonst etwas, das ändert leider am Ergebnis nichts: Bulldozer war zu langsam.
Außerdem: In der Theorie mag man mit ausreichend hohem Takt maskieren können, dass Leistung pro Mhz fehlt, in der Praxis jedoch gab es nie einen Fertigungsprozess, unter dem hierfür hinreichend leistungsfähige Transistoren (für einen x86-Prozessor) hergestellt werden konnten. Aber auch darüber hinaus machte die Physik diesem theoretischen Ansatz stets einen Strich durch die Rechnung, Stromverbrauch und damit Abwärme nahmen mit steigendem Takt stets so stark zu, dass ein "Mehr" durch die daraus resultierenden Interaktionen innerhalb des Prozessors schlicht unpraktikabel wurde, von Effizienzgesichtspunkten ganz abgesehen. Im Übrigen hat Bulldozer mit höherem Takt verhältnismäßig schlecht skaliert, ein FX-9590 hatte einem FX-8350 nicht so viel voraus wie er es pro Mhz hätte haben müssen.

Und mal ehrlich: Selbst ein Jahr früher wäre Bulldozer nicht konkurrenzfähig gewesen. Bereits mit dem Phenom 2 lag man gegen Intels erste Core i7-Generation ja schon ein Stück zurück und teilweise konnten die ersten FX-Bulldozer nicht einmal diese Prozessoren schlagen.
 
mario_mendel34 schrieb:
Doch, der Pentium 4 war genau so ein Hochtaktdesign.
Korrekt, der P4 war ein Hochtaktdesign mit einer serh langen Pipeline!

Bulldozer ist aber KEIN Hochtaktdesign...

Die Visheras gab es in Serie mit maximalen Taktraten von 5 GHz.
Ja, aber halt ca. 2 Jahre zu spät!

Und selbst mit diesen 5 GHz war AMD immer noch hinter einem damaligen i7 auf Werkstakt.
Und wie schaut es im Vergleich zu einem i7 aus, der 2 Jahre davor aktuell war?

Das Problem an Bulldozer war einfach der Prozess, das was wir mit Vishera bekommen haben, hätte ursprünglich ein Jahr vor Zambezi auf den Markt kommen sollen.
Dank dem schlechten 32nm Prozesses war die IPC auch niedriger als eigentlich geplant:\

Als Vishera dann endlich am Markt war, hätte laut Planung eigentlich schon ein Shrink in 28nm SOI auf dem Markt sein sollen, diese CPU mußte AMD aber einstampfen.
Einen Tape-out gab es sogar noch...
 
Whiskey Lake schrieb:
Ja eh, das Problem war die Fertigung.

32nm SOI hätte einen höheren Takt ermöglichen sollen, Globalfoundries hat AMD da ziemlich lange "verarscht".
Nein, so war es nicht. Die Fertigung war bzgl der Taktraten sogar sehr gut. Immerhin wurde damit die 5GHz Grenze in einem Serienmodell geknackt, und das ab Werk.

Die Architektur war schlicht eine absolute Fehlentwicklung. Es gab quasi keine IPC-Verbesserung zu den K10-Kernen in der ersten Generation. In der zweiten auch nicht nennenswerte genug, um so spät noch einen Stich zu machen.
Die einzig brauchbare BD-Architektur war der letzte Ausbau Excavator. (alles natürlich in Hinblick auf die Konkurrenz. Zu Pentium 4 Zeiten wäre so eine Architektur wie BD eine wahnsinnige Lösung gewesen)
 
Nein, so war es nicht.
Doch.

Die Fertigung war bzgl der Taktraten sogar sehr gut.
Guter Witz!

Immerhin wurde damit die 5GHz Grenze in einem Serienmodell geknackt, und das ab Werk.
Ja, JAHRE nach Planung...

Die Architektur war schlicht eine absolute Fehlentwicklung.
Warum denn?

Es gab quasi keine IPC-Verbesserung zu den K10-Kernen in der ersten Generation.
Das ist vollkommen egal, was zählt ist nur die Leitung pro kern.
un ddie war aufgrund der Fertigung viel niedriger als ursprünglich geplant und kam Jahre zu spät...
 
  • Gefällt mir
Reaktionen: Thraker
Whiskey Lake schrieb:
Das ist vollkommen egal, was zählt ist nur die Leitung pro kern.
un ddie war aufgrund der Fertigung viel niedriger als ursprünglich geplant und kam Jahre zu spät...

Genau auf diese Leistung bezieht er sich doch - und die war zum Start eben zu niedrig.

Und seien wir mal ehrlich, Planung hin oder her: Selbst wenn statt Zambezi direkt Vishera erschienen wäre, und das ein Jahr früher, hätte man es 2011 mit Sandy Bridge zu tun bekommen und dennoch keine Chance gehabt, weder was absolute Leistung noch Effizienz anging.

Bulldozer hat sich intern vermutlich zu spät als nicht zufriedenstellend herausgestellt, um das noch ändern zu können - Architekturen werden nicht in ein paar Tagen geschaffen - und AMD hatte nicht die Ressourcen und zu viel Konkurrenzdruck, um sich eine Rückkehr ans Reißbrett leisten zu können. Also veröffentliche man Zambezi und versuchte, mit Vishera zu Scherben einzusammeln. Dass man auf weitere Weiterentwicklungen in der Folge nur in sehr kleinem Ausmaß brauchte, zeigt deutlich, dass Intel zu diesem Zeitpunkt bereits zu sehr enteilt war und man das auch bei AMD wusste. Wäre dem nicht so gewesen, hätte man sich nicht für Jahre aus dem Geschäft zurückgezogen und damit auch den Servermarkt praktisch aufgegeben.

Umso mehr können wir uns doch freuen, dass Zen eine sehr viel besser gelungene Architektur ist.
 
  • Gefällt mir
Reaktionen: iNFECTED_pHILZ
Selbst wenn statt Zambezi direkt Vishera erschienen wäre, und das ein Jahr früher, hätte man es 2011 mit Sandy Bridge zu tun bekommen
Da wäre dann auch schon Bulldozer in 28nm SOI auf dem Markt.
Ausserdem waren die Cache-Latenzen selbst bei Vishera noch ein Witz, der L2-Cache von Vishera war vergleichbar mit dem L3-Cache von Intel.
Cache hat eine gewaltige auswirkung auf die IPC, der Fertigungsprozess hat da locker so 5-10% IPC "vernichtet"!

Es lag nunmal an der Fertigung, warum wollen das manche immer wegdiskutieren?
 
  • Gefällt mir
Reaktionen: Thraker, Tanzmusikus und Ned Flanders
Die Bulldozer-Arch war nen Rotz, punkt.

Am Ende war ja selbst ein Core i3-7350K 2C/4T auf Augenhöhe mit dem FX-8350 (4M, "8C"). Ungeachtet der Tatsache, dass vielleicht die Fertigung 10 % IPC gekostet hat weil die Cache-Latenzen kacke waren, fehlten der Architektur am Ende pro Takt je nach Workload eher 50-100 Prozent. War dann ja auch für AMD kein Problem, statt der gewünschten 40 auf einmal über 50% IPC bei Zen gegenüber den müden Kipplastern rauszuholen, obwohl man Intels Haswell fast 1:1 übernommen hat.
 
Volker schrieb:
.Das war 2011, da wurde er Fellow - und er ist immer noch bei AMD ;)

Ist er jetzt denn immer noch Fellow oder nur noch bei AMD? Am Ende ist das so ein Titel den man nie wieder los wird, selbst wenn man die Sparte für die man den Titel bekommen hat komplett an die Wand fährt. :o
Quasi ein Stigma.

@Ned Flanders: Whiskey Lake ist halt sehr speziell :D. Ich denke selbst wenn Lisa Su ihm eine persönliche, unterschriebene Erklärung übergeben würde in der steht dass Bulldozer ein Rotz war, würde er trotzdem immer noch das Gegenteil behaupten. Er hast ja auch sonst immer sehr "individuelle Ansichten"
 
  • Gefällt mir
Reaktionen: KlaraElfer
Whiskey Lake schrieb:
Doch udn zwar zu Recht!

Schlecht war die Bulldozer-µArch nicht, der Unsinn wurde nur von relativ Ahnungslosen Personen in die Welt gesetzt:\


HT hatte eigentlich jeder Bulldozer.

Nein hatten die nicht, und das Single/MultiThreading verhältnis beweist das auch ;-)

Cinebench R15

AMD FX-8350 Single-Core = 96 Punkte

AMD FX-8350 Multi-Core = 665 Punkte

6,92 x

Wenn er wirklich nur ein (4Kerner) gewesen sein sollte, warum ist der SingleCore Score dann so miserabel, bzw die MultiCore so gut? Es ist halt ein zwischen ding zwischen einem echtem 8 Kern und einem 4 Kern CPU, ist aber wahrscheinlich ein wenig komplexer zu erklären.
 
Zurück
Oben