News AMD zum 32C3: Einblicke in die Komplexität eines x86-Prozessordesigns

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.787
Zum 32. CCC hat David Kaplan, der fünf Jahre AMDs Bobcat und die Jaguar-Kerne mit designt hat und seit 2011 Hardware Security Architect von AMD ist, Einblicke in die Komplexität eines modernen x86-Prozessordesigns gegeben. Auch nach vielen Jahren Zeit und Millionen Kosten wird eine CPU niemals fehlerfrei sein.

Zur News: AMD zum 32C3: Einblicke in die Komplexität eines x86-Prozessordesigns
 
  • Gefällt mir
Reaktionen: .Sentinel.
Ist es eigentlich immer noch so
das bei AMD aus Kosten- und Personalgründen große Teile der "Baupläne" von neuen CPUs automatisiert erstellt werden
während es bei Intel noch sehr viel aufwändigere aber dafür umso bessere Handarbeit ist?

Damit meine ich das die "Struktur" bei AMD von einer Software (mehr oder weniger gut) berechnet wird sobald die Features usw. festgelegt wurden
während bei Intel dieser Schritt noch sehr mühsam aber dafür deutlich besser (effizienteres Ergebnis) von Hand geschieht.

Das eine CPU niemals völlig fehlerfrei designt ist und auch nie völlig fehlerfrei gefertigt wird ist doch klar... oder?
Es sind natürlich Redundanzen eingebaut und kleinere Fehler können auch nachträglich noch behoben werden durch patchen des Microcodes.

Bei größeren Fehlern kommt es darauf an wo der Fehler sitzt und welche Auswirkungen er hat.
Kann man mit dem Fehler leben? Wie aufwändig wäre eine Korrektur in der Hardware?
 
Zuletzt bearbeitet:
@Knolle: ich gehe nicht davon aus, dass Intel immer noch ein paar Milliarden Transistoren per Hand designed. Die benutzen sicherlich auch tools um gewisse Bereiche die mehrfach gleich auftreten einfach zu "kopieren". Intel gibt nur viel weniger Einblick in die CPU-Entwicklung als AMD. Da gibts höchstens mal eine Powerpoint der Marketingabteilung zu den "unglaublichen" Fortschritten im Herstellungsverfahren.

@Volker: Danke für den Artikel
 
Zuletzt bearbeitet:
Sehr interessant, vielen Dank :D

Vielleicht denken ja alle, die bei Fehlern in Programmen gleich "Beta-Software als fertig zu verkaufen - so eine Unverschämtheit" brüllen, mal darüber nach, welche Parallelen sich wohl zu einer solchen Entwicklung dort auftun ;)

Lg, Franz

Ps: @knolle
Naja, wo hast du das mit der Handarbeit gelesen? :P zumal handarbeit ≠ besser ist... Spätestens, wenn sie probieren die Leiterbahnen von Hand zu ziehen, words wohl nichts mehr :D

Computer können den effektivsten Weg ausrechnen, Intel wird das genauso machen... Lieber Geld in die Entwicklung der Software, die für 1000 Prozis genutzt werden kann, stecken, als immer von vorne anzufangen :)
 
Zuletzt bearbeitet:
Fehlerfreie Produkte...schöner Traum ;)

Gerade in der Mikrotechnik (kann ich aus Erfahrung sagen) gehts nicht darum, dass ein Produkt fehlerfrei ist. Das nicht geht auch gar nicht wenn man die Produktionstechnik ans Limit drückt. Das kommt zum Design noch dazu.

Wöllte man das, dann müsste die Komplexität (und damit die Leistung) um Größenordnungen reduziert werden...bei höheren Kosten. Das will auch niemand.
Also ist das Ziel für die Paxis nicht: "mach das perfekt" sonder "sieh zu, dass das Teil vernünftig funktioniert".
 
Intel hat mal erklärt das sie ein riesen quasi Archiv mit Architektur Blueprints (digital 3D schätze ich) aus schon eigendesignten Chips haben und nutzen.
Es soll mindestens bis zum Pentium Pro zurrückreichen, von dem ja in Teilen die Idee zum Core i abgewandelt wurde.

Die Strukturen aus den Archiven für neue Chips abzuwandeln spart Zeit und Geld.
Nebenbei ist das einer von Intel Know-How Schätzen die sozusagen weitervererbbar ist,
und hunderte von Millionen Wert ist er auch.
 
Kaplan ermahnt deshalb, dass die Entwickler Fehlern direkt im Design-Prozess Platz einräumen müssen, um sie dann beseitigen zu können
Wie muss man solche Worte des Hardware Security Architect von AMD verstehen? Ermahnen müsste die Entwickler im Hause, nicht die Zuhöhrer auf einem Kongress. Ist das eine unglückilche Übersetzung oder schon eine Vorbereitung auf abzusehende Verspätungen aufgrund von Fehlern, die Entwickler im Desin-Prozess eben verschiegen haben? Vielleicht aufgrund von Druck der Firmenleistung.
 
Interessanter Artikel. Vielen Dank.

BTW: der Mensch ist nicht perfekt und ebenso seine Schöpfungen. Fehlerfrei wird es nie geben. Das ist ärgerlich und in der Wirtschaft kann je nach Schwere eines Fehlers das Aus drohen. Aber that´s life.
 
Schaut euch den Beitrag an.

@ KnolleJupp. Das was du das beschreibst ist schon länger nicht mehr so. Das wird heute zum Großteil automatisch gemacht, egal ob AMD oder Intel. Auch wird genau diese Frage bei der Q and A beantwortet, einfach mal den Vortrag schauen.
Der Link von "blöderidiot" ist 4 Jahre alt^^ und die Entwicklung der CPU noch älter, das hat nix mehr mit heutiger Technik zu tun.

englisch
https://www.youtube.com/watch?v=eDmv0sDB1Ak

es gibt auch eine deutsche Übersetzung, geht aber immer etwas verloren ;)


Meine must watch list ;)

NSA-Untersuchungsausschuss: Zwischen Aufklärungswillen und Mauern aus Schweigen
The exhaust emissions scandal („Dieselgate“)
How the Great Firewall discovers hidden circumvention servers
Beyond your cable modem
 
Zuletzt bearbeitet:
FranzvonAssisi schrieb:
Vielleicht denken ja alle, die bei Fehlern in Programmen gleich "Beta-Software als fertig zu verkaufen - so eine Unverschämtheit" brüllen, mal darüber nach, welche Parallelen sich wohl zu einer solchen Entwicklung dort auftun ;)

Glaub nicht, dass man das so einfach vergleichen sollte. So eine Chipentwicklung ist ungleich komplexer und komplizierter.
Fehler in einer Software sind vermeidbar und einfach falsch programmiert. Eine instabile Software, ohne einen gewissen Reifegrad auf den Markt zu werfen, ist eine Unverschämtheit. Sicherlich ist keine Software Fehlerfrei, aber ne Beta ist nun mal kein RC.
Bei CPUs treten ja gewisse Fehler erst bei gewissen Umgebungs-Parametern auf, sind also keine wirklichen Fehler der Entwickler sondern einfach physikalische Eigenheiten die dann zum Beispiel bei gewissen Taktraten, Temperaturen oder Zustandsänderungen erst auftreten. Siehe Pentium 3 >1GHz.
 
@KnolleJupp
Ja, das war wirklich so. Glaube besonders dann bei Bulldozer. Intel benützt solche Dinger sicherlich auch, aber die setzten dich dann wohl dann nochmals anschließend hin und schauen, was das Programm da so machte und wo man es dann doch noch besser machen kann.

​Außerdem darf man nicht davon ausgehen, dass Intel Milliarden von Transistoren per Hand plant, sondern auch ihre Blöcke haben, wo sie wissen"Die sind für das da" und "der Block für etwas anderes", aber die Blöcke dann halt per Hand zusammenfügen.

​Ob AMD ZEN auch noch so wie Bulldozer per Software zusammengeklatscht wurde weiß man (noch) nicht. Vielleicht erfährt man dann mehr, sobald er mal draußen ist.
 
Holt schrieb:
Ist das eine unglückilche Übersetzung oder schon eine Vorbereitung auf abzusehende Verspätungen aufgrund von Fehlern, die Entwickler im Desin-Prozess eben verschiegen haben? Vielleicht aufgrund von Druck der Firmenleistung.

Klar, man kann auch Dinge überinterpretieren, aber genau das dachte ich mir auch sofort.
Zumal AMD bisher insgesamt erstaunlich zurückhaltend ist.
 
@CB

Schöner Artikel.
Ergänzung ()

Holt schrieb:
Wie muss man solche Worte des Hardware Security Architect von AMD verstehen? Ermahnen müsste die Entwickler im Hause, nicht die Zuhöhrer auf einem Kongress. Ist das eine unglückilche Übersetzung oder schon eine Vorbereitung auf abzusehende Verspätungen aufgrund von Fehlern, die Entwickler im Desin-Prozess eben verschiegen haben? Vielleicht aufgrund von Druck der Firmenleistung.

Im Publikum dürften ebenfalls Entwickler sitzen.
Auch den kleinen Hobby Projekten schadet es nicht, wenn die ganzen Erfahrungen nicht selbständig gesammelt werden müssen.
 
Schöner Artikel, auch wenn es immer noch nicht wirklich in die Tiefe geht (ich nehme an, die Präsentation gab nicht mehr her?). Ich frage mich z.B. ob beim "respin" jedes mal eine neue Maske gebastelt wird, oder ob die Entwicklungsmuster alle direkt E-Beam geschrieben sind und Masken erst für das finale Design produziert werden?
 
Ja der Vortrag ging nicht groß in die Tiefe (gerade solche Details nicht), dann geht es auch schnell Richtung Firmengeheimnisse. Auch war er eigentlich gar nicht typisch für CCC, sondern hätte fast für Hot Chips gepasst oder so - auch wenn er da vielleicht zu allgemein war. Insofern hat er leicht an der Oberfläche gekratzt, interessant war es aber allemal ;)
 
Super Artikel. Da sieht man mal was das für ein komplexer Prozess das ist ob jetzt mit Hand oder Software! Mal sehen ob der Zen pünktlich released wird oder noch ein respin braucht 😊
 
rg88 schrieb:
Glaub nicht, dass man das so einfach vergleichen sollte. So eine Chipentwicklung ist ungleich komplexer und komplizierter.
Fehler in einer Software sind vermeidbar und einfach falsch programmiert. Eine instabile Software, ohne einen gewissen Reifegrad auf den Markt zu werfen, ist eine Unverschämtheit. Sicherlich ist keine Software Fehlerfrei, aber ne Beta ist nun mal kein RC.
...

Eine Chipentwicklung ist bestimmt sehr komplex, aber Softwareentwicklung in seiner Komplexität einfach pauschal so zu unterschätzen zeugt von großer Unwissenheit.
 
Zuletzt bearbeitet:
Gerade wenn jedes neue Design neu getestet werden muss, warum macht man die Produktpalette nicht schlanker?
Klar, die werden das auf jeden Fall durchdacht und vor allem durchgerechnet haben, ob sich das vom Aufwand finanziell lohnt.
Trotzdem ist es mir unverständlich dutzendende Verianten rauszubringen, wo eine ausreichen würde.

Da konzentriere ich mich doch lieber auf wenige, habe weniger Aufwand, kann höhere Stückzahlen produzieren und habe mehr Qualitätssicherheit.
Die Antwort darauf wird sicher sein, dass 90% Qualität auch ausreichen und sich schlicht mehr Umsatz damit generieren lässt - yay
 
Zurück
Oben