Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.898
@aylano
Du legst ja sehr große Hoffnungen in AMDs automatisierte CPU-Entwicklung.
Ich sehe das nicht so, dass AMD da plötzlich den einen großen Schritt gemacht hat, der alles revolutioniert und ganze Entwicklungsabteilungen überflüssig macht bzw. ermöglicht, dass mit einem Bruchteil des Personals immer mehr Architekturen parallel weiterentwickelt werden können.
Beim Chipdesign wird seit Jahrzehnten mehr und mehr automatisiert. Das ist ein ständiger, fließender Prozess, der bei ausnahmslos allen Firmen der Branche stattfindet. Z.B. auch bei Intel.
(Ja ich weiß, dass man einigen der neueren AMD-APUs das automatische Design besonders stark ansieht, aber das bedeutete nicht automatisch, dass da bedeutend weniger "Handarbeit" drin steckt als z.B. bei Intels neusten Modellen.)
Die 4040- und 6502-CPUs wurde noch von in Socken auf dem Tisch herumkriechenden Entwicklern mit Klebefolie und Messern entwickelt. Heute werden nicht nur bei AMD komplette Funktionseinheiten baukastenartig im Computer zusammengesetzt.
Aber diese Vereinfachungen und Automatisierungen werden von der exponentiell zunehmenden Komplexität der modernen CPUs (Moore's Law) wieder aufgefressen, die dadurch überhaupt erst möglich wird. Und selbst wenn es das eine revolutionäre neue Tool gäbe, dass die Entwicklungsarbeit trotz steigender Komplexität z.B. halbiert, würden ein Unternehmen in der finanziellen Situation von AMD diese Gelegenheit nutzen, nur noch zusätzlich Geld (Personal) einzusparen und trotzdem die Produktpalette zu reduzieren.
Es wird bei AMD unweigerlich eine einschneidende Strategiewende geben, die sich auch auf die Produkte auswirkt. Der für die Bulldozer verantwortliche Dirk Meyer (der für seine Verdienste als Entwickler des Athlon und davor bei DEC der Alphas immer in guter Erinnerung bleiben wird, aber leider als AMD-CEO ein viel ungücklicheres Händchen hatte) wurde nicht umsonst gegangen. Was heute und in den nächsten Monaten auf den Markt kommt, ist größtenteils noch unter Meyers Leitung entwickelt worden. Aber wenn die weitgehend fertigen Designs erstmal vermarktet sind, wird der Kurswechsel der neuen Führung weg von klassischen großen PC- und Server-CPUs hin zu kleinen und preiswerten SoCs z.B. für Mobilgeräten greifen.
Die unwirtschaftlichsten Produkte mit den schlechtesten Zukunftsprognosen werden dabei wegfallen und das sind nunmal unbestreitbar die FX und die klassischen Opterons.
Die sind zudem wie gesagt inzwischen exotische Dinosaurier in AMDs neuer APU/HSA-Welt. Und ja, auch wenn HSA (wenn überhaupt) erst in Jahren eine Rolle spielen wird, muss AMD jetzt für möglichst große Verbreitung HSA-fähiger APUs sorgen, sonst beißt sie das Henne-Ei-Problem in den Allerwertesten. Ohne möglichst viele HSA-fähige APUs in den Computern wird es sich auch bei den Softwareentwicklern nicht durchsetzen. Jede klassische CPU die verkauft wird, schmälert die Chancen von HSA.
Übrigens solltest du dich nicht davon täuschen lassen, dass ich erst seit gut einem Jahr bei CB aktiv bin. Ich beschäftige mich schon wesentlich länger hobbymäßig und teilweise beruflich intensiv mit Computern. AMDs (und Intels) Weg verfolge ich seit den frühen 90ern. Davor waren eher Commodore, Atari und Co. im Fokus meiner Aufmerksamkeit.
SiSoft Sandra ist ein sehr guter, umfassender und sehr synthetischer Benchmark. Es ist wunderbar geeignet zu zeigen, was theoretisch in einer CPU steckt. Also z.B. Integer- und Floatingpoint-Leistung, Speicherdurchsatz usw.
Es ist damit aber natürlich nicht wirklich ein praxisnahmer Maßstab dafür, wie sich die CPUs in verbreiteten realen Anwendungen verhalten. Dafür sind andere Benchmarks, die reale Anwendungen nachbilden, besser geeignet.
Du legst ja sehr große Hoffnungen in AMDs automatisierte CPU-Entwicklung.
Ich sehe das nicht so, dass AMD da plötzlich den einen großen Schritt gemacht hat, der alles revolutioniert und ganze Entwicklungsabteilungen überflüssig macht bzw. ermöglicht, dass mit einem Bruchteil des Personals immer mehr Architekturen parallel weiterentwickelt werden können.
Beim Chipdesign wird seit Jahrzehnten mehr und mehr automatisiert. Das ist ein ständiger, fließender Prozess, der bei ausnahmslos allen Firmen der Branche stattfindet. Z.B. auch bei Intel.
(Ja ich weiß, dass man einigen der neueren AMD-APUs das automatische Design besonders stark ansieht, aber das bedeutete nicht automatisch, dass da bedeutend weniger "Handarbeit" drin steckt als z.B. bei Intels neusten Modellen.)
Die 4040- und 6502-CPUs wurde noch von in Socken auf dem Tisch herumkriechenden Entwicklern mit Klebefolie und Messern entwickelt. Heute werden nicht nur bei AMD komplette Funktionseinheiten baukastenartig im Computer zusammengesetzt.
Aber diese Vereinfachungen und Automatisierungen werden von der exponentiell zunehmenden Komplexität der modernen CPUs (Moore's Law) wieder aufgefressen, die dadurch überhaupt erst möglich wird. Und selbst wenn es das eine revolutionäre neue Tool gäbe, dass die Entwicklungsarbeit trotz steigender Komplexität z.B. halbiert, würden ein Unternehmen in der finanziellen Situation von AMD diese Gelegenheit nutzen, nur noch zusätzlich Geld (Personal) einzusparen und trotzdem die Produktpalette zu reduzieren.
Es wird bei AMD unweigerlich eine einschneidende Strategiewende geben, die sich auch auf die Produkte auswirkt. Der für die Bulldozer verantwortliche Dirk Meyer (der für seine Verdienste als Entwickler des Athlon und davor bei DEC der Alphas immer in guter Erinnerung bleiben wird, aber leider als AMD-CEO ein viel ungücklicheres Händchen hatte) wurde nicht umsonst gegangen. Was heute und in den nächsten Monaten auf den Markt kommt, ist größtenteils noch unter Meyers Leitung entwickelt worden. Aber wenn die weitgehend fertigen Designs erstmal vermarktet sind, wird der Kurswechsel der neuen Führung weg von klassischen großen PC- und Server-CPUs hin zu kleinen und preiswerten SoCs z.B. für Mobilgeräten greifen.
Die unwirtschaftlichsten Produkte mit den schlechtesten Zukunftsprognosen werden dabei wegfallen und das sind nunmal unbestreitbar die FX und die klassischen Opterons.
Die sind zudem wie gesagt inzwischen exotische Dinosaurier in AMDs neuer APU/HSA-Welt. Und ja, auch wenn HSA (wenn überhaupt) erst in Jahren eine Rolle spielen wird, muss AMD jetzt für möglichst große Verbreitung HSA-fähiger APUs sorgen, sonst beißt sie das Henne-Ei-Problem in den Allerwertesten. Ohne möglichst viele HSA-fähige APUs in den Computern wird es sich auch bei den Softwareentwicklern nicht durchsetzen. Jede klassische CPU die verkauft wird, schmälert die Chancen von HSA.
Übrigens solltest du dich nicht davon täuschen lassen, dass ich erst seit gut einem Jahr bei CB aktiv bin. Ich beschäftige mich schon wesentlich länger hobbymäßig und teilweise beruflich intensiv mit Computern. AMDs (und Intels) Weg verfolge ich seit den frühen 90ern. Davor waren eher Commodore, Atari und Co. im Fokus meiner Aufmerksamkeit.
AMDisbesser schrieb:Kennt Jemand hier das Benchmark Programm SiSoft Sandra?
Würde mich interessieren, was ihr davon haltet.
SiSoft Sandra ist ein sehr guter, umfassender und sehr synthetischer Benchmark. Es ist wunderbar geeignet zu zeigen, was theoretisch in einer CPU steckt. Also z.B. Integer- und Floatingpoint-Leistung, Speicherdurchsatz usw.
Es ist damit aber natürlich nicht wirklich ein praxisnahmer Maßstab dafür, wie sich die CPUs in verbreiteten realen Anwendungen verhalten. Dafür sind andere Benchmarks, die reale Anwendungen nachbilden, besser geeignet.
Zuletzt bearbeitet: