Notiz Mike Clarke: Chefarchitekt von Zen wird Corporate Fellow

Bärenmarke schrieb:
Absolut nicht! Die 5 GHz waren schon für den ersten Bulli geplant und Jahrespäter für die FX 9x00 Modelle war dies nur mit einem extrem hohen Verbrauch möglich. Da von einer guten Fertigung zu sprechen fällt mir ehrlich gesagt schwer...
Das war halt eine Brechstange Aktion
Ignorier den Verbrauch und schau dir die reine Leistung der 9xxxer an. Dann siehst du, dass das Konzept unabhängig von der Fertigung nichts getaugt hat.
Bärenmarke schrieb:
Es ist ein Unterschied ob es ein wirtschaftlicher Misserfolg war oder ein technischer. Bei ersterem wird dir niemand widersprechen, bei zweiterm schon weil es eben nicht so mies war wie es einige darstellen wollen. Das größte Problem war halt einfach das die Fertigung nicht gepasst hat :/ Und wenn man sich drauf verlässt ist das halt einfach nichts.
Die Architektur hätte auch mit der besten Fertigung keinen Blumentopf gewonnen. Viel zu lange Pipelines um hohe Taktraten zu ermöglichen. Dadurch hohe Latenzen, kombiniert mit Flaschenhälsen durch die geteilten Rechenwerke.
Bärenmarke schrieb:
Was aber weniger das Problem an der Architektur sondern am Prozess war. 5 GHz wurden angepeilt und die konnten bei weitem zu Release nicht umgesetzt werden... Zudem war der Verbrauch bei dem Prozess jenseits von gut und böse...
Auch wenn du in deinem Beitrag in jedem Saz behauptest, dass die Fertigung schuld ist: Nur durch Wiederholung wird es nicht wahrer.
 
Wenn der Bulli kein hochtaktdesign war, dann ist er noch schlechter ausgefallen als ich angenommen hatte.
Mit einem 4Ghz Bulli konnte man etwa mit einem 2,7Ghz Sandy mithalten. Allein das zeigt schon, dass man absolut hintendran war was die uarch angeht.

Was soll man denn bei Amd erwartet haben? Eine Fertigung die 7Ghz zulässt? Wobei man auch zugeben muss, dass die Fertigung wirklich nicht optimal war.
 
rg88 schrieb:
Ignorier den Verbrauch und schau dir die reine Leistung der 9xxxer an. Dann siehst du, dass das Konzept unabhängig von der Fertigung nichts getaugt hat.
Ich kenne die Leistung, aber du ignorierst, dass es auch nur die zweite Ausbaustufe nämliche Vishera war ;-)
Und du hast von einer guten Fertigung gesprochen, wäre sie gut gewesen hätte man doch nicht so einen exorbitant hohen Verbrauch dafür benötigt?

rg88 schrieb:
Die Architektur hätte auch mit der besten Fertigung keinen Blumentopf gewonnen. Viel zu lange Pipelines um hohe Taktraten zu ermöglichen. Dadurch hohe Latenzen, kombiniert mit Flaschenhälsen durch die geteilten Rechenwerke.
Wie gesagt, die letzten beiden Ausbaustufen wurden ja Fallen gelassen... Optimierungspotenzial wäre genug vorhanden gewesen, das bestreitet ja auch niemand :)

rg88 schrieb:
Auch wenn du in deinem Beitrag in jedem Saz behauptest, dass die Fertigung schuld ist: Nur durch Wiederholung wird es nicht wahrer.

Dann solltest du dich vielleicht ein wenig mehr mit der Materie auseinandersetzen... Die Fertigung hat den Hautpteil an dem Misserfolg getragen. Schau dir doch mal die mobilen Varianten an, die waren was den Verbrauch betrifft nicht übel und das bei einer wesentlich schlechteren Fertigung. Hätte AMD eine bessere Fertigung gehabt, hätten wir da auch mehr Konkurrenz und nicht so eine extreme Klatsche gesehen.
 
Du ignorierst schlicht die Tatsachen.
Es ist doch vollkommen egal in welcher Ausbaustufe das war. Die Architketur hat einfach keine Leistung gebracht, selbst bei 5 GHz und das in der zweiten Ausbaustufe war die langsamer taktende Konkurrenz deutlich schneller unterwegs. Ich verstehe nicht, wie man so eine krasse Brille aufhaben kann um sich das so verquer hindrehen zu können. :freak:
 
Das stimmt rg88,

der Bulldozer-Reihe war nicht optimal & schon gar nicht besonders performant.
Zu meinem damaligen Phenom II X4 955 BE C2 hatte ich zumindest bis zu zweifache Performance in einigen Bereichen mit dem FX-8350, obwohl er mit mehr Takt gerade mal die gleiche Single-Core Performance hatte. Im Video-Coding und auch im Gaming Bereich war der FX zumindest eine starke Verbesserung. Er kostete mich damals (~140€) auch nur etwa 2/3 so viel wie der Core i5 2500K (~200€). Naja - das hat aber bei beiden sehr stark fluktuiert. Der FX war auch mal kurz über 200€, der 2500K allerdings meist höher.

Ich freu mich jedenfalls schon, wenn ich bald das Geld für einen neuen RyZEN zusammen habe.
Hoffentlich werden die Boards auch noch besser (stabiler/mehr Features). ZEN+ ist ja schonmal klasse geworden.

Grüße
 
Zuletzt bearbeitet:
Whiskey Lake schrieb:
Bernötigt ich in einem Forum nicht;)

Eine sehr soziale Einstellung, die sicherlich absolut nichts mit dem Umstand zu tun hat, dass deine Beiträge sich so angenehm lesen ;) Respektvollen Umgang miteinander und gute Manieren sollte man auch online nicht abstellen, auch, wenn viele das ignorieren.

Whiskey Lake schrieb:
War mit der Fertigugn nicht ganz konlurrenzfähig, aber dafür kann halt die µArch nichts.

Es nervt mich halt schon, wenn einige immer wieder ernsthaft behaupten, wenn AMD damals schon zb. Zen gehabt hätte, hätte das die Fertigungsprobleme wie Magie aus der Welt geschafft.

Ich glaube, das behauptet niemand ernsthaft, der Fertigungsnachteil war immer ein präsentes Problem, befeuert von Intels weit größeren Ressourcen. Umgekehrt kann aber auch nicht wirklich bewiesen werden, dass die Fertigung das *einzige* Problem war, denn einen Bulldozer in anderem Prozess hat man schließlich nie gesehen. Und wie DocWindows oben bereits anmerkte, hätte man die Architektur als technisch überlegen betrachtet, hätte man sie spätestens für einen Nachfolger überarbeiten und in besserer Fertigung anbieten können. Stattdessen übernahm man nur die eine oder andere Idee und entwickelte Zen. Das wird einen guten Grund gehabt haben.

Whiskey Lake schrieb:
Ich bin eher der Meinung, wenn AMD heute auch noch 2 Nodes hinter Intel wäre, könnte man auch mit Zen nicht mithalten!

Sehr wahrscheinlich. Aber wie gesagt, dieses Problem bestand immer und die Fertigung allein macht nicht das gesamte Produkt aus - man denke an Nvidia und deren Schritt von Pascal auf Maxwell. Der Prozess war derselbe, die Leistung aber sehr stark unterschiedlich.

Whiskey Lake schrieb:
Manche müßen aber immer gegen AMD hetzen, da wird seit Jahren krampfhaft das Problem der Fertigung bei GF weggeredet.
Ich verstehe nicht, warum das einige echt schon krampfhaft tut...


Ich habe es bereits gesagt, tue es aber gern nochmal: Was zählt, ist das Gesamtergebnis. Und vor diesem Hintergrund ist es absolut keine Hetze, klar zu sagen, dass Bulldozer nichts taugte. Die Formulierung mag man zwar als polemisch empfinden, spätestens ein Statement der Marke "Man war nicht konkurrenzfähig" ist objektiv absolut richtig. Da hilft dann auch wenig, GF als Schuldigen hinzustellen.
 
  • Gefällt mir
Reaktionen: rg88
rg88 schrieb:
Du ignorierst schlicht die Tatsachen.
Es ist doch vollkommen egal in welcher Ausbaustufe das war. Die Architketur hat einfach keine Leistung gebracht, selbst bei 5 GHz und das in der zweiten Ausbaustufe war die langsamer taktende Konkurrenz deutlich schneller unterwegs. Ich verstehe nicht, wie man so eine krasse Brille aufhaben kann um sich das so verquer hindrehen zu können. :freak:

Eben nicht, dass bist du....
Es ist eben nicht egal in welcher Ausbaustufe es war, weil die großen Performanceschübe laut Roadmap halt erst mit der Stufe 3 und 4 gekommen wären. Und das hat absolut nichts mit Fanboybrille zu tun, wenn die Fertigung schlichtweg scheiße war.
Ich verstehe ehrlich gesagt nicht, wieso man eine so harte blaue Brille aufhaben kann, um das zu ignorieren...

Schau dir doch einfach mal an nach wie vielen Jahren die 9000er Reihe erst gekommen ist. Da brauch man wirklich nicht von einer guten Fertigung reden.
 
  • Gefällt mir
Reaktionen: Thraker
Hast eine Folie, Bärenmarke?
Das wäre zumindest ein Fakt, den man schön anschauen kann. ;)
 
Bärenmarke schrieb:
Eben nicht, dass bist du....
Es ist eben nicht egal in welcher Ausbaustufe es war, weil die großen Performanceschübe laut Roadmap halt erst mit der Stufe 3 und 4 gekommen wären. Und das hat absolut nichts mit Fanboybrille zu tun, wenn die Fertigung schlichtweg scheiße war.
Die Architektur war (ums in deinem Sprachniveau auszurdrücken) scheiße. Da hättest auch die Intelfertigung von heute nehmen können. Dann wär der Verbrauch niedriger. Leistung wäre immer noch nicht auf dem Niveau der Konkurrenz.

Bärenmarke schrieb:
Ich verstehe ehrlich gesagt nicht, wieso man eine so harte blaue Brille aufhaben kann, um das zu ignorieren...
Das ich eine blaue Brille aufhabe wird mir hier zum ersten Mal vorgeworfen. :hammer_alt:
Wie wärs mal mit etwas Selbstreflexion?
Du erinnerst mich grad an:
Radio: "Achtung, ein Geisterfahrer auf der A9"
Du: "Einer? Hunderte!!!"


Bärenmarke schrieb:
Schau dir doch einfach mal an nach wie vielen Jahren die 9000er Reihe erst gekommen ist. Da brauch man wirklich nicht von einer guten Fertigung reden.
Das ist vollkommen egal. Das zeigt nur, dass die Arch auch mit besserer Fertigung nix gerissen hätte. Wo willst die denn hintreiben, dass sie nicht hinten gelegen wäre? 8 GHz?
und dann wozu? Um mit 4 GHz der Konkurrenz mitzuhalten?
 
Leute - es lag ja auch daran, dass CMT softwareseitig kaum bis gar nicht unterstützt wurde.
Es war/ist ja das Meiste (an Compilern u.ä.) auf SMT fokussiert, natürlich auch Einiges noch auf Single-Core.

AMD hat ja mittlerweile gemerkt, dass sie den Markt anders beeinflussen sollten, wenn sie Neuerungen auch wirtschaftlich erfolgreich umsetzen möchten. Dazu zählen die vielen kleinen OpenSource-Projekte wie OpenCL, Vulkan (Mantle), FreeSync, usw. ...

... und durch die höhere Bereitschaft zur Zusammenarbeit mit anderen Firmen haben sie auch höhe Verkäufe an M$ für die Xbox One & (glaube auch) an Sony für PS4(?) gehabt. Mit Ryzen geht's doch gut weiter. Mal sehen, was wird ... :freaky:
 
Zuletzt bearbeitet:
rg88 schrieb:
Viel zu lange Pipelines um hohe Taktraten zu ermöglichen.
Das war bei Netburst so, Bulldozer hat keine so lange Pipeline.

kombiniert mit Flaschenhälsen durch die geteilten Rechenwerke.
Flaschenhälse, durch geringes Transistorbudget!

Ich hoffe echt, daß Zen auch mal noch CMT bekommt!!

Die Architketur hat einfach keine Leistung gebracht
Ja, weil die tollen Cache.Latenzen aufgrudn der Fertigung gewaltig Leistung gekostet hat.
Der L2-Cache konnte nichtmal mit vollen CPU-Takt laufen.
Sogar 45nm SOI war da besser...

Da hättest auch die Intelfertigung von heute nehmen können. Dann wär der Verbrauch niedriger. Leistung wäre immer noch nicht auf dem Niveau der Konkurrenz.
Sicher...

Gaugaumera schrieb:
Allein das zeigt schon, dass man absolut hintendran war was die uarch angeht.
Der komplette Cache war aufgrund der Fertigung sehr sehr sehr langsam.

Was soll man denn bei Amd erwartet haben?
L2 Cache, der nicht langsamer als der L3 Cache von Intel ist?

DeathShark schrieb:
Umgekehrt kann aber auch nicht wirklich bewiesen werden, dass die Fertigung das *einzige* Problem war
War sie ja auch nicht, aber eben das größte Problem.
Warum genau stört das hier einige?
Warum wird das Problem der Fertigung immer so unter den Tisch gekehrt und kleingeredet?

und die Fertigung allein macht nicht das gesamte Produkt aus
Wenn aber nichtmal der Cache so wie er soll funktioniert, dann ist das ein gewaltiger Nachteil!

Was zählt, ist das Gesamtergebnis.
Darum geht es hier doch nicht...

MiesMosel schrieb:
Leute - es lag ja auch daran, dass CMT softwareseitig kaum bis gar nicht unterstützt wurde.
Bei CMT muß nichts sonderlich unterstützt werden, für Software ist egal ob es CMT oder SMT ist.
 
  • Gefällt mir
Reaktionen: Teralios
DocWindows schrieb:
Wäre die Fertigung das Hauptproblem, hätte man das ganze Design nicht wegwerfen müssen.

Wie schon geschrieben, war das CMT design eine Antwort auf zunehmende Fertigungsprobleme und nicht konkurrenzfähigen Transistorbudget. Warum sollte man nach dem lösen dieses Problems durch Fremdfertigung daran festhalten. Übrigens basiert der Zen core auf dem Puma Core von AMD.
 
@Whiskey Lake:
Sorry, aber da ist viel Quatsch dabei. Du kannst dir auch gerne spätetere Bulldozer-Iterationen anschauen, die auf einer anderen Fertigung basierten. Die Grundprobleme waren exakt die selben.

Was ihr hier versucht zu behaupten, widerspricht nicht nur jeglicher Logik und Geschichte, sondern selbst den eigenen Aussagen von AMD.
Zudem wären nicht soviele Köpfe gerollt, wenn die Schuld bei GF zu suchen gewesen wäre.
Ergänzung ()

Ned Flanders schrieb:
Übrigens basiert der Zen core auf dem Puma Core von AMD.
Nein, das ist falsch.
Der Architektur ist näher an Puma als an BD. Klar. Aber das ist ganz einfach dem Umstand geschuldet, dass man keine Module mehr eingesetzt hat. Wenn man so argumentiert ist ein Zen auch näher an einer Intel Core-Architektur dran als an Bulldozer
 
Bärenmarke schrieb:
Es ist eben nicht egal in welcher Ausbaustufe es war, weil die großen Performanceschübe laut Roadmap halt erst mit der Stufe 3 und 4 gekommen wären..

Also mit Steamroller und Excavator? Denn das sind die Nachfolger. Wurden zwar keine CPUs der FX-Klasse mehr mit rausgebracht, aber als APUs mit ein oder zwei Modulen.
Da Ryzen bei der IPC auf die letzte Bulldozer-Generation auch noch einen riesen Sprung gemacht hat, hätte es für Bulli in 4. Iteration auch als FX nicht gereicht, um konkurrenzfähig zu sein. Der Prozess wurde da auch bereits geändert, wurden in 28nm gefertigt gegenüber 32nm bei Bulldozer und Piledriver. Im gleichen Prozess wurde soweit ich weiß auch Jaguar gefertigt, der auch in XBox One und Playstation 4 Verwendung findet.

Die Fertigung war nicht gut, aber damit ist die CIC-Architektur nicht gleich gelungen. Unter 28nm, sicher auch kein Top-Prozess, ist auch nicht viel passiert. Dagegen hat sich Jaguar aber recht gut gestellt, obwohl der Zweck ein ganz anderer ist.
Letztendlich kann man nur eine Aussage mit Sicherheit treffen: Bulldozer war ein Fehlgriff, egal woran es gelegen hat. Ryzen ist dagegen Gold.
 
Zuletzt bearbeitet:
Da Ryzen bei der IPC auf die letzte Bulldozer-Generation auch noch einen riesen Sprung gemacht hat, hätte es für Bulli in 4. Iteration auch als FX nicht gereicht, um konkurrenzfähig zu sein.
Woher glaubst du das zu wissen?
Ausserdem hätte man Bulldozer mit 14nm sicher ganz anders auslegen können, wiel das Transistorbudget nicht so knapp bemessen werden müßte.

CMT hätte nicht immer bei 2 ALUs pro Integer bleiben müßen!

Der Prozess wurde da auch bereits geändert, wurden in 28nm gefertigt gegenüber 32nm bei Bulldozer und Piledriver.
Ja, 28nm Bulk statt 32nm SOI, toll...
 
  • Gefällt mir
Reaktionen: Teralios
Whiskey Lake schrieb:
Dank dem schlechten 32nm Prozesses war die IPC auch niedriger als eigentlich geplant

Das mag ja alles („vermeintlich“) stimmen, es ändert jedoch schlussendlich gar nichts an den Produkt der FX-CPUs welche auf den Markt geworfen wurden.

rg88 schrieb:
Die Architektur war schlicht eine absolute Fehlentwicklung. Es gab quasi keine IPC-Verbesserung zu den K10-Kernen in der ersten Generation.

Richtig, die letzte wirklich „kaufbaren“ AMD CPUs (before Bulldozer) waren der Phenom II X4 965 (bis 980 BE), X6 1090T und der X6 1100T. Dazu noch der 960T als Geheimtipp.

Für die FX CPUs müsste man schon eine gewisse Form von Schmerzunempfindlichkeit besitzen, nicht weil die Teile so unglaublich schlecht sondern weil bessere Alternativen verfügbar waren.

@Whiskey Lake weshalb verteidigst du die Dinger hier bis zur völligen Selbstaufgabe? Mit ZEN und ZEN+ hat AMD die Kehrtwende doch mit Bravour geschafft.

Ich bin einer von denen, die AMD schon jetzt mit dem Ryzen 7 2700X (für mich Golden Standard für Spiele+Anwendungen im Mix) vorne sehen.

Wenn AMD ZEN2 in 7nm mit verbesserter IPC (+ ~10-15%) und höheren Taktraten (Baseclock 4,2 GHz) sowie höherem Turbo (4,8 GHz) bringt, wird’s richtig eng für Intel. Vielleicht bringt AMD sogar 12C/24T für Ryzen 7 und 8C/16T für Ryzen 5.

Ich bin wirklich der Letzte der AMD schlecht redete oder abschreibt, aber den Bulldozer verteidigen (wie du) würde mir im Traum nicht einfallen.

Liebe Grüße
Sven
 
Das mag ja alles („vermeintlich“) stimmen, es ändert jedoch schlussendlich gar nichts an den Produkt der FX-CPUs welche auf den Markt geworfen wurden.
Wie schon mal gesagt, darum geht es nicht!

weshalb verteidigst du die Dinger hier bis zur völligen Selbstaufgabe?
Unterstell mir bitte nichts!

Mit ZEN und ZEN+ hat AMD die Kehrtwende doch mit Bravour geschafft.
Wo hab ich denn etwas Gegenteiliges behauptet?

aber den Bulldozer verteidigen (wie du) würde mir im Traum nicht einfallen.
Würde mir auch nicht einfallen, deswegen tue ich das auch nicht!

Es nervt mich aber, wenn manche einfach immer wieder den selben Mist in die Welt setzen.
Ich weis halt, was bei Bulldozer damals die Probleme waren, wer sich mit der Materie auseinander setzt und über das nötige Fachwissen verfügt, gibt mir da in allen Punkten Recht;)

Und wie schon mal gesagt, wenn sie damals schon Zen gehabt hätten, wäre Zen auch geflopt.
 
  • Gefällt mir
Reaktionen: Thraker
Whiskey Lake schrieb:
Doch udn zwar zu Recht!

Schlecht war die Bulldozer-µArch nicht, der Unsinn wurde nur von relativ Ahnungslosen Personen in die Welt gesetzt
Die Architektur hatte Vorteile aber auch entscheidene Nachteile durch die die Architektur nicht für das bestehende Software Umfeld geeignet war.


RYZ3N schrieb:
@Whiskey Lake das darfst du gerne so sehen und auch ich bin ja ein großer Befürworter von AMD, aber es hatte schon seine Gründe das Intel seine 4C/8T CPUs über 6-7 Jahre zu Mondpreisen im High-End Mainstream verkaufen konnte.

AMD hatte zu wenig IPC, die Verwendung von Modulen hat nicht wirklich gegriffen, der Verbrauch war viel zu hoch und man konnte nicht wirklich konkurrieren. Selbst wenn man seiner Zeit voraus gewesen ist, heißt das nur, man hatte zu dem Zeitpunkt eben nicht die richtige CPU am Markt.

Umso schöner das die ZEN-Architektur ein voller Erfolg wurde.

Liebe Grüße
Sven
Natürlich hatte das einen Grund warum Intel die Prozessoren so lange zu den Preisen verkaufen kommte und der lautet Unterauslastung und Unterforderung durch die Software für den FX.
Die Architektur benötigt 2 Punkte die im Software Umfeld nahezu nicht existent waren bzw. sind. Das ist zum einen ein brauchbarer Multicore Support (bedingt durch die geringe singlethread Leistung) und FMA4 war für die Leistung der Architektur ähnlich entscheidend wie AVX in all seinen Varianten für Intel. Um trotz des unbrauchbaen Software Umfelds möglichst viel Leistung raus zu quetschen wurde die Taktfrequenz zu hoch angesetzt und die Effizienz ging den Bach runter.
Beim Multicore Support war es ja noch recht einfach zu sehen wieviel Leistung dadurch Software bedingt auf der Strecke blieb. Einfach die Tests von gut parallelisierten Programmen mit dem Durchschnittsergebnis vergleichen. Da lagen die FX-8 Modelle auf einmal in der 4 kernigen i7 Liga wenn alle 8 Kerne/Threads auch ausgelastet werden konnten. Beim FMA4 Support war das mangels Software Unterstützung schwieriger. Da fällt mir nur der damalige FX-8150 Test von HT4u ein, bei dem sie zusätzlich ein entsprechend kompiliertes Programm getestet hatten. Auf einmal hängte der FX den i7 2600k ab und fing an den i7 990X zu ärgern.
https://www.ht4u.net/reviews/2011/amd_bulldozer_fx_prozessoren/index17.php
Abgesehen davon fällt mir allerdings nur noch ein entsprechend optimierter, optionaler Client für Asteroids@Home ein mit dem die FX Architektur nochmal gute 30-40% zulegen konnte.
Und das lustigste an FMA4 ist das es wohl ein Überbleibsel von Intels ursprünglicher AVX Spec ist welches von Intel aber wieder rausgestrichen wurde. An sonsten merkt man der Architektur auch die Ausrichtung für das von AMD wieder verworfene SSE5 an. Er hat also in der Architektur zu viele Sachen die am Ende im Verlauf ihrer Entwicklung wieder gestrichen wurden.
https://de.wikipedia.org/wiki/Streaming_SIMD_Extensions_5

Die Entwicklung einer Architektur dauert zig Jahre, Unsummen an Geld und was passiert wenn die Software Entwicklung nicht den erwarteten Verlauf nimmt oder mitten drin grundlegene Funktionen umgeplant oder verworfen wurden sieht man an der Bulldozer Architektur nur zu gut. Er wird zu oft verschoben wodurch er zu spät auf den Markt kommt und es bleibt zu viel Leistung auf der Strecke.

Bei der Zen Architektur hat man sich dann wieder auf die offensichtliche Stagnation im Software Umfeld eingeschossen, nur noch das eingebaut was Intel ebenfalls hat und verzichtet beim Chip Design ganz auf ein allso komplexes Multicore Design bedient weiter gehende Anforderungen nur noch über Multi Chip Designs. Man geht also eher den Weg des Minimalismus, daher vielleicht auch der Name?
 
  • Gefällt mir
Reaktionen: rg88 und Tanzmusikus
Das Problem mit "hätte", "könnte" und "sollte", es ist nicht nachweißbar, ohne es zu überprüfen.

Daher ist nur eines wirklich sicher: Bulldozer und deren direkte Nachfolger sind geflopt.
Unter dem Strich ist es nicht erheblich, ob es am Prozess, an der Architektur oder überhaupt an der Konzeption CMT und Multicore lag. Die Wahrheit liegt wohl eher irgendwo in einer Kombination von allen, zuzüglich der vorausgegangen Methodik von Intel, wodurch AMD nicht gerade viel Kapital für Entwicklung zur Verfügung hatte.
 
Zurück
Oben