Herdware schrieb:
Ich denke, die konzentrierst dich zu sehr auf den Fertigungsprozess. Große Performance- und Effizienzsprünge gibt es erfahrungsgemäß eigentlich eher bei mehr oder weniger großen Veränderungen an der Architektur. Nur ein und die selbe Architektur weitgehend unverändert auf einen kleineren Fertigungsprozess zu übertragen bringt hingegen meist wenig bis gar nichts.
Intel konnte aber nur große Veränderungen machen, wenne es die Fertigung zuließ, indem Intel davor viele TDP- oder Spannung-Potentiale davor aufbaute un diese nicht gleich bei der Fertigungs-Einführung voll ausgenutzt wurde.
Gutes Beispiel ist das Penryn-Nehalem, wo a) zuerst die Spannung deutlich gesenkt wurde und b) der Stromverbrauch wieder auf alte 130W-TDP kratzte.
Aber das war nur in 45nm-Möglich. Im Notebook-Bereich musste Intel auf 32nm statt 45nm warten, um den Stromverbrauch bei gleichen Takt wieder in übliche bereiche zu bekommen.
In Sandy-Bridge war es nicht möglich und daher war das Konzept bei Sandy-Bridge ausschließlich die Effizienz-Steigerung durch Verbesserung des Front-End.. Natürlich wurde bei Ive-Bridge & Haswell das Front-End weiter verbessert aber erst bei Haswell macht es anscheinend wieder Sinn, wetere ALUs einzubauen, die dann recht effizient genutzt werden können. Haswell wird IMO ähnlich Nehalem werden, wo die IPC-Steigerung bei 15-25% sein wird und Intel mit paar Reserven gerade noch den Takt halten kann.
Es zeigt sich deutlich, dass Intel die CPU-Entwicklung sehr bewusst macht und deutlich in Abhänigkeit des Fertigungs-Prozess macht.
Bei 45nm brachte HKMG sehr viel, welches dann in der nächsten Generation (Nehalem) mit niederen Spannungen voll genutzt werden kann.
Mit würde es nicht wundern, wenn das bei 22nm genauo passieren wird, wo mit 3D-Transistoren wieder so ein Sprung ist.
Bei 32nm führte Intel keine bedeutende Technologie in der Fertigung ein und deshalb war bei der nächsten Generation nicht so ein großer Sprung möglich und deshalb musste Sandy-Bridge ausschließlich auf Effizienz-Stromverbesserungen Effizienz-Auslastung-Verbesserung bei gleichen Einheiten entwickelt werden.
Wer die Spannungen & Uncore vs. Core & Technologie-Einführung usw ignoriert, wird das vielleicht nicht verstehen können.
Also, so einfach wie du es immer gerne erzählst, ist es leider nicht.
Wie gesagt wäre es meiner Meinung nach gar keine Schlechte Idee, Bulldozer ganz fallen zu lassen und mit Jaguar und seinen Nachfolgern zu versuchen, den Markt quasi von Unten neu aufzurollen.
Es ist ja kein Problem, wenn du/man dieser Meinung bist. Aber du sagst ja nicht, wie die das schaffen sollen. Einfach nur hoffen & träumen ist etwas zu wenig.
Jaguar wird mit der IPC schon langsam am Ende sein. Die +15% hatten sie ja auch teils durch AVX (SS4.1 SS4.2) geschafft.
Wenn sie jetzt 3-fach-ALU & 3-Fach-Front-End machen, dann hätten sie wieder sowie wie ein K8 oder K10 und man hätte sich Jaguar fast schon sparen können.
Ich denke, Jaguar @ 20nm würde noch viel Sinn machen und damit können sie dann in den Smartphone-Markt und sich im embbeded-Markt (u.a. Fernseher) noch weiter ausbreiten. Da macht IPC-Steigerungen nicht viel Sinn, sondern eben Stromverbrauchsenkungen.
Ich wüsste nicht, warum AMD Bulldozer canceln sollte und damit den Performance-notebook-Markt und großteils ihres Server-Markt und Mainstrea-&-Performance-Desktop-Markt aufgeben sollen.
Da macht AMD ein (und vielleicht noch paar) Quartal eine operativen Minus @ CPUs und schon wird alles totgeredet. Wie AMD damals deutlich (X-fach) mehr Verluste machte, sagte das damals keiner. Da verstand man wenigstens, dass AMDs Architektur nicht auch noch die das Fertigungs-Vorteil von Intel kompensieren kann.
Nicht gesagt, du/man darf das nicht mit Netburst vergleichen.
Denn dieser war extrem ineffizient und im Notebook-Markt überhaupt nicht zu gebrauchen.
Trinity kann sogar jetzt noch sehr gut in den Teil-Lasten mithalten.
Und man soll Trinity/Richland/Kaveri nicht schlechtreden, nur weil Kabini so gut wird.
Wenn der wirklich nur 15W-TDP @ 2,0 GHz-Quad haben soll, dann kann selbst Haswell-15W etwas ins "Wanken" geraten, da Kabini im vergleich zu Haswel-MPC ein echter SoC ist, welche Mehr Stromspartechniken besitzt, die gerade in Teillasten Vorteile bringen.
Auch weil AMD mit seinen knappen Ressourcen dann eine Architektur weniger parallel weiterentwickeln müsste.
Deshalb stellt AMD auf automatik Entwicklung um, damit sie neben 1 bis 2 GPU-Architekturen und Kabini (Low-Power) auch noch Bulldozer (High-Performance) entwickeln können. Abgesehen von eventuellen HSA-Entwicklungen.
Und wie ich schon sagte. Bulldozer ist nicht nur Bulldozer, sondern parallel zu Bulldozer findet auch die CPU-Grundlagen-Entwicklung statt.
p.s.: Der High-End- und Server-Markt ist für AMD eh schon futsch.
Man sagte ja auch, dass AMD mit Bobcat viel zu spät ist und in den letzten Tagen wurde erkannt, dass Kabini bzw. der Low-Power-Markt so wichtig ist wie noch nie.
Dass noch immer mehr Netbooks & Äquvivalente-Modelle (@ Media & Co) mit dem Atom zu finden sind, wird ja von den CPU-Experten, die die Welt in CPU-Performance-Only beschreiben und Bulldozer ständig schlechtreden, größtmöglich verwiegen.
y33H@ schrieb:
Ein 45 nm Bloomfield hat eine bessere IPC als ein 32 nm Vishera bei ähnlichem Stromverbrauch ...
Komisch, dass die CPU-Experten immer die Welt in einem Satz konkretlos erklären können.
Natürlich wird da auch die Spannung völlig ignoriert und nur Desktop vergleichen, denn sonst kann man sich die Welt nicht schönreden. Achja, und vielleicht war es noch Single-Thread.
Im Server-Markt & Notebook-Markt stimmt das natürlich nicht,.
http://www.notebookcheck.com/Test-Lenovo-Ideapad-G560-Notebook.33882.0.html
Ich hatte mal eine Allendare (32nm) genommen. Der ist etwa so schnell (etwas langsamer @ Multi-Thread) wie 32nm-Trinity, der immer deise Akku-Zeiten unter Last (=Multi-Thread) hat.
Wenn man dann 32nm statt 45nm sowie die deutlich schlechte iGPU-Performance ingnoriert, dann sind die etwa "gleichschnell".