H
Headcool
Gast
pipip schrieb:Heißt nicht gleich dass man 450mm von Anfang an verwenden wird.
Wenn ich eine neue Fabrik baue, überlege ich mir auch, was werde ich in der Zukunft verändern ect.
Wieso sollte man im 14nm Fertigungszyklus schon 450mm-kompatibel sein, wenn man die 450mm-Wafer erst im 7nm-Prozess braucht?
pipip schrieb:https://www.computerbase.de/2012-07/intel-steigt-beim-fab-ausruester-asml-ein/
und weitere 450 mm links von anderen Fertiger, kann ich mir gar nicht vorstellen dass Intel schon nächstes Jahr 450mm haben wird.
Ich würde gern was konkreteres lesen als compatible. Davon spricht TSMC auch schon, bei 7 nm :/
https://www.computerbase.de/2012-10/pilotproduktion-fuer-450-mm-wafer-und-7-nm-von-tsmc-angepeilt/
Vielleicht kommen die 450mm Wafer erst später. Dennoch bin ich mir sicher, dass Intel diese Technologie wesentlich früher als die Konkurrenz haben wird. Einfach weil sie wesentlich mehr in R&D investieren.
pipip schrieb:Klar kann und darf man mehr verlangen, wenn man das bessere Produkt oder Marke hat, das hab ich eigentlich auch gar nicht in Frage stellen wollen ^^
Aber die Frage ist immer, ist die etwas größere Akku laufzeit oder ein etwas bessere Leistung dann auch den Preis wert.
Siehe Diskussion AMD/NV 28nm Grafikkarten. Hier hatten auch einige Probleme mit den höheren Preis verglichen zur Vorgängergeneration ect.
Im Gegensatz zu Grafikkarten liegt der Preisanteil des Chips bei Smartphones wesentlich weiter unten.
Laut verchiedenen Quellen hat der SoC im iPhone 5 18/28$(Quelle 1/Quelle2) gekostet.
Selbst wenn Intel-SoCs um 50% teurer wären, würde das Smartphone im Endeffekt nur 10-15$ teurer werden(bei einem 500$-Produkt!), bei gleichbleibender Marge für den Hersteller. Dafür hebt das Smartphone dann vielleicht 10% länger und bringt vielleicht 10% mehr Leistung. Es hat aber nur 2-3% mehr gekostet.
aylano schrieb:Nächstes Jahr (2013) kommen sowieso schwere Zeiten auf Intel, AMD, ARM und Nvidia, da mit Win8 Intel & AMD auf Smartphone & Tablet angreifen können und ARM auf Netbooks & Desktop & Notebooks und mit Larrabee & GCN-HPC ebenfalls ein Angriff auf den GPGPU-Markt erfolgt. Man braucht da nicht auf 14nm und 64-bit-ARM warten, A15-Quad @ 28nm reicht auch fürs erste.
Ich behaupte, dass die Gefahr für x86 wesentlich geringer ist als die Gefahr für ARM.
Die Software auf Smartphones und Tablets ist größtenteils mit x86 kompatibel da in Java oder .Net geschrieben. Die Top-Apps funktionieren alle auf x86. Umgekehrt dagegen schaut es ganz anderst aus. Die Desktop-Software die ARM-kompatibel ist, ist sehr gering und meistens unter ARM stark in der Funktionalität eingeschränkt.
Die Software die jetzt für win RT geschrieben wird, wird größtenteils auf .NET basieren.
D.h. du hast dann im Endeffekt einen Quadcore-ARM in deinem Desktop dessen Leistung/Kern unterirdisch ist. Dann hast du noch arschlangsame .NET-Apps die dir nur einen Bruchteil der Funktionalität bieten die du gewohnt bist und sich logischerweiße auch nicht parallisieren lassen.
Oder du hast einen x86-Dual/Quadcore der dir eine ProKernLeistung bietet, die um ganze Größenordnungen besser ist als die des ARM Quadcore. Und du hast echte native umfangreiche Software die schneller und besser läuft als sie auf ARM jemals könnte.
aylano schrieb:Es ist für AMD sicherlich nicht schlecht, wenn sie erstmals im ARM-Markt mitschwimmen, da dieser momentan groß im Geschäft ist.
AMD ist wie ein zappelnder Fisch der ans Land gespült worden ist. Würde mich wundern, wenn es die bald nicht mehr gibt. Der Aktienkurs ist auf einem Tiefstand, sie haben es über die letzten 10 Jahre nicht geschafft einen Gewinn zu erwirtschaften, wieso sollte sich das jetzt ändern.
aylano schrieb:Sowas sagt man, wenn man nicht weiß was dahinter steckt.
Ich glaube, Intel wollte früher ursprünglich 2012 450mm einführen. Mit der Fab42 kann man sowieso erst frühestens 2014 beginnen, wobei man Intel aufgrund des enormen R&D-Potential frühestens 2015 erwarten kann. Aber Intel ist auch im G450C dabei und die werden damit eher 2018 beginnen.
Wir reden von zwei verschiedenen Dingen. Du redest von R&D- und Anschaffungskosten. Ich rede von Betriebskosten. Und die fallen.
Natürlich muss man die Investitionskosten auch miteinberechnen. Diese verteilen sich jedoch auf die Gesamtstückzahl. Und da es einen neuen riesigen Markt zu erobern gibt, wird diese Gesamtstückzahl sich stark erhöhen.
aylano schrieb:450mm kommt so spät, weil sie nicht anders können. Eben weil 450mm einfach mehr kostet als 300mm. Beim 200mm --> 300mm Umstieg gab es noch den großen Verschnitt-Vorteil @ 300-500mm²-Dies. Aber dieser Verschnitt-Vorteil fällt jetzt weg, weil kaum einer 500-800mm²-Dies in Masse produzieren wird.
Es kommt so spät, weil eine zu frühe Investition Mehrkosten mit sich bringt die sich später nicht mehr relativieren.
aylano schrieb:Das Problem ist, dass man selbst in 28nm schon Quad-CPUs in Smartphone bekommen kann. Und da diese oft <100mm² sind, kosten sie kaum mehr als 10$ in der Produktion.
Und mit 20nm wird das alles nochmals billiger und Energie-Effizienter.
Es wird dann irgendwann ein Problem sein bessere Produkte viel teuerer zu verkaufen, wenn die neuen Smartphones kaum mehr Verbesserungen bringt, was man jetzt schon z.B: mit dem Iphone 5 sieht.
Quad-ARM mag zwar toll klingen, deren reeler Nutzen ist aber ziemlich unterirdisch. Selbst auf dem Desktop gibt es wenig Software die von einem Quadcore profitiert. Auf Smartphones & Co. wo drittklassige Java-Programmierer am Werk sind schaut es dementsprechend noch viel schlechter aus.
In Zukunft will ich mein Smartphone an meinen PC-Monitor anschließen und dort dann Photoshop, Visual Studio & Co. ausführen. Mit x86 kein Problem, mit ARM könnte ich höchstens Photoshop Express ausführen. Aber da kann ich auch gleich Paint verwenden.
Gibt also schon noch viele Gründe
aylano schrieb:Vielleicht müssen die Strukturgrößen-Verkleinerungen in Zukunft genauso hinausgeschoben werden, wie es bei Wafer-Größen-Vergrößerungen passierte.
http://www.google.at/url?source=img...AkQ8wc&usg=AFQjCNH6QxOdP-9S45wOJ8BuENwRXyKbAA
Könnte passieren. Dann gibts aber auch vermehrt Forschungen Richtung Graphen, CNT, etc.
Solange jemand Geld für bessere Hardware ausgibt wird es auch bessere Hardware geben.