Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsProzessorgerücht: Intel widerspricht Einstellung der 10-nm-Fertigung
Nö, eher nicht. Die machen ja schon längst 10nm, nur halt nicht für AMD. Außerdem gibt es bei TSMC zwei 7nm Nodes, einen low power, und einen Seperaten für hohe Taktfrequenzen.
Wenn Du ganz stolz die neuen CPU Linien bzw. Entwicklungen auf 10nm auslegst und du die Produkte nicht bringen kannst, weil die Fertigung versagt, kommst Du halt auch schnell in Teufels Küche...
Naja, das kann Dir aber bei Fremdfertigung ganz genauso passieren, du bist nur selbst nicht dafür verantwortlich --> AMD & GloFo gibts da ja auch reichlich beispiele für. Von Vertraglich zugesicherten Wafer Abnahmemengen ganz zu schweigen.
Leitwolf22 schrieb:
Nö, eher nicht. Die machen ja schon längst 10nm, nur halt nicht für AMD.
Naja, das kann Dir aber bei Fremdfertigung ganz genauso passieren, du bist nur selbst nicht dafür verantwortlich --> AMD & GloFo gibts da ja auch reichlich beispiele für. Von Vertraglich zugesicherten Wafer Abnahmemengen ganz zu schweigen.
Ich meinte von GloFo/Samsung 14nm auf TSMC 7nm wirds ein relativ ordentlicher Satz.
Ahso, ja, das glaube ich allerdings auch. Ich denke, dass die Fertigung bei TSMC ohnehin von höherer Qualität sein dürfte als jene von GloFo/Samsung. Sollten jetzige Zen2 Samples tatsächlich schon mit bis zu 4,5Ghz laufen wäre das ein Hammer. Da könnte man fast noch 1Ghz mehr erwarten beim fertigen Serienchip.
Und die Pentium 3 Architektur basierte auf einem aufgebohrten Pentium Pro. Und auch die aktuelle Architektur ist im Grunde ein stark aufgebohrter Pentium Pro. Das Interessante am Pentium 4 war ja, das er eine schlechtere IPC hatte, als der Pentium 3. Die Frage nun ist, was Intel jetzt noch zum aufbohren hat.
Bei Intel war übrigens die erste CPU mit integriertem Grafikkern ein Atom Pineview, noch vor AMDs erster APU Zacate.
Athlonscout schrieb:
Mehr Geld haben heisst noch lange nicht innovativer zu sein - sonst hätten wir heute die gleichen Firmen als Weltmarktführer wie vor 50 Jahren - davon sind viele heute nicht mehr existent.
Im Fall von Intel wurde das Geld auch nicht unbedingt für Innovationen ausgegeben. Man hat für viele Milliarden versucht, sich in den Markt für Mobiltelefone einzukaufen, was grandios gescheitert ist.
MOS1509 schrieb:
Das ist ja grundsätzlich richtig, aber wer mehr Geld hat kann sich die besten Leute in dem Bereich holen und die sollten dann optimaler Weise auch die entsprechenden Innovationen liefern.
Nicht unbedingt. Wenn die Leute in einem Umfeld arbeiten, dass sie nicht ihre Talente ausspielen lässt, sind auch sie nicht produktiv. Und gerade bei Intel soll es sehr rigide Zielvorgaben gegeben haben ("IPC-Steigerung um x%").
Blutschlumpf schrieb:
Wenn 7nm so easy ist, warum gibts die passenden CPUs dann nicht schon zu kaufen bzw. warum hat man 10nm dann nicht direkt übersprungen?
Sie könnten ja die Wunderwaffe* Itanium wieder ausgraben und auf 14nm++ neu auflegen. Die Architektur war doch angeblich nur ihrer Zeit voraus. Gut, sie kann kein x86 und x86-64 nativ ausführen und bei anderen nativen Operationen ist sie auch nicht besonders schnell.
Aber recht viel mehr fällt mir grad nicht ein, was in der sagenumwobenen Schublade noch sein soll
Sie hatten jetzt bald 2 Jahre Zeit um die Schubaldenentwicklungen zur Marktreife fertig zu entwickeln. Bisher kam da rein gar nichts, außer der zigte Aufguss der alten Architektur mit dem 3. Aufguss der alten Fertigung, mit einer Prise Netburst Effizienz.
Also erst mal : Intels ursprünglicher 10 nm ( nicht der der jetzt kommt , man hat die Ansprüche etwas zurückgedreht ) ist in etwa vergleichbar mit den 7 nm , in mehr als nur einer Hinsicht , denn er kommt ohne EUV = Extrem ultraviolette Belichtung , aus .
Anders als Intel hat TSMC offenbar keine Probleme damit .... , jedoch hat TSMC vermutlich darauf verzichtet exotische Elemente mit ins Spiel zu bringen , ob Kobalt oder etwas anderes
Mit EUV ist es wesentlich einfacher bzw überhaupt möglich kleinere Strukturen zu belichten , das Problem bisher war, ein Trägermaterial zu finden um damit ausreichend in kurzer Zeit belichten zu können , offenbar hat sich da einiges getan , TSMC hört sich recht zuversichtlich an und hat die Risk Production im 14 Layer 5 nm Verfahren für das 2. Quartal 2019 angekündigt , sollte das so sein = 2020 bis zur Marktreife
Ist dies so , hört sich Intels 10 nm schon etwas veraltet an , bedenkt man das er erst Ende 2019 kommen soll ....
Naja, das kann Dir aber bei Fremdfertigung ganz genauso passieren, du bist nur selbst nicht dafür verantwortlich --> AMD & GloFo gibts da ja auch reichlich beispiele für. Von Vertraglich zugesicherten Wafer Abnahmemengen ganz zu schweigen.
Die eigene Fertigung kannst du genauso wenig skalieren. Entweder produzierst du zu wenig, oder du hast Überkapazitäten.
Diese Zeit der Selbstfertigung ist endgültig vorbei. Viele Halbleiterhersteller haben das schon lange erkannt. AMD hat es zwangsweise erkannt, weil die ATI-Übernahme schlicht keinen Spielraum mehr für eine eigene Fertigung gelassen hat (GF hat jede Menge Mist fabriziert, aber mit VIEL Geld von den Scheichs. Die Leute wären aber bei AMD die selben gewesen, nur mit weniger finanzieller Mittel).
Intel setzt noch auf diese alte Kombination. Aber selbst denen dämmert jetzt, dass sie sich der Konsolidierung nicht mehr entziehen können. Es werden nur 3 oder 4 Fertiger übrig bleiben. Schlicht weil die Technik viel zu komplex und teuer wird, mit jedem kleineren Node. Das kann sich einer allein nicht mehr leisten, vorallem nicht wenn man das Risiko miteinbezieht, die so eine Fehlentwicklung haben kann. Intel merkt die ehemalige Arroganz nun um so mehr
Ich denke schon, dass AMD keine 7nm Ryzen2 plant ohne einen 7nm Prozess der auch TDP selbst in der Serverklasse (100++W) zuläßt.
Und nun die Gegenfrage: 7nm Vega ist fest angekündigt. Für wie wahrscheinlich hältst Du es dass das eine Stromspar-GPU in der 6W-Klasse wird?
Davon kann man mal stark ausgehen.
Zumal ja TDP weder etwas über den Stromverbrauch, noch über die Leistung aussagt.
Der aktuell benutzte 12/14nm-FinFET-Prozess von GF/Samsung, ist eigentlich auch überhaupt nicht wirklich für hochtaktende CPU gedacht. 3GHz waren die theoretische Grenze in alten Datenblättern von GF. Da sind 4,3 GHz in Serie dann doch schon ein enorm guter Wert.
Der 7nm-Prozess ist explizit auch auf höhere Taktraten ausgelegt. Kein reiner Mobil-Chip-Prozess wie der von Samsung, der von GF "missbraucht" wurde, mangels eigener Alternativen
Ergänzung ()
andi_sco schrieb:
Naja, Intel und co. wird es bei der Kombination kaum anders ergehen
Intel hat schlicht keine leistungsstarken GPUs mit hoher Packdichte wie AMD oder Nvidia. Die waren von Anfang an für die eigene CPU-Fertigung ausgelegt. Es war auch niemals der Anspruch da, wirklich Leistung zu bringen über Office hinaus
Ergänzung ()
andi_sco schrieb:
Im iPhone ist doch ein X86 Chip, am LTE Modem - läuft doch für Intel
Die einen mutmaßen, du machst eine Tatsache draus.... Sehr interessant wie einfach du dir deine Welt zusammenstrickst. Eine Uni hast du sicherlich nicht besucht, geschweige denn, jemals eine wissenschaftliche Arbeit verfasst.