News TSMC riskiert Wafer-Produktion in 16 nm FinFET

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.787
TSMC hat im Rahmen einer Konferenz in Asien weitere Details zu den Zeitplänen der anstehenden größeren Fertigungssprünge bekannt gegeben. Demnach startet direkt zu Beginn des neuen Jahres die Serienproduktion der 20-nm-Fertigung, wofür viele Abnehmer bereits Schlange stehen. Bei 16 nm geht man in die heiße Experimentierphase.

Zur News: TSMC riskiert Wafer-Produktion in 16 nm FinFET
 
Das hört sich gut an. Damit könnte an den Gerüchten, nachdem NVIDIA Ende Q1 Maxwell GPUs verfügbar haben will etwas dran sein.
 
Ich bin eher mal auf Stückzahlen und Yield gespannt..... Da gabs ja bei 28 nM am Anfang riesen Probleme! Insofern bin ich gespannt ob TSMC das dieses mal besser im Griff hat.
Bin natürlich auch gespannt was ma Ende dann an Produkten für uns bei raus kommt. Sowohl im mobilen bereich als auch bei GPUs.

Mfg
PaWel
 
Damit wäre TSMC ja nur noch in etwa 1 Half-Node hinter Intel. Starke Leistung, der Abstand war auch schon deutlich größer
 
Der Titel ist etwas unglücklich gewählt. Der Titel suggeriert, TSMC würde mit 16nm-Produktion in größeren Stückzahlen beginnen, obwohl es noch nicht richtig ausgereift ist. Dabei ist eher gemeint, dass es erst Probledurchläufe mit 16nm macht.
 
Weiß jemand was Mediatek in 20nm plant?
 
projectneo schrieb:
Das hört sich gut an. Damit könnte an den Gerüchten, nachdem NVIDIA Ende Q1 Maxwell GPUs verfügbar haben will etwas dran sein.

Im Text heißt es: ... DigiTimes spricht in erster Linie von SoCs ...
Könnte auch heißen, dass Maxwell in 28nm kommt.
 
Wie ist das eigentlich mit der Umstellung auf einen neuen Prozess. Könnte man ein "altes" Design, dass z.b. in 28 nm vorliegt, dann einfach in 20 nm umsetzen und praktisch von den Vorteilen profitieren oder ist das doch komplizierter? Und wenn, was ist dann das Problem daran?
 
han123 schrieb:
Wie ist das eigentlich mit der Umstellung auf einen neuen Prozess. Könnte man ein "altes" Design, dass z.b. in 28 nm vorliegt, dann einfach in 20 nm umsetzen und praktisch von den Vorteilen profitieren oder ist das doch komplizierter? Und wenn, was ist dann das Problem daran?

Im Kern geht das recht einfach. Man spricht vom Shrink. Die Strukturbreite wird verkleinert. Und ja man profitiert dann erst mal generell von den Vorteilen. Niedriger Widerstand => weniger Wärme => höherer Tackt möglich.
Im Detail kann das ganze dann aber doch komplizierter werden. Ich könnte mir z.B. vorstellen das in gewissen Bereichen eines solchen Bauteils durch den Shrink z.B. unerwartete Leckströme auftreten könnten weil z.B. die Packungsdichte zu hoch ist.... => es könnt also sein das einzelne Bereiche eines Chips doch noch mal etwas angepasst werden müssen...
 
. Niedriger Widerstand => weniger Wärme => höherer Tackt
So einfach ist das nicht. Die Leckstörme dafür häufen sich und machen ein Strich durch deine Rechnung sodass die Temperatur und dadurch der Verbrauch steigt.
 
An Grafikkarten in 20 nm glaube ich kurzfristig noch nicht. wenn, dann sehen wir kleine Handy- und Tablet-Chips. 16 nm FinFETS sind auch nur 20 nm, in sofern mag das dann evtl etwas schenller gehen. wenn ich allerdings sehe, dass die komplette R9 Serie (abgesehen von ein paar 270er) ausverkauft ist, scheint tsmc auch so genug zu tun zu haben. da es in der vergangenheit gerade bei tsmc immer eine gefühlte ewigkeit von dem zeitpunkt an gedauert hat, wo sie sagen "wir können es" bis dann tatsächlich prodikte am markt angekommen sind, traue ich deren aussagen sowieso nicht mehr. alles vor weihnachten 2014 in akzeptablen mengen ist eine überraschung für mich!
 
projectneo schrieb:
Das hört sich gut an. Damit könnte an den Gerüchten, nachdem NVIDIA Ende Q1 Maxwell GPUs verfügbar haben will etwas dran sein.

Du verstehst da immernoch etwas falsch. Kleine und große Chips sind ein himmelweiter Unterschied.
 
Silverhawk schrieb:
Damit wäre TSMC ja nur noch in etwa 1 Half-Node hinter Intel. Starke Leistung, der Abstand war auch schon deutlich größer

Nein, die Angaben von Intel und TSMC sind nicht gleichwertig:
tm0975 schrieb:
16 nm FinFETS sind auch nur 20 nm


han123 schrieb:
Wie ist das eigentlich mit der Umstellung auf einen neuen Prozess.

Wie sehr ein Shrink in die Hose gehen kann, konnte man sehr schön (wenn auch nicht für Intel) am Pentium 4 sehen, wo der Wechsel von 130nm auf 90nm so garnicht nach Plan verlief, Intel die avisierten Taktraten wegen unerwartet hoher Leckströme deutlich zurücknehmen mußte und die Sache eigentlich erst mit dem 65nm-Prozeß in den Griff bekam (als es für den P4 schon zu spät war). Es hat die CPU-Entwicklung bei Intel in eine völlig andere Richtung gelenkt.
 
Zuletzt bearbeitet von einem Moderator:
hush hush AMD neue CPU's designen
 
han123 schrieb:
Wie ist das eigentlich mit der Umstellung auf einen neuen Prozess

Ein weiteres Problem stellt die Erzeugung von Leiterbahnen dar, denn es wird auch immer schwieriger, bei den gegebenen Prozessen das Metall in die schmalen Gräben zu bringen. Als ich 2008 bei nem Halbleiterhersteller gearbeitet habe, mussten zig Verfahren angewendet werden, um dies zu realisieren. Und bei immer kleineren Strukturen gab es dann leider aber immer mehr neue, unerwartete Probleme.
 
Limmbo schrieb:
Ein weiteres Problem stellt die Erzeugung von Leiterbahnen dar, denn es wird auch immer schwieriger, bei den gegebenen Prozessen das Metall in die schmalen Gräben zu bringen. Als ich 2008 bei nem Halbleiterhersteller gearbeitet habe, mussten zig Verfahren angewendet werden, um dies zu realisieren. Und bei immer kleineren Strukturen gab es dann leider aber immer mehr neue, unerwartete Probleme.

Und je mehr Zwischenprozesse um so teurer wird der ganze Spaß. Darum werden die Schritte wahrscheinlich auch immer kleiner. Man könnte ja auch mal in Richtung effizienter Saftware arbeiten.
 
smalM schrieb:
Wie sehr ein Shrink in die Hose gehen kann, konnte man sehr schön (wenn auch nicht für Intel) am Pentium 4 sehen, wo der Wechsel von 130nm auf 90nm so garnicht nach Plan verlief
Nicht wirklich. Der 90nm Dothan lief wunderbar und war besser als sein 130nm Vorgänger.

Es war der Prescot, dem dann auch 65nm nicht geholfen haben. Doppelt so viele Transistoren, aber kleiner als der 130nm Northwood und damit schwerer zu kühlen.

Intel die avisierten Taktraten wegen unerwartet hoher Leckströme deutlich zurücknehmen mußte und die Sache eigentlich erst mit dem 65nm-Prozeß in den Griff bekam (als es für den P4 schon zu spät war).
Der 65nm Prescot war keine Sensation im Vergleich zum 90nm Prescot. Es lag kaum an der Fertigung, wenn 90nm Dothan und 65nm Conroe genial waren und Prescot in allen Fertigungen ein Griff ins Klo.
 
Zuletzt bearbeitet:
Zurück
Oben