News TSMC: 40-nm-Probleme sind behoben

Klar, die 250 Chips von meinem Beispiel bezeichnen nur "die" chips die auch vollstaendig sind. Die am Rand kannst so oder so nicht zaehlen, da daraus eh nie was werden kann und wird meines wissens nach nicht zum Yield dazugezaehlt.

Denk dir als 250 Chips kommen theoretisch raus, und davon sind 50 defekt, dann bekommst du einen Yield von 80%. Wenn der Chip also groesser ist kann halt sein, dass sehr viele verloren gehen da sie zu nah am Rand sind oder eben nicht vollstaendig sind. siehe Bild.

s7s.JPG
 
@JanEisfeld:
Du liegst leider tatsächlich völlig daneben. :p
Es ist so: Bei der Chipfertigung werden immer unabsichtlich ein paar Fehler gemacht. Die Anzahl an "Fehlern" auf einem Wafer ist ziemlich unabhängig davon, wie groß die Chips darauf sind. Daraus folgt ganz einfach, dass die Wahrscheinlichkeit, dass ein großer Chip fehlerhaft ist viel größer ist als bei einem kleineren Chip.

Mal ein Beispiel:
Ein großer Teil einer GPU besteht aus Shader Prozessoren (oder wie auch immer die dann heißen). Wenn man nun z.B. den Chip der HD5670 nimmt (400Shader) und den Chip der HD5870 (1600 Shader) ist die Wahrscheinlichkeit für den einzelnen Shader, dass er defekt ist gleich groß.
Sagen wir mal (egal ob 5870 oder 5670) einer von 800 Shadern ist durchschnittlich defekt. Das hat zur Folge, das im Schnitt auf jeder 5870 2Shader defekt wären aber auf nur jeder zweiten 5670 im Schnitt nur 1Shader. Die Chips der 5870 haben also durchschnittlich wegen der größeren Chipfläche/größeren Anzahl an Shadern auch viel mehr Fehler.

Bei großen Chips steigt also auch die Wahrscheinlichkeit, dass sie Fehlerhaft sind deutlich an. Hier ist AMD also vermutlich deutlich im Vorteil. Außerdem haben sie schon mehr Erfahrung mit dem 40nm-Prozess (HD4770 war der Anfang).
Des Weiteren ist natürlich auch ein großer Chip einfach desswegen teurer, weil weniger Chips auf einen Wafer passen eben weil der einzelne Chip mehr Platz braucht und zusätzlich auch noch deutlich mehr Verschnitt entsteht (Wafer sind rund und Chips eckig. Am Rand des Wafers gibt es also Verschnitt).

Ich hoffe mal es ist einigermaßen verstänlich. Fakt ist: Größere Chips haben eine größere Fehlerwahrscheinlichkeit. :)

Edit: um nochmal kurz auf deine Rechnung einzugehen: Wenn bei 500 (kleineren) Chips auf einem Wafer 10 defekt sind werden es nicht weniger wenn ich größere Chips herstelle sondern mehr die defekt sind. Also z.B. bei 400(größeren) Chips 12 defekte. Die Kosten steigen also bei größeren Chips erheblich.
 
Zuletzt bearbeitet:
naja dürfen sich nicht wundern das sie solange massive probleme hatten mit 40nm stukturen, taiwan ist ein niedrig lohnland mit niedrig qualifizierten arbeitern.

wieso wird die fab für 28nm/22nm nicht in österreich gebaut, gibt genug qualifiziertes personal und österreich würde sich freuen über die milliarden investition
 
Dennoch kostet eine HD5850 ca. 240 Euro. Das wird wohl noch eine Weile dauern, bis sich das auf den Markt durch schlägt. Aber ich hätte ohnehin kein Spiel, was eine solche Grafikkarte rechtfertigen würde.
 
JanEissfeldt schrieb:
Größer heißt doch nicht gleich, dass auch gleichviele Chips defekt sein müssen. größer heißt für mich zum Beispiel, dass statt zwei defekten, kleineren Chip, nun nur einer kaputt ist, da ja beide Defekte auf nur einem Chip sich befinden.
So gesehen kann man gar nicht stur behaupten größerer Chip = schlechtere yield. Vielleicht ist es sogar umgekehrt oder zumindest so:

500 Chips, 10 defekt = 98% yield.
400 Chips, 8 defekt = 98% yield.

Oder liege ich da voll daneben?


Das funktioniert für einen einzelnen Wafer. Aber auf die Massenproduktion ausgelegt wirkt sich dann das Gesetz der großen Zahlen aus. Da die Defekte auf den Wafern zufällig verteilt sind, hat ein Wafer eben mal sagen wir 10 Defekte, der nächste 5 und der nächste 20. Wenn man genug Wafer verarbeitet, bildet sich eben eine durchschnittliche Fehleranzahl pro Wafer heraus.
Gehen wir mal davon aus, dass die Fehleranzahl bei Fermi und Cypress gleich ist. (Theoretisch weicht das noch durch das Chipdesign ein wenig ab, aber das führt zu weit und ist dann sowieso ohne genaue Zahlen rein spekulativ)

Sagen wir bei Beiden kommt es zu jeweils 15 zufällig verteilten Fehlern in der nutzbaren Fläche auf einem 300mm Wafer.
Ein 300 mm Wafer kommt auf eine Fläche von 70685mm². Wenn wir den unweigerlichen Verschnitt,der bei einem runde Wafer nunmal auftritt rausrechnen, können wir von ungefähr 65000mm² ausgehen.
Die Wahrscheinlichkeit dass ein Fehler in genau einem Milimeter auftritt ist also:
15/65000 = 0,00023

Jetzt kommt der wichtige Teil: Die Wahrscheinlichkeit dass auf einem Chip ein Fehler auftritt, beträgt jetzt:

Chipfläche in mm² * 0,00023

Der Cypress hat eine Fläche von 334 mm².
Er hätte also laut unserem Beispiel eine Defektwahrscheinlichkeit von:
334*0,00023 = 0,07682

Wenn der Fermi nur 100 mm² größer wird, hat er schon eine Defektwahrscheinlichkeit von:
434*0,00023 = 0,09982

Die Yieldrate berechnet sich jetzt aus:

1 - Defektwahrscheinlichkeit * 100 %

Das sieht dann so aus:

Cypress: 92,3%
Fermi: 90,0 %

Mit den vergleichsweise kleinen 15 Fehlern, die in meiner Annahme alle nicht größer als 1mm sind, wirkt sich das noch nicht so tragisch aus, aber wenn z.B. die alten Yieldraten von TSMC mit gerade einmal 40% beim Cypress (gerüchteweise sogar noch weniger) ins Spiel kommen wird der Unterschied enorm.
Dann hätte der 434mm² Fermi schon nur noch 22% Yield gehabt. Und wenn man den Gerüchten glauben schenken darf, dann ist der Fermi noch um ein ganzes Stück größer als 434mm².
 
Ja, die am Rand sind ja nicht komplett und meistens auch sowieso von niederer Qualität.

Das ist wie beim Kuchen, am Rand ist alles verbrannt.
 
JanEissfeldt schrieb:
@Freespace: Wer sagt denn eigentlich, dass ein größerer Chip unbedingt auch komplexer sein muss, sprich deiner Analyse nach mehr Fertigungsschritte benötigt?

Klar kannst das nicht pauschal jetzt fuer jeden Chip sagen, da hast du recht, habe ich vielleicht bissel schlecht formuliert.
 
makus schrieb:
naja dürfen sich nicht wundern das sie solange massive probleme hatten mit 40nm stukturen, taiwan ist ein niedrig lohnland mit niedrig qualifizierten arbeitern.

Und dennoch kommt 98% aller High Tech im EDV Sektor aus diesem kleinen Ländchen mit den niedrig qualifizierten Arbeitern :p
 
Zitat von jojo0077
Mal ein Beispiel:
Ein großer Teil einer GPU besteht aus Shader Prozessoren (oder wie auch immer die dann heißen). Wenn man nun z.B. den Chip der HD5670 nimmt (400Shader) und den Chip der HD5870 (1600 Shader) ist die Wahrscheinlichkeit für den einzelnen Shader, dass er defekt ist gleich groß.
Sagen wir mal (egal ob 5870 oder 5670) einer von 800 Shadern ist durchschnittlich defekt. Das hat zur Folge, das im Schnitt auf jeder 5870 2Shader defekt wären aber auf nur jeder zweiten 5670 im Schnitt nur 1Shader. Die Chips der 5870 haben also durchschnittlich wegen der größeren Chipfläche/größeren Anzahl an Shadern auch viel mehr Fehler.

Dein Beispiel ist schon richtig, nur der Korrektheit wegen:
Eine HD 5870 hat 320 Shader, eine HD 5670 hat 80 Shader. Nur durch die interne Struktur als 5D-Shader werden daraus 1600 bzw. 400 Streamprozessoren (SPs)..
Tut aber eigentlich nix zur Sache :)
 
man koennte ja fast vermuten, TSMC hat die produktion erst absichtlicht spaet ordentlich aufgezogen, weil AMD zu glofo gehen wird und die wenigstens einen kunden in dem segment (sprich NV) behalten wollen.

und bei den ganzen yield-ueberlegungen frage ich mich wo das problem ist...
man sollte sich mal ein extrembeispiel klarmachen.

auf einer flaeche passen 2 chips, aus fertigungstechnischen gruenden wird 1 fehler auf der flaeche sein - damit ist ein chip hin, 50% yields.
alternativ packt man 4 chips auf eine solche flaeche - 1 fehler -> 3 funktionierende chips bleiben ueber. macht 75% yieldrate.

und da (wie bereits erwaehnt) grosse mengen produziert werden liegen natuerlich auch mal 2+ fehler auf einem chip, aber in der regel gilt einfach - dank statistik - je groesser der chip, desto schlechter die ausbeute und damit steigen die kosten pro chip
(edit: kosten pro chip steigen da NV / ATI pro wafer bezahlt und nicht pro funktionierenden chip)
 
Zuletzt bearbeitet:
klingt klasse
vorallem da ich mich mal wirklich hinsetzen will und mir nen nebenjob suchen will. irgendwann muss ich meinen rechner ja mal in seine mehr als verdiente rente schicken:D
 
na dann hoffen wir mal das beste, dass der bekloppte fermi rauskommt und amd preise senkt...
 
Juhu jetzt muss nur noch nVidia kommen und die HD 5870 auf 300€ sinken :D
 
also ich finde es gut, dass die alle einen Helm aufgesetzt haben.
Man weiß ja nie, was einem plötzlich so auf den Kopf fallen kann (bei der Chipfertigung auch?).
Das sind also sehr vernünftige Typen auf dem Bild ;-)
 
na endlich,jetzt hoffe ich mal dass die preise für hd5870 fallen werden)
 
lalanunu schrieb:
na dann hoffen wir mal das beste, dass der bekloppte fermi rauskommt und amd preise senkt...

Den schrieb:
na endlich,jetzt hoffe ich mal dass die preise für hd5870 fallen werden)
Ihr sagst es, dem ist nichts hinzuzufüge :daumen:

Darauf hoffe ich auch, damit es bald Sapphire HD5870 Vapor-X zu vernüpftigen Preisen gibt^^
 
Da muss man sich glatt beeilen wenn man noch zu denen gehören will, die sich in einem
Monat darüber ärgern, dass die 58xx Serie nun endlich unter die UVP gefallen ist..

Mfg,
Asha
 
Zurück
Oben