News TSMC: 40-nm-Probleme sind behoben

nun davon ausgehend das es nicht bei allen Karten auftritt sollte es als Ursache doch die hardware haben oder nicht?
es gibt natürlich Tricks und tweaks die helfen können(höhere Spannung und höhere Taktung im idle)
Aber das kann ja nicht im sinne des Erfinders sein, zu mal der Stromspareffekt dann ja teilweise flöten geht.

nun bin ich der Meinung eine Karte sollte out of the box fehlerfrei funktionieren.
Das war schon bei der 4870 ärgerlich mit dem Powerplay, aber die Karte selbst hatte ja wenigens anständig funktioniert und powerplay konnte man zur not ja selbst realisieren.
Die 57xx gab mir jedenfalls das Gefühl ein unfertiges Produkt auf dem Tisch zu haben nebst den Crashes
(z.B. einige Optionen im Catalyst nicht Einstellbar wie image scaling)
 
Zuletzt bearbeitet:
die Preise der 5870 etablieren sich so langsam in größerer Stückzahl um 350 Euro, mal sehen wann der erste Händler eine Preisrunde eröffnet, ich denke der Bedarf ist zwar noch groß, allerdings warten auch viele wie ich auf Fermi um dann eine Kaufentscheidung zu treffen.
 
so hoffe das jetzt die GT100 und RV 8X0 in Massenproduktion anläuft und verfügbar wir in den nächsten Monaten.
 
Fairy Ultra schrieb:
Die 57xx gab mir jedenfalls das Gefühl ein unfertiges Produkt auf dem Tisch zu haben nebst den Crashes
(z.B. einige Optionen im Catalyst nicht Einstellbar wie image scaling)

Sicher gibts auch immer mal wieder Bugs in der Hardware, aber normal kann man diese mit Software auch umgehen.
Passiert häufiger, als wie sich das der eine oder andere hier vorstellt.

Es ist leider schon Normal, daß Produkte unfertig auf den Tisch kommen. Damit wird der schnellen Entwicklung Tribut gezollt.
Jeder Tag an dem die ATI Karte früher auf dem Markt ist als die NVidia bringt der Firma fettes Bares, das muß man einfach mal so hin nehmen.

Mit meiner brandneuen HD3650 hatte ich anfangs auch nur Probleme, nun Jahre danach läuft sie, dank ausgereifter Software, wie am Schnürchen.

Das ist leider Fakt, aber glaub mir - Deine HD5750 wird nicht so kaputt sein, daß dir am Ende Funktionen fehlen werden oder massenhaft Karten
gar abrauchen. Bugs gehören heute einfach dazu. So ist das eben.
 
Statler_Waldorf schrieb:
(edit: kosten pro chip steigen da NV / ATI pro wafer bezahlt und nicht pro funktionierenden chip)

die zahlen mit sicherheit nicht pro wafer, das wird ne relativ komplexe geschichte sein je nach yieldrate. kann ja ati und nv nichts für, wenn tsmc ihre fertigung nicht in den griff kriegt, die werden also nicht das ganze risiko auf sich abwälzen lassen.
 
Wurde auch Zeit.
Hoffe auf Preissenkungen der 5er.
 
JanEissfeldt schrieb:
Diese Berechnung des yield ist völlig falsch. Yield ist ein statistischer Wert aller funktionierender Chips in Bezug zu allen prozessierten Chips und begründet sich NICHT auf die Defektrate eines einzelnen Chips!
Und wo is da jetz der Unterschied? Die Rechnung stimmt zu 100%.
Die Wahrscheinlichkeit mit der man einen funktionierenden Chip erhält muss gleich der Yieldrate sein. Alles andere is doch schwachsinnig.
Ob ich jetzt betrachte, wie viele von den x-chips auf einem Wafer defekt sind, oder die mittlere Defektwahrscheinlichkeit ausrechne, kommt auf absolut das selbe raus.


JanEissfeldt schrieb:
Und genau hier liegt euer Denkfehler.
Diese Berehcnung stimmt nämlich schon dann komplett nicht mehr, wenn zwei Defekte auf einem Chip auftreten, aber dieser dann natürlich nicht "doppelt" defekt sein kann.

Berücksichtig man stets die korrekt genutze Waferfläche ergibt sich nämlich das Bild, dass ein größerer Chip NICHT zwangläufig ein schlechteren yield haben muss (weil weniger defekte sein kann (statistisch)). Mein zuerst gebrachtes Beispiel stimmt schon, denkt mal drüber nach.

Nimm doch bitte mal nen Kurs in Statistik bevor du hier so nen Stuss erzählst. Dann wüsstest du z.B. dass die zwei Defekte auf einem Chip absolut unerheblich sind, weil das unter die statistische Streuung fällt.(Stichwort Gaußsche Normalverteilung) In der Realität können genauso gut zwei Chips durch einen Defekt hinüber sein, weil die Verunreinigungen auf dem Wafer üblicherweise nicht nur 1mm² groß sind wie in meinem Rechenbeispiel.


auch dann ist das absolut kein Problem. Die Rechnung wird halt nur etwas komplizierter, weshalb ich die Möglichkeit mit den 2 Defekten rausgelassen habe.
Bei der Fehleranzahl in meinem Beispiel wäre die Wahrscheinlichkeit dafür, dass auf einem Chip 2 Fehler auftreten sowieso so gering, dass das bei den Yieldraten nur irgendwo hinter dem Komma auffallen würde.

Wenn du's genau wissen willst, wäre die Wahrscheinlichkeit beim Cypress:

(15/65000*334)² = 0,0059...
es käme also nur bei ungefähr jedem 168ten Chip vor. Effekt auf die Yieldrate weniger als 0,6%

Bei einem doppelt so großen Chip wären es dank ()² = 2,4%.
Das stimmt soweit schon.

Gleichzeitig verändert sich die Defektwahrscheinlichkeit aber um geschlagene: 7,7%

Der Effekt wird also um ein mehrfaches überkompensiert.

Es stimmt zwar, dass die warhscheinlichkeit der 2 Defekte quadratisch zum verhältnis der chipgrößen steigt und die defektwahrscheinlichkeit nur linear, aber durch den enormen Unterschied, zwischen der Defektwahrscheinlichkeit (7,7%) und der der 2 Fehler auf einem Chip(0,6%) müsste der größere Chip schon um ein vielfaches größer sein, als sein kleinerer Bruder, damit sich das aufhebt. Dumm nur, dass er bei der Größe dann entweder schon größer als der wafer ist, oder eine Defektwahrscheinlichkeit von nahezu 100% hat.
 
Zuletzt bearbeitet:
Schon mal was von 6 Sigma gehört.

Das sind 3,4 defekte Teile pro Million Möglichkeiten. (DPMO)
Und das ist extrem gut. Etwa 99,99%

Ich weis nicht was hier jetzt für yield Rates genannt wurden.

Aber der Industriedurchschnitt ist etwa 3.8 Sigma was circa 10700 Defekte pro Million sind. Etwa 98%.

Yield Rate in Prozent errechnet sich mit 100-[(DPMO/1mio.)*100]

Dazu kann ich auch dieses Buch empfehlen http://books.google.de/books?id=8hYqOEjb4ysC&printsec=frontcover :D
 
dgschrei schrieb:
Und wo is da jetz der Unterschied? Die Rechnung stimmt zu 100%.
Nein, wie beschrieben eben nicht. :rolleyes:

dgschrei schrieb:
Ob ich jetzt betrachte, wie viele von den x-chips auf einem Wafer defekt sind, oder die mittlere Defektwahrscheinlichkeit ausrechne, kommt auf absolut das selbe raus.
Eben nicht! Da steckt bereits dein Denkfehler in der Annahme falscher Tatsachen.

dgschrei schrieb:
Dann wüsstest du z.B. dass die zwei Defekte auf einem Chip absolut unerheblich sind, weil das unter die statistische Streuung fällt.(Stichwort Gaußsche Normalverteilung) In der Realität können genauso gut zwei Chips durch einen Defekt hinüber sein, weil die Verunreinigungen auf dem Wafer üblicherweise nicht nur 1mm² groß sind wie in meinem Rechenbeispiel.
Das ist schon so falsch, dass noch nicht einmal das Gegenteil ein bisschen wahr ist! :evillol:
Die Fläche eines einzelnen Chips vergrößert sich ebenso quadratisch für die Defektanfälligkeit wie auch für die Chance zwei Defekte auf dem selben Chip zu haben. Damit wird gerade erst die absolute Chipfläche irrelevant bei der Yieldbetrachtung! Noob.

dgschrei schrieb:
Es stimmt zwar, dass die warhscheinlichkeit der 2 Defekte quadratisch zum verhältnis der chipgrößen steigt und die defektwahrscheinlichkeit nur linear
Binog. Der Kandidat erhält 99 Punkte. Ab 100 gibt es eine Waschmaschine! :lol:

Damit wäre das ja dann endlich geklärt. Danke.
 
JanEissfeldt schrieb:
Das ist schon so falsch, dass noch nicht einmal das Gegenteil ein bisschen wahr ist! :evillol:
Die Fläche eines einzelnen Chips vergrößert sich ebenso quadratisch für die Defektanfälligkeit wie auch für die Chance zwei Defekte auf dem selben Chip zu haben. Damit wird gerade erst die absolute Chipfläche irrelevant bei der Yieldbetrachtung! Noob.

Der Kandidat hat 0 Punkte, nich mal 'ne Waschmaschine vom Sperrmüll.

Also(ich hoffe Du kannst folgen):

1) Ein Superduperchip passt auf ein Wafer von 300mm. 2 Defekte sind auf dem Wafer. Yield 0%, vielleich 0,1%, wenn die Defekte in den abzuschneidenden Randbereichen liegen.

2) 1000 Nichsuperduperchips passen auf einen Wafer von 300mm, 2 Defekte sind auf dem Wafer. Yield 99,8%


Klartext, die Yieldrate sinkt exponentiell mit der Chipgrösse!
 
Zuletzt bearbeitet:
Bullshit, wo ein einzelner Chip so dolle eine statistische Aussage ist. Komm mal von deinem hohen Ross runter und argumentiere sachlich, Freundchen.
 
Er hat schon recht... bei ner grösseren Chipfläche ist die Wahrscheinlichkeit, dass ein Chip getroffen wird höher. Zumindest wenn man von ner Gleichverteilung ausgeht, was man in diesem Fall machen muss.

Ich bin nu zu faul mich wieder in Stat einzulesen um das auszurechnen, aber dass es so ist weiss ich... wenn jemand drin ist bitte mal ne Rechnung reinstellen :D
 
JanEissfeldt schrieb:
Bullshit, wo ein einzelner Chip so dolle eine statistische Aussage ist. Komm mal von deinem hohen Ross runter und argumentiere sachlich, Freundchen.

Du kannst ja schlimme Wörter:D. Also, Freundchen, hat 'nen Moment gedauert.

Ich musste in alten VLSI bzw. Rechnerstrukturenvorlesungsmitschriften wühlen :cool_alt:.

Zu einer gegebenen Defektdichte d [defekte/cm^2] d und einer Chipfläche c [cm^2]

ist der Yield y [%] = EXP (-c*d)*100

Beispiel: bei einer angenommenen Defektdichte von 0,3 / cm^2 sowie einem Wafer von 30cm Durchmesser bei einer

Chipgröße von 1 cm^2 ist der Yield 74%, ergibt 474 i.O.-Chips aus dem Wafer
Chipgröße von 3 cm^2 ist der Yield 40%, ergibt 65 i.O.-Chips aus dem Wafer
Chipgröße von 5,7 cm^2 ist der Yield 18%, ergibt 17 i.O.-Chips aus dem Wafer

:eek:


Für die Anzahl Chips bei gegebener Größe von Wafer und Chip gibt es Abschätzformeln für die Anzahl der Chips auf einem Wafer, die mit dem Yield multipliziert die Anzahl i.O.-Chips ergeben!
 
bernd, du checkst es einfach nicht. :rolleyes: Es ist ja niedlich, dass du hier mit deinen Abschätzungen kommst, bloß gehts du wieder von falschen Annahmen aus. Ein einzelner Defekte reduziert nicht zwangsläufig genau einen Chip. Schnall das endlich, bevor uns langweilig wird.
 
lass ihn doch, ist doch interessant wie sich das zusammen setzt.
zumal die Rechnung recht plausibel ist.

auch wenn sie nicht 100%ig stimmt, stimmt sie in den Grundzügen.
denn teil defekte Chips gibt es sowohl bei den Kleinen wie bei den Großen.
also stimmt das Verhältnis wieder...
 
Für die, die es interessiert(natürlich ausser JanEissfeld, der hier neue eigenen Theorien der technischen Informatik aufstellt:freak:) hier Auszüge einer Vorlesung Technische Informatik der Uni Erlangen als PDF. Dort sind die Berechnungsgrundlagen (Chipausbeute=Yield) ganz verständlich beschrieben. Die von mir weiter oben angegebene Berechnung ist auf Seite 9 zu finden. Und ein optisches Beispiel für ein defektbelastetes Wafer mit je zwei verschiedenen Chipgrößen ist auch zu sehen.

http://www12.informatik.uni-erlangen.de/edu/ti1/script/4a_2x4.pdf

:)
 
@Bernd: Ja, wie gesagt eine Näherung. :rolleyes:

@Florian: Da hast du recht, ist besser so. Die Abschätzung ist ja auch richtig, nur eben basiert auf falschen Annahmen. Tendenziell wird es schon okay sein, aber die absoluten Zahlen sind eben leider falsch.
 
Zurück
Oben