GT300 Yields unter 2%?

KAOZNAKE

Captain
Registriert
Aug. 2007
Beiträge
3.844
So Leute,

Charlie hat mal wieder ein paar interessante Informationen ausgegraben.
Demnach hat NVIDIA das "erste Silizium" (first silicon) nach dem Tapeout zurück erhalten. Dabei handelt es sich anscheinend um 4 Wafer, mit jeweils 104 "Die-candidates", also GPUs. Insgesamt also 416 "Die-candidates".

Davon hat NVIDIA anscheinend sieben (7) "gute" GPUs zurückerhalten. Was in diesem Fall "gute" GPUs sind, erklärt er weiter oben im Artikel. Im Prinzip handelt es sich dabei um GPUs, die wie vorgesehen funktionieren (oder auch nicht), also keine prozessbehafteten Fehler beinhalten. Allerdings sind diese durchaus auch nicht fehlerfrei, sondern müssen einem weiteren "Bugfix" unterzogen werden (dies ist eigentlich generell der Fall und keine Besonderheit, ATI muss das auch durchführen, die Bugs werden durch weitere Steppings behoben A1-->A2-->B1 usw.).

Er bezieht sich dabei unter anderem aud diese Quelle, wo man was von "nine" (9) lesen kann.
Nach Charlies Interpretation ist das noch hoffnungslos optimistisch, denn man hat wie gesagt nur 7 GPUs zurück bekommen.

Nach Charlies Rechnung kommt er ungefähr auf 2%, also Größenordnungen entfernt von dem, was in der Industrie unter "guten" Chips verstanden wird. (Im schlechtesten Fall 20% nach seiner Umfrage)

Falls das zweite "hot lot" (nochmals 4 Wafer) ebenfalls so wenig "gute" Chips produziert, könnte es nach Charlie nicht mal dazu reichen, ein Bugfixing durchzuführen und ein zweiter Durchlauf erforderlich sein, was weitere Wochen Verzögerung bedeutet.

Unter Umständen sieht Charlie sogar Q1 für den GT300 als gefährdet. Weiteres wird man auf der "Not Nvision" ;) sehen

So Leute, was denkt ihr? Panikmache oder berechtigte Annahme?

Ich tendiere eher zu letzterem, weil der 40nm TSMC Prozess nunmal kritisch ist (siehe Probleme der 4770), der Die des GT300 wesentlich größer ist als alles andere (größer als der der 4770 sowieso, aber auch Cypress/RV870) und NVIDIA eine neue Architektur bringen will (DX11, Tesselator, MIMD- statt SIMD-Shader)

Quelle

UPDATE: 13:32

Anscheinend hat sich jemand mit japanisch Kenntnissen mal den Satz vorgenommen und die Übersetzung korrigiert:

"nVidia should have a GT300 Engineering Sample out in September, and products on shelves in December in the best-case scenario"

Quelle

Stellt sich die Frage, warum dann andere Quellen (die nicht genannten) die einstelligen Yields bestätigt haben?

Kyle Bennett von HardOCP bestätigt diese ebenfalls---

Doch was dran?

"Cards on the shelf" im Dezember wurde im "best-case-scenario" von Charlie auch schon als Möglichkeit eingeräumt, allerdings mit sehr hohen Kosten verbunden, die vermutlich teilweise von TSMC getragen werden.

Weitere Zahlen: 10% Yield.

UPDATE: 18:35

Charlie hat ein Statement abgegeben


Kurz gesagt haben sich die falschen Zahlen aus dem verlinkten Blog nur zufällig mit den Zahlen gedeckt, die Charlie schon bekannt waren, danach hat er erst richtig "weitergegraben".

"Multiple multiple sources. "
 
Zuletzt bearbeitet:
wenn es stimmen sollte, ist Nvidia recht arm dran.

allerdings glaube ich,dass das ziemlcih übertrieben dargestellt wurde.

gruß
 
Wenn das hinkommt muss Tegra ein echter Knaller werden. So schnell wird nv an anderer Stelle dann kein Geld mehr verdienen.
 
Könnte schon sein ;)
Ich würde es aber begrüssen da dann Ati und damit auch AMD mehr Geld macht und somit die Marktbeherscher Nvidia und Intel einen ebenbürtigen Konkurenten kriegen können
 
So völlig absurd ist das auch nicht: der RV740 hatte 1/3 der gemunkelten Grösse und anfangs 20% Ausbeute. Unterschiedliche Chipdesigns ignoriert ist dann eine erste Abschätzung 0.2^3, ca. 1%.

Wenn Intel in den Grafikmarkt einsteigt bin ich eh gespannt, ob alle drei Hersteller überleben. Will Intel eigentlich weiterhin nv aus dem Mainboard-Geschäft kegeln, da gab es doch mal was mit Lizenzentzug?
 
KAOZNAKE schrieb:
So Leute, was denkt ihr?
C.H.A.R.L.I.E.

Er kann sogar aus einer 9 eine 7 machen.
GT300 ist weder besonders groß, noch hat er besonders viele Transistoren, noch ist Charlie eine glaubwürdige Quelle. Charlie erzählt doch schon seit x Jahren das GT300 noch keinen Tapout hinter sich hat und wenns ihn mal gibt wird er sagen es ist ein umbenanntes A1 Stepping.
 
Unyu schrieb:

Dazu sag ich nur, wer nix macht, macht auch nix falsch. Charlie hat nach meiner Erfahrung jedenfalls sehr oft einen Treffer.

Unyu schrieb:
Er kann sogar aus einer 9 eine 7 machen.

Nach seiner Aussage bestätigen das mehrere Quellen.

Unyu schrieb:
GT300 ist weder besonders groß, noch hat er besonders viele Transistoren,

Besonders groß nicht, das stimmt. Irgendwo zwischen GT200 und GT200b. R600 war auch groß, aber GT200 war bis jetzt der größte GPU aller Zeiten, weit weg ist GT300 demnach nicht. Transistoren weiß ich nicht. Ansonsten kann man sagen:

Killermuecke schrieb:
So völlig absurd ist das auch nicht: der RV740 hatte 1/3 der gemunkelten Grösse und anfangs 20% Ausbeute. Unterschiedliche Chipdesigns ignoriert ist dann eine erste Abschätzung 0.2^3, ca. 1%.

Unyu schrieb:
noch ist Charlie eine glaubwürdige Quelle.

Zeig mir ne bessere. Dich mein ich nicht ;)

Unyu schrieb:
Charlie erzählt doch schon seit x Jahren das GT300 noch keinen Tapout hinter sich hat und wenns ihn mal gibt wird er sagen es ist ein umbenanntes A1 Stepping.

Warning: flying pigs and huge chips

;)
 
KAOZNAKE schrieb:
Dazu sag ich nur, wer nix macht, macht auch nix falsch. Charlie hat nach meiner Erfahrung jedenfalls sehr oft einen Treffer.
Wer viel rät rät auch mal richtig.

Nach seiner Aussage bestätigen das mehrere Quellen.
Charlie hat nur eine asiatische Quelle, die er per Google übersetzt.

NVIDIA GT300 is an Engineering sample of nine will be completed in January of this year's fastest 12 to begin shipping in January.

Da steht gar nichts von Yield, aber Charlie macht sogar aus einer 12 eine 9 und daraus eine 7.
Offensichtlich ist mit der 12 der Monat Dezember gemeint, egal.

Besonders groß nicht, das stimmt. Irgendwo zwischen GT200 und GT200b. R600 war auch groß, aber GT200 war bis jetzt der größte GPU aller Zeiten, weit weg ist GT300 demnach nicht. Transistoren weiß ich nicht. Ansonsten kann man sagen
Afaik so groß wie GT200b.
Beim berücksichtigen des allgemeinen Diewachstums ist das ein Schritt Richtung kleiner GPU.
Transistoren mäßig kaum mehr als RV870, nur eben nicht so dicht gepackt.

Zeig mir ne bessere. Dich mein ich nicht ;)
Die Labore sind verschlossen, ich zieh nicht mal eben einen Entwickler aus der Hosentasche.

Charlie hat lange dazu gebraucht, im Endeffekt hat er nur wieder seinen Hass rausgelassen.
Wie gesagt, ich kanns mir schon denken was am GTX 380 Launch von Charlie zu lesen sein wird.

Aber du darfst ruhig dem nach jedem Übersetzungprogramm anders übersetzem asiatischen Blog, durchgerührt und fehlinterpretiert durch Charlie glauben.
 
Zuletzt bearbeitet:
tsmc hat ja schon einiges dazu gelernt in bezug auf die 40nm-fertigung

Das ist genau die Frage: können sie das, was sie gelernt haben, auch auf das nv-Design übertragen. AMD hat ein knappes halbes Jahr gebraucht, um das in den Griff zu bekommen. Wenn sich das nicht übertragen lässt und nv die gleiche Zeit braucht, dann prost.
 
@Unyu:
Wo hat er denn bitte seinen Hass rausgelassen.
Er hat eingeschätzt wie lange es wohl noch dauern wird bis NV mit dem GT300 in die Regale kommt.
Und die Einschätzung halte ich für ziemlich präzise.

Ob er aus 12 Chips 7 macht ist auch nebensächlich.
Das wären zwar fast doppelt so viele, aber Yield-Raten von 4% sind immer noch unendlich niedrig...

Und die werden schon ziemliche Probleme bekommen, selbst wenn man bei der tatsächlichen Fertigung NV mit AMD vergleicht.
Ein GT300 ist (je nach Quelle) zwischen 500 und 550 Quadratmillimeter groß, eine HD5870 braucht ca. 350 qmm.
Der GT300 hat wohl (ca.) 2.5 Milliarden Transistoren, die HD5870 2 Milliarden.
NVidia kennt den 40nm Prozess noch nicht gut, AMD schon.
Auch wenn NV schonmal ein Produkt mit GDDR5 gebaut hat, AMD hat da ebenfalls mehr Erfahrung.
NV hat gerade erst kürzlich Erfahrungen mit DX10.1 gemacht, was AMD einen (kleinen) weiteren Vorteil verschafft.
AMD wird ziemlich bald anfangen zu produzieren und kann dann mit einer neuen Revision Verbesserungen im Stepping bringen.
Da wird AMD also auch einen Vorsprung gegenüber NV haben...

Sieht echt schlecht aus für die grünen Jungs...

Finale Aussagen kann man zwar erst bei Benchmark-Vergleichen machen, wenn die NDA's gefallen sind...
Aber AMD hat in jedem Fall einen deutlichen Vorsprung. Und damit es nicht zur Katastrophe wird MUSS Nvidia den GT300 im Januar auf dem Markt haben... Einigermaßen Verfügbar.

Grüße vom:
Jokener
 
Warum sollte Nvidia keine Erfahrungen mit dem 40nm Prozess haben? Meinst du die haben sich erst seit letztem Monat damit beschäftigt? Nur weil man etwas später die 40nm Chips gebracht hat, heißt das ja nicht das man nicht schon länger dran gearbeitet hat.
 
@Killermuecke: nv hat ja im mobil-bereich bereits gpus in 40nm (mit unbekannten yields) fertigen lassen. ich denke, dass sie ati nicht sehr viel nachstehen werden bei der zweiten 40nm-generation

@Jokener: bedenke, nvidia hatte viel mehr zeit, das alles zu entwickeln. seit dem g80 (2006) hat nvidia vor allem durch kleinere überarbeitungen der architektur geglänst. ati musste seit dem r600 (2007) sehr viel mehr resourcen in die dx10-architektur investieren, um den rückstand wieder aufzuholen. auch wenn nv keine produkte mit gddr5 und dx10.1 rausgebracht hat, bedeutet das nicht, dass sie diese nicht schon hatten. der g71 (7900gtx) hatte z. b. angeblich schon einen ddr4-fähigen speicherkontroller.
nvidia hat auch für die 8800gtx 4 jahre entwicklungszeit gebraucht. so eine gpu wird nicht einfach mal in ein paar wochen entwickelt und dann auf den markt geworfen ;)
 
Zuletzt bearbeitet:
Warum sollte Nvidia keine Erfahrungen mit dem 40nm Prozess haben?

Keine -> weniger nützliche

Haben die mittlerweile 40nm-Chips auf dem Markt? Für Notebooks war mal was angekündigt, da hat sich dann aber erst mal lange nix getan.

€dit: zu spät ;)

Sind die denn schon auf dem Markt und wenn ja seit wann?
 
Für Desktop und Notebooks. GT215, 216 und 218 sind ne Weile auf dem Markt.
Und nur weil sie keinen Chip releasen heißt es ja nicht, dass sie keine entwickeln.
Nen Chip mit ner sehr schlechten Yield und damit verfügbarkeit zu releasen, wie beim RV740, ist nicht die Regel.
 
Sieht echt schlecht aus für die grünen Jungs...
Übertreib es mal nicht ..

Trotz der News sehe ich bei AMD vor allem den Vorteil das man beim späteren 32nm Shrink eine engere Zusammenarbeit zwischen AMD & Globalfoundries erwarten kann, als bei der Zusammenarbeit von Nvidia mit TSMC.

Das Intel, wenn sie da sind, enorm Druck machen werden dürfte klar sein. Ob aber bereits der Larabee dazu in der Lage ist muss sich aber erst zeigen. Langfristig könnte es aber bestimmt für einen der beiden schlecht aussehen.

Da war doch erst vor kurzem bei den GPUs ein Thema wo Intel & AMD eine Zusammenarbeit angestrebt haben.
 
Lübke schrieb:
scheinbar haben diverse redaktionen schon testsamples. das sollten ein paar mehr als sieben oder neun sein ;)

Quelle? Das erscheint mir extrem unrealistisch, wenn Charlie nicht absolut ins Klo gegriffen hat.

Lübke schrieb:
tsmc hat ja schon einiges dazu gelernt in bezug auf die 40nm-fertigung

AFAIK kann man da nicht viel, wenn überhaupt, was voneinander lernen. Dazu unterscheiden sich die Architekturen zu sehr voneinander.

Unyu schrieb:
Charlie hat nur eine asiatische Quelle, die er per Google übersetzt.

NVIDIA GT300 is an Engineering sample of nine will be completed in January of this year's fastest 12 to begin shipping in January.

Da steht gar nichts von Yield, aber Charlie macht sogar aus einer 12 eine 9 und daraus eine 7.
Offensichtlich ist mit der 12 der Monat Dezember gemeint, egal.

Wie gesagt bestätigen es mehrere Quellen:

"When we dug further, we got similar numbers, but they were so abysmal that we didn't believe it. Further digging confirmed the numbers again and again."

Klar das da nix von Yields steht, da gehts auch nur um die absolute Anahl. Yields muss man erst berechnen, das hat Charlie übernommen.

Unyu schrieb:
Afaik so groß wie GT200b.

Meine Zahlen sind: GT200: 576mm²
GT200b: ca. 484mm²

GT300: voraussichtlich 530mm²

(falls was nicht stimmt, bitte ich um Korrektur)

Also genau mittig würd ich sagen. Ausgehend vom GT200 ein Schritt in die richtige Richtung, vom GT200b aus in die falsche. Allerdings will ich das NVIDIA nicht verübeln, letztendlich zählt die Leistung und die ATI-Chips werden ja auch (wieder) immer größer.

Unyu schrieb:
Charlie hat lange dazu gebraucht, im Endeffekt hat er nur wieder seinen Hass rausgelassen.
Wie gesagt, ich kanns mir schon denken was am GTX 380 Launch von Charlie zu lesen sein wird.

Charlie hasst NVIDIA nicht ;)

"A lot of people say I don't like Nvidia, but that isn't really true. They made it clear to me a long time ago that working with them was not worth the time and effort, so I stopped. The bitching about them is a response to things that you don't see behind the scenes, and by this point is has kind of stuck."

Quelle


Unyu schrieb:
Aber du darfst ruhig dem nach jedem Übersetzungprogramm anders übersetzem asiatischen Blog, durchgerührt und fehlinterpretiert durch Charlie glauben.

Dazu gibts gleich n Update
 
Nvidia hat durchaus Erfahrung mit 40nm und GDDR5.
Sie hatten ja länger Zeit als AMD sich damit zu beschäftigen.
Allerdings scheinen die Gerüchte wirklich auf ein etwas späteres Release hinzudeuten.
Viel Erfahrung heißt nicht große Yields.
 
ich denke einfach, die info zu den yields (sofern echt) ist schon ziemlich alt.

@KAOZNAKE: lies ma aufmerksam was volker und y33h@ so schreiben^^ ist zwar nur n verdacht, aber denke die beiden wissen schon ein wenig mehr als sie sagen (dürfen) ;)

und wegen der architektur und dem von einander lernen: es geht dabei nicht um die architektur sondern den herstellungsprozess. es gibt zwar unterschideliche verfahren, aber denke schon, dass da vieles übertragbar ist.
 
Zurück
Oben