Bericht Bericht: Nvidia GF100: Technische Details

Joa, aber es wird sich erst noch herrausstellen müssen ob es Nvidia nötig haben wird, oder nicht, wobei ich glaube das sie es doch eher nötig haben werden um die Leistungskrone zu ergattern ( ATI HD5970 ), sofern es möglich ist ( Verbrauch und so ).
 
Lübke schrieb:
ich vermute mal, dass jetzt wo der 40nm-prozess bei tsmc besser läuft, sich der termin wohl eher vorziehen wird, da das ja angeblich das problem beim fermi war: unzureichende yields.

Die Yields für Fermi sind prinzipbedingt durch den wesentlich grösseren Chip immer um etwa Faktor 2,8 schlechter als für ATI Cypress. Bei gleicher Prozeßqualität, die jedoch aus Gründen des Chipdesigs nicht gegeben ist! Deshalb ist eher von Faktor 3,5 auszugehen.

Yieldraten sinken exponentiell mit steigender Chipgröße.

Ein 300mm-Wafer kostet 5000$, 96 Fermi-Chips(550 mm2) erhält man aus einem Wafer. Aktuellere Yieldgerüchte gehen von 60-70% bei Cypress und 20% bei Fermi aus(klingt vom Verhätnis plausibel).

96 Chips x 20% Yield = 19 Chips funktionsfähige Chips per Wafer

5000$ / 19 Chips = 263$ pro nacktem Fermi-Chip

Ohne Platine, Speicher, sonstiger Elektronik, Kühler, Lüfter, Hersteller und Händler-Margen.



Von Cypress(334 mm2) passen ca. 175 auf besagten 300mm Wafer

175 Chips x 65% Yield = 113 Chips funktionsfähige Chips per Wafer

5000$ / 113 Chips = 44$ pro nacktem Cypress-Chip.


Das wird alles spannend mit den Kartenpreisen.
 
Zuletzt bearbeitet:
Wie kommst du bitte auf die Faktoren von 2,8 bzw. 3,5?

Wir kennen die Die-Größe des GF100 gar nicht. Wir vermuten nur, aufgrund der ca. 3 Mrd. Transistoren, dass der GF100 relativ groß ist. Ich glaube PCGH hatte mal ausgerechnet, dass der GF100, bei identischer Packdichte wie der GT215, der bisher größte 40nm-GPU von Nvidia, auf 574 mm² kommen würde. Bei der Packdichte des Cypress hingegen erhält man ca. 490 mm². Wir wissen aber nicht, ob Nvidia die Packdichte verbessert hat oder die Architekturänderungen dies verhindert haben. Daher lassen sich die Kosten auch nicht errechnen.

Außerdem sind die Angaben zur Yieldrate auch nur Gerüchte. Die einzige offizielle Aussage das war gestern (oder vorgestern) von TSMC zu hören, dass die Probleme beim 40-nm-Prozess behoben sein. Daher halte ich die Angaben von 2%, wie sie immer mal wieder genannt werden, für unrealistisch. Ob die Yieldrate beim GF100 nun 20%, 40% oder 60% beträgt wissen wir nicht.

Es gibt auch keine offizielle Aussage zur Yieldrate beim Cypress. Da wissen wir nur, dass dieser zunächst mit Lieferschwierigkeiten zu kämpfen hatte, was aber derzeit deutlich besser wird. Daher leigt die Vermutung nahe, dass dieser zunächst sehr niedrige Yieldraten aufwiese, was aber inzwischen deutlich besser geworden ist (was die Aussage von TSMC untermauert). Prozentangaben kennen wir hier aber auch nicht.

Letztendlich halte ich derzeit alle möglichen Rechnungen zu eventuellen Produktionskosten für unseriös, da wir hierfür zwei entscheidene Faktoren nicht kennen (Die-Größe und Yieldrate). Wir vermuten nur, aufgrund der 3 Mrd. Transistoren, dass der GF100 relativ teuer ist.

mfg
 
Hier war mal was zu lesen, das allerdings von AMD stammt:
http://www.hardware-infos.com/news.php?news=3257

Die erste Folie kreidet in erster Linie an, dass Nvidias Chip voraussichtlich 40 Prozent mehr Transistoren besitzen wird als Cypress, die Chipfläche allerdings 60 Prozent größer ausfallen wird. Dies würde in der Tat erneut für eine bessere Packdichte bei AMD sprechen, doch hätte Nvidia im Vergleich zum GT200 stark aufgeholt. Dieser bot nämlich ebenso rund 40 Prozent mehr Transistoren als der RV770, war aber nicht 60, sondern 125 Prozent größer.
Im Übrigen beeinflusst eine großzügig angelegte Packdichte positiv die maximale Leistungsaufnahme. Hätte der GT200 beispielsweise die Packdichte des RV770 gehabt, wäre dessen Leistungsaufnahme ins Unendliche gestiegen.
 
lol...stimmt wirklich eine behämmerte Formulierung :D
Ich habe sie sinngemäß aufgefasst und nicht wörtlich. Muss man natürlich nicht.
 
Ja, aber ich würde schon gern wissen, ob damit etwa eine "überproportionale" oder eine von dem Faktor der Packdichte abhängige "lineare" Erhöhung der Leistungsaufnahme gemeint sein soll. :D
 
MammutXTX schrieb:
Ich glaube PCGH hatte mal ausgerechnet, dass der GF100, bei identischer Packdichte wie der GT215, der bisher größte 40nm-GPU von Nvidia, auf 574 mm² kommen würde. .......Daher lassen sich die Kosten auch nicht errechnen.
Aber abschätzen, ich denke auch recht genau..... ;)

MammutXTX schrieb:
Es gibt auch keine offizielle Aussage zur Yieldrate beim Cypress. Da wissen wir nur, dass dieser zunächst mit Lieferschwierigkeiten zu kämpfen hatte, was aber derzeit deutlich besser wird. Daher leigt die Vermutung nahe, dass dieser zunächst sehr niedrige Yieldraten aufwiese, was aber inzwischen deutlich besser geworden ist (was die Aussage von TSMC untermauert). Prozentangaben kennen wir hier aber auch nicht.

Es gibt durchaus Insiderwissen darüber.....

BTW, wieso sprichst Du von Dir immer in der Mehrzahl, vertrittst Du hier eine Interessengemeinschaft? :D

MammutXTX schrieb:
Letztendlich halte ich derzeit alle möglichen Rechnungen zu eventuellen Produktionskosten für unseriös,

Gerade in der Die-Größe wird die Abschätzung recht gut treffen.

Unseriös ist eher der halbgare Informationsschwall, der in I-Net-Seiten sozusagen als Fermidauerfeuer tagtäglich neu aufgewärmt wird. CB ist hier zum Glück die löbliche Ausnahme.

Ich hab mal gegraben, Fudzilla kommt auf ähnliche Zahlen.
http://www.fudzilla.com/content/view/17205/1/
 
Nvidia (sowie ATI) zahlen für ihre Chips nicht pro Wafer, sondern pro funktionierendem Chip! Durch die verschiedenen Chipgrössen gibts andere Vertragsbindungen - was viele hier (inkl. Charlie und Theo) anstellen, sind Milchmädchenrechnungen, die niemals zutreffen werden.

Let the flaming begin...
 
Ich bin mir ziemlich sicher dass der Preis pro Chip von der Anzahl der möglichen Chips/Wafer (also Chipgrösse) abhängt ;)
 
Natürlich - Nvidia ist aber nicht für den Dreck, den TSMC produziert, verantwortlich;) Ich sagte ja, NV hätte andere Vertrags-Konditionen als AMD, weil NV eben den grösseren Chip hat. Diese Milchmädchenrechnungen mit Waferpreis, Anzahl Chips sind einfach lächerlich, da völlig aus der Luft gegriffen...
 
Und wie wird das ganze richtig berechnet? Wenn du diese Variante für falsch erachtest, so musst du doch auch wissen, wie es richtig wäre.
 
AwesomeSauce schrieb:
Nvidia (sowie ATI) zahlen für ihre Chips nicht pro Wafer, sondern pro funktionierendem Chip! Durch die verschiedenen Chipgrössen gibts andere Vertragsbindungen - was viele hier (inkl. Charlie und Theo) anstellen, sind Milchmädchenrechnungen, die niemals zutreffen werden.
.

Es gibt zwei verschiede Vertragsarten von Waferproduzenten an Kunden

1) pro funktionierendem Chip
2) pro Wafer

Da Du scheinbar sicher weisst, daß ATI und NV Vertragsvariante 1) haben und alle anderen Milchmädchen sind (stellt sich die Frage welche Vertragspartei so hochkomplexe Chips komplett durchtestet ;) ), hast Du sicher eine Quelle? Es würde auch 'ne Vertragskopie als PDF reichen.... :D
 
Ganz einfach - es gibt keine! Oder masst es sich jemand an, die Vertrags-Konditionen mit TSMC zu kennen? Der möge sich bitte melden...

btt: Was soll das Ganze Geblubber über den angeblichen Chippreis überhaupt? Es geht hier ganz klar um die Technischen Details zur Architektur - darüber habe ich seit zig Seiten nichts mehr gelesen, nur irgendwelchen Nonsense zu Chippreisen.:rolleyes:

@bernd n
Ja, diese beiden Zahlungsoptionen sind mir bekannt ;) Bei den "bescheidenen" Yields, die 40nm (generell) bietet, sehe ich diese als viel kostengünstiger für die IHVs an. Dies deckt sich mich Aussagen von Ailuros (3DCenter), der die Chippreise kennt... Ein PDF liefere ich dir, wenn du mir einen Gegenbeweis zustellst ;) Charlie (und Theo) zählen nicht ;)
 
Zuletzt bearbeitet:
Nun ich bin mir allerdings ziemlich sicher, dass TSMC nicht alleinig das Risiko für ein Komplexes Design trägt. Der Designer hat mit Sicherheit ein Teil des Risikos. Ob dies in einem vorab kalkuliertem Festpreis oder der real produzierten Stückzahlen sich niederschlägt wird wohl von den Risikomanagern der Unternehmen abhängen.
 
Lies doch was da steht:mad:

Ich sagte, NV wird andere Vertrags-Konditionen haben als AMD, aufgrund des grösseren Chips! Die 40nm-Ausbeute ist ja nicht wegen GF100 so schlecht, es ist der Prozess an sich, der Probleme bereitet, und dies zahlt Nvidia ganz sicher nicht. Dass GF100 teurer wird als z.B ein Cypress, ist ganz klar. Ich sage ja nur, dass das alles naive Milchmädchenrechnungen sind und niemals zutreffen werden.

Und nun hört mit dem Nonsense auf - euch kann es doch schei** egal sein, wieviel GF100 in der Produktion kostet.
 
Zuletzt bearbeitet:
Wieso sollte es den KUNDEN bzw den KÄUFERN egal sein was die Produktion kostet? o0
 
Weil eine Grafikkarte mehr ist, als nur eine GPU?!
 
AwesomeSauce schrieb:
Lies doch was da steht:mad:
Wo ist denn dein Problem - ich hab dir doch zugestimmt. Es wird jeder seine eigenen Konditionen haben.
 
Weil eine Grafikkarte mehr ist, als nur eine GPU?!

Trotzdem wird die Grafikkarte dadurch teurer, dass die GPU mehr kostet. Und wenn man dies an anderer Stelle (billigere verwendete Materialien usw,) wieder einspart (siehe das Beispiel mit den grünen Notebookchips vor ein, zwei Jahren), dann ist das ebenfalls recht unlustig für die Kunden. Insofern wäre deren Interesse durchaus bestehend und berechtigt, wie ich finde.
 
Zurück
Oben