Bericht Bericht: Nvidia GF100: Technische Details

Mir ist grad aufgefallen, dass das Beispiel zwar gut, die Formulierung aber schlecht war.
Man trifft nicht mehr Kacheln, eigentlich sollten es genauso viele sein.
Dafür ist die zerstörte Fläche pro Treffer deutlich größer, der angerichtete Schaden also auch.

Grüße vom:
Jokener
 
Ne, eher schlechtes Beispiel. Wenn ich auf die Fliesenwand schieße treffe ich ja eh. Egal wie groß die Kachel ist. Bei großen Kacheln habe ich sogar die Chance das mehrere Projektile eine Kachel treffen und somit weniger defekt sind.
Ein größerer Chip, egal welcher Kunde von TSMC ihn fertigen will, hat aber eine höhere Wahrscheinlichkeit von den Fehlern auf dem Wafer getroffen zu werden.
Ein Chip wird ja immer getroffen wenn ein Fehler vorliegt. Ob er dann sofort defekt ist, ist eine andere Frage.
Durch einen größeren Die werden also absolut nicht mehr Chips defekt. Aber in Relation eben schon.

Es ist eben aber ein Unterschied ob 3 von 10 Chips Fehlerhaft sind oder 3 von 100.
Das hat einen großen Einfluss auf die Ausbeute.
 
Jokener hatts ja schon ganz gut auf den Punkt gebracht. Ziemlich egal, ob der Yield von AMD nun bei 40/50 oder 60% liegt der Preis des Dies wird für Nvidia immer größer sein. Da weniger Ausbeute durch mehr Transistoren. Hinzukommt, dass durch mehr Packdichte die Ausfallrate ansteigt, oder warum waren die kleinen 40nm Chips mit der Packdichte relativ sparsam?
Der Nvidiachip kann je nach Packdichte von 490mm² bis zu 574mm² erreichen, was elemantar größer ist als der ATI Chip von lediglich etwa 330mm².
Ich denke, dass der Fermi noch ne Zeit lange dauern wird. Zudem wirds wie weiter oben schon erwähnt für Nvidia ziemlich teuer bleiben, natürlich im Verhältnis zu ATI. Deswegen wird der Chip gegen ATi´s preiswertere Chips nie ne Chance haben, wenn Fermi nicht wirklich mind. 40% schneller wird als ne HD5870.
 
Eine HD 5890 2GB wird richtig gute Chancen haben gegen Fermi GTX 380 1,5GB, Vram kann man eben nicht so leicht kompensieren. Und ATI hat den Vorteil das sie bald aufgrund des Vorsprungs eigene Designs frei geben können, eben die 2GB Karten. Bei Fermi wirds bestimmt dauern bis die ersten 3GB Karten auftauchen, vor Ende des Jahres glaub ich da nicht dran. ATI ist also plötzlich doch besser aufgestellt als man vermutet hätte...
 
Meriana schrieb:
weiss wer schon Details zu der HD6XXX? Ev. wird ja AMD nen 32nm shrink des RV870 als 6000er Reihe verkaufen.

Sowohl TSMC als auch GloFo wollen voraussichtlich 32nm auslassen. 28nm Wohl Q4/10-Q1/11

Complication schrieb:
Nein das geht eben nicht so einfach wie es auf den ersten Blick aussieht.

EINFACH MAL FETTER :daumen:

Lübke schrieb:
und wenn die 5890 dann die gtx380 versägen würde, könnte man theoretisch eine gtx385 mit 18 "fermis" (576 shader) nachschieben (sofern der verbrauch unter der 300 watt grenze bleibt).

wie gesagt, alles graue theorie, aber imho eine mögliche erklärung für diese seltsame, scheinbar nachteilige tesselations-konstelation.

Zum ersten: 576 Shader sind ein komplett neuer Chip, sowas wirds mit 100%iger Sicherheit nicht geben.

zum zweiten: Lt. Charlie und seinen Infos direkt aus Satan Clara (Achtung Wortspiel) wurde der "echte" GT300 gecancelt und durch einen GPGPU-Chip ersetzt--Fermi. Kann ich mir gut vorstellen, wenn ich mir das so ansehe.

quaiky schrieb:
zur merkwürdigen tesselation konstruktion fällt mir nur die theorie ein dass da es sich um eine programmierbare einheit handelt, diese im GPGU karten auch eine verwendung hat, wohingegen eine fixed unit nur brach liegen würde. (das ist aber pure spekulation von mir und nichts fundiertes).

Copy paste: Lt. Charlie und seinen Infos direkt aus Satan Clara (Achtung Wortspiel) wurde der "echte" GT300 gecancelt und durch einen GPGPU-Chip ersetzt--Fermi. Kann ich mir gut vorstellen, wenn ich mir das so ansehe.

Sun_set_1 schrieb:
Alles schön und gut worauf sich Charlie da bezieht, nur ist immernoch nicht ganz klar woher die 40% Yieldrate Aussage kommt ?

Nehme ich Charlie die Yieldrate und alle damit Zusammenhängenden Argumente weg, könnte man auch sagen sein Text verliert den Boden unter den Füßen.

1. Du hast mal sowas von überhaupt keine Ahnung, was das Thema angeht. Is nicht schlimm, aber bevor ich sowas verzapfe, würde ich mich erstmal informieren. Charlies alte Artikel sind da sehr lehrreich
2. 40% sind auf 448Shader bei ca. 1200-1400 (statt 1500-1600MHz) aktuell (A3 Stepping)
20% bei 512 Shader und annähernd hohen Taktraten
3. Pass mal auf, das du nicht selber den Boden verlierst, der Mann hat mehr Ahnung von der Materie als wir alle zusammen ;)

Sun_set_1 schrieb:
Was die Yieldrate betrifft: TSMC sagt doch ganz klar das es sich um Waferprobleme handelt!! Wie oft denn noch? Das betrifft ATI genauso wie Nvidia und hat erstmal nichts mit Fermi an sich zu tun!

Womit sonst? Das hat was mit der Die-Größe zu tun und mit den Taktraten die man erreichen will (und noch 1 Million anderen Dingen). großer Chip auf neuem Prozess-->schlechte yield. Yield hat immer nur im Zusammenhang mit dem zu fertigenden Chip einen Sinn, der Prozess (40nm) überhaupt nicht.

Insofern bin ih auch immer enttäuscht, wenns auf CB heißt: Prozess soundso hat nur xx% Yield. Völliger Quatsch.

bensen schrieb:
Ne, eher schlechtes Beispiel. Wenn ich auf die Fliesenwand schieße treffe ich ja eh. Egal wie groß die Kachel ist. Bei großen Kacheln habe ich sogar die Chance das mehrere Projektile eine Kachel treffen und somit weniger defekt sind.

Aber bei 10 großen Kacheln ist die Chance sehr hoch, das jede sogar mehrmals getroffen wird. Bei 200 Kacheln ist die Chance sehr hoch, das einige überhaupt nix abbekommen.
 
Zuletzt bearbeitet:
@ Kasmopaya

Angeblich gibts von Anfang an Custom-Fermis.
 
Angeblich gibts von Anfang an Custom-Fermis.
Da nehm ich dich beim Wort, dann ist die 3GB Version so gut wie sicher in meinem Warenkorb, auch wenn mit einem satten Aufpreis zu rechnen ist.:) Ist wohl aber eher unwahrscheinlich, durch das TSMC Versagen wirds wohl so schnell keine Custom-Fermis geben, bin da eher skeptisch...
 
KAOZNAKE schrieb:
Sowohl TSMC als auch GloFo wollen voraussichtlich 32nm auslassen. 28nm Wohl Q4/10-Q1/11
Globalfoundris hat ja bekanntlich 32nm SOI Prozess auf mitte dieses Jahr verschoben, weil da AMD noch nicht soweit ist, mit dem für GPU benutzten Bulk Prozess.

so nach 20min googlen/suchen gefunden:
zum Bulk Prozess:

Globalfoundries forciert 32- und 28-nm-Fertigung
1. Oktober 2009, 8:13 Uhr
Logo: Globalfoundries

Globalfoundries, Betreiber von AMDs ehemaligen Fabriken, hat erneut einen Ausblick auf die kommende Fertigungstechnik gegeben. Demnach steht der 32-nm-„Volume“-Produktion ab dem zweiten Halbjahr 2010 so gut wie nichts mehr im Weg.

Während man die 32-nm-Fertigung gleich im Rahmen der aktuell für Prozessoren von AMD genutzten SOI-Fertigung bereitstellen will, zielt die Produktion der ersten 28-nm-Produkte auf den Bulk-Markt ab. Bereits zum ersten Quartal 2010 will Globalfoundries laut Pressemeldung Designs von Partnern in dieser Fertigung ausprobieren und entsprechende Prototypen fertigen. Dabei soll in erster Linie auch die für Globalfoundries neue „High-K Metal Gate (HKMG) Technology“ weiter verfeinert werden, so dass man wenig später mit der Serienproduktion beginnen kann. Verläuft alles nach Plan, soll die Produktion von 28-nm-Chips für den Bulk-Markt ebenfalls im zweiten Halbjahr 2010 starten können. Dabei geht das Unternehmen zwei Wege: Zum einen die 28-nm-HP-Variante (High Performance) für den Grafikbereich, Spielekonsolen und den Storage-Sektor sowie die 28-nm-SLP-Variante (Super Low Power) für mobile Endgeräte wie zum Beispiel Handhelds oder ähnliches, bei denen eine hohe Leistung bei langer Akkulaufzeit benötigt wird.

Quelle: https://www.computerbase.de/2009-10/globalfoundries-forciert-32-und-28-nm-fertigung/
 
Kasmopaya schrieb:
Da nehm ich dich beim Wort, dann ist die 3GB Version so gut wie sicher in meinem Warenkorb, auch wenn mit einem satten Aufpreis zu rechnen ist.:) ...

so ne aussage gabs doch auch bei einer 2gb cypress?^^

wirds jetzt ein wettrennen um die karte, die zuerst erscheint?


gruß
 
Schaffe89 schrieb:
Jokener hatts ja schon ganz gut auf den Punkt gebracht. Ziemlich egal, ob der Yield von AMD nun bei 40/50 oder 60% liegt der Preis des Dies wird für Nvidia immer größer sein.
Offenbar gehörst du zu den wenigen, die Einblick in die Verträge zwischen TSMC und AMD/Nvidia haben. Es gibt übrigens spannende Diskussionen, wieso die Verbesserung der Yield-Rate bevor Nvidia in den Massenproduktion ging so schleppend war, wieso in DX11 nicht dokumentierte Features sind, die Fermi verwendet und wie interessiert TSMC daran ist, dass NV nicht auch zu GF geht.
 
Der letzte Punkt sollte sich jedem erschließen, aber die nicht dokumentierten Features klingen ja interessant, wo find ich denn dazu etwas?

Das mit der schleppende Produktion erscheint mir nicht mehr ganz passend, sind ja ziemlich gut verfügbar die Karten, wenn auch noch über der UVP.
 
@Meriana

du hast dir grade selbst ins bein geschossen, denn wie da steht, wird es keinen 32nm bulk geben sondern erst einen 28nm bulk ;)

ergo überspringen beide die 32 nm was bulk angeht ;)

btw an alle nv geht eh pleite:
bisher sieht es eigendlich nciht danach aus, aber intel scheint trotzdem HÖCHST interressiert an nv zu sein ... jedenfalls liegt aktuell eine prüfung beim Kartellamt vor ;)
 
Nicht dokumentierte DX11 Features?
Na da bin ich aber auf den Link gespannt den du sicherlich noch suchen musst um diese seltsame Behauptung zu belegen ;)

@Neo_Xsendra
Seit wann ist denn ein Unternehmen pleite wenn es von einem anderen übernommen werden soll und das Kartellamt das prüfen muss?
 
@Complication

hast dich wahrscheinlich nur verlesen. wie gesagt glaub ich NICHT, dass sie pleite gehn

nur das sie übernommen werden wollte ich nicht ausschließen ^^
 
Einhörnchen schrieb:
Offenbar gehörst du zu den wenigen, die Einblick in die Verträge zwischen TSMC und AMD/Nvidia haben. Es gibt übrigens spannende Diskussionen, wieso die Verbesserung der Yield-Rate bevor Nvidia in den Massenproduktion ging so schleppend war, wieso in DX11 nicht dokumentierte Features sind, die Fermi verwendet und wie interessiert TSMC daran ist, dass NV nicht auch zu GF geht.

zum thema kosten: ist ganz einfach zu sehen dass bei grösseren chips die kosten mehr als linear ansteigen.
der lineare teil ist glaub ich jeden mal klar, wir haben einen waver mit der fläche A, daraus würden sich wenn optimale aufteilung möglich wäre x=A/b chips mit der fläche b ausgehen.

der erste nachteil grosser chips kommt dazu wenn man bedenkt dass ein waver rund ist, dadurch entsteht natürlich verschnitt am rand. dieser verschnitt steigt mit der grösse der chips an. das ist ganz einfach nachzuvollziehen, zeichne einen kreis und versuch möglichst viele ganze rechtecke reinzubekommen, bei grösseren rechtecken entsteht viel mehr ungenützte fläche

der nächste punkt sind fertigungsfehler die pro waver auftreten. die entstehen durch verschiedenste gründe, zb durch unreinheiten des wavers, unregelmässigkeiten beim beschichten/ätzen, probleme in der lithographie... wie genau ist für die behandlung der kosten aber eigentlich nicht relevant, es reicht zu wissen dass die anzahl der fehler pro waver sowie die positioninen statistisch verteilt sind.
gehen wir von zwei unterschiedliche chips aus von chip a gehen sich 100 auf den waver aus vom chip b 150. jetzt nehmen wir den simpelsten fall an dass auf beiden wavern 10 fehler sind die gleichmässig über die fläche verteilt sind und alle fehler so schlimm sind dass der chip der getroffen wird nicht funktionsfähig ist. damit sind dann von typ a 90/100 chips funktionstüchtig (90% yield), während bei chip b 140/150 chips funktionstüchtig sind (93,3%) yield. bei 20 fehlern pro waver ergibt die selbe rechnung 80% für a und ~87% für b, das zeigt dass mit steigender anzahl der fehler die yields immer weiter auseinander driften. (das ist nur ein simples modell, in realität gibt es ja uach die möglichkeit dass der selbe chip von mehreren fehlerstellen betroffen ist was mit ansteigender fehlerstellenanzahl immer warscheinlicher wird, die die drift etwas abschwächt da die warscheinlichkeit dafür bei grösseren chips schnelelr ansteigt)

zusammenfassend hat der grosse chip zu dem nachteil dass sich schon linear gerechnet weniger pro waver ausgehen die nachteile dass bei ihnen mehr verschnitt entsteht, und sie bei fehlern stärker betroffen sind. was dazu führt dass kosten pro chip weitaus stärker von der fläche abhängig sind als man zuerst annimmt.

um die exakten kosten zu kennen, müsste man wissen wie teuer ein waver der jeweiligen chips in 40nm ist. die kosten pro waver sind aber kein allgemeines fixum sondern hängen von der technik und auch der anzahl der bearbeitungsschritte ab.ich gehe davon aus dass aber beide high end graphik chips vergleichbar teure waver haben, wäre was anderes wenn du hier einen graphik chip und einen eher simplem chip wie ein ram modul vergleichen würdest.
ein in 40nm technik bearbeiteter waver ist dabei wesentlich teurer als zb. ein alter in 90nm gefertigter waver, aber da die kosten nicht in dem masse steigen wie die anzahl der zusätzlich erzielten chips bei ienem shrink ist ein shrink in den meisten fällen sinnvoll. hab irgendwo gelesen dass die kosten pro waver momentan im bereich von einigen tausend $ sind (glaub noch <10000$).
 
Zuletzt bearbeitet:
Neo_Xsendra schrieb:
btw an alle nv geht eh pleite:
bisher sieht es eigendlich nciht danach aus, aber intel scheint trotzdem HÖCHST interressiert an nv zu sein ... jedenfalls liegt aktuell eine prüfung beim Kartellamt vor ;)
Naja, das liest sich halt als ob du schreibst: "Nvidia geht eh Pleite"

@Eichhörnchen:
Es wundert mich nciht, dass dieses "geheime Feature" in DX11 nicht beschrieben ist - es ist nämlich ein DX10.1 Feature:
http://www.pcgameshardware.com/aid,660528/Exclusive-interview-about-Stormrise-DX-101-support/News/
• DX10.1 adds a new instruction called Gather, which can gather 4 texture samples at once, at a much lower cost than issuing 4 separate Sample instructions. Consequently we are able to optimize our shadow map technique, and even shoot for higher quality.
Da ja DX10.1 für Nvidia völlig ausgefallen ist und total unwichtig war, ist das dort natürlich ein "Neues Feature" und für AMD schon längst ein alter Hut.

Technische Spezifikationen HD3400 Serie:
http://ati.amd.com/de/products/mobilityradeonhd3400/specs.html
Gather4-Texturabrufe

Nvidia hat bei der Implementation mit Microsoft zusammen gearbeitet, da sie wohl Nachhilfe brauchten mit dem Instruktionssatz.

Das ist ja als ob ein Höhlenmensch eine Geheimwaffe entdeckt und uns diese präsentiert: Das Feuer :evillol:
 
quaiky schrieb:
zum thema kosten: ist ganz einfach zu sehen dass bei grösseren chips die kosten mehr als linear ansteigen.
Gehst du davon aus, dass AMD und Nvidia bei TSMC die gleichen Verträge und Konditionen haben (darauf bezog sich mein Kommentar)? Ich nicht. Deshalb sind solche Spekulationen meiner Meinung nach nicht sehr nah an der Realität.
 
Ach so! Um zu erklären was es damit auf sich hat:
Gather 4 ist für besseres jittered Sampling zuständig:
http://www.hardwarecanucks.com/foru...vidia-s-geforce-gf100-under-microscope-9.html
To do quicker, more efficient jittered sampling, NVIDIA worked with Microsoft to implement hardware support for Gather4 in DX11. Instead of doing four texture fetches per cycle, the hardware is now able to specify one coordinate with an offset and fetch four textures instead of having to fetch all four separately. This will significantly improve the shadow rendering efficiency of the hardware and is still able to work as a standard Gather4 instruction set if need be.
Hieraus geht klar hervor, dass Nvidia das Gather4 in die Hardware implementiert hat - was soll denn da in den DX11 Spezifikationen beschrieben werden?

@AwsomeSauce
Danke für den Link zu den Hardwarecanucks - der Bericht dort ist absolut erste Sahne!! :)
 

Anhänge

  • GF100-22.jpg
    GF100-22.jpg
    44,3 KB · Aufrufe: 447
Zurück
Oben