News Kommt Nvidias GK110 für Desktop-PCs nicht vor März 2013?

Das Problem war ziemlich sicher die 28NM Fertigung
welche erst jetzt anständige Yelds abwirft und bis Ende Jahr erst gut verfügbar sein wird.

Eine Produktion in einem solchen recht neuen, nicht sonderlich zuverlässigem Prozess ist immer teuer wenn auch die Fertigungsgrössen sehr klein sind.
Aber ein 500mm2 Monster in solch einem Verfahren herzustellen ist immer ein Risiko und Verlustgeschäft da die Ausbeute miserabel gewesen wäre. Ausserdem war ja GK104 nicht soo weit von Tahiti weg.

Somit konnte man die kleineren Performance Chips als High End verkaufen und sicherlich etwas Geld verdienen und somit auch abwarten dass sich die Fertigung verbessert.

Damit hatte NV ein glückliches Hänchen.
Weniger glücklich ist es für den Kunden, dass er für die kleinen Chips 500€ löhnen muss.
 
Also ist die Realität:
- GK104 - Highend 2012, so sind die Preise, so konkurriert er mit AMD
- GK110 - Highend 2013, wird mit der 8000er Reihe von AMD konkurrieren

Performance und Einsteiger fällt bei NVidia leider (größtenteils) aus. Alles andere ist Marketing.

Meiner Meinung nach zeichnet sich ein teilweiser Rückzug NVidias aus dem Grafikkartengeschäft ab zugunsten von mobilen Lösungen wie Tegra. Ist strategisch vielleicht sogar eine richtig gute Entscheidung.

edit:
modena.ch schrieb:
Weniger glücklich ist es für den Kunden, dass er für die kleinen Chips 500€ löhnen muss.
Für Kunden (solche, die nicht Fanboys sind) ist es doch egal, ob der Hersteller seinen Chip "Performance" oder "High End" oder "Marmeladenbrot" nennt. Die Leistung zählt. Und den Kunden ist die Leistung offensichtlich 500 Euro wert (denn sonst würden sie die Karten ja nicht kaufen), also brauchen sich auch nicht unglücklich sein.
 
Zuletzt bearbeitet:
Rick_Danger schrieb:
...Das ist was ganz anderes, als den "Überflieger" Chip bewusst zurückzuhalten. Das macht einfach keinen Sinn. Der ist definitiv noch nicht fertig.

Du hast recht.

Nvidia hat die GK110, so wie sie in ca. einem halben Jahr vermutlich in den Handel kommen wird, derzeit garantiert nicht fertig in der Schublade liegen und hält sie nur künstlich zurück. Die sind noch fleißig daran am arbeiten, sie bis zu diesem Termin fertig und ausgereift zu haben.

Die GK100 wiederum, die eigentlich schon Monate vor der GK104 hätte kommen müssen, wurde komplett eingestampft bzw. existiert wahrscheinlich nur als Prototyp im Labor und wird so niemals vermarktet werden.

Ich schätze, die GK100 wäre etwas Ähnliches geworden, wie damals die GF100. Sachlich betrachtet keine totale Katatstrophe. Immerhin war die GF100 seinerzeit deutlich die schnellste GPU. Aber eben auch kein wirklich rundes Produkt, das sein volles Potential aufgrund thermischer Probleme nicht abrufen konnte. Erst die GF110 war dann das, was die GF100 hätte werden sollen.
(Was die Lautstärke und den Verbrauch angeht... naja... die Gigahertz-Edition der HD7970 ist was das angeht auch nicht viel besser als die vielgescholtene GTX480, aber darum wird längst nicht so viel Wind gemacht. ;) )

Ich schätze, bei der GK100/GK110 ist es ganz ähnlich. Nvidia hat sich, weil sie es diesmal im Gegensatz zu 2009/2010 konnten, noch ein Jahr mehr Zeit genommen, um aus der High-End-GPU ein "rundes Produkt zu machen.

Wie schon in meinem ersten Post gesagt, spricht ja schon der Name der GK110 dafür, dass es eben kein Kepler der ersten Generation mehr ist, sondern schon eine überarbeitete Variante. So wie die GF110 (GTX580) gegenüber der GF100.
Wenn die Ende des Jahren (als Tesla) bzw. Anfang nächsten Jahres (als GTX780) raus kommt, wäre das sogar einigermaßen im normalen Zeitplan für einen solchen Refresh.
Die Besonderheit ist eben nur, dass es der Vorgänger GK100 nie auf den Markt geschafft hat. Und das aus völlig rationalen Gründen.
 
modena.ch schrieb:
Das Problem war ziemlich sicher die 28NM Fertigung
welche erst jetzt anständige Yelds abwirft und bis Ende Jahr erst gut verfügbar sein wird.

Eine Produktion in einem solchen recht neuen, nicht sonderlich zuverlässigem Prozess ist immer teuer wenn auch die Fertigungsgrössen sehr klein sind.
Aber ein 500mm2 Monster in solch einem Verfahren herzustellen ist immer ein Risiko und Verlustgeschäft da die Ausbeute miserabel gewesen wäre. Ausserdem war ja GK104 nicht soo weit von Tahiti weg.

Damit hatte NV ein glückliches Hänchen.
Weniger glücklich ist es für den Kunden, dass er für die kleinen Chips 500€ löhnen muss.

Du hast es meiner Meinung nach gut auf den Punkt gebracht.
Verfügbarkeit und Yield sind dieses Mal die Kenngrößen.

Aus diesem Grund sehen wir auch noch keine GK-106.
Deckt sich auch mit den Prognosen, das 28nm in Stückzahlen, um den Markt sättigen zu können, erst Ende 2012, Anfang 2013 zur Verfügung stehen.

Da man derzeit mehr GK 104 verkaufen als herstellen kann, lässt man den 28nm Prozess mit diesem 300mm2 Chip reifen und bringt dann einen 500mm2 Chip mit ordentlichen Yields.

Ob 300mm2 nun High End sind oder nicht, überlasse ich mal jedem selbst. Für mich werden da für einen 300mm2 Chip ganz enfach 500mm2 Preise verlangt. Wer das bezahlen mag soll sich von mir aus "High End" fühlen. ;)

Die Preise der 28nm Waver passen möglicherweise auch wesentlich besser zum Preisgefüge des GK-104 als zum GK-106.
 
modena.ch schrieb:
Das Problem war ziemlich sicher die 28NM Fertigung
welche erst jetzt anständige Yelds abwirft und bis Ende Jahr erst gut verfügbar sein wird.

Eine Produktion in einem solchen recht neuen, nicht sonderlich zuverlässigem Prozess ist immer teuer wenn auch die Fertigungsgrössen sehr klein sind.
Aber ein 500mm2 Monster in solch einem Verfahren herzustellen ist immer ein Risiko und Verlustgeschäft da die Ausbeute miserabel gewesen wäre. Ausserdem war ja GK104 nicht soo weit von Tahiti weg.

Somit konnte man die kleineren Performance Chips als High End verkaufen und sicherlich etwas Geld verdienen und somit auch abwarten dass sich die Fertigung verbessert.

Damit hatte NV ein glückliches Hänchen.
Damit kann Nvidia doch nicht glücklich sein, denn erstmals seit G80 können sie die Performance-Krone mit eigener vorhandenen Karten von der Konkurrenz nicht überbieten. Gerade der High-End (und daneben der Low-End) war in der Vergangenheit die große Stärke von Nvidia.

Die momentan recht gute Consumer-Position mit GK104 (non-GPGPU-Ballast) wurde ja mit momentan non-28nm-Tesla-Karten erkauft. Interessant wird es dann beim Wechsel auf 20nm. Da würde es dann viel eher auffallen, wenn wenn wenn Nvidia im Profi-GPU-Markt 1 Jahr nach der Konkurrenz auf 20nm umsteigt.

PS: Man darf bei der 28nm-Fertigung Kapazitäten mit Yields nicht verwechseln.
Yield-Probleme und Respins bzw. Verspätungen können auch auf erhebliche Probleme hindeuten, wo dann das ganze Chip-Potential bei der Einführung nicht ausgeschöpft werden kann.
Hingegen bei Kapazitäts- und Yield-Probleme kann das Hauptproblem wirklich bei den Stückzahl-Mengen liegen, sodass man bei einer Verschiebung auch gleich nebenbei die ungünstigen nichttragischen Yields etwas verbessert
 
Zuletzt bearbeitet:
aylano schrieb:
Mit etwas Wissen würdest du vestehen was ich sage.
Seit G92, GT200A, GT200B, GF100 waren schon verspätet.
G92 konnte man mit GT8000 ohne Verspätung mithalten. (will)
Selbst GT200A war schon etwas verspätet, aber da viel es nicht mehr auf. (will)
GT200B2 konnte auch erst im Dez geliefert werden, während GT200B3 aus wirtschaftlich gründen gemacht wurde.
GF100 konnte genauso nicht im Herbst wie Jänner gebracht werden. Erst im April konnten sie ihn unwirtschaftlich am Markt bringen.

Bei den ganz große Dies konnte Nividia schon lange nicht ihrer GPUs rausbringen, wann sie es wollten, sondern wann sie es wollten. Seit GT200b gibts es jedes mal das ständige warten und bis heute will man das so nicht wahrhaben.

das hab ich jetzt 5 mal gelesen und nix verstanden, sry. GT8000? :freaky:

Der G92 war der PerformanceChip (65/55nm) der sozusagen auf den G80 folgte der wiederum ein Vollausbau von 90nm war.
Zum G80 korrespondiert der in 80nm gefertigte G84 (289mm²) - der PerformanceChip - in 80nm (nicht 90nm) was den Grund hatte wieso hier der Performance Chip nach dem HighEndAbleger kam... Seither ist es eher umgekehrt (was auch Sinn macht bei neuer Fertigung den kleinen Chip vorab zu bringen).

Die Performance Chips (~300mm²) kamen seit 90nm idR später, bis auf die GTX480 die in Form von "Thermi" eben durch diesen Rückstand früh kommen musste. Selbiges wäre beim GK110(eventuell GK100) passiert wenn die AMD Karten zu sehr vorgelegt hätten.

Zu G92/b (276mm²) gehört der zugehörige HighEnd Ableger GT200 / b der mit 576mm² extrem groß war. Bei den Chips kam die Besonderheit dazu dass diese zeitnahe mal in 65 mal in 55nm gefertigt wurden was aber keine eigene Serie darstellt.

Danach kommt schon Fermi mit

GF104 (Performance, 332mm²) und GF100 (High End)mit 526mm².
Beide in 40nm

Lediglich der HighEnd Ableger wurde von GTX 480 -> GTX580 in selber Fertigung etwas optimiert. Entstanden war der GF110 ebenfalls in 40nm mit 520mm²

Nun kommen wir zu Kepler:
Wir haben nun den
GK104 mit ~ 293mm² (Performance) und in selber Fertigung kommt der HighEnd-Ableger GK110 (Vollausbau) mit ~ 500-600mm² wie in den letzten 3 Generationen ebenso.
(war der GK100 überflüssig?)

Um es beim Zeitlichen zu nennen:

Der Perf. 65nm Chip G92 kam in Form einer Geforce 8800 GT am 29. Okt. 2007 - der korrespondierende 65nm High End Chip (GT200) kam In Form einer Geforce GTX 280 am 16. Jun. 2008 -> also ~ 8-9 Monate später.

Bei 55nm war es der G92b am 19. Jul. 2008 und der GT200b am 15. Jan. 2009 -> 7 Monate danach

In 40nm mit Fermi sah es so aus:
Die GTX480 machte den Anfang am 27. März 2010, der GF104 folgte "erst" 12. Juli 2010, der GF110 einspricht praktisch GF100 in optimierter Form und kam typisch am 9. Nov. 2010 also etwa 6 Monate nach dem ersten 40nm Ableger.

Wie sieht es heute aus? Wir haben einen Patt zwischen GK104 und Tahiti. Beide schenken sich wenig. Man kann nun spekulieren ob Nvidia eventuell einen "GK100" bringen hätte können (in der Gerüchteküche weit verbreitet, würde auch perfekt zum GF100 passen der ja früh kam in Form einer GTX480 die eben nur die PerformanceKrone holen sollte.)

Namentlich würde das perfekt passen. Der GK110 passt aber eher zu der Revision 2 des Vollausbaus ähnlich dem GF110(rev 2 von GF100). Aufgrund des Patt musst Nvidia keinen Schlag wie mit der GTX480 landen. Namen sind wie Schall und Rauch. Als Nvidia schnell den High End Ableger bringen musste (da die HD58XX sehr stark war) haben sie den HighEnd Ableger mit 500mm² + noch vor dem Performance Chip launchen können, hatte aber hohen Verbrauch zur Folge, aber auch deutlich Vorsprung. Hier konnte der GF104 nicht ohne weiteres mit der HD5800 mithalten weshalb dies nötig war. Heute kann der GK104 mit Tahiti mithalten, ein KG104 war / ist also nicht von Nöten.

Die GTX480 hat es doch vorgemacht. Wenn nötig haut Nvidia koste es was es wolle einen 500mm² Chip in neuer Fertigung raus.

Nvidia geht es darum vorne zu sein. Mit der GF690 ist man das auch deutlich und der GK104 hält Tahiti besser in Schach als das ein GF104 zur HD5800 jemals hätte schaffen können.
In meinen Augen ist es absolut einleuchtend jetzt den GK100 / GK110 nicht zu bringen, auch wenn es eventuell ginge. Das wissen nur die Jungs bei Nvidia.

Edit:

Die Größen der DIE machen auch deutlich dass man vom GK104 sowohl vom Namen auch auch der Größe ganz klar vom Perf. Chip sprechen kann der als HighEnd Karte verkauft wird.

Die Reihe geht auch auf:

Performance -> High End -> HighEnd Gen2
(90/80nm)
G84------------> G80 ----------> X
(65nm)
G92------------> G200 ----------> X
(55nm)
G92b----------> G200b----------> X (Änderung Namensschema)
(40nm)
GF104 --------> GF100 ---------> GF110
(28nm)
GK104---------> GK100---------> GK110

Ob es einen GK100 jemals gab oder geben würde weiß wohl keiner. Es wäre wohl der gleiche Chip wie der GK110 der unter anderem Namen kommt bzw sozusagen nur ein Stepping des GK100 ist. Vllt rechtfertigt man mit den Namen GK110 auch einfach direkt eine neue Generation namens GTX780.

ich nenn es mal internes und externes Namens Schema ;)
Der kleine ZwischenStep von 65 auf 55nm softe auch etwas für namens Chaos was auch die /b Versionen verdeutlichen.
 
Zuletzt bearbeitet:
G92(b) und GT200(b) sind ja wohl ziemlich unterschiedliche Chipfamilien. So eine Aufstellung kannst du nicht machen imo. G92 ist mehr mit G80 verwandt als mit GT200.
 
Daten:

G92b 55nm 754Transis. 276mm² 4 16 128 8 64 64 10.0 / 3.3 VP2 PCIe 2.0
G200b 55nm 1400Transis. 470mm² 8 32 240 10 80 80 10.0 / 3.3 VP2 PCIe 2.0

Passt doch 1a zusammen...
Wie die Geforce dazu hieß ist absolut Wurst. Das nur der Marketingname

http://de.wikipedia.org/wiki/Nvidia-Geforce-9-Serie
&&
http://de.wikipedia.org/wiki/Nvidia-Geforce-200-Serie

Im Grunde ist der G200b nichts weiter als ein G92b mit mehr Einheiten. Kann aber genau dasselbe. Er ist der "Vollausbau" passend zu 55nm. Allerdings hab es keine eigene Serie für 55nm sondern wirklich nur ein reiner Shrink von 65nm auf 55nm Half Node. Ein kleiner ZwichenShrink.
 
Zuletzt bearbeitet:
Dann wartet man doch lieber auf die übernächste Generation, wenn nVidia bestimmt wieder Midrange für 500€ verkauft, weil AMD angeblich geschlafen hat :D
 
Der 600er Reihe hab ich aufgrund der Meldungen, daß die GPGPU-Leistung im Vergleich zur 500er Reihe nicht gesteigert wurde, nicht über den Weg getraut. Mal schauen wie sich die 700er Reihe in Gaming- UND GPGPU-Leistung schlägt.
 
@bruteforce9860

im Grunde halten die Karten am längsten, die nahe einem Vollausbau in neuer Fertigung entsprechen. Der GK80, also die GTX8800 zB. war sehr lange auf sehr hohem Niveau da selbst der kleine G92 ala GTX9800 außer Takt wenig drauf legte.

https://www.computerbase.de/2008-04/test-nvidia-geforce-9800-gtx-sli/2/

Der G92 war / ist also nicht viel mehr als ein 1.1 Shrink des Vorgänger HE Chips - 128 Shader, etwas mehr Takt, das wars. Kein Wunder sah die Mehrleistung dezent aus. Erst der Vollausbau der 65nm, der GT200 legte massiv nach.

https://www.computerbase.de/2008-06/test-nvidia-geforce-gtx-280-sli/28/

90 -> 65nm -> Vollausbau :
GTX 8800 -> GTX9800 -> GTX 280
100% ->111% -> 155%

65nm Vollausbau zu 55nm (Shrink only)
GTX280 ->GTX285
100%-> 109%

55nm -> 40nm Vollausbau
GTX285 -> GTX480
100% -> 171% (!)

40nm Vollausbau (GTX580) -> 28nm (GTX680) -> 28nm Vollausbau (GK110)
100% -> 129% -> XXXX (Unbekannt)

Man darf annehmen, dass locker nochmal 50% auf die GTX680 dazu kommen.

Wie man sieht lohnt es sich meistens auf den Vollausbau der jeweiligen Fertigung zu warten da hier die Steigerungen extrem sind.
Wenn man sieht wie die GTX 480 damals über 70% zum Vorgänger zugelegt hat muss man einsehen dass die Karte keineswegs ein so schlechter Deal war. Die HD5870 war extrem performant für die DIE Größe was an den 5D Shadern lag.

Heute ist das nicht mehr der Fall. Tahiti setzt auf GPGPU und ist nun mit 1D / GCN vergleichbar.

Ich würde auf den GK110 oder Tahiti Nachfolger warten.
Ergänzung ()

y33H@ schrieb:
GT200 kann einiges mehr als G92b.

Das da wäre. Bisschen mehr Info hätte es schon sein dürfen.

Edit:

Sicher, er hat einige GPGPU Features mehr. War meiner Meinung nach auch der erste Chip der hier etwas aufgebohrt wurde. Aber im Grunde sind die für GamingFeatures dieselben, genau wie die Shader praktisch gleich sind, die Skalierung 128Shader zu 192 Shader trifft auch recht genau das Leistung+ wieder.

Im Grunde sieht der Chip genauso in Relation wie der GF104 zum GF100, der Vollausbau hat mehr GPGPU Features, die Architektur / Shader etc sind aber sehr ähnlich. Und das schon seit vielen Jahren.

Erst bei Kepler und GCN haben sie diese wieder massiver verändert so dass die Shaderzahl nicht mehr mit Performance skaliert.
 
Zuletzt bearbeitet:
GT200 konnte erstmals Double Precision. Im Bereich HPC ist der Chip eine deutliche Weiterentwicklung gewesen.
G80 und G92(b) sind eine Familie, GT200(b) eine andere. Die haben miteinander soviel zu tun wie Kepler und Fermi.
 
Das seh ich nicht so. Kepler und Fermi sind weit verschiedener, sie sind

1. Anderer Fertigung
2. Ist HotClock entfallen.
3. Kann man schlecht den Vollausbau Fermi mit dem um GPGPU gestutzen GK104 (heute Kepler) vergleichen.

Der G200 ist wie seit dieser Zeit der GPGPU erweiterte Vollausbau des kleineren Chips (G92). Der kleine G92, hatte praktisch keine GPGPU Features. Der G200 legte hier das Genannte nach, war auch bezüglich Transistorzahl auch doppelt so groß. Natürlich sind das Unterschiede, die ich aber eher ergänzend zur eigentlichen Architektur sehe.

Genauso bieten aber die kleinen GK104 auch nicht die GPGPU Features wie sie der Vollausbau GK100 geboten hat.

Das sind die typischen Unterschiede Performance Chip -> HighEnd Vollausbau HPC Chip der bei Nvidia immer der einzige GPUComputing Chip ist (Seit Tesla).

Das war beim G200 und beim GF100 nicht anders und wird bei GK110 so sein.

Edit:

Mit diesem ganzen HPC Zeugs an Bord litt schon immer etwas die Effizienz im Gamingumfeld , dennoch skaliert die Gamingleistung seit langem nahezu linear mit der Shaderanzahl und natürlich mit Takt. Der Gk110 wird wieder sehr hungrig sein, 300W... darüber aber nen Batzen Mehrleistung auch im SpieleSegemnt liefern.

AMD macht das nun ähnlich. Pitcairn ist um HPC gestuzt, deutlich kleiner, kosten effizienter, Gamingeffizienter.
 
Zuletzt bearbeitet:
G92 war eher ein Shrink von G80, 8800GTX in "billig". Sagt ja schon der Name: 8800GT(s), 9800GT(S/X).

GT200(b) danach hatte keinen kleinen Ableger, die G80-Derivate wurden billig weiterverkauft.
 
natürlich war der G92 ein Shrink des G80. Das ist oft der Fall wenn es darum geht schnell eine einfache, günstige Performance karte der neuen Generation anzubieten. Eigentlich kam G92 sogar in der GTX 9800 zum Einsatz - als neue HighEnd Chip mit mehr Takt. Diese hat aber nur bis zum GT200 überbrückt was dann die eigentliche neue HighEnd Karte in meinen Augen war (zudem die erste HPC Karte ja, dementsprechend auch spät).

Sowohl der GT200 als auch der GT200b hatten ihre kleinen G92 / G92b. Selbes DX, selbe PCIe Gen, selbe Shaderversion. Die 200er Modell eben die genannten HPC Features.

Wenn man so will war der G92b dein kleiner Ableger der GT200b, natürlich ebenfalls nur ein Shrink des G92 welcher ein Shrink des G80 war ;)

Hätte Nvidia nicht den Hot Clock entfernt dann hätten wir mit Sicherheit einen GK104 der einem 1:1 Shrink des GF110 entsprechen würde, eventuell bereinigt um HPC Zeugs.
 
Zuletzt bearbeitet:
Tut mir leid, die Verwandschaft wie du sie darlegst, war so nicht gegeben. G92 liegt viel näher an G80 als an GT200. Die GT200-Chipfamilie bestand nur aus GT200 (voll und in zwei Stufen teildeaktiviert) und dann GT200b.
 
Naja, die Verwandschaft die ich meine war viel mehr als das. Sie war/ist übergreifend. Wenn man so will sind G80 als auch G92 / G92b als auch G200 sehr nahe verwand bezüglich Architektur. Der G200 weicht hier weiter ab da er die HPC Features bekam, die Shader an sich sind jedoch ähnlich, genau wie die Gamingleistung / Shader als auch die Features bezogen auf DirectX/PCIe/UVD.

Von G80 - GF110 wurden natürlich etwas angepasst, seit Nvidia 1D fährt ist das aber eher nebensächlich. HPC ist bei den Vollausbauten wohl die größte architekturelle Änderung.

Bei den Zusammenhängen die ich weiter oben aufführte ging es ja nicht um den Chip an sich sondern die zu Grunde liegende Fertigung. Zu verdeutlichen, dass der Vollausbau noch kommt und dass dieser bei der GTX480 vergleichsweise früh kam da er kommen musste, das auch Folgen hatte.
Es ging um die zeitliche Einordnung der Vollausbauten einer Fertigung.

So wie der G92 natürlich auf den Shadern der G80 aufbaut baut der G200 auf den Shadern des G92 / G80 auf und erweitert diese durch HPC Zeugs. Darauf baut dann wieder der GF100... auf. Das ja auch vollkommen normal.

AMD hat da mit 5D -> 4D -> GCN größere Veränderungen durchgemacht. Vor allem im letzten Step viel Gaming-Effizienz für HPC geopfert.

Edit:
Die GT200-Chipfamilie bestand nur aus GT200 (voll und in zwei Stufen teildeaktiviert) und dann GT200b.
^^ das trifft ja auf so gut wie jeden Chip zu. Demnach gibts vom GK104 auch keine Handvoll Ableger je nach Teildeaktivierung, beim GF100 / GF110 genauso etc.
Das ist ja normal. Wenn das die "Chipfamilie" ist dann geht es wohl nur um diesen Chip und dessen Ausprägungen bzw teildeaktivierten Ablegern... Darum gings aber nicht.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
das hab ich jetzt 5 mal gelesen und nix verstanden, sry. GT8000? :freaky:
Da hatte ich mich verschrieben und meinte GT8800.

GT8800 war deshalb so interessant, weil das die erste GPU war, wo es ersichtlich war, dass AMD bei neuer Fertigung sich (viel) leichter tut. Denn G92 @ GT8800 wurde Teildeaktivert mit geringeren Takten gebracht, womit die überraschend schnelle Einführung möglich war. Das war (aus Sicht von Nivida) "nötig", weil AMD ihren RV670 problemlos schon in 55nm einführen konnte.

Nachdem sich die Fertigungs-Probleme bei Nivdia @ GT200B wiederholten und ich von paar Problemen @ GT200A hörte, war ich besonders gespannt auf GF100 (40nm) und GK110 (28nm) = First Big-Die @ neuer Fertigung.
Und ich behielt recht.

Deine Auflistung ist deshalb ziemlich wertlos, weil es keinen Bezug auf das jetzige bzw. die generelle Fertigungs-Problemen hat. Es ist wichtig zu erfahren, welche Probleme & Möglichkeiten Big Dies eben bei neuer Fertigung zu welcher Zeit haben. Symtome interessieren keinen, sondern interessant sind die Ursachen der Symtome.;)
Nur wer die Ursachen versteht, kann sinnvolle Prognose für die Zukunft machen.

Ob es einen GK100 jemals gab oder geben würde weiß wohl keiner. Es wäre wohl der gleiche Chip wie der GK110 der unter anderem Namen kommt bzw sozusagen nur ein Stepping des GK100 ist.
Du weißt es nicht, aber es gibt Leute, die mehr wissen, als sie sagen dürfen.;)
Von denen hört man auch die Yieldraten, die die Big-Dies in bestimmten Zeitpunkten gehabt haben, was dann eh meine Vermutungen nur bestätigte bzw. genauer beschrieben.

Nvidia war clever genug und hat beim 28nm-Wechsel auf die sogenannte "Performance"-GPU gesetzt und diesen als ersten rausgebracht.
Aber sie hatten sowieso keine andere Wahl. Hätten sie auf einen GK100 gesetzt, wären die Probleme vielleicht größer als es bei Fermi-Family-Einführung gewesen.

Allle Andeutungen zeigen ein ziemlich schlechtes Bild für GK110.
1) GF100 kam 1 Jahr nach dem ersten 40nm-Chip (RV740) der mit nur 140mm² miserable Yields hatte. Hingegen soll GK110 schon jetzt 1,25 bis 1,5 Jahre nach den ersten 28nm-Chip kommen, der zwar auch miserable Yieds hatte, aber immerhin schon bei 389mm² groß war

2) GF100 (240w) verbrauchte 100% mehr Stromverbrauch als GF104 (120W), während GF110 (240W) nur mehr 50% mehr Strom als GF114 (180W) in Spiele-Last verbrauchte.
Aber jetzt verbraucht GK104 (=Erster Performance-Chip in 40nm) schon 50% mehr als GF104 (= erster Performance-Chip in 28nm) und somit so viel wie GF114 (180W)

Mit den alten Abstand zwischen dem "Performance" und "High-End"-Chip, der so bei +50% höherem Stromverbrauch war, wird sich GK110 mindestens 240-Watt (wie GF100 und GF110) verbrauchen.
Aber eigentlich hat GK110 mit 2800 Shader & Co fast doppelt so viele Shader & Co wie GK104, womit der GK110 inkl. einger GPGPU-Features doppelt so viel strom verbrauchen kann, wie der GK104.
(((Damals hatte der GF100/110 bei +50%-Stromverbrauch nur 33% mehr Shader gehabt als GF104/114, während die Anzahl von TMU gleich blieb.)))

Damit wird GK110 höchstwahrscheinlich zwischen 240 und 350W Strom verbrauchen. Das zeigt eben die ganze Problematik des GK110, wodurch Nvidia nicht so lockerflocking den GK110 am Markt bringen kann, wenn sie es WOLLTEN.
Wenn GK110 seine Taktziele und somit seine Performance-Ziele nicht erreicht, könnte Nivida da ein Problemchen bekommen. Bei GT200A & B sowie GF110 schafften sie die Taktziele (noch). Bei GF100 nicht.

Eines darf man nicht vergessen.
2 Monate vor der eigentliche GF100-Einführung (Okt 2009), glaubten noch fast alle Gerüchte und Nvidia-Quellen, dass GF100 eine +100%-Performnacesteigerung bei nur 190W-TDP erreicht. Erst im Sept 2009 begannen die 2%-Yieldgerüchte von Charlie.
Kurz gesagt: Nvidia könnte, wenn sie es wollten, noch sehr viele/große Probleme verschweigen, wenn sie es wollten bzw. wenn sie welche hätten.

Seit RV670 konnte ATI/AMD mit jeder neuer Generation aufholen.
Da AMD im Einführungs-Jahr die Performance-Krone bei Single-GPU-Karten halten konnte, hatte HD7000 wieder AMD einen Schritt nach vorne gebracht.
Nvidias stärke war immer im Refresh-Jahr, deshalb wäre es für Nvidia wichtig, wenn GK110 (aus welcher Betrachtung auch immer) vorne bleibt, denn dann kommt mit 20nm wieder ein Einführungsjahr was bisher immer AMDs vorteil war.
 
Meinst du die Geforce 8800 GT? Eine GT8800 gibt es nicht.
 

Ähnliche Themen

Zurück
Oben