Krautmaster schrieb:
das hab ich jetzt 5 mal gelesen und nix verstanden, sry. GT8000?
Da hatte ich mich verschrieben und meinte GT8800.
GT8800 war deshalb so interessant, weil das die erste GPU war, wo es ersichtlich war, dass AMD bei neuer Fertigung sich (viel) leichter tut. Denn G92 @ GT8800 wurde Teildeaktivert mit geringeren Takten gebracht, womit die überraschend schnelle Einführung möglich war. Das war (aus Sicht von Nivida) "nötig", weil AMD ihren RV670 problemlos schon in 55nm einführen konnte.
Nachdem sich die Fertigungs-Probleme bei Nivdia @ GT200B wiederholten und ich von paar Problemen @ GT200A hörte, war ich besonders gespannt auf GF100 (40nm) und GK110 (28nm) = First Big-Die @ neuer Fertigung.
Und ich behielt recht.
Deine Auflistung ist deshalb ziemlich wertlos, weil es keinen Bezug auf das jetzige bzw. die generelle Fertigungs-Problemen hat. Es ist wichtig zu erfahren, welche Probleme & Möglichkeiten Big Dies eben bei neuer Fertigung zu welcher Zeit haben. Symtome interessieren keinen, sondern interessant sind die Ursachen der Symtome.
Nur wer die Ursachen versteht, kann sinnvolle Prognose für die Zukunft machen.
Ob es einen GK100 jemals gab oder geben würde weiß wohl keiner. Es wäre wohl der gleiche Chip wie der GK110 der unter anderem Namen kommt bzw sozusagen nur ein Stepping des GK100 ist.
Du weißt es nicht, aber es gibt Leute, die mehr wissen, als sie sagen dürfen.
Von denen hört man auch die Yieldraten, die die Big-Dies in bestimmten Zeitpunkten gehabt haben, was dann eh meine Vermutungen nur bestätigte bzw. genauer beschrieben.
Nvidia war clever genug und hat beim 28nm-Wechsel auf die sogenannte "Performance"-GPU gesetzt und diesen als ersten rausgebracht.
Aber sie hatten sowieso keine andere Wahl. Hätten sie auf einen GK100 gesetzt, wären die Probleme vielleicht größer als es bei Fermi-Family-Einführung gewesen.
Allle Andeutungen zeigen ein ziemlich schlechtes Bild für GK110.
1) GF100 kam 1 Jahr nach dem ersten 40nm-Chip (RV740) der mit nur 140mm² miserable Yields hatte. Hingegen soll GK110 schon jetzt 1,25 bis 1,5 Jahre nach den ersten 28nm-Chip kommen, der zwar auch miserable Yieds hatte, aber immerhin schon bei 389mm² groß war
2) GF100 (240w) verbrauchte 100% mehr Stromverbrauch als GF104 (120W), während GF110 (240W) nur mehr 50% mehr Strom als GF114 (180W) in Spiele-Last verbrauchte.
Aber jetzt verbraucht GK104 (=Erster Performance-Chip in 40nm) schon 50% mehr als GF104 (= erster Performance-Chip in 28nm) und somit so viel wie GF114 (180W)
Mit den alten Abstand zwischen dem "Performance" und "High-End"-Chip, der so bei +50% höherem Stromverbrauch war, wird sich GK110 mindestens 240-Watt (wie GF100 und GF110) verbrauchen.
Aber eigentlich hat GK110 mit 2800 Shader & Co fast doppelt so viele Shader & Co wie GK104, womit der GK110 inkl. einger GPGPU-Features doppelt so viel strom verbrauchen kann, wie der GK104.
(((Damals hatte der GF100/110 bei +50%-Stromverbrauch nur 33% mehr Shader gehabt als GF104/114, während die Anzahl von TMU gleich blieb.)))
Damit wird GK110 höchstwahrscheinlich zwischen 240 und 350W Strom verbrauchen. Das zeigt eben die ganze Problematik des GK110, wodurch Nvidia nicht so lockerflocking den GK110 am Markt bringen kann, wenn sie es WOLLTEN.
Wenn GK110 seine Taktziele und somit seine Performance-Ziele nicht erreicht, könnte Nivida da ein Problemchen bekommen. Bei GT200A & B sowie GF110 schafften sie die Taktziele (noch). Bei GF100 nicht.
Eines darf man nicht vergessen.
2 Monate vor der eigentliche GF100-Einführung (Okt 2009), glaubten noch fast alle Gerüchte und Nvidia-Quellen, dass GF100 eine +100%-Performnacesteigerung bei nur 190W-TDP erreicht. Erst im Sept 2009 begannen die 2%-Yieldgerüchte von Charlie.
Kurz gesagt: Nvidia könnte, wenn sie es wollten, noch sehr viele/große Probleme verschweigen, wenn sie es wollten bzw. wenn sie welche hätten.
Seit RV670 konnte ATI/AMD mit jeder neuer Generation aufholen.
Da AMD im Einführungs-Jahr die Performance-Krone bei Single-GPU-Karten halten konnte, hatte HD7000 wieder AMD einen Schritt nach vorne gebracht.
Nvidias stärke war immer im Refresh-Jahr, deshalb wäre es für Nvidia wichtig, wenn GK110 (aus welcher Betrachtung auch immer) vorne bleibt, denn dann kommt mit 20nm wieder ein Einführungsjahr was bisher immer AMDs vorteil war.