@Complication
ich glaub genau darum ging es Nvidia nicht. Der Anspruch auf die Fertigung hin zu optimieren stellte kaum eine Option dar. Schließlich ging es nicht darum den GF100 für das Desktop Segment zu optimieren, sondern für Computing. Man kann den Chip nicht erst auf Computing hin optimieren um dann das wieder zukürzen. Auch ist die Architektur sicher schwerer kürzbar als die des RV870.
Bei AMD/ATI legt man den Fokus knallhart auf den Desktop und CAD Bereich, beides lässt sich gut vereinen. Hier kommt es wirklich auf hohe Ausbeute und einen effizienten Chip in Relation zu den Fertigungskosten an. Das gelingt AMD/ATI ausgesprochen gut, sowohl bei der Größe der CPU Kerne als auch bei der Größe der GPU DIE.
Es geht Nvidia um den Server Bereich, bei den hohen Preisen für einen Tesla Computer konnten schlechte Yields und höhere Fertigungskosten als kleinen Faktor angesehen werden. Ähnlich kann man auch bei den extremen Server CPUs locker 8 Kerne in 45nm auf eine DIE packen, selbst wenn nur jede 10. funktionieren sollte.
Ich denke wenn überhaupt, so stellt der G104, falls es ihn gibt, eine auf Gaming Leistung getrimmte, gestutzte Version des GF100 dar, welcher die ähnliche Gamingleistung bei weit weniger Verbrauch und Größe liefert. Aber das kommt auf die Architektur an. Ich kann mir kaum vorstellen dass sich der GF100 dahingehend optimieren lässt, dazu ist er zu "abkömmlich" - viel eher wird man einen G92 ähnlichen Chip auf DX11 erweitern und ihn aufbohren.
Der RV870 ist eine geniale Architektur und sehr weitsichtig entwickelt, keine Frage. Er ist dank 5D Shader auch dem G92 vorraus. Shaderleistung kann viel dichter gepackt werden. Genau das macht den Chip klein. Auch hat ATI erkannt, dass kleine GPUs den Vorteil haben, individuell gepackt werden können, und geht den Weg der DualGPU konsequent. Den Fehler hat man bei Nvidia gemacht. Warum macht man nicht aus dem GF100 vier kleine GPU und schaltet diese zusammen auf einer Platine? In einem Gebiet der Parallelisierung, wo keine µRuckler oder Inputlag im Weg stehen, wäre das eventuell die Lösung gewesen, für den Desktop Bereich wiederum Quatsch, da die Leistung / Chip zu klein gewesen wäre... Nvidia müsste weit umdenken wenn man wieder auf Spieleleistung/Größe hin optimieren will.
Wie ich sagte wird man zweigleisig fahren müssen. Ein überragendes Mischungsverhältnis aus Computing Chip und Desktopgrafikchip wird es nie geben. Ein auf eines der beiden spezialisiertes Objekt wird immer effizienter in der jeweiligen Disziplin sein. Für uns ist deshalb gerade der RV870 Mittel der Wahl. Ein GF100 der noch weiter Computing optimiert wird ist für unseren Einsatz irgendwann kaum noch zu gebrauchen, aber wenn Raytracing in Mode kommen sollte erlebt dieser eventuell seine Wiedergeburt (bzw. nicht direkt er, aber seine direkten GPGPU Nachkommen)
Edit: Ich weiß, sehr viel Glaskugel dabei, aber so ganz abwegig ist das alles nicht. Wie ich finde