Ich denke einer Sache können wir uns sicher sein:
Das wird ein heißes rennen...versteht Ihr? Heiß weill TDP und so mit Thermi ne heiß das...erm...ja
.
Also jetzt mal Ernstmode.
Meine vermutung zum GF110 sieht folgender Weise aus, dass er dass ist was nVidia ursprünglich geplant hat. Für mich sieht das jetzt so aus, dass der GF 100 damals wirklich nur kam damit nVidia was in der Hand hatte, wie so viele schon vermutet haben.
Mein damaliger Beitrag wurde ja im Aquarium versenkt, als ich, zugegebener Weise, nicht sehr rational den Stromverbrauch des Fermi mit: ULTRA EPIC FAIL beurteilte.
Aber so ist es und eben der Punkt macht mich da wirklich, wie viele andere auch stutzig.
Die müssten schon wirklich deutlich was gedreht haben. Solch eine gestiegene Effizienz -welche mehr oder minder Nötig ist Im Vergleich zum GF 100-, kommt nicht von heute auf morgen.
Wenn das wirklich stimmt und ich bin da GAAAAAAAANZ vorsichtig, dann müsste nVidia das Ganze von vornherein geplant haben, mehr oder minder. Sie bringen den GF 100 raus, damit die Fans ihre (entschuldigt die Wortwahl) Schnautze halten und entwickeln im dunkeln fieberhaft am Vollausbau weiter. Doppelte TMUs, 20% Mehrleistung zur 480 und dabei gesunkene TDP bei (fast) gleichbleibendem Stromverbrauch und das Ganze in 6 Monaten? Merkste watt?
Jetzt wo AMD mit der neuen Serie um die Ecke kommt steht nVidia, wiedermals, im Zugzwang, WENN sie die Leistungskrone behalten wollen und wenn mich jemand fragt: Ist nVidia wirklich nur darauf aus? Dann antworte ich mit einem entschlossenem: JA!
Wollen wir hoffen nVidia hat die Zeit genutzt!
Ich jedenfalls halte das Diagramm solange für, zwar möglich, aber nicht bestätigt, bis CB den Test veröffentlicht. Ich bin gespannt. Popkorn und Bier steht schon bereit^^