News Tape-Out dreier 40-nm-GPUs von Nvidia

@bensen, ja aber von nvidia gibts jetzt schon zumindest ein grobes datum wenn ich nichts verpasst habe gibts von ati noch kein datum was mich nervt. Will doch bischen planen können wenn ich mir hardware holen kann nicht irgendwie überraschen lassen und 2 tage vor release davon erfahren.
 
@Fruchttiger: die namensgebung ergibt sich wohl daraus, dass der eigentliche chip üblicherweise der x0 ist. also g70, g80 und so. dann kommen die reduzierten varianten der gpu. die zahl danach soll die stufe der verkleinerung andeuten. beim g200 ist das allerdings eine ausnahme, weil der eigentlich der g90 war, der aber mangels konkurrenz damals ausgelassen wurde und man daher gleich auf die erste verkleinerung (also g92, g92 x 1,5 entspricht angeblich etwa dem g200) gesetzt hat. was nv allerdings dazu bewegt hat, den g90 umzubenennen, darüber kann man nur spekulieren. ich vermute, dass sie die gpu umgetauft wurde, damit man nicht sieht, dass es sich dabei immernoch um die "alte" gpu in einer größeren version handelt, sondern dass sie für eine neuentwicklung gehalten wird. tatsächlich hat der g200 dem g92 technisch aber nichts vorraus, sondern unterscheidet sich vor allem durch mehr shadereinheiten und eine breitere speicheranbindung von seinem kleinen bruder...
 
Da liegt wohl ein Fehler vor - auf der GTX 280 ist ein 65nm Chip verbaut und keiner in 55nm. Die heißt dann nämlich GTX 285...
 
Klamann schrieb:
Interessant, dass die 40nm von Nvidia jetzt schon Anfang Sommer in den Handel kommen. Die neue Generation von ATi soll ja angeblich erst im Herbst/Winter auf den Markt erscheinen, damit hätte Nvidia für ein halbes Jahr die Nase vorn, was Energieeffizienz und Leistung angeht. Beides sollte ja mit dem neuen Fertigungsprozess besser werden.

In der Einleitung steht, dass die GTX280 auch in 55nm produziert wird, ich dachte aber die 55nm-GTX280 heißt jetzt GTX285. Oder hab ich das falsch verstanden? Jaja, das Namensschema von Nvidia...
So dürfte es leider nicht abspielen.

Das Tape-out des RV740 war angeblich vor Silvester und diese Karte solle es in März , ailas Cebit wird vermutet, geben.
Das Tape-out des RV790 war in Jänner und diese Karte soll es so mitten in April geben.

Dazu ist der 40nm-Fertigung nicht die Beste, bzw. ziehmlich schlecht, sodass der Stromverbrauch im Vergleich zum 55nm steigen soll.
z.B. RV770 (1,26 Volt) und RV790 (1,3 Volt)

Und genau das könnte zum riesen Problem für den GT212 sein. Denn der Vorgänger hatte AFAIK 1,15 bzw. 1,18 Volt.
Meine Spekulation ist, dass die 40nm-Problem in tiefen Voltgegenden größer sind als in nicht so hohen. Und wenn der RV790 schon gesteigerte Volt hat, dann könnten sie beim GT212 (GT200 hatte tiefere Volts als rV770) höher ausfallen, wodurch der GT212 unter Umständen sogar gekillt werden könnte, da der GT300 ja auch bald da sein soll, nicht ganz unpassend.

Der Inquirer sagt ironisch: Tot = non-Tape-Out.

Und viel Zeit hat Nvidia für den GT212 nicht.

Aber beim R600 sah man doch, wie extrem die Probleme sein können, wenn vieles vorn und hinten nicht passt alias Ende Sommer 2006 300+Watt bei nur 400 Mhz. (Ein sehr extremes Beispiel)
 
Zuletzt bearbeitet:
Interessant wären endlich mal ein paar technische Daten; vor allem wie sehr sich der Stromverbrauch gegenüber jeweils vergleichbaren GeForce 9-Modellen verändert. Ich hoffe, dass selbst der GT215-Chip unter oder um die 100W liegen wird. Die schonmal diskutierte "9600 GT Green Edition" wird vermutlich nix anderes als der GT216 sein ;)
 
Ne die 9600GT GE ist nen G94. Aus etwas weniger Spannung und Takt folgt etwas weniger Leistung.
 
bensen schrieb:
Ne die 9600GT GE ist nen G94. Aus etwas weniger Spannung und Takt folgt etwas weniger Leistung.

Das hieße, der GT216, der wohl in der gleichen Leistungsklasse landen wird, wird vermutlich nochmals weniger Strom ziehen, da ja zudem 40nm?
 
Was ich nicht so recht verstehe ist, wieso hat NVidia Geld fuer den 55nm-Zwischenschritt rausgehauen, anstatt die 40nm-Fertigung zu pushen. Und dann rasch alle GPUs auf 40nm umzusetzen.
 
Der G92b gibt es seit Juni.
Das wären also mind. 9Monate. Ist ja nicht so dass es die erst seit kurzem gibt.
Zumal Nvidia ja nicht selber fertigt sondern TSMC.
 
Zurück
Oben