"Da der NVIDIA Chip gut doppelt so groß ist wie der ATI Chip, passen auf einem Waver auch nur halb so viele Chips."
Sogar noch deutlich weniger. RV770 soll eine DIE Fläche von 256mm² haben, GT200 von 576mm². GT200 ist also 2,25 mal so gross. Hinzu kommt, dass bei kleineren DIEs die Wafer Fläche auch effizienter genutzt werden kann, Stichwort Waferrand. Ich würde also eher vermuten, dass auf einen Wafer 2,5-3 mal so viele RV770 als GT200 Chips passen.
"Daher sollte eigentlich eine Grafikkarte mit 2 ATI Chips genauso teuer in der Herstellung sein wie 1 Nvidia Chip. 2 ATI Chips haben dann wieder mehr Leistung als 1 NVIDIA Chip. Zudem verdiehnt ATI doppelt, indem man 2 Chips verkauft, während NVIDIA nur 1 Chip verkauft."
Auch dies ist recht einfach kalkuliert. Da der Chip bei nVidia deutlich grösser ist, werden auch die Yields dementsprechend schlechter sein. Soll heissen, relativ gesehen kann ATI nochmal mehr funktionsfähige Chips aus dem Wafer schneiden als nVidia. Und dann sind wir schon bei Faktor 3-4.
So langsam habe ich das Gefühl, der GT200 wird wirtschaftlich eine totale Katastrophe. Vielleicht kann nVidia das Ruder noch mit 55nm rumreissen, denn dann verkleinert sich die DIE Fläche um knapp 30%. Wäre also "nur" noch gute 60% grösser als RV770. Momentan sieht es jedenfalls nicht gut aus. ATI wird weitaus mehr an RV770 absetzen. Und selbst wenn dieser dreimal so preiswert wäre, würden sie wohl immer noch mehr Gewinn als nVidia mit dem GT200 machen.
Zumindest muss man nVidia zugestehen, dass sie endlich eingesehen haben, dass solche Monsterchips wirtschaftlich unvernünftig sind und in Zukunft auch nicht mehr machen wollen. Das kann man machen, wenn man fertigungstechnisch führende Möglichkeiten hat und eher ein Nischenunternehemen ist, wo sehr hohe Margen möglich sind. Beides trifft auf nVidia nicht zu. Chips wie der RV770 sind preiswerter, flexibler und genau das, was du für dieses Marktsegment brauchst. Vorausgesetzt, die kolportierten Leistungsdaten stimmen annähernd.
Btw, der GT200 soll ein High-End Chip sein und nicht mal die letzte DX Spezifikation unterstützen, was ATI schon bei der letzten Generation hinbekommen hat? Das finde ich ziemlich schwach. Woran liegt es denn, nVidia? Bringt das bei eurer Architektur nix oder hat die Zeit nicht gereicht? Das wäre ja ok. Aber seid dann wenigstens so anständig und verhindert nicht die Nutzung von DX10.1, siehe AC.
Sogar noch deutlich weniger. RV770 soll eine DIE Fläche von 256mm² haben, GT200 von 576mm². GT200 ist also 2,25 mal so gross. Hinzu kommt, dass bei kleineren DIEs die Wafer Fläche auch effizienter genutzt werden kann, Stichwort Waferrand. Ich würde also eher vermuten, dass auf einen Wafer 2,5-3 mal so viele RV770 als GT200 Chips passen.
"Daher sollte eigentlich eine Grafikkarte mit 2 ATI Chips genauso teuer in der Herstellung sein wie 1 Nvidia Chip. 2 ATI Chips haben dann wieder mehr Leistung als 1 NVIDIA Chip. Zudem verdiehnt ATI doppelt, indem man 2 Chips verkauft, während NVIDIA nur 1 Chip verkauft."
Auch dies ist recht einfach kalkuliert. Da der Chip bei nVidia deutlich grösser ist, werden auch die Yields dementsprechend schlechter sein. Soll heissen, relativ gesehen kann ATI nochmal mehr funktionsfähige Chips aus dem Wafer schneiden als nVidia. Und dann sind wir schon bei Faktor 3-4.
So langsam habe ich das Gefühl, der GT200 wird wirtschaftlich eine totale Katastrophe. Vielleicht kann nVidia das Ruder noch mit 55nm rumreissen, denn dann verkleinert sich die DIE Fläche um knapp 30%. Wäre also "nur" noch gute 60% grösser als RV770. Momentan sieht es jedenfalls nicht gut aus. ATI wird weitaus mehr an RV770 absetzen. Und selbst wenn dieser dreimal so preiswert wäre, würden sie wohl immer noch mehr Gewinn als nVidia mit dem GT200 machen.
Zumindest muss man nVidia zugestehen, dass sie endlich eingesehen haben, dass solche Monsterchips wirtschaftlich unvernünftig sind und in Zukunft auch nicht mehr machen wollen. Das kann man machen, wenn man fertigungstechnisch führende Möglichkeiten hat und eher ein Nischenunternehemen ist, wo sehr hohe Margen möglich sind. Beides trifft auf nVidia nicht zu. Chips wie der RV770 sind preiswerter, flexibler und genau das, was du für dieses Marktsegment brauchst. Vorausgesetzt, die kolportierten Leistungsdaten stimmen annähernd.
Btw, der GT200 soll ein High-End Chip sein und nicht mal die letzte DX Spezifikation unterstützen, was ATI schon bei der letzten Generation hinbekommen hat? Das finde ich ziemlich schwach. Woran liegt es denn, nVidia? Bringt das bei eurer Architektur nix oder hat die Zeit nicht gereicht? Das wäre ja ok. Aber seid dann wenigstens so anständig und verhindert nicht die Nutzung von DX10.1, siehe AC.
Zuletzt bearbeitet: