Kommentar: Ist CineFX ein Fehlschlag oder gar Fiasko?
3/6Schlag auf Schlag...
Unerwartet starke Konkurrenz
Dies geschah schätzungsweise März/April 2002, zu der Zeit also, als erste Spekulationen über den neuen Uber-Chip ATis, den R300, die Runde machten. Angesichts des eher mäßig gelungenen R300-Vorgängers, dem R200, wollte man ATi jedoch nicht so recht glauben schenken, zumal die kanadische Firma dem eigenen Bekunden nach an der konventionellen Herstellung in 0,15µm festhalten wollte.
Allerdings hatte man nicht damit gerechnet, dass sich ATi nach der Übernahme von/durch ArtX (Designer der Flipper-GPU im GameCube) mit aller Macht nach der Performance-Krone recken würde.
Als man dann das zweite Redesign des nV30, mit dem heute bekannten, gegenüber dem nV35 etwas beschnittenen Shadercore, gegen Sommer fertig hatte und sich die Anzeichen verdichteten, ATi würde mit dem R300 ihre Ankündigung wahrmachen können und sogar schon erfolgreich das Tape-Out hinter sich gebracht hatte, ging es erneut an die Zeichenbretter.
Dieses Mal aber nicht für den Chip, sondern für eine Kühllösung, die den geplanten Takt von 400MHz noch einmal um 20% würde steigern können. Dies, so glaubte man, wäre dann endgültig genug, um auch einem möglichen R300, der um 300MHz gehandelt wurde, leistungsmäßig voraus zu sein. FXFlow war geboren. Dazu kam, dass der geplante DDRII-Speicher mit seinen extrem hohen Taktraten auch deutlich mehr Leistung aufnahm, als im Vorfeld abzusehen war. Da nVidia zum Start einer neuen Produktreihe immer GPU und Speicher für das Topmodell im Bundle verkaufte und auch weiterhin verkaufen wollte, hatte man sich hier schlichtweg verkalkuliert und musste wohl oder übel den vorbestellten Speicher nutzen. Alles in allem verlangte der nV30 nun nach einem so komplexen Printed-Circuit-Board, dass man das Risiko minderwertiger Dritthersteller-Designs minimieren wollte und sich zu einer Komplett-Fertigung im eigenen Hause entschloss, bei der die Launch-Partner nur noch einen eigenen Aufkleber auf dem Plastikgehäuse des FXFlow anbringen konnten.
Zwischenzeitlich war der R300 tatsächlich auf dem Markt erschienen und ATi hatte das kaum für möglich gehaltene ermöglicht und trotz 0,15µm-Herstellung und ähnlicher Komplexität wie die der GeForceFX-GPU die 300MHz bei normaler Kühlung noch überschritten und mit ihrem neuen Flaggschiff den bisherigen Performance-Leader, die GeForce4 Ti, mit einem Schlag in allen relevanten Benchmarks vernichtet und dabei noch nVidias wieder und wieder redesignten nV30 im Erscheinungstermin um ein gutes halbes Jahr geschlagen.
Bei nV war man sich dieser Niederlage bewußt und versuchte wohl bis zur letzten Sekunde die ursprünglich geplante Funktionalität und Leistungsfähigkeit des nV30 (in Form des heutigen nV35, nur mit 128Bit-Speicherinterface) noch zur Marktreife zu prügeln. Nebenbei lief schon eine Kleinserie des beschnittenen nV30 vom Band, die gelauncht werden sollte, um nicht noch länger völlig ohne Konkurrenz zur Radeon 9700 Pro dastehen zu müssen.
Nach dem Paperlaunch im September 2002, der ersten Präsentation im November 2002 und ersten Tests um die Jahreswende, gab es tatsächlich Ende Januar 2003 einige Exemplare des nun GeForce FX5800 Ultra getauften, missratenen Sohnes zu kaufen. Derweil schuf man im Hintergrund schon einen neuen Chip mit einem 256Bit-Interface, der den Namen nV35 trug und dessen ShaderCores überarbeitet und zu voller Leistung aufgebohrt wurden, sowie ein mittlerweile möglich gewordenenes, thermales Redesign verpasst bekam. Das Ergebnis ist die Grafikkarte, welche wir heute als nVidias Flaggschiff GeForce FX5900 Ultra kennen.
Dank roher Taktratengewalt kann diese mehr schlecht als recht mit ATis zwischenzeitlich erschienenem, höher getakteten Respin des R300 mithalten und diesen in manchen Bereichen sogar schlagen - Nur eben nicht in der Shaderleistung, da der R300 hier einfach über eine deutlich höhere Grundleistung verfügt und zwischenzeitlich ATi mit dem R350 noch einen dicken Coup landen konnte.