jared schrieb:
Als die "Theoretiker" ihre Chips fertig hatten, waren praktische jedes Mal schon von der Zeit überholt. Zeit ist in der Grafikchipsbranche aber essentiell. Das sieht man schon jetzt an Ati und nVidia, nur weil Ati eine halbe Generation hinterher hängt.
Da irrst du einfach und das war auch schon damals nicht so. Der Kyro wurde erst viel später in den Markt eingeführt als er eigentlich fertig war. Ich erinnere mich gut an die Prasentation von PowerVR damals, ungefähr 3/4 Jahr vor dem erscheinen des Kyros. Das Problem ist nicht der Chip oder das Design, das ist zeitig fertig, das Problem sind die Fremdfertiger. Intel ist jetzt aber nicht irgendein Fremdfertiger, das ist der springde Punkt bei der Sache.
Und du brauchst Grafikchips für Mobilgeräte oder Spielhallenautomaten oder ähnliches nicht mit den aktuell schnellsten GPUs vergleichen (Äpfel und Birnen). Diese Mobilchips würde sogar S3 mal eben aus dem Ärmel schütteln. In diesem Fall geht es weniger um Technik als fast ausschließlich um den Fertigungsprozess und Stromspartechiken. Die Technik für Mobilchips ist idR schon Jahre alt und kann sicher überall in Lizenz gekauft werden. Es geht im High-End-Segment aber darum am Rande des technisch Machbaren serienreif zu entwickeln und das kauft man nicht mal eben irgendwo ein. Und Prototypen, Designstudien oder Entwurfsmustern verdient man kein Geld. Dass diese sich bezahlbar produzieren lassen steht nämlich noch nicht fest.
Und wieder liegst du komplett daneben. Mobilchips sind sogar noch ne Ecke Anspruchsvoller als PC Chips, da der Stromverbrauch, die Grösse und die Leistung stimmen muss. Hier haben deine angeblichen Theoretiker gewaltige Vorteile, das ist das KnowHow. ATI hat sich das mit Bitboys angeeignet, aber NV z.B. fehlt sowas vollständig. Du machst es dir schön einfach, das sind ja nur kleine unbedeutende Chips usw. Nein, sie sind deutlich schwerer zu entwickeln, da sie schnell sein müssen und sich an sehr strenge Spezifikationen halten, zudem müssen sich billig zu produzieren sein. Der MBX war technisch auf SM1 Niveau damals, das war fast Zeitgleich mit Geforce3 und 4. Diese Entwicklung treibt die Entwicklungskosten und geht nur mit entsprechender Erfahrung. Diese Erfahrung kann allerdings in Zukunft für den PC Markt sehr nützlich sein, wenn man sich mal den R580 oder den G80 ansieht
.
Und zum eDram: Das ist auch ein prima Beispiel. Damals schien das eine echt gute Idee. Aber es hat gegen die Zeit gespielt. Externes Grafik-RAM hat sich einfach viel schneller entwickelt als damals erwartet. Dabei steht der Grafik-RAM kurz vorm Durchbruch der 100GB/s Grenze und das Bei Speichermengen zwischen einem 512 und 1024 MB. Etwas ähnliches wird eDRAM nie leisten können. Selbst die Transferraten des eDRAM kommen da kaum mit, weil die Zeit gegen sie spiel. Der eDram der PS3 erreicht übrigens gerade mal etwa die doppelte theoretische Transferleistung, was aber durch die Tatache, dass er nur 10 MB umfasst stark eingeschränkt wird. Der Chip muss einfach viel zu oft auf das RAM zugreifen, weil die meisten (Textur-)Daten eben da liegen. Aufgrund immer schneller, immer weiter steigenden Grafikspeicherbedarfs (größere, schärfere, mehr Texturen) wird diese Missverhältnis immer größer.
eDRAM kann nur was für Konsolen oder integrated Geschichten sein, nichts für PCs. Deshalb ist BB auch damals mit ihrem Design, nicht mit der Fertigung, gescheitert. Aber: BB ist nicht PowerVR und es halndelt sich hier um sehr unterschiedliche Designansätze. eDRAM ist nur dann effizient, wenn es eine feste Auflösung gibt, so einfach ist das. eDRAM ist auch nicht mit herkömmlichem Grafikram vergleichbar, weil er mit viel grösserer Bandbreite angebunden ist und die Latenzen des eDRAM sind deutlich geringer, was Blending z.B. deutlich beschleunigen kann. Texturmassen benötigen übrigens keinen schnellen RAM und Latenzen spielen bei Texturen eine sehr geringe Rolle. Texturen werden nicht in den eDRAM ausgelagert, hier wird lediglich auschließlich der Frambuffer untergebracht. Der Grund, warum man so grossen schnellen RAM auf eine Grafikkarte baut, ist, dass der Framebuffer, je nach Auflösung und Antialising, sehr gross werden kann. Bei Konsolen ist das aber nicht so dramatisch, weil sich 1.) der Spieleentwickler darauf einstellt und somit das Antialising auf die Framebuffergrösse optimieren kann und 2.) die Auflösung fest ist, beides Punkte, die sich auf dem PC nicht realisieren lassen. Der eDRAM ist einer der grossen Joker des XBox360 Chips und sollte nicht unterschätzt werden. Jedoch ist das Ganze etwas OT, da es hier um PowerVR Technik geht und die ist deutlich flexibler und effizienter als BB Technik. Mit PowerVR Technik kann man flexibel skalieren ohne Effizienz einzubüssen, hiermit sind auch grosse leistungsfähige Chips möglich mit einem energiesparenden Design. Der Haken war nur der, dass es kaum Fertiger gibt, die KnowHow mit Grafikchipfertigung in PC Grössenordnungen haben, deshalb hat ST damals auch aufgegeben. Die Fertigung ist natürlich wesentlich anspruchsvoller als bei Mobile-Produkten aber das Design nicht. Es ist jetzt an Intel, ob sie es hinbekommen, das PowerVR Design in einen Grafikchip zu giessen, der sich in Masse produzieren lässt und genügend Leistungsfähig ist. Am Design wird das ganz sicher nicht scheitern. Und genügend Geld und Manpower hat Intel allemal für diese Aufgabe, sie haben halt nur keine Designabteilung, deswegen lizenziert man das einfach und fertig.
@Straputsky:
So revolutionäre ist das Multichip-Design im GPU-Bereich nicht. Auch nVidia entwickelt nicht den kompletten Chip mit seienn 500 Mio-Transistoren durch. Es wird eine oder mehrere effiziente Pixelpiplines entwickelt (z.B. die "Quadpipe" beim GF7). Und dieses stück wird dann auf dem Chip "einfach" mehrfach nebeneinander eingesetzt (ergibt dann 4, 8, 12, 16, 20 oder 24 Pipelines). Der Chip ist daher praktisch genauso flexibel wie "16 Cores auf einem Chip". Praktisch gesehen ist es ein und dasselbe, nur mit anderen Bezeichnungen. Wahrscheinlich werden nVidia und Ati daher demnächst ihre GPUs auch in "Multicores" oder etwas ähnliches umtaufen, weil es sich offensichtlich besser vermarkten lässt. Sieht man ja.
Das was daran wirklich neu ist, ist, dass mehere Dice auf einem Trager untergebracht werden bzw. mehrere Träger auf einer Platine. Alles in einem Die zu entwickeln lohnt sich nicht, da diese zu gross werden und der Yield extrem beschissen wird bei 300mm Wavern. Diese Konzept werden wohl alle Grafikherstellern verwirklichen, ATI hat das mit dem R700 schon quasi angekündigt, Intel auch und NV wird wohl folgen, zumindest geht der Markt davon aus. Die werden einfach nurnoch einen kleinen Grundchip bauen, mit einem entsprechen leistungsfähigen Trianglesetup bzw. bei Intel/PowerVR TileAccelerator, Rasterizer und VGA Teil, die Shaderprozessoren werden in beliebiger Anzahl extern auf den Träger oder das PCB gelötet. Dieses Konzept kommt übrigens Intel und z.B. S3g sehr entgegen, da auch diese Hersteller keine 600Mio+-Gates-Chips bauen müssen.