@Unyu: Ah. Hatte Deine Frage wirklich etwas falsche gelesen.
Mir ist es völlig Banane, ob bei einer Grafikkarte der Speicher oder die Shader oder sonst etwas limitieren. Als Kunde interessiert einen doch: Wie viel Leistung bekomme ich für wieviel Geld?
Ich finde das völlig ok, dass die Karten ein 128-Bit-SI haben und kann die Diskussion nicht ganz verstehen. Natürlich tut es einer Karte gut, wenn sie eine höhere Bandbreite zum Speicher hat. Aber dann limitiert halt irgendwas anderes.
Ein 128-bit-SI ist nunmal einfacher und auch günstiger zu produzieren als ein 192-bit oder 256-bit-SI und es ist für Kunden doch wirklich egal, ob das SI oder die Anzahl der Shader oder sonst etwas "Schuld" daran ist, wenn ein Spiel nicht schneller läuft.
Hätten die Karten ein 192-bit-SI wären sie vielleicht schneller (in manchen Situationen), aber auch teurer. Von daher kommt es am Ende eh alles aufs gleiche raus. Man wird SI und Shader NIE so abstimmen können, dass beide gleichzeitig am Limit sind. Das geht schon deshalb nicht, weil es von Spiel, Filtern und Auflösung abhängt.
Wir sollten erstmal abwarten was die Karten leisten und wie sie sich am Markt von der Preis-/Leistung her einfügen. Auch der Stromverbrauch und die Laufstärke sind für mich sehr wichtige Kriterien. Ich zahl lieber 60 statt 50 Euro und hab eine sparsamere und leisere Karte mit 5% weniger Leistung.
@Floletni:
Am Anfang wird der GT300 in jedem Fall High-End sein, das stimmt. Aber vielleicht kommt er auch in anderen Klassen zum Einsatz. Naja, ist ja eigentlich ohnehin immer so. Es werden ja nicht für verschiedene Leistungsklassen KOMPLETT andere Chips entwickelt. Die haben dann weniger Shader und ein andere SI, aber das Prinzip ist eh immer das gleiche. Diese Diskussion ist also eigentlich überflüssig.