@Kasmopaya: in hl2 ist die 7er immerhin bis 56% schneller... wenn wir schon best-case annehmen wollen.
klar wars mit der gf8 der größere sprung. g80 ist ja auch völlig irrwitzig. ein chip der so groß ist, dass der io ausgelagert werden musste, weil sonst wohl die yields im keller wärn.
ähnlich wie damals mit gf6 und x800, die damals derart übertrieben waren, dass es monate gedauert hat bis man sie überhaupt kaufen konnte (und nvidia die ultra sogar aus dem programm strich, was aber irgendwie niemandem auffiel
geschweige denn die ominöse, niemals aufgetauchte ultra extreme
).
wenn man so einen chip entwickelt kann man nicht ein jahr danach wieder die leistung verdoppeln. selbst wenn man den immens gestiegenen entwicklungsaufwand außer acht lässt, das machen die dinger thermisch einfach nicht mehr mit.
GDDR 4 ist theoretisch sparsamer, und schneller aber in der Praxis bringt VRam speed so gut wie keinen fps Gewinn
weil deine annahme auf der 2900xt mit dem irrwitzigen 512bit breiten interface fußt. da könnteste schnöden ddr2 nehmen und hättest immer noch über 50 gb/s an bandbreite. g92 und rv670 brauchen hohen ramtakt, weil die bandbreite sonst limitiert.
tAk schrieb:
Wieso denn nicht?
Wenn man die GX2 jetzt einfach noch in die 8800er Serie "pflanzt" macht das durchaus sein.
Wenn die GX2 wirklich nur 30% schneller sein sollte als eine 8800Ultra, hätte eine 9800GTX dazwischen ja praktisch gar keine Platz mehr resp. wäre überhaupt nicht gerechtfertigt.
eben. WENN. nur redet derzeit niemand über noch mehr 8800er, schon garnicht von 8900er. 9800 ist in aller munde. und wenn man sich besieht, dass auch die gf7 nicht soo der überflieger war (ja ich gebs zu -.- und jetzt schluss), wäre das nicht das erste mal und entspräche somit dem muster.
@Sgt.Speirs: das wäre ja auch sinnvoll gewesen. nur war die 8800 so wunderbar erfolgreich, auf der welle, möchte man wohl so lange wie möglich reiten.
ps: wenn nvidia jetzt noch mehr 8800er bringt hat dere marketing einen an der klatsche.
pps: irrwitzig ist ein schönes wort.