MaNoFsTeeL
Ensign
- Registriert
- Dez. 2007
- Beiträge
- 220
350 Euro für diese Grafikkarte ist mir etwas zu viel, dann warte ich lieber auf den GT200, pack nochmal 150 drauf, und hab dann für ne lange Zeit eine Grafikkarte....
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
bensen schrieb:wenn die daten stimmen kann das schon was werden
rechenleistung mehr als verdoppelt, texelfüllrate mehr als verdoppelt und die speicherbandbreite um 70% erhöht
sollte dann auch in der praxis deutlich schneller als eine 3870 sein
aber sehr weit wird man sich von einer 8800ultra wohl nicht absetzen können
MaNoFsTeeL schrieb:350 Euro für diese Grafikkarte ist mir etwas zu viel, dann warte ich lieber auf den GT200, pack nochmal 150 drauf, und hab dann für ne lange Zeit eine Grafikkarte....
cyrezz schrieb:@MaNoFsTeeL
Was soll denn so eine spekulative Aussage? Du weißt doch gar nicht wie schnell der RV770 im Endeffekt ist, genauso wie beim GT200. Warte doch erst mal ab, was der so bringt. Was, wenn dieser ein totaler Reinfall ist?
kann ja sein, dass ich mich ganz schwer täusche.... aber war nicht in der zeit von der radeon 9800 bis zur x1950xtx ati permanent vorne was die leistung angeht?dann sieht man den leistungsunterschied zwischen ATI und Nvidia... so war es und so wird es auch weiterhin sein!
Lübke schrieb:ich denke auch dass das ganze sehr vielversprechend klingt. der preis lässt vermuten, dass die 4850 bereits auf augenhöhe mit der 9800gtx liegen dürfte. die 4870 sollte also endlich die 8800ultra vom tron stoßen können
cyrezz schrieb:@bensen
Ups, jo. Da habe ich mich verrechnet. Sorry
@MaNoFsTeeL
Das SI ist nicht das Problem mit 256Bit. Der VRAm geht der Karte eher aus, als dass das SI limitiert. Schau dir doch mal den VRAM Verbrauch von Spielen in der Auflösung an, da sind schnell mal 650MB und mehr drin und das ist auch der Grund, warum G80 GTX und Ultra meist in so Auflsöung noch vorne sind, da der VRAM bei denen noch nicht voll ist.
Da sich die grundlegende Struktur einer GPU nicht ändern würde, bräuchte man in Zukunft immer mehr der Prozessoren
Laut David Kirk ist das aber viel mehr als ein Modetrend: "Die Multi-GPUs sind gekommen, um zu bleiben"