Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Naja, für das meiste sollte es problemlos reichen, teilweise wirst du dich mit den "qualitätssteigernden Features" (AF, AA) halt ein bisschen zurückhalten müssen. Eine GTX 295 würde ich nicht nehmen - zu teuer, zu "hungrig". Aber schneller ist sie zweifelsohne - sieh dir die Tests im Artikelbereich an.
Wieso sollte man da schnell Probleme bekommen? 2 GB sind natürlich nicht schlecht (wenn es kaum mehr kostet) aber mit 1 GB wird man garantiert keine/kaum Probleme bekommen.
Hängt wohl von Deinen "aktuellen Spielen" ab.
Ich hab 2560x1600 mit meiner Software und einer 8800GTX schon vernünftig hinbekommen.
Und falls es bei dem ein oder anderen Programm ein Performance-Problem geben sollte, das löst sich doch über die Zeit von selbst ... ein Monitor überlebt in der Regel mehrere Grakas. Würde mir da kein Kopp machen und nicht auf den SLI-Zug aufspringen.
Die auflösung hat nichts mit dem Verbrauch des Videospeichers zu tun Electro, nur mit der textur größe/qualität und ob AF oder AA eingeschaltet sind!
Ich würde von einer Dual-GPU karte immer abraten, zieht zu viel strom und bereitet eniem zu viele probleme!
Die 285GTX wäre schon das schnellste was es momentan gibt, aber ich würde noch 1-2wochen warten, die GTX275 und die HD4890 werden nocheinmal einen preisbruch bringen
Wenn man da die HD4870 "512" mit der 1 GB Version vergleicht, fällt auf, dass @ 1680x1050 8xAA/16xAF die 1 GB-Version gerade mal 13 % ausgehend von der 512er schneller ist. In 2560x1600 8xAA/16xAF beträgt der Vorsprung jedoch 127 %... selbiges Bild zeigt sich auch bei 4xAA/16xAF, nur ein bisschen schwächer ausgeprägt.
Für mich führt das schon zum Schluss, dass die Auflösung und der Speicherverbrauch zusammenhängen... Außerdem erscheint es mir logisch - wenn man was "größeres" berechnen muss, braucht man auch mehr Speicher, in der Regel nicht nur zum "cashen" der Ergebnisse...
Nur, wenn eine Form von AA mit im Spiel ist, wenn man ohne AA die Auflösung anzieht, ändert sich fast nichts.
EDIT
Beispiel #1: Von 1.280 x 720 auf 1.920 x 1.200 sinds doppelt so viele Bildpunkte, der VRAM-Bedarf geht aber ohne MSAA um nur gut 10% hoch:
Beispiel #2: Von 1.280 x 720 auf 1.920 x 1.200 sinds doppelt so viele Bildpunkte, der VRAM-Bedarf geht mit 4x MSAA um gut 20% hoch (und CoD4 ist ein miesen Beispiel *g*):
Quake4 in 640x480, Ultra-Settings, Treiber auf HQ, 2xAA, 8xAF, GCAA, MSTAA: 740MB
Quake4 in 2560x480, Ultra-Settings, Treiber auf HQ, 2xaa, 8xAF, GCAA, MSTAA: 732MB
Normalerweise ist eine Textur eine Textur, sie nimmt den Löwenanteil vom VRAM für sich in Anspruch, und ihr ist es egal ob sie auf ein Dreieck mit einer Kantenlänge von 3 Pixel oder 3000 Pixel gemappt wird.
Wie definierst Du "es lohnt sich"?
Wenn Du Software hast und sie in Settings betreibst die mehr als 1GB VRAM erforderlich machen damit keine Texturswaps auftreten würde sich sie für mich auf jeden Fall lohnen,
wenn Du FPS-Geil bist und nur zuschlagen würdest wenn der Unterschied in Deiner Software in Deinen Settings mindestens 10% beträgt wirds schwer, da die Framerate meistens erst dann deutlich gedrückt wird wenn deutlich VRAM fehlt. Da müsstest Du Deine Software mal analysieren, was wahrscheinlich erst Sinn macht wenn der neue Moni schon da ist :-)
Die 512 Bit sind das Interface, die Bandbreite ergibt sich zusammen mit dem Speichertakt. Und die Bandbreite hat (fast) nichts damit zu tun, ob eine Karte von mehr VRAM profitiert. Wenn der Speicher ist, die Karte aber noch nicht am Boden liegt, dann lohnt mehr Speicher. Das geht bis runter zu einer 8800 GT - selbst die freut sich über 1G.