Wie wichtig ist die Größe des Grafikspeichers

Hat denn wer einen Benchmark zu der 1024MB Variante der Gainward 8800GTS?

Gruß
 
Hau einfach 10% auf die 88GT/1024 drauf, fertig.

cYa
 
So einfach ist es auch nicht, denn die Karte ja die gleichen Daten, wie die Karten mit 512Mb (oder nicht), deswegen punktet die kArte doch nur in Spielszenen, die mehr als 512MB Vram benötigen.
 
Zuletzt bearbeitet: (Immer diese Fehler-.-)
@ Baumnarr

Jetzt bitte noch mal so formulieren, dass ich es auch verstehe.
Eine GTS/512 ist 10-15% schneller als eine GT/512, diese Werte lassen sich imo 1:1 auf die 1024er Varianten übertragen.

cYa
 
Dem Stromhunger einer GTX im idle kann man entgegenwirken, indem man sie im Desktopbetrieb runtertaktet! Ist zwar keine sonderlich elegante Lösung, aber effektiv! :)

Und dass die GTX in höheren Auflösungen einer GTS-512 oder selbst einer GX2 unterlegen sein soll, halte ich angesichts ihrer 768MB vRAm (im Vergleich zu 512MB bei den anderen Karten) und natürlich dem 384Bit-SI schlicht für ein Gerücht! (die entsprechenden Benchmarks sagen auch etwas anderes darüber aus!)

@Imaginaer:

Wenn man den Rezensionen bei Alternate Glauben schenken mag, ist die Gainward GTS mit 1024MB nicht gerade der erhoffte Knaller! Komisch finde ich auch, dass sie seit ihrer Markteinführung quasi unter chronischer Unlieferbarkeit bei den Händlern zu leiden scheint!
 
Zuletzt bearbeitet:
@y33h@: Ich habs falsch versstanden, so hast du natürlich Recht.
 
@ Arno Nimus

Effektive 20-30 Watt, wenn man Glück hat. Noch sinniger ist es, zum arbeiten via Rivatuner einfach die Shader-Cluster zu deaktivieren.

cYa
 
Zuletzt bearbeitet:
y33H@ schrieb:
Die Magie des Teufels reizt dich zur GX2 oder die Gier nach dem nominell tollsten, obwohls eigentlich schei*e ist :D

Yap, that's the problem....

Oh gott, ich glaub ich kauf einfach gar nichts bevor ich mich nicht richtig entscheiden konnte für eine Seite...
 
@y33H@:

^^

Na gut, du scheinst es gemessen zu haben. Dann war die Befürchtung leider richtig! Verliert man nicht seine Garantie, wenn man die ShaderCluster deaktiviert? Und ist damit kein Risiko verbunden, die Karte oder vielmehr die GPU zu beschädigen?
 
@ Arno Nimus

Ich habe es probiert, weil ich in der PCGH draufgestoßen bin. Da das abschalten softwareseitig passiert und man weder übertaktet noch sonst irgendetwas außerhalb der Spezifikationen ändert, sollte die Garantie erhalten bleiben. Beschädigen kann man da imo rein gar nicht, allerdings würde ich ein Cluster aktviert lassen, sonst hast du ein Problem.

Ich habe mich übrigens geirrt, die 5-10 Watt waren auf den G92 gemünzt, bei einem G80 bringen 2D-Clocks deutlich mehr.

cYa
 
Gut zu wissen, ich danke dir für die interessanten Infos! :)

Sehr sonderbar ist übrigens das Phänomen, dass der Lüfter unter Vista x64 offenbar mit immerhin 200RPM weniger dreht, als unter XP! Wenn ich nämlich den Smartdoctor (hab eine Asus-Karte) nachträglich auf 60% Drehzahl setze (mit der die Karte ja angeblich sowieso läuft) dreht er etwas höher, eben mit ~1800 statt mit ~1600RPM (wird auch nen Tick lauter, aber nur sehr marginal, also weiterhin kaum hörbar) aber die Temps gehen halt auch gleich ein paar Grad zurück! Komische Sache, ich finde dafür keine Erklärung! Unter XP hab ich gleich die höhere Drehzahl: Laut Smartdoctor!

Die idle-Temps sind unter Vista übrigens ca 5°C höher als unter XP (muss wohl an Aero, Flip3D und Dreamscene liegen, vermute ich!)
 
Der Test ist Bullshit, alleine, dass CoD4 mit dem Intro gebencht wird, zeugt davon. Das Intro ist sowas von anspruchlos und will wenig VRAM :freak:

cYa
 
Baumnarr schrieb:
Die gibts doch schon im ausführlichen CB-Test.

Das wusst i auch schon.:lol:
Trotzdem find ich Performence/Erfahrungs Berichte und Benches von Besitzern der Karte realistischer als von Testern die immer streng nach Protokoll vorgehn.
( Ich sag ja nich das die Ergebnisse nicht stimmen ;) )
 
wie wäre es den mit der GTX im tripple sli:)
da du dir ja zuerst überlegt hattest 2 9800 GX2 im sli verbund zu laufen, wäre das ja presilich auch drin un dmüsste von der leistung her ja schneller sein als die 9800 GX2 (zu y33@ schiel ;)
und im idle müsste dein stromverbrauch auch nicht alzu hoch sein, da die neuen nforce chipsätze ja alle eine onbord grafik haben und deine 3 GTX einfach ausgeschaltet werden:D
so geh jetzt erstmal meinen rausch ausschlafen gutes nächte:D
mfg
 
Ganz geschickter Test, ich seh da nur ein Setting das mehr als 512MB VRAM verbraucht. Woher sollen da Unterschiede kommen?

Crysis. Und äh.. da sind die Unterschiede nur 1FPS .. zugunsten der übertakteten Karte .. Burner.

Prey braucht nicht mehr als 512MB wenn man nicht den Ultra-Button findet.
Call of Duty vielleicht wenn man sich viel Mühe gibt in der 1920er Auflösung. Meistens bleibt es darunter.
Episode2 nur mit Cinematic-Mod
WIC nicht mal in 2560
Schwanzmark sowieso nicht.

Doller Test :-)
Wenn man schon die Unterschiede rauskehren will, dann doch bitte in Settings die VRAM-Limitiert sind.
Aber scheinbar schafft es echt kein Tester mal den Rivatuner anzuschmeissen und auch nachzuschauen.
Kein Wunder das dann die Grakas die schneller getaktet sind "am besten" abschneiden.
 
Zuletzt bearbeitet:
Zurück
Oben