Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Wie wichtig ist die Größe des Grafikspeichers
- Ersteller Stoppersocke
- Erstellt am
Arno Nimus
Commander
- Registriert
- Feb. 2008
- Beiträge
- 2.178
Dem Stromhunger einer GTX im idle kann man entgegenwirken, indem man sie im Desktopbetrieb runtertaktet! Ist zwar keine sonderlich elegante Lösung, aber effektiv! 
Und dass die GTX in höheren Auflösungen einer GTS-512 oder selbst einer GX2 unterlegen sein soll, halte ich angesichts ihrer 768MB vRAm (im Vergleich zu 512MB bei den anderen Karten) und natürlich dem 384Bit-SI schlicht für ein Gerücht! (die entsprechenden Benchmarks sagen auch etwas anderes darüber aus!)
@Imaginaer:
Wenn man den Rezensionen bei Alternate Glauben schenken mag, ist die Gainward GTS mit 1024MB nicht gerade der erhoffte Knaller! Komisch finde ich auch, dass sie seit ihrer Markteinführung quasi unter chronischer Unlieferbarkeit bei den Händlern zu leiden scheint!

Und dass die GTX in höheren Auflösungen einer GTS-512 oder selbst einer GX2 unterlegen sein soll, halte ich angesichts ihrer 768MB vRAm (im Vergleich zu 512MB bei den anderen Karten) und natürlich dem 384Bit-SI schlicht für ein Gerücht! (die entsprechenden Benchmarks sagen auch etwas anderes darüber aus!)
@Imaginaer:
Wenn man den Rezensionen bei Alternate Glauben schenken mag, ist die Gainward GTS mit 1024MB nicht gerade der erhoffte Knaller! Komisch finde ich auch, dass sie seit ihrer Markteinführung quasi unter chronischer Unlieferbarkeit bei den Händlern zu leiden scheint!
Zuletzt bearbeitet:
Sugave7
Lieutenant
- Registriert
- Mai 2007
- Beiträge
- 973
y33H@ schrieb:Die Magie des Teufels reizt dich zur GX2 oder die Gier nach dem nominell tollsten, obwohls eigentlich schei*e ist![]()
Yap, that's the problem....
Oh gott, ich glaub ich kauf einfach gar nichts bevor ich mich nicht richtig entscheiden konnte für eine Seite...
Arno Nimus
Commander
- Registriert
- Feb. 2008
- Beiträge
- 2.178
@y33H@:
^^
Na gut, du scheinst es gemessen zu haben. Dann war die Befürchtung leider richtig! Verliert man nicht seine Garantie, wenn man die ShaderCluster deaktiviert? Und ist damit kein Risiko verbunden, die Karte oder vielmehr die GPU zu beschädigen?
^^
Na gut, du scheinst es gemessen zu haben. Dann war die Befürchtung leider richtig! Verliert man nicht seine Garantie, wenn man die ShaderCluster deaktiviert? Und ist damit kein Risiko verbunden, die Karte oder vielmehr die GPU zu beschädigen?
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.671
@ Arno Nimus
Ich habe es probiert, weil ich in der PCGH draufgestoßen bin. Da das abschalten softwareseitig passiert und man weder übertaktet noch sonst irgendetwas außerhalb der Spezifikationen ändert, sollte die Garantie erhalten bleiben. Beschädigen kann man da imo rein gar nicht, allerdings würde ich ein Cluster aktviert lassen, sonst hast du ein Problem.
Ich habe mich übrigens geirrt, die 5-10 Watt waren auf den G92 gemünzt, bei einem G80 bringen 2D-Clocks deutlich mehr.
cYa
Ich habe es probiert, weil ich in der PCGH draufgestoßen bin. Da das abschalten softwareseitig passiert und man weder übertaktet noch sonst irgendetwas außerhalb der Spezifikationen ändert, sollte die Garantie erhalten bleiben. Beschädigen kann man da imo rein gar nicht, allerdings würde ich ein Cluster aktviert lassen, sonst hast du ein Problem.
Ich habe mich übrigens geirrt, die 5-10 Watt waren auf den G92 gemünzt, bei einem G80 bringen 2D-Clocks deutlich mehr.
cYa
Arno Nimus
Commander
- Registriert
- Feb. 2008
- Beiträge
- 2.178
Gut zu wissen, ich danke dir für die interessanten Infos! 
Sehr sonderbar ist übrigens das Phänomen, dass der Lüfter unter Vista x64 offenbar mit immerhin 200RPM weniger dreht, als unter XP! Wenn ich nämlich den Smartdoctor (hab eine Asus-Karte) nachträglich auf 60% Drehzahl setze (mit der die Karte ja angeblich sowieso läuft) dreht er etwas höher, eben mit ~1800 statt mit ~1600RPM (wird auch nen Tick lauter, aber nur sehr marginal, also weiterhin kaum hörbar) aber die Temps gehen halt auch gleich ein paar Grad zurück! Komische Sache, ich finde dafür keine Erklärung! Unter XP hab ich gleich die höhere Drehzahl: Laut Smartdoctor!
Die idle-Temps sind unter Vista übrigens ca 5°C höher als unter XP (muss wohl an Aero, Flip3D und Dreamscene liegen, vermute ich!)

Sehr sonderbar ist übrigens das Phänomen, dass der Lüfter unter Vista x64 offenbar mit immerhin 200RPM weniger dreht, als unter XP! Wenn ich nämlich den Smartdoctor (hab eine Asus-Karte) nachträglich auf 60% Drehzahl setze (mit der die Karte ja angeblich sowieso läuft) dreht er etwas höher, eben mit ~1800 statt mit ~1600RPM (wird auch nen Tick lauter, aber nur sehr marginal, also weiterhin kaum hörbar) aber die Temps gehen halt auch gleich ein paar Grad zurück! Komische Sache, ich finde dafür keine Erklärung! Unter XP hab ich gleich die höhere Drehzahl: Laut Smartdoctor!
Die idle-Temps sind unter Vista übrigens ca 5°C höher als unter XP (muss wohl an Aero, Flip3D und Dreamscene liegen, vermute ich!)
toterFranky
Cadet 2nd Year
- Registriert
- Jan. 2008
- Beiträge
- 29
Benches bitte sobald sie da is



soll so gut wie alles klären, jedenfalls mit den 8800GT und 9600GT
toterFranky
Cadet 2nd Year
- Registriert
- Jan. 2008
- Beiträge
- 29
Baumnarr schrieb:Die gibts doch schon im ausführlichen CB-Test.
Das wusst i auch schon.

Trotzdem find ich Performence/Erfahrungs Berichte und Benches von Besitzern der Karte realistischer als von Testern die immer streng nach Protokoll vorgehn.
( Ich sag ja nich das die Ergebnisse nicht stimmen

the witcher
Commander
- Registriert
- Dez. 2007
- Beiträge
- 2.312
wie wäre es den mit der GTX im tripple sli
da du dir ja zuerst überlegt hattest 2 9800 GX2 im sli verbund zu laufen, wäre das ja presilich auch drin un dmüsste von der leistung her ja schneller sein als die 9800 GX2 (zu y33@ schiel
und im idle müsste dein stromverbrauch auch nicht alzu hoch sein, da die neuen nforce chipsätze ja alle eine onbord grafik haben und deine 3 GTX einfach ausgeschaltet werden
so geh jetzt erstmal meinen rausch ausschlafen gutes nächte
mfg

da du dir ja zuerst überlegt hattest 2 9800 GX2 im sli verbund zu laufen, wäre das ja presilich auch drin un dmüsste von der leistung her ja schneller sein als die 9800 GX2 (zu y33@ schiel

und im idle müsste dein stromverbrauch auch nicht alzu hoch sein, da die neuen nforce chipsätze ja alle eine onbord grafik haben und deine 3 GTX einfach ausgeschaltet werden

so geh jetzt erstmal meinen rausch ausschlafen gutes nächte

mfg
- Registriert
- März 2008
- Beiträge
- 556
Mahlzeit!
ich habe heute auf Toms Hardware einen Bericht genau zu diesem Thema gefunden, der viele Fragen beantwortet:
http://www.tomshardware.com/de/8800-GT-9600-GT-MSI-Grafikkarte,testberichte-239984.html
Ich werde mir wohl zwei 8800GTS mit je 512 MB kaufen
Viele Grüße und danke!
Andreas
ich habe heute auf Toms Hardware einen Bericht genau zu diesem Thema gefunden, der viele Fragen beantwortet:
http://www.tomshardware.com/de/8800-GT-9600-GT-MSI-Grafikkarte,testberichte-239984.html
Ich werde mir wohl zwei 8800GTS mit je 512 MB kaufen

Viele Grüße und danke!
Andreas
HisN
Fleet Admiral
- Registriert
- Nov. 2005
- Beiträge
- 83.363
Ganz geschickter Test, ich seh da nur ein Setting das mehr als 512MB VRAM verbraucht. Woher sollen da Unterschiede kommen?
Crysis. Und äh.. da sind die Unterschiede nur 1FPS .. zugunsten der übertakteten Karte .. Burner.
Prey braucht nicht mehr als 512MB wenn man nicht den Ultra-Button findet.
Call of Duty vielleicht wenn man sich viel Mühe gibt in der 1920er Auflösung. Meistens bleibt es darunter.
Episode2 nur mit Cinematic-Mod
WIC nicht mal in 2560
Schwanzmark sowieso nicht.
Doller Test :-)
Wenn man schon die Unterschiede rauskehren will, dann doch bitte in Settings die VRAM-Limitiert sind.
Aber scheinbar schafft es echt kein Tester mal den Rivatuner anzuschmeissen und auch nachzuschauen.
Kein Wunder das dann die Grakas die schneller getaktet sind "am besten" abschneiden.
Crysis. Und äh.. da sind die Unterschiede nur 1FPS .. zugunsten der übertakteten Karte .. Burner.
Prey braucht nicht mehr als 512MB wenn man nicht den Ultra-Button findet.
Call of Duty vielleicht wenn man sich viel Mühe gibt in der 1920er Auflösung. Meistens bleibt es darunter.
Episode2 nur mit Cinematic-Mod
WIC nicht mal in 2560
Schwanzmark sowieso nicht.
Doller Test :-)
Wenn man schon die Unterschiede rauskehren will, dann doch bitte in Settings die VRAM-Limitiert sind.
Aber scheinbar schafft es echt kein Tester mal den Rivatuner anzuschmeissen und auch nachzuschauen.
Kein Wunder das dann die Grakas die schneller getaktet sind "am besten" abschneiden.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 10
- Aufrufe
- 6.571
- Antworten
- 7
- Aufrufe
- 2.153
- Antworten
- 2
- Aufrufe
- 799