Test nVidia GeForce 8800 GTS 320MB im Test: Ein abgespeckter Kraftprotz auf Kundenfang

Hallo @ All!

Ein schöner Artikel!

Hab jetzt zum Testen mir eine MSI NX8800GTS T2D320E gehollt. Die Karte ist wirklich sehr schnell, ist aber auch vom Werk etwas übertaktet (GPU: 575MHz, RAM: 850MHz). Etwas OC ist da auch noch drin, GPU: 678; RAM: 900, bei einem GPU Standart Takt (575) sind beim RAM rund 1000 drin, was dann noch am GPU Takt rauszuholen ist muss ich mal testen.
 
Zuletzt bearbeitet:
Der GPU Takt ist mit 678MHz doch schon beachtlich. :daumen:

Das ging alles mit Lukü?

mFg tAk
 
Das ging alles mit Lukü?
Jepp, alles mit Lüku Standartkühler, das ganze gerümpel liegt hier noch vor mir rum.
Hier mal ein Screen

Rest des Systems:
E6600
2GB GSkill GHBZ
P6N SLI
 

Anhänge

  • 4.JPG
    4.JPG
    130 KB · Aufrufe: 851
Huhu...
ihr schreibt übertakteter DualCore extreme und gebt an bei SplinterCell4 ~16 Frames an bei 1600x1200 auf einer Nvidia 7950X2... also bei meinem "kleinem" übertaktetem E6300 im EVGA 680i Board mit nVidia 7950X2 spiele ich die Mission im Gefängnis bei 1600x1200 mit rund 40fps (das schwankt freilich) dann meist um 40 und mehr frames... soviel mal zu "Testergebnissen"... also wenn ich nur unspielbare 16fps hätte, würde ich meinem PC-Händler die Hardware in eine beliebige Körperöffnung seiner wahl stecken.
:evillol:
 
Zuletzt bearbeitet:
@ Shadowrider:

Weisst du denn welche Szene CB für den SC4 Benchmark verwendet hat?

Das wäre für den Vergleich evtl. noch von Vorteil. ;)

mFg tAk
 
Wurde den bei bei doom 3 mit ultra high grafik seetings getesttet? Auch bei Company of hereos gibt es auch eine ultra textur grafik einstellung wenn ja wie bewältigt die karte das ?
Danke im Vorraus
 
Frage zum Stromverbrauch:
In diesem Test verbraucht ein System mit ATI X1900XTX ca. 6 Watt mehr als das System mit einer Geforce 8800GTX bei Vollast.
Mit dem früherem Testsystem hat eine Geforce 8800GTX ca. 29 Watt mehr verbraucht als das gleiche Testsystem mit der ATI X1900XTX bei Vollast.
https://www.computerbase.de/artikel...tx-test.614/seite-31#abschnitt_stromverbrauch

Das sind immerhin 29+6=35 Watt Unterschied. Kann diese Diskrepanz plausibel erklärt werden?
Messungenauigkeit allein ist es ja nicht. Wie hoch die Messungenauigkeit ist, sollte man aber eigentlich auch bei allen Messungen angeben. Wurde diesmal eine andere (bessere) Geforce 8800GTX verwendet?
Das würde ja bedeuten, dass es Exemplare der Geforce 8800GTX gibt, die mit nur einem Stromstecker wie eine X1900XTX problemlos laufen könnten^^ alles sehr Merkwürdig. Bitte um Aufklärung.
 
Zuletzt bearbeitet:
Das Exemplar war beide Male dasselbe - ein Referenzdesign, was beide Male von nVidia gekommen ist. Ist war sogar dieselbe Karte.
Warum der Unterschied da ist? Keine Ahnung...
 
@ Wolfgang
Danke für die schnelle Antwort. Leider ist sie nicht zufriedenstellend. Wenn ich in Experimentalphysik ein Versuch auswerte, dann muss ich auch eine Fehlerdiskussion am Ende machen, in der ich alle Abweichungen von der Theorie bzw. von den Erwarteten Ergebnissen irgendwie erklären muss. Ohne Fehleranalyse sind nämlich sonnst alle Messwerte für den Hintern.
 
Zuletzt bearbeitet:
Also ich bin da nich grad begeistert von. währe die wenigstens um einiges billiger. :(
ich bin froh das ich mir die normales gts gekauft habe. Diese 30€ sind mir da egal.
 
Mittlerweile ist die Differenz bei über 70 €. Die 320 MB-Version gibts für 270€ und die 640 MB-Version leigt noch bei 340€. Die kleine GTS scheint die Große preislich nach oben zu drücken ...
 
ja, hier in der Schweiz sind die Unterschiede der 2 Karten ca 100-150CHF! Ausserdem ist eine x1950xtx ca 50CHF teurer als die kleine 8800gts..

Gruss
 
Ich finde es schade, dass diese Tests nur auf einem System durchgeführt werden und nicht noch auf einer langsameren CPU.

Also wenn einer der Redaktöre es liest, dann wäre es nett, wenn auch ein Vergleich zu einem Athlon 4000+ (SC) oder vergleichbarem Intel CPU durchgeführt werden würde.

Ich meine, dass eine C2D Extreme die Grafikkarten nicht unterfordert, das ist mir klar, jedoch würde ich auch gerne mal sehen, wie sich verschiedene GPU´s mit verschiedenen CPU´s schlagen. Eventuell den C2D mal mit 2 Takraten (halben FSB oder so) schlägt, das würde mir ja auch schon reichen

Thanks
 
Ich bin grad dran mir nen neuen rechner zu basteln und bin schon noch n bissel noobi.

Spielen werd ich auf nen 19Zoll Monitor mit (900x1440) und einem Amd 4600+ x2.

Die oben genannte graka interessiert mich sehr, auch weil sie Direkt x10 tauglich ist.

Hab diese Version jetzt fuer 267,-Euro im Netz gefunden.

Was haltet ihr davon?

XFX GeForce 8800GTS 500M 320mb

Der preis liegt ja nun schon sehr deutlich unter der 640mb version.

Zur debatte stand sonst noch eine 7950GT mit 512mb, welche nur 19,- euro günstiger ist.

Was wuerdet ihr mir raten?
 
Zuletzt bearbeitet:
Ist ein guter Preis. XFX ist auch eine Marke, mit der man wenig falsch machen kann :) (siehe meine sig ;) ).
Für die von Dir erwähnte Auflösung sollten auch die 320MB ausreichen, es sei denn, Du benutzt sehr hohe Einstellungen. Zum Rest des Systems würde die Karte auf jeden Fall gut passen.

Mfg
 
hm kommisch spiele auch ab und an noch cod 2 aber wenn ich alles hoch schraube und 1024* 768 zocke habe ich mit guten einstelungen in der config meine 300 fps da hatte ich noch nicht getaktet!!! vestehe nicht ist dir das zu schnell das du denkst wegen einbrüche?

mfg kaspeR
 
Hallo an alle
Also erst einmal sind die 30 Watt unterschiede zu früher ganz sicher dem Overgeclockten System zu verdanken. Macht den Stromverbrauch ja dramatischer als er ist bei der GTS

Bei netzwelt.de gibt einen Test mit einem Athlon 4000+(gott sei dank)
und der Stromverbrauch (640MB)ist Idle 150W Last 243W (gott lass dich küssen)

@brabe Habe Athlon 4000+ C2D 6800 Werte von Qake 4 1600*1200 8 AA 16 AF Unterschied = +1 FPS (Quelle hardtecs4u.com + netzwelt.de)
Naja habe schon mehrmals gewarnt, dass sich der C2D fürs gamen nicht lohnt.

Also Pressefreiheit hat Vor- und Nachteile, Stellungnahme ( OC-System - Verbrauch) von Computerbase wäre angebracht oder CB hat bald den Ruf von Chip.de Tester. Ich würde trotzdem auf den G90 65nm warten, wenn er dann auch im Idle (Athlon 4000+ non OC)120 W verbrauchen würde.


:king: euer PC :evillol:
 
Zuletzt bearbeitet:
was soll das system damit zu tun haben wenn auf jeder graka das gleiche verwand wurde?
es wird ja der gesamt "verbrauch" und nicht der der karte getestet
 
bensen schrieb:
was soll das system damit zu tun haben wenn auf jeder graka das gleiche verwand wurde?
es wird ja der gesamt "verbrauch" und nicht der der karte getestet

Eben das ist es ja alle Grafikkarten im Test weisen einen künstlich hohen Verbrauch dar.
Sicher liegt der G80 an der Spitze.
 
Zurück
Oben