Test Test: Nvidia GeForce 8800 GT (SLI)

@ Queen:

Genau das würde mich auch sehr interessieren - ist der VRAM Bug nun endgültig Geschichte oder wird er weiter mit herum geschleppt? Auch wenn er im Moment bei einem Speicher von 512 MB noch nicht ins Gewicht fällt, heißt das nicht, dass das in einem halben Jahr nicht auch bei der GT Probleme verursachen könnte.
Ansonsten bin ich vom P/L der Karte beeindruckt, die Temperatur stört mich auch nur wenig. Wobei ich mir ziemlich sicher bin, dass die Karte mit einem DualSlot Kühler noch mal deutlich kühler werden wird.


DoubleJ schrieb:
Ich kann den Test nur bestätigen, habe jetzt auch seit Dienstag eine XFX 8800 GT und bin absolut zufrieden, vor allem die nicht vorhandene Lautheit des Lüfters hat mich sehr positiv überrascht.

Aber dieses Gejammere wegen Crysis hier in den Comments... EA wird keinen Blockbuster zum Weihnachtsgeschäft releasen, den man nicht gescheit spielen kann. Das macht überhaupt keinen Sinn.

Hehe, it´s EA! ;) Denen trau ich alles zu. Man werfe nur einen Blick auf NFS und BF. Und ich glaube nicht, dass sich die Crysis Final bezüglich der Performance noch was verbessern wird - für gravierende Verbesserungen fehlte einfach die Zeit - die Demo erschien ja nur einen Monat vor Release. Aber ich denke, dass die GT auch ausreicht...
 
Mal ne Frage zum Testsystem:

Prozessor
* Intel Core 2 Extreme X6800 (übertaktet auf 3,46 GHz, Dual-Core)


Wird der eigentlich mit oder ohne Stromsparfunktion betrieben?



Die ganzen Idle-Werte kommen mir doch alle irgendwie recht hoch vor! Wenn ich sehe dass das Testsystem mit den ganzen Highendkarten bei +200W steht und selbst mit ner Radeon 2400 schon 158W verbrät und mein E6750@3,3GHz noch mit meiner alten X800 im Idle nur bei ca. 75W Gesamtverbrauch rumgammelt, dann kommt mir das doch etwas komisch vor!
mata.gif


Daher hoff ich mal dass ihr das ohne Stromsparfunktionen testet, dann gehts bei mir noch gut nach unten, auch mit ner neuen Graka, die bald bei mir reinkommt! :D
 
Ich würd mir sli nur zulegen wenn die Karten um die 150 Euro kosten. Werd also abwarten wo sich die 256MB Version leistungsmäßig einordnet. Reichen die für 1280x1024 4x8x in next Gen Games,dann könn ma drüber reden.;)
 
Das Performance-Testergebnis für DX10 wird extrem verfälscht durch das schlechte abschneiden in Auflösungen die vieleicht 0,05% der Spieler verwenden.

Ansonsten:

Spitzen Test, spitzen Ergebniss!
Und immer daran denken:

Da überholt eine 230 Euro Karte zum Teil eine 500 Euro Karte....

Wenn die neue GT jetzt noch mit 1GB kommen sollte...
Aber dafür ist ja die neue GTS da.
 
Schöner, ausführlicher Artikel ! :D

Wir spekulieren an dieser Stelle einmal und behaupten, dass der G92 nicht nur sieben Shadercluster und vier ROP-Partitionen, sondern wie der G80 acht Shadercluster und sechs ROP-Partitionen besitzt. Denn uns kommt die Anzahl der Transistoren trotz der Verbesserungen des G92 zu hoch vor (NVIO sollte zum Beispiel nur eine kleine einstellige Millionenzahl kosten). Ob der G92 wirklich mehr Einheiten besitzt als die GeForce 8800 GT offenbart, wird aber nur die Zeit zeigen können.

Hier wird die Vermutung (fast) bestätigt:
"But Wait, There is More NVIDIA G92 for 2007"

"Yet NVIDIA isnt done yet. A G92-derivative will appear later this year with even more shader units. According to company guidance, the new G92 will launch in early December and feature 128 shader units as opposed to the 112 featured on GeForce 8800 GT.

This would be mean the additional 16 shader units exist on all GeForce 8800 GT cards, but are disabled for yield or marketing purposes. In addition to the extra shaders, the new G92 will also feature higher core frequencies and support for up to 1GB GDDR3.
"
 
@Wolfgang

Kannst du eine Aussage über die Temperaturen bei Übertaktung geben?

Wird dafür ein anderer Kühler fällig, oder bewegt es sich dann immernoch im Rahmen?
 
Frage an den Wolfgang, oder jemanden der es weiß

wie siehts bei der 8800GT mit dem Layout/Mountain Holes aus ?!
Welche Alternativ Kühler könnte man befestigen ?!
geht zb ein Arctic Cooling Accelero S1, denn es geht das Gerücht um dass die Kühler die der 7900er Reihe kompatibel sind montierbar wären...

Ich denke bei den temperaturen die mit dem Stock Kühler erreicht werden eine durchaus berechtigte Frage.
Eine 8800GT @ 93°C stößt schneller an ihre Grenzen als die gleiche @ zb 60°C

Somit wäre eine günstige GT mit S1 wohl eine bessere Wahl als eine Zotac AMP zb
 
Zuletzt bearbeitet:
Wolfgang schrieb:
@oanvoanc

Du beantwortest dir die Frage schon selber. Selbst mit AA und AF ist der 3DMark06 in 1280x1024 schon sehr CPU-limitiert, ohne AA/AF machts überhaupt keinen Sinn mehr. Zudem wird jeder SLI-Nutzer sicherlich auch (fast) immer AA und AF hinzuschalten.

danke für die antwort.
wie gesagt, ich weiß, dass sli in geringen auflösungen kaum seine stärken ausspielen kann.

trotzdem wäre ein test in den default settings des 3dmark06 interessant. sozusagen als vergleichswert für die bencher unter uns ;)

danke
mfg
 
Weil sie einen viel höheren Shadertakt hat.

Shadertakt ist z.B. in Crysis das A und O. Hab meine GTS 320 mal in der Richtung stark übertaktet und das hat sich in Crysis zumindest bemerkbar gemacht.

Mit 300 MHz (wenn die GTS das aushalten würde) wäre sie in Crysis wahrscheinlich fast gleich schnell.
 
Die Karte kostet ja weniger als ne normale GTS und ist dabei auch besser O_O.

Macht die Speicherbandbreite eig. einen großen Unterschied aus?
 
wie ist das jetzt mit 8800 GT SLI gegen eine einzelne 8800 GTX.

preislich ca. gleich (bzw in 1-2 Wochen wo die Preise sichelrich sinken werden)

welche ist besser?
 
Zuletzt bearbeitet:
super test CB.

@tx8090 klar sind 2x 8800GT im SLI einiges schneller als eine 8800GTX.
schliesslich kommt eine einzige 8800GT schon fast an eine GTX heran.

aber eine GTX lässt sich besser übertakten da eine 8800GT mit dem standard takt schon auf 93grad kommt.

ach ja, in der schweiz hat man keine probs mit dem bekommen der karte. jedenfalls dort wo ich immer meine hardware kaufe.
 
Zuletzt bearbeitet:
brabe schrieb:
Was bedeuten eigentlich diese Rops? Warum sind dort bei der 8800gt weniger als bei der 8800gts 320? Hat das nichts mit den 112 MADD zu tun? Was bedeutet denn das 1D?

Ließ dir Technik im Detail 1 und Technik im Detail 2 durch, dann weißt du bescheid:
https://www.computerbase.de/2006-11...800-gtx/3/#abschnitt_technik_im_detail_part_1

brabe schrieb:
Wieso ist die 8800 gt eigentlich schneller als eine 8800 gts?
Weil sie höhere Shaderleistung hat (GFlops) und höhere Texelfüllrate (MT/s). Die minimal kleinere Bandbreite scheint die GT entweder durch mehr Cache auf dem Chip zu kompensieren bzw. ist einfach in den üblichen Auflösungen verschmerzbar oder die Bandbreite war bei der GTS etwas überdimensioniert.
 
Zuletzt bearbeitet:
Dr.Death schrieb:
Hehe, it´s EA! ;) Denen trau ich alles zu. Man werfe nur einen Blick auf NFS und BF. Und ich glaube nicht, dass sich die Crysis Final bezüglich der Performance noch was verbessern wird - für gravierende Verbesserungen fehlte einfach die Zeit - die Demo erschien ja nur einen Monat vor Release. Aber ich denke, dass die GT auch ausreicht...

Mich interessiert das Game zwar nicht, aber dass die full retail eine bessere Performance als die Demo bietet halte ich schon für möglich. War ja schon öfter so, die Demo wird halt irgendwann in der Entwicklung ausgekoppelt, während das Hauptprogramm noch besser optimiert wird.
 
Zurück
Oben