Test Test: nVidia GeForce 8800 GTX

@stefan@x700pro


Logisches Denken? Naja ich weiss nichts so recht....

Es gibt zurzeit nur wenige Spiele die mit ner Highend-Karte wie ner GX2 in Full-Details nicht flüssig laufen. Warum man für die paar zusätzlichen Qualitätsstufen 500-600 Euro ausgibt, bleibt mir echt ein Rätsel.
Nach ein paar Monaten hat sich der Wert der Karte halbiert und das nächste Spiel, welches in der höchsten Detailstufe nicht völlig flüssig läuft, erscheint. --> Neue Graka

Ich weiss nicht, ob gewisse Leute nur mit Highest-Detail und 16AA spielen können, ob es um einen digitalen Schwanzvergleich geht, und/oder ein Mangel an anderen Hobbies besteht. Wie auch immer, Nvida/Ati bzw. deren Aktionäre wirds freuen :p.
 
Zuletzt bearbeitet von einem Moderator: (Sinnloses Full-Quote entfernt, Regeln lesen!)
@n0rdlicht

Genau das mein ich ja:rolleyes:
Er macht en upgrade mit 20% Leißtungsschub und der andere steigt sogar von Sli auf die 8800 um einfach irre wer kann da wiedersprechen:o
 
Zuletzt bearbeitet von einem Moderator: (Sinnloses Full-Quote entfernt, Regeln lesen!)
Bei den meisten vergeht ja aber die Phase wo man sein ganzes Geld in Hardware steckt auch irgendwann wieder. z.B. mit einer eigenen Wohnung oder anspruchsvollen Freundin :lol: Obwohl das zweite ein bisschen durch die Hardwarefreakerei verhindert werden kann :cool_alt:

@Geforce8:
Alter, was für ein pervers schnelles Gerät. Stromhunger als einziger Kritikpunkt ist schon hart. Bildqualität: neue Maßstäbe. Geschwindigkeit: neue Maßstäbe. Eigentlich fast alles: neue Maßstäbe. Aktuelle Titel sind ja fast durch die Bank in 2560x1600 noch ganz gut spielbar! Unfassbar.
Wenn da nicht dieses Problem wäre mit dem lieben Geld. Vor allem weil man ja nicht nur die GraKa braucht sondern auch die entsprechende restliche Hardware die auch genug Daten liefern kann damit sich deren Kauf überhaupt in höheren Framerates ausdrücken kann.
 
Intel Core 2 Extreme X6800: 930,- €
ASUS Striker Extreme: 315,- €
2x Corsair XMS2 Dominator Series DIMM Kit 2048MB PC2-8888U CL4-4-4-12 (DDR2-1111): 2x 586,- €
2x ASUS EN8800GTX/HTDP: 2x 563,- €

Gesamt: 3543,- €

Also wer sich den Rechner leisten kann...*WILL HABEN*
 
Zuletzt bearbeitet:
@325

Jo, so ein System wird dann von Dell für den doppelten Preis angeboten :freak:

@royal1904

Also ich würde sagen es lohnt. Denn der Lüfter der 8800GTX/GTS ist sogar noch leiser als der von der 7900GTX.
Und von deiner Displayauflösung profitiert die Karte dann auch noch. Deine CPU passt auch gut zur 8800GTX/GTS und das Netzteil wird auch mit einer GTX keine Probleme haben. Die Bildqualität ist sogar noch besser als beim R580.
Kannst also zugreifen. Dennoch empfiehlt es sich noch etwas zu warten, da die Preise im Dezember noch sinken werden.
 
Zuletzt bearbeitet:
Hi,

also ich möchte mir eine neue Graka zulegen. Ich bin mit meiner X1900XT (512MB) eigentlich zufrieden, aber die Karte ist einfach zu laut! Ein Lüfterwechsel kommt wegen der Garantie nicht in Frage. Nun frage ich mich, ob ein Wechsel auf eine 8800GTX bei meiner Hardware und meinem TFT (Samsung 205Bw, 1680x1050 +Widesc.) überhaupt lohnt? Kann mir irgendjemand sagen, ob sich eine 8800GTX von der Bildqualität für mich lohnen würde?
 
Also ich find die leistung auch überwältigend aber muss sagen das ich mit meiner x1900xtx die ich für 290 Euro bekommen hab besser drann bin (falsch geliefert anstatt der bestellten XT) :).
Denn damit bin ich noch mindestens 1 Jahr relativ gut ausgerüstet und kann mir deine eine noch tollere Graka holen.
Desweiteren finde ich es nicht gut für Nvidia´s image das immer Karten aus ihrem Hause defekte haben.(siehe 7900GT\GTX , 8800GTX) Bei Ati gabs sowas nie in sonem umfang. (mir nicht bekannt) und deshalb werd ich wohl auch bei ATI bleiben.
Trozdem ne sau schnelle Karte.
MFG
 
Hi,

na, mal wieder ein sehr ausführlicher Test von CB. War ja klar das nVidias G80 die neue Nummer 1 wird.

Was mir allerdings Sorgen bereitet, und da stimme ich vielen CB Lesern zu, ist die Entwicklung des Stromverbrauchs.

An Wolfgang:
Ich vermisse unter dem Punkt "Testsystem" die Angabe, welcher Monitor zum Testen verwendet wurde. So ne Auflösung von 2560x1600 schafft nämlich nicht jeder Monitor.

Greetz
 
vielleicht verbraucht der R600 ja weniger Strom, eigentlich wahrscheinlich wenn ATI seine Arbeit gut macht. Dadurch das der R600 in 65nm Produziert wird, müsste die Karte eigentlich Kühler bleiben und weniger Strom verbrauchen. Gab allerdings schon gerüchte, dass die Karte noch mehr Strom ziehen soll als der G80. Naja mal schauen was da so kommt. Der G80 verbraucht zwar viel Strom, ist aber sau schnell und praktisch ist er auch, hab gerade kurz GTR 2 gespielt und mir ein paar schöne Streifen Speck und ein Rührei auf der G80 gebruzelt, mhhh lecker :) .
 
darkjedi43 schrieb:
An Wolfgang:
Ich vermisse unter dem Punkt "Testsystem" die Angabe, welcher Monitor zum Testen verwendet wurde. So ne Auflösung von 2560x1600 schafft nämlich nicht jeder Monitor.
Greetz
Das war der 30-Zoll-Monitor von Dell.

Funktioniert bei euch auf einer 8800 GTX bzw. 8800 GTX eigentlich Splinter Cell Double Agent? Bei mir will das Spiel, zumindest mit dem ForceWare 96.97 nicht starten, gibt nur eine Fehlermeldung aus.
 
Mich hat die Leistung der Grafikkarte jetzt wirklich überrascht, man kann nur hoffen das AMD ebenfalls eine gute Karte liefert.
Ich freue mich schon wahnsinnig auf den Nachtest, da man dann endlich sieht wie stark die Grafikkate dann wirklich ist!
Wann kann man eigentlich damit rechnen?
 
Mich würde mal Interessieren warum in euren Tests bei der HDTV Wiedergabe nur WMV9 verwendet wird ?
Und das ganze dann noch mit dem alten WMV9 decoder der mit dem WMP10 ausgeliefert wird. WMP11 und/oder Windows Media Format SDK 11 bringen unlängst einen neuen WMV9 decoder mit, welcher übrigens auch decode acceleration über DirectShow unterstützt.

Warum testet ihr die Karten nicht auf MPEG4 ?

Etwas anderes was ich mal ansprechen wollte ist folgendes Zitat aus dem 7900GTO Test:

computerbase aus dem 7900GTO HDTV Wiedergabe Test schrieb:
Bei der CPU-Auslastung während dem Abspielen eines WMV-HD-Videos ergeben sich dieses Mal größere Differenzen. Die GeForce 7900 GTX erledigt ihren Job ohne Zweifel am besten und kann sich von der GeForce 7900 GTO absetzen. Hier muss man allerdings anmerken, dass dies durch die unterschiedlichen Treibern hervorgerufen wird. Die neuen ForceWare-Versionen bearbeiten die Bildqualität intensiver und benötigen somit mehr Rechenzeit.

Heisst ihr habt für die 7900GTX einen alten Treiber verwendet und für die 7900GTO einen neuen ? Das macht in meinen Augen keinen Sinn. Die Karten müssen mit Identischen Treibern getestet werden.
Der Leser will mit Sicherheit sehen wie die Wahren Leistungsunterschiede in der decode acceleration zwischen den Karten sind. Abgesehen davon das eure Zick-Zack Grafik dies eh nicht sehr genau verdeutlicht (ein zusätzliches Balkendiagram / Avarage-Wert wäre hier evtl. angebracht). Tappt man im Dunkeln wenn ihr angebt das die Treiber für unterschiede in bei der CPU Last verantwortlich sind. Was ich übrigens Bezweifel, das dürfte sich im jeh nach Treiber +-1% Bereich bewegen.

Frage mich was den die neuen Treiber so groß CPU Lastiges an der Bildqualität machen ?
Ist das nicht eher eine decoder Aufgabe ?


gruß
Johnny
 
Zuletzt bearbeitet:
@nuxdail

Ich glaub nicht, dass AMD soo schnell ne grafikkarte ausliefert :lol:
 
Sehr geile Karte.Das muss man ja sagen.Aber irgendwie sehe ich im Moment keinen Sinn

darin sich jetzt solch eine Karte zu kaufen,denn

1.Gibt es bisher noch kein VISTA oder Crysis,die diese Karte nutzen würde(D3D10/SM4)

2.Weiß man noch nicht was ATI bringt.

Also ich kaufe nicht nach dem welche Marke mir besser gefällt sondern was die Karten so

an Leistung hat,denn die zählt für undr für die meisten am Meisten!


Gruß ->teXcor<-
 
->teXcor<- schrieb:
1.Gibt es bisher noch kein VISTA oder Crysis,die diese Karte nutzen würde(D3D10/SM4)

2.Weiß man noch nicht was ATI bringt.

1. Gibt das bei der viel höheren DX9 Leistung durchaus Sinn.

2. Dauert es bis zum R600 Launch noch ein wenig. ;)

mFg tAk
 
Zurück
Oben