Test Test: Nvidia GeForce 9800 GX2

vorweg gesagt -> ich liebe meine 8800GT (1024mb) die in meinem case werkelt..
aber ich muss mich der mehrheitlichen meinung hier anschließen: das ist wohl die sinnfreiste kartengeneration die nvidia bislang auf den markt geworfen hat.
die gx2 soll das neue flagschiff sein und bricht so übel ein in den bereichen in denen sie eigentlich ihr potenzial entfalten sollte zu dem preis.. zu kleines speicherinterface, zu wenig vram und wird zum teil sogar noch von der ultra und der gtx der vorherigen generation vorgeführt... im ernst... diese generation is keine neue generation, das is n beschnittener refresh der vorherigen, was sie vollkommen überteuert wirken lässt..
irgendwie erinnert mich das ganze an EA und die Fifa reihe...jedes jahr n bisschen was verändert, im großen und ganzen aber immernoch das selbe und dennoch als brandneu und unschlagbar verkaufen wollen..:freak::freaky:
 
die Performance des 8.3 lässt wirklich zu wünschen übrig, doch es ist nun mal der neuste und bietet einige lang ersehnte Einstellmöglichkeiten(zB. Skalierung), der CB Test ist klasse und alle Treiber auf dem neusten Stand was kann man noch mehr verlangen? *DAUMEN* für den Test :D

Gruß marantz

PS: ATI ist schon selbst schuld, wenn sie die Performance mit Treiberupdates verschlechtern ...
 
kann nicht nachvollziehen warum Nvidia der karte nicht 2x1gb-Vram gegönnt hat dann hätte sie wirklich
ne Daseinsberechtigung und würde auch in hohen Auflösungen mir AA & AF gut abschneiden
aber so...hätten sie die eher 8800GTS-X2 taufen sollen...
und der Preis ist ja auch zu happig wenn man bedenkt dass es ja nur eine zusammengeklebte
doppel-GTS (2x GTS=400€) ist...
 
Preis ist eine sache, da ist die ATI 3870 X2 unschlagbar, die gibts ja im moment bei geizhals schon für um die 330€.
Zudem ist die ATI Karte leiser, was mir auch wichtig ist.
So halbe sache wie mit dem VRAM versteh ich bei beiden Flaggschiffkarten, sowohl von ATI als auch von NVIDIA nicht.
Warum hat NVIDIA nicht einfach 768MB (so wie bei der 8800GTX) * 2 genommen, das hätte ja schon locker ausgereicht. Das die Top Karte für über 500€ an fehlendem Arbeitsspeicher scheitert :rolleyes:
Hoffe das die Treiber wenigstens bald ausgereift sind und die performance der Karten auch zum Zuge kommt, ich werd dann wohl mal wieder auf ATI umsteigen, die 3870 X2 GDDR-4 wirds wohl werden.
Aber erstmal schauen was sich bis April so tut, jetzt hab ich erstmal günstig die Asus 8800 Ultra drin, hab die günstig von einem Freund bekommen, der sich unbedingt die 9800 GX2 holen musste. Meine alte BFG 8800GTX steht dann bald bei Ebay drin.
 
Zuletzt bearbeitet:
NoD.sunrise schrieb:
Genau wie vermutet - bei 8xAA wird sie von der 3870 X2 angesichts des preisunterschieds geradezu vorgeführt. Und eine solche graka kauft man sich nicht um dann bei 1024 ohne AA zu spielen.

Dazu neue negativrekorde in sachen lautstärke, temperatur und stromverbrauch.

imho die sinnloseste Highendkarte seit langem.




Was bringts bitte mit nem kleinen X2 (der immernoch ne ganze nummer über dem durchschnitts pc liegt) zu testen nur um dann festzustellen dass die CPU limitiert und die werte der highendgrakas nicht mehr deren wirklichen leistungsunterschied repräsentieren?

ok,
dann wäre zumindest ein weiterer test mit einem derzeit normalo cpu sinnvoll, um einfach den unterschied zu sehen zu älterne grakas, wie sich da die neue 9800 gx2 verhält, denn es gibt ja auch leute die sich nicht jedes halbe jahr nen neuen cpu für 1000 euro und ne graka für 500 euro kaufen...

gruß
clubby
 
Ich vermisse wie immer, die 1920 x 1200er und 1650 x 1080er Auflösung, vorallem beim Performancerating. 16:10-TFT´s sind ja nicht mehr sooo selten. Sicherlich weiter verbreitet als 30" TFT´s mit 2560er Auflösung.

Der Preis würde mich nicht stören, die GTX hatte ja auch mal diesen Preis, aber ich warte lieber auf die echte nextGen GPU. Solange man Crysis nicht in 1920 x 1200 zumindest auf "high" flüssig spielen kann (also die fps NICHT unter 30 fallen), gibt es für mich keinen Grund zum Aufrüsten.

Ich kauf mir doch keine neue Grafikkarte, bei der Crysis um die 30 FPS im Durchschnitt hat (also sehr wohl und sehr oft unter 30 fällt), obwohl man eine 4GHZ CPU hat. DAS wär wirklich Geldverschwendung. Wenn schon die teuerste Hardware, dann solls gefälligst auch was bringen ;)
 
ums in der Autosprache zu sagen, es war nur ein Facelift mit verbessertem Motor, der allerdings ordentlich schluckt, dafür viel Spaß macht.
 
mal ehrlich. Wegen der Lautstärke. Ja sie ist die Lauteste im Test. ABER: die zwei DB sind merkt man wohl wirklich ned?. Was ich bissal dof finde, dass ein 8Pin und ein 6Pin ist. Wenn man jetzt ein Netzteil mit zwei 6 Pin hat ist finde ich bissal blöd. Die Leistung finde ich eigendlich ganz gut. Preis naja. Bisschen hoch schon im Gegensatz zur X2. Natürlich völlig unakzeptabel ist die Größe des V-RAMs. Was ich da nicht versteht bei den ganzen Low end gibts 1GB und bei den High-End Karten, da wo der wirklich gebraucht wird, da wird gespart.
 
Tobi41090 schrieb:
mal ehrlich. Wegen der Lautstärke. Ja sie ist die Lauteste im Test. ABER: die zwei DB sind merkt man wohl wirklich ned?.

Du kannst es ja gerne einmal ausprobieren, kann Dir aber gleich so sagen Du wirst erstaunt sein, denn eine Erhöhung des Geräuschpegels um 3dB kommt einer Verdoppelung der Lautstärke gleich. Somit entsprechen die 2dB hier bei uns einer Lautstärkeerhöhung von ~66%, meinst nicht auch, dass sich sowas doch ein klein wenig bemerkbar macht? ;)
 
danke für die Erklärung, hast sie mir abgenommen.
Bei den db zahlen ist es nicht einfach so ein db mehr oder weniger merkt man nicht, es ist so wies antinom erklärt hat.
Ich hab ein be quiet Netzteil, hab vor kurzem denen eine Email geschrieben, weil mein Pro 530W Netzteil auch nur zweimal 6-pin pci-e hat.
Von be quiet gabs/gibts eine aktion für besitzer etwas leistungstärkere netzeile, die aber auch noch keinen 8-pin pci-e anschluss haben, kostenlos so ein kabel für ihr Netzteil zu beziehen.
Ich hab denen einfach ein mail geschrieben, halbe stunde später eine antwort bekommen, ich soll denen meine adresse mailen und sie schicken mir ein Kabel zu. Heute ist es mit der Post gekommen und zwar gleich 2 Kabel.
Super Kundenservice und zudem völlig kostenlos für mich.
Die Grafikkarten dürften aber auch nur mit zwei 6-pin PCI-E Kabeln gehen, die zwei zusätzlichen pins sind soweit ich weiß nur Masse.
 
ich finde die leistung au net so schlimm. blöd für die 30zoll besitzer,die haben immer no nix um alles richtig zu spielen,aber leute mitm 22", der ja mittlerweile scho recht häufig vorkommt, die kriegen auf ihrer nativen auflösung das maximale an leistung. Vielleicht zielte Nvidia genau auf diese Leute ab. Also wem eine GTS bzw ne X2 nema reicht,der holt sich die halt für 500euro:evillol:


gruß
 
Eh, sehe ich das richtig, das sind im Prinzip nur 2x8800GT zum Preis von dreien?
Was ist da jetzt toll, neu und Highend dran? Immer noch der gleiche Schmarren von 2006 mit einem Stromverbrauch, der heute nicht mehr zu akzeptieren ist.
 
Das ist doch wieder genau sone schose wie damal mit der 7950GX2 und der 7950 und bub ein paar Monate später karm die 8800GTX usw. und so wird das bei der 9800GX2 und 9800GTX und paar Monate später kommt dann die XXXX . löl und alle die sich eine 98XX gekauft haben ärgern sich und das Forum ist wieder voll von Heulsusen.
 
blöd für die 30zoll Besitzer, die haben immer no nix um alles richtig zu spielen

Wirklich? Wie wäre es mit 2x 88GT 1024MB, 2x 88GTS 1024MB oder Tri-SLI mit 88GTX/Ultra.

Die einzigen Grafikkarten von NV die nicht für 30" taugen sind die GF9 GX2 und GTX mit jeweils 512Mb VRAM.:freak:

TRI SLI mit der GF 9 GTX wird besonders lustig, diese wird von TRI-SLI mit GTX/Ultra in den höheren Auflösungen und Qalitätsmodi kein Land sehen. :freak:

QUAD SLI mit der 9800GX2 wird aufgrund des kleinen VRAM max. Quali genauso abstürzen. Wow, sinnloser kann man ein High-End Gaming System kaum aufbauen :rolleyes:
 
Zuletzt bearbeitet:
Was ich mich frage ist: Wie können zwei so unterschiedliche Ergebnisse beim Stromverbrauch gemessen werden...?
http://www.tomshardware.com/2008/03/18/nvidia_geforce_9800_gx2_review/page14.html

Die übertaktete Quad wird wohl mächtig Energie brauchen, dass euer System mit GX2 mehr Energie benötigt als die AMD Karte und es anderswo genau umgekehrt ist belegt nur, dass die Gesamtkonfig doch sehr ausschlaggebend ist.
 
Zuletzt bearbeitet:
Wegen den verschiedenen Testplattformen natürlich.
 
Zurück
Oben