Test Test: Nvidia GeForce 9800 GX2

IgG schrieb:
Du spielst Crysis lieber mit 9,6 FPS (3850 X2 @ 1920x1200 4xAA/16xAF) als 24FPS (GX2 @ 1920x1200 1xAA/1xAF, hier hat die X2 nur 18 FPS)?

Für nur ein Spiel das mich höchstes 12h beschäftigt zahl ich auch nichtmal 200€ für ne Graka.
Und schon zweimal nicht für ein Spiel, welches auf ATI Hardware mit Sicherheit ebenso gut laufen könnte, diente es nicht als massive Werbeplattform für einen anderen Grafikkartenhersteller.
Da hab ich lieber Spiele für 30€ in Metallbox, die mich weit über 30h fesseln und sich mit ner X1950Pro begnügen. Aber jedem das Seine.

Wer wegen einem Spiel für eine Grafikkarte über 500€ plädiert hat meiner Meinung nach nicht mehr viel Marmelade im Krapfen. Da kauf ich mir ne Karte für ein Drittel des Preises und 10 gute Spiele.
 
4037 schrieb:

Sehr guter Kommentar. Eighentlich gibt es keinen Grund sich darüber aufzuregen. Den meisten Leuten wird im Sommer bei 40 Grad eher ihre 8800 GT um die Ohren fliegen, die noch heißer wird. Die zwei Lüfter bei der 9800 GX2 sorgen wenigstens für ein bischen Frischluft, die 8800 GT mit ihrem kleinen Lüfter wird sich da wohl eher aufhängen.
 
Wer die GX2 kauft,ist selbst Schuld.Abwarten auf die Neue Generation lohnt sich sicherlich mehr,als 500 Öcken für ein G92 'refresh'.Meine Meinung :evillol:
 
jedes 2 poste das ich hier lese teuer keiner wird das kaufen bla bla bla aber ich denke das wird sich schon abnehmer finden für diese karte Tatsache egal ob die Karte Teurer ist oder nicht das ist die schnellste Single Karte auf dem Markt und gut ist die 8800 Ultra war zur einführung auch nicht billiger und nur weil ATI seine karte billiger macht muß es Nvidia nicht machen wo stehen die den unter druck die Karte billiger anzubieten natürlich ist es für Kunden scheiße aber derjenige der das haben will wird sich das auch holen da spielt dann auch der Preis keine Rolle mehr und die Karte wird sowieso nicht so in massen angefertigt wie 8800GT/GTS es einfach ein launch damit man sieht hier das ist die schnellste Karte schluss aus sense.
 
Bin nach diesem Test noch glücklicher mit meiner X2 läuft alles super und sowieso, was reden alle von Microrucklern???Hatte noch nie einen.
 
nun ja Nvidia ist wieder dran an ATI... aber am Preis geht doch noch was!!
was mir am besten an der ganzen Grafikkarte gefällt ist einfach der Kühlkörper der das komplette PCB umgibt...
wer das Geld hat und ne starke Grafikkarte sucht ist sicherlich gut bedient damit aber 500€ sind natürlich schon ne Hausnummer

@Witzb0ld
ich hab 2 GTS G92 und erreiche zumindest im 3DMark 06 ähnliche Werte wie die 98GX2 ;-)
 
ich würde mich tierisch freuen auf ein test mit
2x 8800Gt = 360€
2x 8800GTS = 440€
2x 8800GTX = 590€
1x 9800GX2 = 530€

würde wissen wie sich die karte gegen ein sli gespann verteidigt
denn ich würde mir lieber 2x 8800Gts zulegen für 100€ weniger oder gar für 200euro weniger 8800GT 1024MB.

und ATI wurde wieder in die schranken gewiesen.das tut mit aber echt leid schade, aber dafür ist sie P/L mäßig nicht zu schlagen.
trotzdem wenn ich ein porsche GT3 kaufe habe ich auch eine tankstelle. über geld wird da nicht geredet.so ist das nunmal und basta.
 
Jo, ein Testvergleich zwischen den Dual Karten und jeweils einem 8800GT/GTS/GTX/Ultra Gespann wäre interessant.
 
Guter Test, auch wenn ich die Karte trotzdem nicht mag.

Habt ihr euch bei WiC vertan? Ich glaub einfach mal nicht, dass die GX2 mit 4xAA und 16xAF besser ist als ohne.

Warum ist eigentlich F.E.A.R. immer noch dabei?

@ neo-bahamuth

Vor allem das Händlerviertel. Da wird der PC ordentlich gefordert.
 
habe gerade ein test gesehn mit 2x 8800GT gegen 9800GX2, und da war 8800GT SLI fast in jedem game etwas schneller ab einer auflösung jenseits von 1600 legt dann die 9800GX2 nach, daher glaube ich das 2x 8800GTS schneller ist als ein 9800GX2 da fast die 8800Gt sli unter 1600 auflösung dominiert.
jetzt weis ich das ich noch eine 2tweite gts zulege und gut ist für 1 jahr dann sehma weiter.
 
die 9800 GX2 ist einfach ein Lückenfüller, wenn auch kein schlechter, auch wenn die Karten schwächen hat, genauso wie die ATI HD3870 X2, für die spricht allerdings deutlich der Preis.
War damals mit der 7950GX2 das selbe, die hatte ich vor der 8800GTX.
Was ich jetzt wieder beunruhigend finde ist der Stromverbrauch und die Aufwendige und laute Kühlung, bald endets dann wieder so wie mit der 7800Ultra.
 
"Unter Windows zieht die Grafikkarte 205 Watt mit dem Rest des Systems (ohne Monitor) 205 Watt aus der Steckdose."
Beim Unterpunkt: -Leistungsaufnahme
im ersten Absatz.
Ist der Satzbau komisch oder bin ich nur zu müde??^^

Zur Graka : Naja wers braucht, ich warte lieber noch auf die nächste/übernächste Generation, weil meine X1950XT reicht noch für alle Spiele @ 1280x1024 auf max. Details ( ok ein oder zwei Ausnahmen mal weggelassen :D ).

greetz rStar

€dit : JA, war ich doch nicht müde :P
 
Zuletzt bearbeitet:
Was heißt es gibt keine Alternativen? Noch gibt es die 8800Ultra im Laden.

Falls es jedoch nicht mehr als vier-faches Anti-Aliasing sein muss und man in 2560x1600 dazu bereit ist, in einigen Spielen auf Kantenglättung zu verzichten, ist die GeForce 9800 GX2 die zumeist mit Abstand schnellste Grafikkarte, die man derzeit kaufen kann.
Was ist bitte für ein Fazit?
Highend Karte, die bei High End Settings nicht zu gebrauchen ist?

Da ja 8xMSAA bei NV nicht praxisrelevant ist, wäre die Performance bei 8xS oder bei 16xS oder gleich vollem Rohr SSAA interessant. ;)
Oh ich vergaß die GX2 hat ja nur 512MiB, da wirds nicht besser aussehen....

Das die GX2 dank 512MiB gerne mal abstürzt, wenn der VRAM voll ist, ist imho für so eine teure Karte keine Kleinigkeit, da sind die Mikkroruckler, dank denen man ja gerne mal 40% der FPS abziehen darf, eine Kleinigkeit.


sk8eboard schrieb:
der einbruch von 4x AA zu 8x AA is schon extrem! wie kommt das?
NV hat bei den GF8 auf 4xAA optimiert, 8xAA ist eigentlich nur zum Spass an Bord, es gibt bessere Alternativen, wie SS und CS.


@Energiehunger
Wer hier rumeiert und sich aufregt ist fehl am Platz, den Energiehunger zu bemängeln ist einfach albern. Was sind schon 100W oder 200W? Macht euch nicht lächerlich, andere Highendkarten ziehen ähnlich viel, außerdem ist das Highend, also wayne.


@Kasmopaya
Wird nichts zum Vorschein bringen, meistens werden nur Settings gebencht, die knapp noch in die 512MiB passen. :(
Speicherfresser und Texturmods zu testen, möglichst mit SSAA oder Hybride und natürlich T-AA wäre toll, aber ja dann entfällt der Vergleich zu AMD, notwendig wäre solch ein Test dennoch.
Wird aber niemand machen, da die große Masse nur Crysis sehen will, einfach auf High mit 1xAA.
 
Volker schrieb:
Den meisten Leuten wird im Sommer bei 40 Grad eher ihre 8800 GT um die Ohren fliegen, die noch heißer wird. ...die 8800 GT mit ihrem kleinen Lüfter wird sich da wohl eher aufhängen.
sorry aber aus welchem nähkästchen ist das denn?
der küher ist temperaturgesteuert, da wird gar nichts überhitzen
bei den meisten steht der lüfter auf 30%, bis der ausgereizt ist hast du ne sauna im zimmer

nur weil die hersteller es einmal gescheit anstellen und die temperatur lieber etwas höher ansetzen als den user mit lärm zu quälen schieben einige leute ne paranoia
 
Zuletzt bearbeitet:
Haha, um die Microruckler per Treiber zu bekämpfen hatten die beiden Firmen genug Zeit. Wer an solche Versprechen glaubt, ist selber schuld.
Ohne Kantenglättung kann man eigentlich nicht von ner Highend Darstellung sprechen oder? Mein Fazit: Zur Zeit gibt es nur Highend Preise, ohne den entsprechnenden Gegenwert.
 
Zuletzt bearbeitet von einem Moderator:
ist es nicht egal ob ob 512 mb oder 1 GB ram bei nur 256 bit? der 1GB speicher kann doch eh nicht genutzt werden?!?! oder hab ich mich da VERLESEN?^^
 
TheNameless schrieb:
Warum ist eigentlich F.E.A.R. immer noch dabei?

Ey, nix gegen F.E.A.R. - den Multiplayer spiele ich immernoch als TrØN™ :)
 
Aber Leute ihr müsst eins mal langsam einsehen, bzw. endlich mal damit aufhören:

Jedes mal wenn eine "neue" Generation von ATI oder Nvidia nicht überzeugt, schreiben wieder alle:Ja wartet die nächste ab, die wird 3 mal so schnell.. bla bla bla

Leute!Schlagt euch diesen Scheiss aus dem Kopf.Eine neue Generation wird niemals (!!) 3 mal so schnell wie die vorherige sein.So einen Leistungssprung kann man nicht einfach so bringen!

Diese ständigen Ausreden für eine mislungene Grafikkarte kann ich einfach langsam nicht mehr hören!
 
@ENVIDIA
Ja du hast dich verlesen.
Die Bandbreite (die SI Angabe ist ohne Takt sinnlos) hat nichts mit der sinnvollen VRAM Menge zu tun.
Wenn der VRAM voll ist, hilft mehr VRAM. Die 512MiB sind schneller voll als man gucken kann.
 
Zurück
Oben