Test Test: Nvidia GeForce 9800 GX2

Tobi41090 schrieb:
@Scandalous,

ach so das meinst du^^. Klar wird das in der Praxis nix bringen. Aber wenn du auf dem Papier ankreuzen müsstest, welche schneller ist, welche kreuzt du dann an?

Die GX2, da ich nie auf 8xAA + 16xAF Spielen werde
 
Unyu schrieb:
Erzähl kein Blech.
16xAF sollte mit modernen Karten kein Thema sein.
8xAA interessiert mich nicht, da praxisfern, aber ich kann dir versichern das ein gewaltiger Haufen Spiele mit T-SSAA und 8xS, oft auch 16xS oder 3x3SS, manchmal sogar 4x4SS flüssig rennt.
Wenns eng wird gibts immer noch 8xCS oder 16xCS und T-MSAA.

Dass 16xAF kein Problem ist, ist mir klar ( sieht man sehr gut in den Tests )

Ich sprach allerdings von 8xAA + 16xAF ( ja, ich weiss, ich hab ein Komma statt einem Plus geschrieben )
 
Sugave7 schrieb:
Mit 4x AA hat man genug Treppchen weggezaubert, und je höher die Auflösung, desto weniger AA braucht man.
Mit 4xAA ist noch gar nichts gewonnen, du kannst mir nicht erzählen das Treppen dann weg sind.
Shaderflimmern, Alpha Texturflimmern und wenn MSAA sonst versagt bekommst du mit 4xMS keines wegs weg.
Da hilft nur Supersampling, also mindestens 8xS und natürlich T-AA.

Die hohe Auflösung rettet dich auch nicht:
4xAA bedeuted bereits eine vervierfachung der Auflösung, also statt 1024x768 mit 4xAA bräuchtest du 2048x1536 mit 1xAA.
Das Ersteres schneller läuft, auf einem billigen Monitor darstellbar ist und weniger flimmert sollte klar sein.

Aber gerade du als frischer 9800GX2 User verblüffst mich mit dieser Aussage oder hast du erkannt, das der Karte mit AA schnell der VRAM ausgeht?


@Scandalous
Ich meine auch 16xAF + mindestens 8xS/16xCS.
 
Zuletzt bearbeitet:
@8MiLe,

vielen Dank, wenigsten einer, der meine Meinung für Korrekt hällt. Wenn zocken dann alles was die Hardware hergibt.
 
Deine Meinung? Deine Meinung war, dass die 3850 bei 8xAA und 16xAF schneller ist als die GX2.
Damit hast du auch nur bedingt Recht, da du dich auf die Werte mit niedrigeren Auflösungen berufst. Die Frage ist, ob es auch bei höheren Aufösungen so ist:
Schau dir mal die Frameraten bei 1920x1200 bei 8xAA + 16xAF an:

Das einzige Spiel, wo eine Auflösungen von 1920x1200 getestet wurde war Crysis, aber da lagen die Maximalwerte bei 9,2 FPS ( was schlichtweg nicht vertretbar ist ) und die 3850 scheint es gar nicht erst in die Liste geschafft zu haben...

Also behaupte niemals, dass ne 3850 schneller bei 1920x1200 ist, da du dich auf irrelevanten Zahlen beruhst.

Ach ja, und @8Mile: Es ist nicht sonderlich verwunderlich, dass Spiele auf einem Mini-Bildschirm ( 19" ) auch bei 8xAA + 16xAF ohne grosse Probleme laufen, aber bei 24"-Monitoren sieht das anders aus...
 
Zuletzt bearbeitet:
Ich hab auch nicht gesagt, dass 8xAA unbedingt toll läuft in 1920x1200, aber es sieht einfach besser aus als 4xAA - von daher hat es imo schon eine Daseinsberechtigung und jemand der gerne mit 8xAA spielt, sollte das doch auch tun.. Mir geht es nicht drum unbedingt meine Hardware 100% auszulasten, so wie tobi41090 das sieht, ich spiele mit 8xAA, wenn möglich, aus optischen Gründen. Zieht doch nicht immer Behauptungen aus meinen Aussagen, die ich nie getroffen habe..
 
@Scandalous,

das ist ja ein anderes Thema. Man kann über Grafikkarte in mehreren Bereichen teilen. Ich habe mehr Meinungen zu verschiedenen Bereichen. Das wollte ich damit sagen. Bzw Synony dafür = Sehe ich genauso.
 
wuschiii schrieb:
mein gott, fast 50fps in crysis! da lohnen sich die 500€ ja

na sicher, ist doch günstig, geradezu ein Schnäppchen, naja dann müssen aber auch die Stromkosten hinzu berechnet werden, denn hier hat ja nvidia ganze Arbeit geleistet. In Kürze, so ist vorstellbar, wird uns wohl auch, nach dem nvidia-Logo, ein EON-Logo beehren, wenn wir ein Spiel spielen wollen. Das sind eben neue Energien.

Und nochmal abschließend, wie kann man denn nur 500 EUR für eine solche Karte ausgeben? Dabei sein ist alles? Das teil ist nur ein Lückenfüller.

Ich würde mir wünschen, wenn Nvidia, wie auch ATI, sich endlich, ernsthaft bemühen würden, den Energieverbrauch dieser Karten zu senken, denn das ist alles andere als noch angemessen..
 
Ich werd es wohl nie verstehen, das Einige auf die paar Watt rumeiern, aber ich schreibe es gerne öfter.

Besonders die, die gleichzeitig einen übertakteten Quadcore und eine 8W sparsamere 3870X2 ihr eigen nennen.

Ich kann nur gegenhalten wie viel des Gesamtenergiebedarfs macht eine um 8W verschwenderische Grafikkarte aus? 0,0000001%? Lächerlich, jetzt züruck zu den eigentlichen Kritikpunkten, den SLI/CF Problemen und den geringen VRAM, der nicht vergrößert wird.
 
@299:

Ich behaupte, 8xAA + 16xAF sei praxisfern.

Du antwortest, ich soll keinen Blech erzählen und sagst dann selber, 8xAA sei Praxisfern, etwas gegensätzlich...

Und was ist bitte T-SSAA und 8xCS? Hab' noch nie in Spielen gesehen, dass es derartige Einstellungen überhaupt gibt

Kommen wir zum Schluss:

Die GX2 kann überzeugen ( auch in höheren Auflösungen ), auch wenn das Preis/Leistungsverhältnis ungenügend ist und bei 8xAA + 16xAF fest einbricht ( obwohl das nicht so schlimm ist, da wenige Leute in höheren Auflösungen in diesen Einstellungen spielen )

Ist damit jeder einverstanden :D ?
 
Zuletzt bearbeitet:
T-SSAA oder auch TRSSAA: Supersampling Transparenz Anti-Aliasing
8xCS (Eigentlich eine "falsche" Bezeichnung, aber gut um es vom 8xQ[das, was CB testet] abzugrenzen, also 8x wäre besser aber dann verwechselt man es noch): Coverage Sample Anti-Aliasing

Du kennst scheinbar nicht die verschiedenen AA Modi.
Leider sind auch Tests, wie der hier bei CB schuld daran, wo immer die selben AA Modi genommen werden.

Hier kannst du erstmal etwas nachlesen: http://nhancer.com/?dat=d_enhancements#AA oder google fragen.


Zum Schluss:
Mit dem einbrechen bei 16xAF bin ich nicht einverstanden, das zieht egal ob auf G92, G80 oder Dual G92 kaum FPS.
Einbruch bei 8xQ ist nunmal bei allen G80/92 der Fall, bei der GX2 dank VRAM Mangel verstärkt. Aber wie in meinen vorherigen Post geschrieben ist 8xQ eh uninteressant, wie siehts bei 8xS aus?
 
Zuletzt bearbeitet:
Ja, stimmt, bei 16xAF muss es nicht direkt einbrechen ( war etwas unglücklich formuliert, sollte heissen 8xAA + 16AF )
 
Auch wenn es nicht so ganz in eure Diskussion passt aber ich habe da etwas interessantes und "frisches" gefunden: GT200 wird 9900GX2/GTX. Jetzt drehen die Nvidianer mit ihrer Namensgebung ganz am Rad. :D :freak:

MfG Pantherfibel
 
interessant. Kann ich mir aber ehrlich gesagt nicht vorstellen. Gleiche Namenskundgebung noch mim G90 in Verbingung? Sehr unwarscheinlich, wenn du mich fragst.

Da können wir leider nur abwarten und Tee trinken.^^
 
Das sieht ja nicht gut aus, NV sollte mal tiefer in der Schublade budeln oder die Jungs wissen schon, das ein etwas optimierter G92 gegen RV770 mithalten kann.... :(

Bleibt einem als Käufer nur die Option auf G100 und R800 zu warten.
 
Kann einer auch was Positives über die 9800GX2 sagen???

Ich habe meine gestern eingebaut... habe zwar nur wenig Zeit gehabt, sie auf Herz und Nieren zu prüfen.
aber bis jetzt kann ich nichts negatives sagen...(hatte aber auch nur gut ne halbe Stunde zum testen...)


Frage: Weiss jemand wie ich den die Karte für Zwei Monitoren einstell??? Bis jetzt bekomm ich nur einen zum laufen. und der Zweite Monitor ist "grau", wie bei SLI... (vorher hatte ich 2 7800GTX im SLI Betrieb und da man ja auch keine zwei Monitore befeuern...)
 
Zuletzt bearbeitet:
Zurück
Oben