Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestNvidia GeForce 9800 GX2 im Test: Ein Drittel schneller als die Radeon HD 3870 X2
Der D3D-Teil des Catalyst 8.3 ist absolut identisch mit dem des Betatreiber. Da sollte es eigentlich gar keine Unterschiede geben. Zudem kann ich dich beruhigen: Der xxx123a ist hier keinen Deut schneller als der Cat 8.3
@Wolfgang: Ich spüre da einen gewaltigen Unterschied zwischen den beiden Treibern! Bei den Spielen habt ihr auch niedrigere Fps als ich das habe(also 1280x1024 +AA +AF zu den anderen kann ich nichts sagen)
auf diesen Verbrauch kommst du nur wenn du auch wirklich die Hardware verwendest die CB nutzt!
Und wenn du einen sparsameren Chipsatz am mobo hast und nicht soweit übertaktest, dann kommst du mit sicherheit auf max 350Watt!! Trotzdem sollte dein 500Watt netzteil kein noname produkt sein, sonst geht dir noch dein ganzes System flöten :-/
Ganz nett die neu Karte, aber bei dem Preis werde ich doch lieber zur ATI X2 greifen.
Ich finden den Mehrpreis von 200,- EUR bei rund 20% mehr Leitung bzw. weniger nicht gerechtfertigt.
also sry,
finde die test´s ja echt ned schlecht, aber wie wärs wenn mal mit realistischen systemen getestet wird...
systeme die wirklich die merheit hat, oder wer von euch hat nen 4ghz cpu ?!?
ansonsten bin ich enttäuscht was die graka angeht, um so viel besser is die auch ned als ein sli 8800gtx betrieb´, eher gleichwertig.
Genau wie vermutet - bei 8xAA wird sie von der 3870 X2 angesichts des preisunterschieds geradezu vorgeführt. Und eine solche graka kauft man sich nicht um dann bei 1024 ohne AA zu spielen.
Dazu neue negativrekorde in sachen lautstärke, temperatur und stromverbrauch.
imho die sinnloseste Highendkarte seit langem.
Clubby schrieb:
also sry,
aber wie wärs wenn mal mit realistischen systemen getestet wird...
systeme die wirklich die merheit hat, oder wer von euch hat nen 4ghz cpu ?!?
Was bringts bitte mit nem kleinen X2 (der immernoch ne ganze nummer über dem durchschnitts pc liegt) zu testen nur um dann festzustellen dass die CPU limitiert und die werte der highendgrakas nicht mehr deren wirklichen leistungsunterschied repräsentieren?
aber die Karte ist der größte Reinfall den sich Nvidia seit langem geleistet hat. Wenn eine Grafikkarte in hohen Auflösungen und AA + AF nicht behaupten kann, dann wird sie sicher kein Käufer finden. Für was braucht man denn eine 500 euro Grafikkarte, bestimmt nicht für 1280x 1024. Wenn es über 1600x1200 oder über 4xAA geht dann geht sie grundlos unter!
(G92 Krankeit) ABer der größe hammer ist in meinen Augen die Werte in Crysis . Wenn ein Nvidia optimiertes Spiel, die 9800GX2 vor der 3870x2 in die Knie zwingt ist das in meinen Augen die größe Lachnummer und das noch bei einem Preisunterschied von gut 200 Euro. Am Rande natürlich noch, wurde eine HD 3870x2 mit nem QX9700@4GHZ getestet, einfach nur lachhaft.
man man man................
PS: werde mir bald eine 8800gts kaufen, nur noch mal als Info, nicht das ich als ATI Fanboy abgestempelt werde.
Verstehe nicht was an einer HighEnd-CPU mit HighEndTakt lachhaft sein soll?
Die Karten wurden doch alle mit der selben CPU getestet, und wer sich eine solche Karte kauft hat normalerweise auch die Kohle für einer derartige CPU
sehr ähnlich... die schenken sich da net viel. Der einzige nachteil an 2GT´s ist,dass du ein SLI board brauchst, das rechtfertigt anscheinend den Preis von 500euro. 2GT´s 380euro + 120 euro ein gutes sli board^^.
Also wer sich für fast 500 Euro so eine Karte kauft hat auch garantiert einen grossen Bildschirm und einen gewissen Qualitätsanspruch an die Grafik.
Und in diesem Bereich scheint die Karte ja nicht all zu doll zu sein.
Crysis und Assassins Creed usw leben von der Grafik. Da möchte ich nicht mit LEGO Männchen umher rennen, sondern ordentliche Kantenglättung.
Aber das ist ja Geschmackssache!!!
Gruss ST
Die Karte hat ihren Sinn verfehlt,wie es bei Auflösungen unter 1600x1xxx aussieht intressiert eh keinen,der in erwägung zieht solch ein Stück Hardware zu kaufen - aber so einbrechen in den Auflösungen für die die Karte eigentlich da ist