Test GeForce GTX 280 im Test: Neues Nvidia-Flaggschiff lässt die Konkurrenz hinter sich

Wie viele meiner Vorredner schon meinten ist der Preis wohl das größte Problem der Karte. Ansonsten eigentlich ganz nett, zumindest, wenn man nicht zu der Träumerliga gehört hat, welche an den unrealistischen Performanceschub geglaubt haben.

Ich bin mal gespannt:
1. Wann die Preise deutlich sinken werden (ATI könnte mit dem Launch vielleicht etwas bewirken)
2. Wann es alternative Kühlkonzepte geben wird
3. Wie lange es dauern wird, bis die Karte einen Die-Shrink erfahren wird (reines Wunschdenken meinerseits ;) )
 
An sich nicht schlecht für ne Single GPU-Karte ... aber der Hype im Vorfeld hat es ihr "zu" schwer gemacht. Und mit dem Preis reißt man wirklich keinen mehr vom Hocker ...

Warte erstma auf die Radeons ...
 
Naja, ich hätte mir eigentlich mehr erwartet - aber was solls, da die mitlerweile gängige 22" Auflösung von 1680 x 1050 ja eh nicht getestet wurde, ist imo das Ganze natürlich ohnehin nur bedingt aussagekräftig :rolleyes:...
 
MammutXTX schrieb:
also mal ganz davon abgesehen, dass ich nie 500 € für ne grafikkarte raushauen werde und somit die GTX 280 sowieso uninterresant für mich ist, hab ich das gefühl, das hier einige mit ihren erwartungen übers ziel hinaus geschossen sind.
gucken wir uns doch mal das performancerating des launcherartikel der 8800 gtx an und achten darauf, wie diese sich von der konkurenz absetzten konnte (ich nehme jetzt nur die mit AA und AF, da sich ja wohl niemand ne gtx 280 hohlt und dann diese option abschaltet):

1280x1024 4xAA/16xAF
Geforce 8800 GTX: 25% schneller als eine 7950 GX2 und 57% schneller als eine Radean X1950XTX

1600x1200 4xAA/16xAF
Geforce 8800 GTX: 29% schneller als eine 7950 GX2 und 62% schneller als eine Radean X1950XTX

2560x1600 4xAA/16xAF
Geforce 8800 GTX: 51% schneller als eine 7950 GX2 und 68% schneller als eine Radean X1950XTX

ohne zweifel waren das sehr beeindruckende werte und nun gucken wir uns nochmal die GTX 280 an:

1280x1024 4xAA/16xAF
Geforce GTX 280: 2% schneller als eine 9800 GX2, 32% schneller alse eine Radeon HD 3870 X2 und 44% schneller als eine Geforce 8800 Ultra

1280x1024 8xAA/16xAF
Geforce GTX 280: 49% schneller als eine 9800 GX2, 52% schneller alse eine Radeon HD 3870 X2 und 64% schneller als eine Geforce 8800 Ultra

1600x1200 4xAA/16xAF
Geforce GTX 280: 12% schneller als eine 9800 GX2, 29% schneller alse eine Radeon HD 3870 X2 und 47% schneller als eine Geforce 8800 Ultra

1600x1200 8xAA/16xAF
Geforce GTX 280: 138% schneller als eine 9800 GX2, 32% schneller alse eine Radeon HD 3870 X2 und 57% schneller als eine Geforce 8800 Ultra

2560x1600 4xAA/16xAF
Geforce GTX 280: 21% schneller als eine 9800 GX2, 42% schneller alse eine Radeon HD 3870 X2 und 56% schneller als eine Geforce 8800 Ultra

so, wenn man das jetzt mal sacken lässt, dann müsste einem eigentlich auffallen, dass das wahrlich keine schlechten werte sind, oder? sicherlich ist das nicht so heftig, wie damals die 8800 gtx sich präsentieren konnte, allerdings muss man da auch mal klar machen, dass das ein ausnahmechip sondersgleichen war. solch leistungssprünge sind wahrlich nicht die regel.
die gtx 280 hat schwächen, ohne zweifel: wieso hat sie keinen Direkt 10.1? was soll der laute lüfter? wenn einer 500 € hinblättert, dann kann er doch auch hier etwas mehr erwarten! und übers PL-verhältniss müssen wir überhaupt nicht reden, wobei dass den jeniegen, die 500 € und mehr für eine grafikkarte ausgeben, sowieso egal sein wird.
was bleibt ist die schnellste grafikkarte auf dem markt mit schwächen. für alle anderen dürfte sich sowieso eher die frage stellen: GTX 260 oder 4870? 9800 GTX oder 4850? Oder reicht doch noch ne 8800 gt?
Von daher, ruhig bleiben, mal ein bischen über die eigenen erwartungen nachdenken, die benchs der 4800er serie abwarten, sowie der gtx 260 und irgendwelche absurden vergleiche mit einer hd 2900xt stecken lassen (die war nämlich nie auch nur ansatzweise die schnellste karte auf dem markt).

mfg

Alles schön und gut, aber für 300 Euro kriegst du eine 9800GX2 bei Ebay, meist 3-4 Wochen alt und mit Rechnung :)

Man spart also 200 Euro, und hat nahezu die gleiche Performance, DAS war halt damals bei 8800GTX Release so nicht gegeben.

Und wie gesagt, mir völlig egal, ob 20 GPUs, oder eine Single Core Karte, was entscheidend ist, sind die FPS, und mittlerweile unterstützen die meisten Spiele SLI / CF. Mikroruckler fallen ja nun auch erst bei recht niedrigen FPS auf.

Ich wollte mir eigentlich eine GTX260 holen, doch nun wird es wie es aussieht wohl doch eine 9800GX2, oder eben eine 4870. Ich kann einfach nicht mehr für eine GTX260 zahlen und habe dann weniger FPS als mit einer 9800GX2.

Da komm ich mir doch dann bescheuert vor ^.^
 
Zuletzt bearbeitet:
Nilssonvenjan schrieb:
Der Mensch hat, statischtisch gesehen, weniger als 2 Beine.:)

Relativ, Männer zumindest haben, wenn man´s genau nimmt, 2.xx Beine :)
 
Mikroruckler ist auch so eine Sache. Wie lange gibt es CF/SLI??? Warum ist das erst vor kurzem aufgefallen? Wenn es so gravierend ist, wie alle sagen, warum hat man das nicht schon zu Anfang der CF/SLI-Geschichte bemerkt?

Bei meinem CF-Gespann ist mir auch nichts aufgefallen. Jetzt, wo man es kennt und speziell drauf achtet, fällt es wirklich auf, aber wenn man es nicht kennt und dementsprechend eben nicht drauf achtet, juckt es kaum.

Aber genau das Argument, was du anführst, wird dafür sorgen, dass der Preis der GTX 280/260 relativ schnell fallen wird. Vor allem, wenn die neuen ATi dazukommen. nVidia wird da nicht viel anderen übrig bleiben und u.U. ihre Karten selbst subventionieren, so wie es z.B. Microsoft bei der xbox gemacht hat.
 
Neu hinzugekommen ist ein „Blu-ray-DVD-Playback-Mode“, indem der GT200 nach eigenen Angaben nur noch 35 Watt benötigt. Im „Idle/2D-Modus“ soll die Leistungsaufnahme auf 25 Watt sinken.

Um das zu erreichen senkt der GT200 nicht nur massiv seine Taktraten sowie die Spannungen, darüber hinaus betreibt die GPU „Clock Gating“. Das bedeutet, dass der Rechenchip einzelne, nicht verwendete Blöcke abschalten kann, die somit keinen Strom mehr benötigen.
Wow. Da sag ich mal endlich! Sowas ist schon sehr sehr lange fällig. Jetzt fehlt nur noch: Wirklich maximal 25 Watt im 2D-Modus (oder sogar noch weniger) ("beheben des Treiberbugs"), und ein Lüfter, der dann aufhört zu drehen oder unhörbar ist. UND dann sollten sie dieses Feature auch in jeder, sprich auch in Mid- und Lowend Grakas implementieren, so dass man auch ein Silent-System draus basteln kann, und eine Grafikkarte hat, die im Windowsbetrieb nur noch 15-20 Watt schluckt :)
Aber schonmal ein Schritt in die richtige Richtung, das war schon längst fällig.
 
Warum werden im Test keine 8800/9800er im SLI geführt??? Diese müssen sich in P/L sicherlich nicht gegen GTX280 verstecken.
--------------------------------------------------------------------------------
Weils fast das gleiche ist wie ne GX2

FALSCH! Eine 9800 GTX SLI ist nachgewiesen (Computerbase!) 30%! schneller als 9800 GX2. Damit würde sie GTX280 in allen disziplinen SCHLAGEN. Dabei kostet 9800 SLI gerade mal 400€ und GTX280 550€.

GTX280 wird somit vom eigenen Vorgängermodell im Preis/Leistung zum Tode getrampelt. Versucht das CB zu verschleiern???
 
Vielleicht "doppelt so laut" vom Messwert her, aber ob jetz 2*10^-3 oder 4*10^-3 macht ja auch keinen Unterschied wirklich (hörbar).
 
@ AvenDexx

Unter XP ist das Prerender-Limit kleiner zB. Zudem war die 7950GX2 nicht groß verbreitet, SLI ist erst mit den 8000ern "groß geworden".

@ yurij

Ich schrieb auch "fast" das gleiche.

cYa
 
nun ja wirklich ernüchternd...

Die SLI Performance ist überaus beeindruckend aber die der EInzelkarte wohl eher nicht
Bleibt einem nur noch über auf die hoffentlich günstigeren AMD Karten zu warten
 
y33H@ schrieb:
@ AvenDexx

Unter XP ist das Prerender-Limit kleiner zB. Zudem war die 7950GX2 nicht groß verbreitet, SLI ist erst mit den 8000ern "groß geworden".

Gerade dass es mit der 8er-Serie groß geworden ist, sollte das beste Beispiel dafür sein, dass es schon hätte früher auffallen müssen. Die Leute, die sich vorher nämlich schon mit der Technik auseinandergesetzt haben waren da weniger die Otto-Normal-User, eher die Enthusiasten, denen sowas früher auffällt.

Weiterhin ist die 8er-Serie ja nun auch schon einige Zeit am Markt erhältlich und dennoch sind die Mikroruckler erst jetzt aufgefallen.

Wie gesagt, sie sind ja vorhanden, wurde ja auch schon deutlich aufgezeigt, aber ich denke dennoch, dass das Problem nicht so groß ist, wie es momentan gehandelt wird. Nur ist das ja wieder ein negativer Punkt gegen die Technik und so kann man sie leicht Totreden (Mikroruckler sind ja mit das Totschlagargument), auch wenn SLI/CF eigentlich gar keine soooo schlechte Idee ist.
 
tombman hats ja "entdeckt", mal den Thread im 3DC suchen ... vom 14.07.07 ... hmmm. Schlimmer finde ich eig die Skalierung. Mit 30 Fps zock ich eh nicht, also sind mir MRs egal, aber die Skalierung *schüttel*

cYa
 
ab 30fps fallen die au net auf,und da man mit Mutli gpu meist drüber ist, sollte es auch net als totargument für die ganzen leute verwendet werden,die behaupten,man könne mutli gpu net mit single gpu vergleichen....die skalierung ist das einzige problem,wie der kollege Y33 schon sagt.


gruß
 
So oder so wird die Karte ihren Absatz finden, alleine schon wegen der Sache mit "Schnellste Single Chip... usw.".

Ich warte noch auf die RV770 Tests :lol:

Deutschlaaaaaaand oleeeeee :evillol:
 
Na bei der schwachen Vorstellung wünsche ich NV noch viel Glück, das werden sie brauchen. Die 4870 wird die neue GTX wohl in einigen games schlagen und die 4870X2 ungespitzt in den boden rammen :)
 
Code:
Computerbase Performancerating Qualität 1600x1200 4xAA/16xAF
9800GX2   100% 58dB 379Watt 350€  0.26FPS/Watt 0.28FPS/€
9800SLI   128% 57dB 436Watt 400€  0.29FPS/Watt 0.32FPS/€
GTX280    112% 58dB 360Watt 550€  0.31FPS/Watt 0.20FPS/€
GTX280SLI 199% 60dB 557Watt 1100€ 0.35FPS/Watt 0.18FPS/€

And the "yurij Award" goes to... 9800SLI

zumindest bis die Preise fallen und Treiber wegoptimiert werden (ruhe in Fireden mein armes, beim lebendigen Leibe begrabenes, Feature nView)
 
Ich kanns einfach nicht verstehen ... wie kann denn die GTX280 bei Crysis in normalen Settings die wohl am öftesten benutzt werden , sprich 1280 mal 1024 auf very ohne aa und ap langsamer sein als die GX2 ???

so eine enttäuschung !
 
wenn die 9800GTX (GX2) nicht an einem von nvidia künstlich kastrierten 512MB Speicher gelitten hätte, würde GX2 die GTX280 sogar in höheren crysis auflösungen und vollen AA/AF wegpusten.

nvidia schien von anfang an zu wissen, dass sie die eigenen vorgänger chips schwer zu übertreffen haben wird. vermutlich deshalb wurde von anfang an dafür gesorgt, dass die alten high-end chips bloss keinen potenten 1GB speicher bekommen.

ich weiss dass computerbase den HD4XXX review bereis gemacht hat und wartet nur noch darauf dass NDA fällt. aus dem zurückhaltenden fazit beim GTX280 review kann ich jetzt schon erahnen dass diesmal ATI Karte die wahre thronfolge im highend sein wird... der HD4XXX review soll wohl wie eine bombe einschlagen. nur noch die 2 tage abwarten, dann wissen wir es.
 
Zuletzt bearbeitet:
ok habs gesehn... man muss halt nur "gründlich" lesen :D

@yurij:

die graka kommt doch heute oder morgen :) noch kleines bisschen geduld :D
 
Zuletzt bearbeitet:
Zurück
Oben