Test GeForce GTX 280 im Test: Neues Nvidia-Flaggschiff lässt die Konkurrenz hinter sich

Zurückblickend komme ich zu dem Fazit, dass der G80 in Form einer 8800GTS / 8800GTX beim Erscheinen die Über-GPU schlechthin war, quasi ein kleiner Meilenstein verglichen vielen Vorgänger-GPUs. Der G80 hat uns mit einem Leistungssprung verwöhnt, den wir natürlich gerne von nun an immer so sehen wollten.

Jetzt, mehr als 1,5 Jahre (eine kleine Ewigkeit verglichen mit dem GPU-Zylus der Jahre zuvor) und X G80 Aufgüsse später, erwarteten viele Leute natürlich eine ebenso große Leistungssteigerung wie damals von der GeForce 7 auf die GeForce 8 Serie. Das Ergebnis steht nun mehr oder weniger fest. Enttäuschend? Zurecht oder nicht?

Wenn ich mir das Performance-Rating (Qualität) anschaue, dann sehe ich zwischen meiner 8800GTX und dem GTX280 doch 50-60-70% Unterschied je nach Auflösung und AA / AF Level. Das finde ich schon mehr als OK und keineswegs enttäuschend.

Eher enttäuschend ist die Lautstärke des Lüfters. Hier hätte ich mir das Niveau der 8800GTS / 8800GTX / 9800GTX erhofft, denn die Temperaturen scheinen ja auch unter Last im grünen Bereich zu sein (hier könnte man auf eine gescheitere Lüftersteuerung seitens der Hersteller hoffen oder selber Hand anlegen). Dann noch die leidige Sache mit dem Stromverbrauch. Gut ist, dass es im Leerlauf eine starke Verbesserung zu geben scheint. Eher schlecht, aber was zu erwarten war, ist der Verbrauch unter Last - ein Tribut an die 1,4 Mrd. Transistoren. Für gewöhnlich läuft die GPU (bei mir zumindest) 90% der Zeit im unbelasteten Zustand, von daher ist der Lastverbrauch kein K.O. Kriterium für mich. Ach ja, der Preis. Der fällt wohl noch wegen, oder besser gesagt, dank ATi. 500-600€ haben die neuen High-End GPU's in den letzten Jahren doch immer beim Launch gekostet, also auch hier für mich nichts Unerwartetes (ATi musste natürlich die letzten Monate einen anderen Weg gehen und eher mit einem besseren P/L Verhältnis überzeugen, wo man doch seit längerer Zeit nicht mehr die Performancekrone im Single-Chip Bereich erlangen konnte). Der Aufpreis von einer GTX260 auf eine GTX280 ist schon recht groß (siehe Alternate etc.), aber so in etwa war auch die Situation damals zwischen der 8800GTS und der 8800GTX (380-400€ <=> 550-600€ beim Launch, Alternate...), mit dem feinen Unterschied, dass man die GTX260 heute schon so um die 330€ bekommt (ich meine mich zu erinnern, dass die 8800GTS da ein wenig drüber lag beim Launch Ende 2006). Alles meine persönliche Meinung natürlich.
 
Zuletzt bearbeitet:
@MammutXTX

Richtig! - Nicht mehr und nicht weniger!


So nVida hat diesmal Vorgelegt, nun warte ich auf Ati. Danach wird geschaut was man gebrauchen könnte (jeder hat seine bevorzugten Auswahlkriterien) und was der Geldbeutel hergiebt ;-)

gruß
monkey


p.s.: Ich hasse alle Fanboykommentare, alle! Keine Firma ist euer Freund, es sei denn sie gehört zu 100% euch! Merkt es euch, versteht was es bedeutet!


Hier damit Ihr euch mal alle abregt -> nur für euch :streicheln:
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Der GT200 bietet erstmals zwei verschiedene Betrachtungsweisen der Architektur an, je nachdem was auf der Grafikkarte ausgeführt wird. Nvidia spricht deswegen gerne von zwei verschiedenen Betriebsmodi, in denen dieselben Einheiten auf teils unterschiedliche Namen hören. So gibt es den „Graphics Processing Mode“ (GPM), der in einer herkömmlichen 3D-Anwendung zum Einsatz kommt, sowie einen „Parallel Compute Mode“ (PCM) für GPU-Computing-Berechnungen mittels CUDA.

Wieso _erstmals_? Die beiden Betrachtungsweisen gab es schon beim G80. Bild aus früherem G80-Artikel: https://pics.computerbase.de/1/5/8/8/6/8-1080.3388358632.png

"Alternative oparting mode specifically for computing" = "Parallel Compute Mode"
 
Aktuelle Spiele?
OpenGL?
ET:Quake Wars?
Seit Monaten, seit mehreren Reviews bemängelt und ignoriert?
Zig verschiedene Spiele mit U3-Engine machen wirklich nix her was Allgemeingültigkeit betrifft. Vor allem wo die Ergebnisse der Engine so unlogisch sind wie in dem leider eh schwachsinnig angelegten Single/Dual/Quad-Core-Test mit 4 GHz. (lol) :(
 
Yoar OpenGL Performance wäre schön zu wissen :/
 
Vendetta schrieb:
Na bei der schwachen Vorstellung wünsche ich NV noch viel Glück, das werden sie brauchen. Die 4870 wird die neue GTX wohl in einigen games schlagen und die 4870X2 ungespitzt in den boden rammen :)

hehe es gibt noch nicht mal ne 4870, da jubeln schon alle, dass die 4870X2 die GTX280 versägt.

na da bin ich ja mal gespannt.

(1) wird die 4870X2 auch nicht grade billig sein
(2) wird die 4870X2 mit ihren zwei Kernen super heiss und schwer leise zu kühlen.
(3) Nach wie vor bleibt die Microruckler Tatsache bei MultiGPU

Die GTX280 ist jetzt schon im Preis von 600 auf 500 runter nach nem Tag.

Wenn die 4870X2 kommt kostet die GTX280 evtl. nur noch 400€, und dann relativiert sich wieder alles.
 
Welche Begründing gibt es dafür, dass in den Benchmarks ein GTX 280 SLI auftaucht aber nicht ein 8800GTX SLI ?! Uns Leser interessieriert auch dieser Performance unterschied!
 
die 280 gtx wird wohl erst so richtig auf die ka**e hauen, wenn games mit physik genutzt wird ;)
das hat ja leider noch niemand getestet/testen können.
dann wird sie vermutl. nix an spiele-performance verlieren, aber physik berechnen können und einen höheren verbrauch aufzeigen.

für irgendwas müssen die 1,4mrd. transistoren ja gut sein.

mfg
 
die neuen nV-karten kann man wegschmeissen. so ein schrott! wenn ich alleine schon die leistungsaufnahme sehe, sind die karten nicht empfehlenswert. der trend geht auch immer mehr zum stromsparen, was ati zum ersten mal gut umgesetzt hat. kann es selber nicht glauben, ati zu loben :)
 
super test!
so jetzt geb ich auch mal meinen senf hinzu:

Die 800Ultra kostete auch mal so viel! und ähnelt der GTX 280 in vieler HInsicht auch.
Und jetzt? jetzt kaufen alle eine 8800GTX, welche der GTX 260 ähnelt, und sind damit glücklich!
 
man muss aber dazu sagen, das es damals quasi keine konkurrenz zur 8xxx-reihe gab. das sieht bei den neuen vermutl. anders aus.

mfg
 
bdk2008 schrieb:
(2) wird die 4870X2 mit ihren zwei Kernen super heiss und schwer leise zu kühlen.
(3) Nach wie vor bleibt die Microruckler Tatsache bei MultiGPU
Zu (2): Leiser wie die GTX280 dürfte aber kein Problem sein^^

Zu (3): Zu einen tauchen die besagten Microruckler nur bei ca 30fps auf (wer damit spielt ist selber schuld) und zum anderen behauptet ATI/AMD das Microruckler-Problem in Griff bekommen zu haben.
 
Zuletzt bearbeitet:
die.foenfrisur schrieb:
die 280 gtx wird wohl erst so richtig auf die ka**e hauen, wenn games mit physik genutzt wird ;)
das hat ja leider noch niemand getestet/testen können.

Endlich mal jemand, der meine Meinung teilt. Ich dachte schon, ich wäre der Einzige, der das sieht :D
 
aber ich hol mir dennoch wohl eine ati 4870. da scheint mir das gesamtpaket runder.
ich brauch nicht unbedingt das beste. aber enttäuschend ist die 280gtx jedenfalls nicht, wie es hier einige schreiben.

mfg
 
Ilaris schrieb:
Zur Kritik:
Catalyst 8.3 ist ne Frechheit

Das war das erste was ich bei dem Test geprüft habe und war genauso erstaunt. Ist der Einsatz des 8.3 Absicht, Faulheit oder Nachlässigkeit?

Bin mal auf das Testsetting für die 4000er Serie gespannt.
 
Weder Faulheit noch Nachlässigkeit. Man hat schlichtweg keine Karte bekommen, die man noch mal mit einem neuen Treiber hätte testen können. Erneut an Testsamples heranzukommen ist gar nicht so einfach, das vergessen aber auch viele.
 
AvenDexx schrieb:
Weder Faulheit noch Nachlässigkeit. Man hat schlichtweg keine Karte bekommen, die man noch mal mit einem neuen Treiber hätte testen können. Erneut an Testsamples heranzukommen ist gar nicht so einfach, das vergessen aber auch viele.

OK, dann hat man seitens CB aber zumindest adäquat darauf hinzuweisen, daß ein wohl nicht optimaler Treiber für einen der Testkanidaten eingesetzt wird. Und dann ist zumindest dieser fehlende Hinweis doch Nachlässigkeit, Faulheit oder Absicht!
 
Das hab ich auch als erstes nachgeschaut ! und ich staunte nicht schlecht als ich die 8,3 sah und nicht die 8.5 oder 8,4.
Oder hat CB die Karte schom solange das der 8,3 aktuell war?
 
Zuletzt bearbeitet:
Zurück
Oben