Test GeForce GTX 280 im Test: Neues Nvidia-Flaggschiff lässt die Konkurrenz hinter sich

LazyGarfield schrieb:
Weil normalo User keine Vergleichsmöglichkeiten haben...

Wen interessiert, wie ein Spiel bei 4 GHz skaliert, wenn dieser Takt nicht Standard ist? :rolleyes:

Wen es interssiert? Vielleicht die Graka!?

Wie oft soll das Thema noch durchgekaut werden. Es sollen Grafikkarten und keine Systeme getestet werden. Der Takt der CPU wird so hoch gewählt, um damit einer eventuellen CPU-Limitierung bei relativ niedrigen Auflösungen so gut es geht entgegenzuwirken.
 
Sgt.Speirs schrieb:
Zu (2): Leiser wie die GTX280 dürfte aber kein Problem sein^^

Zu (3): Zu einen tauchen die besagten Microruckler nur bei ca 30fps auf (wer damit spielt ist selber schuld) und zum anderen behauptet ATI/AMD das Microruckler-Problem in Griff bekommen zu haben.



naja die 4850 soll ja angeblich schon so heiss werden dass man Spiegeleier drauf braten kann.

Da bin ich dann auch mal auf 4870 und X2 gespannt.
 
Also bei dem Crysis-Teil musste ich doch stark schmunzeln. Selbst mit einem GTX 280 SLI läuft es nicht wirklich rund. LOL sag ich da nur. Und dann auch noch so ein Staubsauger und Stromfresser wie die FX 5800 Ultra. Danke Nvidia, das Teil will ich nicht mal geschenkt haben. Nun liegen meine Hoffnungen auf ATI, sorry AMD :-)
 
hi!

wieso wird mit veralteten treibern getestet? (ich vermute mal, das die tests schon vorlagen und man sich arbeit ersparen wollte sie mit aktuellen treibern zu wiederholen. lieg ich damit richtig?)

wieso wurden wieder mal die min fps, bzw fps verläufe aussen vor gelassen, was gerade beim test der 280 relevant ist und die karte in nem anderen bild erscheinen lässt.

ich bin alles andere als ein nvidia fanboi, aber wer einen kompetenten, guten test lesen will, dem empfehle ich den test auf www.pcgameshardware.de. sehr vorbildhaft, mit den neuesten treiebrn (8.5 bei ati und dank treibermod sogar demselben treiber auf den gforces) und fps verläufen/min fps werten.

leider muss man der computerbase spätestens seit dem von seinem fazit her total missglückten xp vs vista test immer laienhaftere qualität zusprechen. schade, hoffentlich erfangt ihr euch wieder!
 
klikidiklik

Wenn nur mit Triple-SLI bei Crysis gute Werte erzielt werden (unter sehr hohen Grafikeinstellungen versteht sich), dann liegt das Problem doch eher beim Spiel und nicht bei der Karte. Crysis ist einfach scheisse programmiert.
 
Hier mal das Fazit des PCGH Tests:

Fazit: Spielbarkeit Nvidia Geforce GTX 280
Rein von der Länge der Balken her ist Nvidias neues Flaggschiff doch nicht soviel schneller als aktuelle Karten - entgegen den hochgeschürten Erwartungen. Für das Spielgefühl ist das aber nicht abträglich. Keiner der mit im Testfeld vertretenen Grafikbeschleuniger stellt aktuelle Titel so flüssig dar wie die GTX 280. Weder schlechte Skalierung noch Mikroruckler noch Lags oder Einbrüche aufgrund von übervollem Video-RAM bringen die Geforce zu Fall. Und deswegen ist die GTX 280 dann doch das, was alle erwartet haben - die Karte mit dem längsten Balken der Welt.

http://www.pcgameshardware.de/aid,647492/Test/Benchmark/&page=5

Mehr muß man nicht hinzufügen.
 
Zuletzt bearbeitet:
Das hat mal gar nichts mit "scheiße Programmiert" zu tun. Dazu kann man sich mal im Forum von 3DCenter umsehen. Dort wird erklärt, warum Crysis so Ressourcen verschlingt. Das nur mal als Info nebenbei. Ob einem das Spiel gefällt, ist dabei eine ganz andere Geschichte.
 
Vielleicht kommt ja noch ne ULTRA 280 raus. :>

Edit:

Also mit "mal umsehen" kommen wir hier nicht weiter.
 
@lazygarfield

ein test mit einer kleinen cpu macht quasi 0 sinn.
die cpu würde eine solche highend-karte bremsen und plötzlich wären alle karten gleich schnell.
also völliger schwachfug, eine karte mit einer kleinen cpu zu testen ;)

denn was würde man daraus erkennen, welche schneller ist / wäre? nix.

mfg
 
Naja.....ein Shop bietet die GTX 280 schon für 466€ an, auch wenn er sie erst bestellen muß.
Einen Tag nach Vorstellung ist das schon bemerkenswert, und kommt dem angemessenen Preis schon näher.

Gruss Hr.Rossi
 
Also ich bleib erst mal bei meinen zwei 9800GTX im SLI und wart (bis auf weiteres) auf die nächste Generation. Höher als 1600x1200 kann ich mit meinem 20" eh nicht auflösen. Denoch ein sehr ausführlicher und hilfreicher Testbericht von CB! Danke.
 
@ fönfrisur
Naja, wenn ein Test mit einer kleineren CPU zusätzlich dabei wäre, fände ich das doch auch ziemlich interessant! Und ob eben mit selbigem eine solche Karte auch noch was bringt.
Ich hab den guten alten AMD x2 6000+ @ 3,2 GhZ und würde da schon gern in etwa wissen, wie gut das mit einer GTX 280 werkeln würde :)
 
Irgendwie finde ich es extrem erbärmlich von den Spiele-Entwicklern, die es schaffen, mit minimalen Abstrichen bei der Grafik, die Spiele für eine Konsole zu optimieren aber es für den PC nicht! machen.

Das ist eine absolute Frechheit.

Wenn der Trend so weiter geht, dann wird der PC für die meisten Spiele immer nutzloser.
 
Picknatari schrieb:
Das war das erste was ich bei dem Test geprüft habe und war genauso erstaunt. Ist der Einsatz des 8.3 Absicht, Faulheit oder Nachlässigkeit?

Bin mal auf das Testsetting für die 4000er Serie gespannt.

Bei der 4000er wird sicherlich ein neuer Treiber (8.6) kommen, ein älterer erkennt eine neue Graka logischerweise nicht.

Die 3870 wurde eben zuletzt mit dem 8.3er getestet, deswegen steht der drin. Jedesmal alles neu durchzutesten macht bei den meist sehr geringen Abweichungen kaum Sinn. Die CB-Redakteure machen das nunmal nicht hauptberuflich.

Namenlos04321 schrieb:
Das hab ich auch als erstes nachgeschaut ! und ich staunte nicht schlecht als ich die 8,3 sah und nicht die 8.5 oder 8,4.
Oder hat CB die Karte schom solange das der 8,3 aktuell war?

siehe oben

NTARS schrieb:
hi!

wieso wird mit veralteten treibern getestet? (ich vermute mal, das die tests schon vorlagen und man sich arbeit ersparen wollte sie mit aktuellen treibern zu wiederholen. lieg ich damit richtig?)

ja

@SSJ: Das kann man so nicht vergleichen. Ne Konsole hat bestimmte Hardware, die sich logischweise nicht ändert. Dafür gibts Entwicklungstools vom Hersteller. Das heißt die Entwickler können ihre Software super auf diese eine Hardware abstimmen. Beim PC gibts im Prinzip unendlich viele Hardwarekombinationen, außerdem solls aufm LowEnd-Rechner spielbar sein genauso wie aufm HighEnd-Rechner. Das macht die Sache ein ´bißchen´ komplizierter.
 
NTARS schrieb:
ich bin alles andere als ein nvidia fanboi, aber wer einen kompetenten, guten test lesen will, dem empfehle ich den test auf www.pcgameshardware.de. sehr vorbildhaft, mit den neuesten treiebrn (8.5 bei ati und dank treibermod sogar demselben treiber auf den gforces) und fps verläufen/min fps werten.

Bitcatcher schrieb:
Hier mal das Fazit des PCGH Tests:

Fazit: Spielbarkeit Nvidia Geforce GTX 280
Rein von der Länge der Balken her ist Nvidias neues Flaggschiff doch nicht soviel schneller als aktuelle Karten - entgegen den hochgeschürten Erwartungen. Für das Spielgefühl ist das aber nicht abträglich. Keiner der mit im Testfeld vertretenen Grafikbeschleuniger stellt aktuelle Titel so flüssig dar wie die GTX 280. Weder schlechte Skalierung noch Mikroruckler noch Lags oder Einbrüche aufgrund von übervollem Video-RAM bringen die Geforce zu Fall. Und deswegen ist die GTX 280 dann doch das, was alle erwartet haben - die Karte mit dem längsten Balken der Welt.

http://www.pcgameshardware.de/aid,647492/Test/Benchmark/&page=5

Mehr muß man nicht hinzufügen.

Auch zu dem PCGH Test muss man etwas hinzufügen.
  • Sehr kleines Testportfolio (nur drei Spiele) und dabei ein Titel, der extrem Video-RAM lastig ist. Man kann eben einfach die Spiele auswählen, auf denen eine bestimmte Karte gut performt. Insgesamt sind die Ergebnisse schlecht verallgemeinerbar, das heisst aber nicht, dass ich die getesteten Spiele des CB-Tests unbedingt besser finde, aber immerhin sind es mehr. Dieser Kritikpunkt wiegt in meinen Augen nicht so schwer.
  • Aber: PCGH testet kein SLI der 280 GTX ... und redet trotzdem von Mikrorucklern. Mikroruckler treten aber nur bei SLI auf. Wie kann man eine Aussage über etwas machen, was man gar nicht testet?
  • Und: PCGH scheinen die Mikroruckler nicht verstanden zu haben, denn sie verwenden die FRAPS-Zeitreihen, wo für jede Sekunde die Framanzahl ausgegeben wird. Mikroruckler treten aber gerade dann auf, wenn innerhalb einer Sekunde die Frametimes schwanken. Mikroruckler können bei dieser Messweise gar nicht erfasst werden.
 
Genau wie erwartet.


Ist ne Ueberlegung wert.
 
Danke CB für den Test...

Hab mir grad nen 24er Moni reingezogen und warte nun ab,
wie sich die neuen Karten bei 1920x1200 schlagen.

Dann gibts entweder ne Neue, oder meine Alte bleibt eben noch länger drin.

Wichtig für mich ist die Lautstärke, SLI und CF interessieren mich nicht
und bei Preis / Leistung siehts ja bei den Topmodellen eh nicht gut aus.

Gruss Seft
 
Einige Kommentare hier sind einfach irrational!
Selbstverständlich durften wir eine Verdoppelung der Leistung gegenüber der 8800 GTX postulieren. Wenn man nämlich realisiert, dass die 7800 GTX eine Differenz von mehr als 150% Leistung zur 8800 GTX aufweist- wie auch bei der 6800 Ultra-, ist der Preis und die Leistung der GTX 280 inakzeptabel!


Bleibt nur zu hoffen, dass der Preis bald diminuiert wird und eine optimierter Treiber mehr Leistung generieren kann.
 
@homerjs


"Auch zu dem PCGH Test muss man etwas hinzufügen.

* Sehr kleines Testportfolio (nur drei Spiele) und dabei ein Titel, der extrem Video-RAM lastig ist. Man kann eben einfach die Spiele auswählen, auf denen eine bestimmte Karte gut performt. Insgesamt sind die Ergebnisse schlecht verallgemeinerbar, das heisst aber nicht, dass ich die getesteten Spiele des CB-Tests unbedingt besser finde, aber immerhin sind es mehr. Dieser Kritikpunkt wiegt in meinen Augen nicht so schwer.
* Aber: PCGH testet kein SLI der 280 GTX ... und redet trotzdem von Mikrorucklern. Mikroruckler treten aber nur bei SLI auf. Wie kann man eine Aussage über etwas machen, was man gar nicht testet?
* Und: PCGH scheinen die Mikroruckler nicht verstanden zu haben, denn sie verwenden die FRAPS-Zeitreihen, wo für jede Sekunde die Framanzahl ausgegeben wird. Mikroruckler treten aber gerade dann auf, wenn innerhalb einer Sekunde die Frametimes schwanken. Mikroruckler können bei dieser Messweise gar nicht erfasst werden."


-----------------------------------------------------------------------------------------------


fraps bietet die option die genaue zeit der ausgegebenen frames anzuzeigen. somit kann man sehr wohl mit fraps die mikroruckler erklären, so wie es auch alle hardwareseiten/mags auch machen.


pcgames hardware testet in quasi 3 artikeln, 1 technikartikel, 1 artikel der explizit auf 3 games eingeht und 1 test mit 10 games und ein paar synthetischen tests (3dmark).

somit sollte mal die qualität vom pcgameshardwaretest ausser frage stehen und falsche behauptungen hier gleich am ansatz entkräftet werden.
es bleibt nach wie vor zu hoffen, dass computerbase wieder den weg zu mehr professionalität und somit wieder anschluss zu den immer weiter vorziehenden seiten wie pcgh findet.
 
Zuletzt bearbeitet von einem Moderator: (Lange Bindestrich-Linie gekürzt)
Hm, nettes Teil die 280 GTX.
Ich habe mir vor 2 Wochen eine EVGA 9800 GTX gegönnt :) (vorher ATI X2900XT)
Bei 189,- EUR konnte ich nicht wiederstehen ^^
Wenn ich sehe, das beim Spielen meines derzeitigen Lieblingsspieles CoD4
die 280 GTX 20-30% schneller ist, sollte sie verglichen nicht über 280,- EUR kosten.
Für den Preis ist das schlichtweg Unsinn! Wer legt denn für 30 % mehr Leistung 250% an Geld mehr auf den Tisch ??? (Außer die Kiddy Pappnasen)
Ich war etwas skeptisch als ich meine 9800 GTX geholt habe, bin nun aber beruhigt.

Zum "Stromsparen" takte ich sie im 2D Betrieb per Rivatuner auf das Minimum (ca. die hälfte des Taktes), so gehts auch ;)

Bin jetzt mal gespannt auf die 4870 und die X2. =:-O

Trotzdem Kompliment an nVidia, die Karte ist für eine Singlekarte wirklich schnell.
Wie wärs denn mit einer 280 GX2??? ^^
Mal im Ernst, endlich haben die Stromsparmechanismen eingebaut, die hatte schon meine alte X1900XT (nicht so gut, aber sie hatte es), da wurde der Takt im 2D Betrieb runter geschraubt.
Da AMD in 55nm und nVidia immer noch in 65nm produziert, dürfte AMD hier wohl eher Geld verdienen als nVidia. Warum allerdings AMD die Hauseigenen CPUs noch immer nicht im 55nm produziert.... wer weiss. Das das viel bringt beweist Intel.
 
Zuletzt bearbeitet:
Zurück
Oben