Test GeForce GTX 280 im Test: Neues Nvidia-Flaggschiff lässt die Konkurrenz hinter sich

Wiesel_X schrieb:
Die karte ist ja nen Totaler Flop. Und nur mal so neben bei ehhmm bei das ist auch noch ein SLI gespan und keine Singlekarte !!! Mich würde es mal interressiern was dich Karte ohne SLI bringt.

Klicke doch einfach nochmal auf den Test, schau dir mal genau die bunten Balken, und den Schwarzen Text davor an, und dann wirst du sehen, das sowohl SLI als auch Single getestet wurde :) ;)
 
Hätte nicht gedacht, das SLI bei So Ultrahohen Auflösungen bei dieser Generation so Gut skaliert.
ich mein bis zu 198% und im schnitt ca 180%.
war es zu anfang nicht iwie 140-160%? (also bei früheren generationen)
da haben die gewaltig was verändert.
Rekord Ist ja aber der Stromverbrauch mit SLI unter Last :-D

trotz der enormen leistung nichts für mich! ist einfach zu teuer.
 
Ich hätte auch etwas mehr Leistung erwartet - und der Preis ist echt zu hochangesetzt.

Bin mal gespannt wie ichdas in den nächsten 4 Wochen einpendeln wird,wenn die 260, 4850 und 4870 draußen sind.

Achja und die Karte istviel zu Laut - kommt mir irgendwie so vor wie damals das FX5800 Modell
 
Wie immer sehr schöner ausführlicher Test!

Also mich hat die Karte total enttäuscht. Dass sie zB bei COD4 trotz doppelt so vielen Transistoren und doppelt so hoher Speicherbandbreite auf 2560x1600, was eigentlich die große Schwäche beim G92 war, nur schlappe 60% vor einer 8800GT liegt, ist mehr als schwach. Und das bei dem fünffachen Preis und dem doppelten Stromverbrauch.

Gruß Timo
 
ganz schön entäuschend.

1280x1024 gx2 schneller und nur 40% über der 9800gtx (das soll doch die hd4870 erreichen!)
1600x1200 gx2 schneller nur 46% über 9800gtx
2560x1600 gx2 schneller und erst hier die versprochenen 50% bzw 55% mehr.


1280x1024 4xAA und 16AF sagenhafte 2% über der gx2 bei 250euro mehrpreis und nur lusche 46% über der 9800GTX einfach erbärmlich bei dem aufpreis
bei 1600x1200 und 2560x1600 mit 4xAA und 16AF ist es fast dasselbe nur ein paar wenige % mehr abstand zu gx2 und 9800gtx.

erst mit 8x AA bzw 2560x1600 mit 4xAA und 16AF schafft die karte einen vernünftigen abstand. Rechtfertig aber immernoch nicht den gewaltigen Aufpreis und die Karte schafft bei den hohen auflösungen mit AA und AF genauso wenig ein flüssiges Bild wie alle anderen Karte auch

es ist gut möglich das in den auflösungen bis 1600x1200 mit 4x AA und 16AF die hd4870 die gtx280 schlagen kann oder zumindest sehr nah rankommt.

Fazit:
Eine misserable Karte von Nvidia, ein grinsen auf dem Gesicht von AMD/ATI und Intel.
 
Zuletzt bearbeitet:
@Sebastian
naja der ram bei ner 3870 wird ja weder runtergetaktet noch die spannung gesenkt und da is wo nix mit 3 watt im idle wenn man mal den verbrauch eines stinknormalem ddr2 moduls bedenkt. dann müsste ja die karte schon fast "aus" sein ...

und am ende zählt was gemessen wird und nich was der hersteller angibt.
amd hat damals auch bei den a64 mit der tdp geschwindelt und das im positiven. einfach mal mehr angegeben obwohl die in wirklichkeit viel weniger verbraucht haben.

aber heute ist das ja anders ...
 
Mr.Mushroom schrieb:
Hoi!

hätte mir wirklich mehr davon erwartet!
Die Leistung der ATI4870 ist auf dem Niveau der ATI HD3870X2 angekündigt und die GTX280 setzt sich maximal 5% von der ATI 3870X2 ab.
Naja, die Chance für die ATI4870!
Was ich noch blöd finde: Warum die Auflösung 1920x1200 nicht im Test ist.

PS:

Greetz.Mr.Mushroom


Maximal 5%??? Bei aller Freundschaft und Liebe, schau dir die Ergebnisse noch mal im Gesamtrating an. Dort wirst du feststellen, dass es doch etwas mehr ist. Im schlechtesten Falle sind es 20% Unterschied zu Gunsten der GTX 280. Wir wollen da mal nicht übertreiben.
 
Ich weis nicht was ihr alle habt - die Karte ist doch eine absolute Granate und wischt mit jeder ATI den Boden. Kein Probleme mit Mikrorucklern und dennoch oft schneller als eine GX2 oder SLI-Lösung, dazu die optimierte CUDA-Fähigkeit.

Keine Frage das diese Karte ein würdiger Nachfolger meiner 8800GTX wird.
 
Naja wenn Geld keine Rolle spielt und man von Preis/Leistung noch nichts gehört hat dann ja :p
 
Die Karte ist bei e-bug sogar schon verfügbar, allerdings doch noch etwas teuer mit 575€.
Ist eine von XFX
 
Nun ja. Was soll man sagen....

Erst mal... schöner Test :) .

Nun zum Ergebniss an sich. Ich finde es irgendwie recht ernüchternd das eine einzelne Karte dieses Preissegments es immer noch nicht schafft Crysis @ VeryHigh bei höheren Auflösungen flüssig zu bekommen. Ich selbst habe gestern mit meinem SLI Verbund ein bischen Crysis gebencht und komme durch die Reihe auf höhere Ergebnisse (meist 10FPS mehr im Schnitt !!!).
Die restlichen Benchmarks bestätigen nur den Eindruck das es die einzelne GTX280 tatsächlich in KEINER EINZIGEN Situation schafft einem 8800GTX-SLI Verbund das Wasser zu reichen (abgesehen vom Stomverbrauch vielleicht).

Ich für meinen Teil werde diese GraKa Generation überspringen und dann wohl in einem Jahr mit einer bis dahin 2,5 Jahre alten GrafikkartenGeneration immer noch sehr gut fahren :D .
 
Zuletzt bearbeitet:
@Sebastian ... sorry für die Missverständnisse

also

im Test selbst... steht unter Technik im Detail Part 2 / Stromsparmechanismen: Zitat:
Neu hinzugekommen ist ein „Blu-ray-DVD-Playback-Mode“, indem der GT200 nach eigenen Angaben nur noch 35 Watt benötigt. Im „Idle/2D-Modus“ soll die Leistungsaufnahme auf 25 Watt sinken.

da habe ich die "Propaganda 25 Watt" her!!

in meinem Post habe ich mit dem Konjunktiv (würde) gearbeitet. Ich schreibe hier gerne den Satz nochmal mit Kommentar hin: :P
(wenn das stimmt) würde (es) ja bedeuten, dass die HD 3870 3 Watt im idle verbraucht, damit die Nvidia Stromspar - Propaganda stimmt???

Ich habe SELBSTVERSTÄNDLICH nicht daran geglaubt bzw. behaupten wollen, dass die HD3870 im idle 3 Watt verbraucht, sondern wollte damit klarstellen, dass Nvidia darauf traut, dass die User nicht nachvollziehen, dass die 25 Watt Idle/2D Verbrauch ... so (mit aktuellen Treibern/ in der aktuellen Revision) nicht stimmen :)
 
Zuletzt bearbeitet von einem Moderator:
Grundsätzlich eine beeindruckende Karte, bei der man eben mit den geschilderten Nachteilen bezüglich Preis und Stromverbrauch leben muss.
Wenn jedoch ATI das Problem der Mikroruckler bei der 4870 X2 endgültig in den Griff bekommt, wird diese Karte einen sehr ernsten Konkurrenten zum (höchstwahrscheinlich) besseren Preis haben.
 
Wirklich ne Schande CB das ihr die alten Karten einfach so lings liegen gelassen habt.Die GTx 280 steht doch nur gut da,weil alle anderen Karten mit älteren Treibern getestet wurden.

Der Test ist damit nicht aussage kräftig.Dagegen sollte man vorgehen.Ihr verleibt der Karte ein ganz anderes Bild was falsch ist...:freak:
 
Jo, aber nur mit kaum spielbaren Settings oder im Vantage ...

cYa
 
jackass999 schrieb:
naja der ram bei ner 3870 wird ja weder runtergetaktet noch die spannung gesenkt und da is wo nix mit 3 watt im idle wenn man mal den verbrauch eines stinknormalem ddr2 moduls bedenkt. dann müsste ja die karte schon fast "aus" sein ...

und am ende zählt was gemessen wird und nich was der hersteller angibt.
Das habe ich auch nicht anders verstanden oder sagen wollen. Schau mal bitte kurz zurück, ich hab dort nun auch ein Zitat drin, auf das die Diskussion aufbaut: https://www.computerbase.de/forum/t...urrenz-hinter-sich.425084/page-4#post-4367132

Das mit den 3 Watt kam nicht von mir. ;)
 
Der Test zeigt so einiges, aber nicht, dass die Karte ne Granate wäre - eher ein Rohrkrepierer *lol* wenn man sich das Preis-Leistungsverhältnis anguckt.

Ich würde das mal als Steilvorlage für ATi bezeichnen... bin mal gespannt ob die 4870 hält was die Gerüchteküche so alles gekocht hat ;). Wenn ja kann die Firma trotz fairen Preisen endlich wieder richtig Geld verdienen
 
Anscheinend hat nur Intel den Schlüssel zum Erfolg gefunden. Die machens mit ihren CPUs ja vor wies geht.
 
y33H@ schrieb:
Schade, dass ihr (wieder mal) alte Treiber genutzt habt, sonst wäre der Vorsprung der GXT280 noch geringer.cYa

Guckst du hier, da werden einfach die Werte vom alten Test (mit entsprechend älteren Treibern) übernommen. Würden bei jeder neuen Grafikkarte alle alten Grafikkarten nochmals in neueren Treibern mitgebencht, könnte man wohl 10 Mitarbeiter nur fürs Benchen einstellen ;)

@Topic: Mal ganz ehrlich, die Ergebnisse verwundern mich nich wirklich, ganz böse gesprochen ist der GT200 ein G80 mit nicht ganz doppelt so vielen Stream-Prozzis, n paar mehr Textureinheiten, nem breiterem Speicherinterface und nem bisschen mehr Speicher. Wunder kann man da nicht erwarten? Nett, dass an Stromsparmechanismen fürs idle gedacht wurde und die 2500er Auflösung mit nem Single-Chip ziemlich spielbar aussieht (mal abgesehen von Crysis).

Hammerkarten wie die 8800GTX oder die Ti4200 gibts eben nich alle Generation. Is aber auf der anderen Seite auch gut, dann ist der Druck zum Aufrüsten nich so groß.
 
Zurück
Oben