Test GeForce GTX 280 im Test: Neues Nvidia-Flaggschiff lässt die Konkurrenz hinter sich

Also ich bin froh das die GTX 280 endlich draussen ist, für mich wird sich die Karte bestimmt lohnen, ich hab nämlich immer noch die ganz alte GF8800GTS mit 640MB, und die geht bei einer Auflösung von 1680x1050 teilweise ziemlich in die Knie, und übertakten will ich sie auch nicht, deswegen hab ich mir jetzt für ca. 550€ (inkl. Express Versandkosten) eine EVGA GeForce GTX 280 bestellt, ich weiß der Preis ist verrückt, aber naja, ich hab schon lange keine neue Grafikkarte mehr gehabt, es wurde einfach mal Zeit. Außerdem zeigt der Benchmark von Computerbase ja noch nicht die ganze Leistung der GTX 280, ich denk da steckt noch viel mehr drinnen, das wird man dann sehen wenn die Nvidia Treiber für diese Karte richtig optimiert wurden ;) :D

Und ich glaub auch das der Preis von 499-550€ für die GTX 280 noch einige Wochen/Monate andauern wird, also werde ich es im nachinein nicht bereuen wenn sie in 4-6 Monaten für 200€ weniger zu haben ist :)

Zuerst wollte ich mir ja ne 9800GX2 holen, aber die hat halt den Nachteil das sie teilweise mehr Strom verbraucht, keine Stromsparfunktion hat, wärmer wird, SLI-Profile benötigt und es wegen SLI zu Mikro-Rucklern kommen kann...
 
Zuletzt bearbeitet:
Interessant waere noch ein Test der XFX "XXX-Edition" mit 670 / 1458 / 2500 MHZ


gruss
 
@makavelitha: Gratulation zur neuen Karte, aber ich fürchte sie wird relativ schnell an wert verlieren, hätte an deiner stelle noch nen monat oder zwei geduld gehabt..
 
@makavelitha:

Du weißt schon, dass zwei 4850 im CF bei den meisten Spielen schneller (und geringfügig stromsparender) sind als eine GTX 280 und zusammen nur ca. 290 Euro kosten?!

Würde an deiner Stelle die Karte reklamieren und mir zwei 4850 bestellen. Die minimalen Microruckler sind auch nicht so schlimm.
 
Vendetta schrieb:
@makavelitha: Gratulation zur neuen Karte, aber ich fürchte sie wird relativ schnell an wert verlieren, hätte an deiner stelle noch nen monat oder zwei geduld gehabt..

Ja ich weiß schon, normalerweise wartet man da noch 1-2 Monate damit der Preis um 100-150€ runtergeht, aber ich konnte einfach nicht mehr warten, ich hab mich jetzt fast 2 Jahre gedulded, in der Zeit kam so viel neues von Nvidia raus, das aber im nachinein doch nicht so interessant für mich war und ich mir immer wieder sagte "wartest noch nen bisschen", dann kam die 9800GX2 und ich war kurz davor diese zu Kaufen, als ich aber dann nen paar Benchmarks angeschaut habe und später die ersten News zur G200 rauskammen, sagte ich mir wieder "wartest halt noch länger", und jetzt wo sie draussen ist mußte ich einfach zugreifen, wie gesagt, es wurde endlich mal Zeit :):D

@Wuffi
Das ist mir schon klar, aber ATI kommt bei mir nicht rein, nicht das ich hier jetzt als nen Nvidia Fanboy abgestempelt werde, aber ich vertraue dem Zeug von ATI irgendwie noch nicht so recht... Außerdem setze ich eher auf Single GPU Karten bzw. auf 1 Grafikkarte, sowas wie SLI und Crossfire mit 2 bis 4 Grafikkarten hat mich noch nie interessiert...
 
Zuletzt bearbeitet:
MacPok schrieb:
Warum ich den Vergleich auch noch herangezogen habe, ist zumindest die Tatsache, dass die Karte sehr laut ist.
Also jeder, der einigermaßen abstrakt denken kann, hätte diesen Vergleich nachvollziehen können.
sie ist laut, aber laut cb test nicht wirklich lauter als ne 980gx2 oder 3870x2
die fx war extrem lauter als alles bisher dagewesene

Sollte ich dich (und vlt. "dein" nVidia) irgendwie beleidigt haben, möchte ich mich dafür selbstverständlich entschuldigen.
ach nein wie süss
ich würde mir die karte nie kaufen, da viel zu teuer. desweiteren ist sie weder perfekt noch sonstwas. hab ich auch nie behauptet
das immer irgendeiner mit diesem fanboy gesülze ankommen muss nur weil man nicht der meinung ist das de chip totaler müll ist

ohne nen die-shrink ist einfach nicht mehr drin
was hast du erwartet? ne leistung von 2 G80 bei nem verbrauch von einem G92?
willkommen in der realität.
 
makavelitha
Ich wünsche Dir viel Spaß mit neuer Grafikkarte.
Ich habe auch seit 1,5 Jahre eine 8800 GTS 640 und einen Monitor mit 1680*1050 Auflösung.
Wollte auch eine GTX 260 weil ich einfach GTX 280 mir nicht leisten kann. Nach dem Launch am 16.06 habe ich mir anders überlegt es gab keine Revolution wie damals mit 8800 Karten. Heute sehe ich dass die ATI richtig drück machen und tu die Hälfte kosten. Ich habe vorgeplant mir eine 4870 zu kaufen und später vielleicht noch eine + MB mit CF Unterstützung, wenn die Preise in Ordnung sind.
Ob ATI oder NV in meinem Rechner arbeitet ist mir Wurst ich will mein Geld nur optimal wie möglich einlegen und der Kauf einer GTX 280, besonders Heute ist nicht der Fall.
Grüß
Oleg
 
bensen schrieb:
[...]ohne nen die-shrink ist einfach nicht mehr drin
was hast du erwartet? ne leistung von 2 G80 bei nem verbrauch von einem G92?
willkommen in der realität.

Vollkommen korrekt, nur sehen das einige leider nicht, warum auch immer.

Dazu hätte man sich nur mal wirklich mit Verstand die Spezifikationen der Karte ansehen müssen. Egal was gesagt wurde, dort hätte man erkennen können, das mehr als 50-60% gegenüber dem G80/G92 einfach nicht drinsitzen konnten. Vom Verbrauch ganz zu schweigen.
 
Ich hab jetzt meine GeForce GTX 280 bekommen, aber ich weiß noch nicht so recht was ich dazu sagen soll..

Positiv:
- Kommt mir leiser vor als meine alte 8800GTS 640MB
- Crysis läuft auf Very High@1680x1050 endlich super flüssig

Negativ:
- R6 Vegas 2 läuft eigentlich super aber manchmal gibt es irgendwie voll die slowdowns (sowas hatte ich bei meiner 8800GTS 640MB nicht)
- NFS Pro Street das selbe wie bei R6 Vegas 2...
- In 3DMark06 hab ich nur ca. 13500 Punkte (oder ist das ok?)


Mein Sys:
WinVista Ultimate x64 SP1
Intel C2D E8400@default (2x3ghz)
4GB DDR2-1066 CL5 Platinum von OCZ
Asus Maximus Formula
Creative X-FI XtremeGamer Fatal1ty Pro.
750w Netzteil Be Quiet Dark Power Pro mit 50A auf der 12V Schiene
EVGA Nvidia GeForce GTX 280 (Forceware 177.35)


Irgendwie glaub ich das die Forceware Treiber noch gar nicht richtig mit der neuen G200 Arbeiten...
 
Ich denke, dass die Treiber für Spiele wie R6, NFS usw. erst noch optimiert werden.
 
Puh, ganz schön schlecht, wenn man bedenkt, dass die 280GTX gerade mal knapp 50 Prozent schneller als die mitlerweile mehr als 1.5 Jahre alte 8800gtx ist.

In 3DMark06 hab ich nur ca. 13500 Punkte (oder ist das ok?)

Ja, die Graka wird eindeutig von deinem E8400 blockiert, takte und die Punkte werden nur so springen :-)
Aber man spielt ja eh kein 3dmark von daher ist es egal, für die Spiele reicht der auch so.
 
ja, highend grakas sind am anfang immer schon cpu-limitiert worden. ich denke da grad an die überragende 9700pro von ati. die war am anfang auch nur minimal schneller als die ti4600... aber nur weil die cpu gebremst hat. takte doch deinen e8400 mal auf 4ghz, wirst sicher staunen ;)
@Vendetta: das mit dem wertverlust ist eigentlich normal. war bei meinem kumpel mit seiner x1900xtx auch nicht anders. die hat auch >500,- € gekostet und nach 2 monaten noch knapp die hälfte wieder eingebracht... und vergesst nicht, die langsame entwicklung der letzten eineinhalb jahre verdanken wir nur der 8800gtx. eigentlich kommt jedes halbe jahr ne neue highendkarte... von daher ist das eigentlich nicht mal ungewöhnlich. aber zum sparen wäre ne ati diesmal schon besser gewesen ;)
 
@<NeoN>
Jo hast recht, ich seh grad im Computerbase Benchmark hatte das Testsystem ja nen QX9770 der auf 4Ghz getaktet war, der macht alleine schon locker 4000-5000 Punkte mehr als mein E8400, deswegen kommt Computerbase auch auf die rund 18.000 Punkte, außerdem testet Computerbase ja bestimmt auf einer frischen Windows Installation, meine ist schon ca. 6 Monate alt, da verliert man also auch noch nen paar Punkte, vor allem wegen dem ganzen Zeug was im Hintergrund läuft ;) ^^
 
Zuletzt bearbeitet:
kann das einer bestetigen? Wenn ja dann muß Cbase UNBEDINGT darauf im Test hinweisen. Könnte aber hinkommen denn Cbase testet Nvidia mit Nvidia Board.

The GTX 200 series power saving features do NOT work on an Intel platform. That’s right. I thought I was the odd one out when I saw countless other websites posting about the down-clocks and down-voltages, whereby the GPU settles at 300Mhz Memory to 100Mhz etc when no 3D app is running. What some of them failed to state was that they only achieved this on an Nvidia platform; while ALL the reviews out there failed to warn consumers that this does NOT work on an Intel platform at all

This was confirmed after a 30 minute phone conversation with an XFX engineer, the manufacturer of my GTX 280.

What this translates to is that all the idle power consumption graphs you saw on reviews over the GTX 200 series do NOT apply to an Intel platform. Again, out of the 15 odd reviews out there, not one, I repeat, NOT A SINGLE ONE, bothered to state this clearly. Whats the user footprint in the real world with an Nvidia platform? 0.1% of the PC population?
 
Schonmal weitergelesen das ist nen missverständniss es funktioniert
 
:)

So, heut ist meine POV GTX 280 eingezogen, mal meine Erfahrungen:

Da ich vorher ein Bequiet Straight Power 700 Watt, alte Revision hatte und ich gelesen hab dass die Karte auch damit net optimal läuft hab ich mir das Enermax Infiniti 720W geholt.

Der Einbau der Karte ging problemlos, hab den Pcie 8 pin und den Pcie 6 pin direkt angeschlossen, ohne die Adapter.

Mainboard hab ich Asus M2N Sli-Deluxe mit PciE 1.0

Dann der hoffnungsvolle Moment, Pc angeschaltet, Bootscreen erscheint (Yes :D ) und Pc bootet.
Hab dann gleich den Treiber 177.41 WinXP 32 Bit installiert.

Hab dann festgestellt dass sich der Lüfter sofort regelt. Ist unter Windows nicht zu hören. Startet man eine Anwendung erhöt sich langsam mit steigender Temparatur die Lüfterdrehzahl.

Unter Last pendeld sich die Temp bei ca 80°C ein,man hört dann auch den Lüfter raus, allerdings finde ich persönlich es als nicht störend, hat er doch aufgrund seiner Grösse ein angenehm tieffrequentes Laufgeräusch.

Geht man wieder ins Windows regelt der Lüfter sofort wieder runter, bis er nicht mehr zu hören ist.

Die Lüfterregelung funktioniert gottseidank einwandfrei, kein Bug ala Überhitzen auf 105°C o.Ä .

Ich muss nicht mehr händisch per Rivatuner immer den Lüfter stellen, wie ich es bei der 8800GT machen musste. Da der Lüfter der 8800GT nicht hochregelt geht das Teil sonst deutlich über 90°C: freak

Von daher gefällt mir das bei der GTX 280 sehr gut.

Zur Leistung:

Man merkt den Unterschied zur 8800GT schon deutlich in höheren Qualitätssettings.

In sämtlichen Titeln ausser natürlich Crysis ist 8*AA in 1680*1050 für die GTX 280 kein Problem.

Crysis geht mit der High Quality Mster Config auch noch 30-40 FPS. in der Auflösung.

Mein Fazit, die GTX 280 ist ein beeindruckendes Stück Hardware, zwar net grad günstig, doch hat man sicher mal eine Zeit lang genug Power, auch für kommende Spiele.
 
makavelitha schrieb:
Und ich glaub auch das der Preis von 499-550€ für die GTX 280 noch einige Wochen/Monate andauern wird, also werde ich es im nachinein nicht bereuen wenn sie in 4-6 Monaten für 200€ weniger zu haben ist :)

4-6 Monate wirst Du denke ich nicht warten brauchen, da es die ersten GTX280er schon für unter 400€ gibt. Anscheinend reagiert nVidia auf die 4870 von ATi bzw. die eigene 9800GX2.
 
Mit dieser Karte ist NVIDIA ein großer (und wichtiger) Schritt in die Richtige Richtung gelungen!

Jeder beurteilt die Karte an irgendwelchen Bildern pro Sekunde aber keiner hat mal die Hervorrangende architektonische Meisterleistung von NVIDIA gelobt. Wenn ihr die technischen Daten eines G92 (oder G80) Chips mit dem GT200 vergleicht, dann werdet ihr festellen das in nahezu allen Bereich eine verdopplung der Leistungsmerkmale stattgefunden hat.

Ein sehr wichtige Sache ist dabei die double precision die von 32 auf 64 bit angehoben wurde. In Spielen merkt man davon absolut nichts aber für den GPGPU Bereich ein absoluter Durchbruch. Wie im Test bereits erwähnt würde eine 3870 (durch double precision) anstatt 496 GFLOP/s nur ein fünftel 99 GLFOP/s erreichen. Mit der GT200 ist es gelungen dp zu erreichen und dabei eine deutliche Leistungssteigerung im vergleich zur vorgänger Generation zu erziehlen. Die Steigerung der Rechenpräzision kostet enorm viel Ressourcen und vorallem Platz auf dem Chip. Wenn NVIDIA jetzt eine GT200 mit 32bit precision auf den Markt bringen würde, dann würden euch mit Sicherheit die Ohren wegfliegen.

Grafikkarten solcher Bauweise können auch in anderen Bereichen wie zB. Forschung in Zukunft eine wesentliche Rolle spielen. Aufgrund der hohen Speicherbandbreiten und Multi-Processing Eigenschaften kann man große Datenmengen schnell und hoch-parallel berechnen. Um das mal klar auszudrücken: Diese Karte steckt (bei richtiger Anwendung) jeden kleinen Supercomputer locker in die Tasche!

Meiner Meinung nach wird sich in Zukunft die GPU immer mehr an Berechnungen beteiligen die für normale CPUs zu rechenintensiv sind. Bis dahin führend das eine CPU völlig überflüssig ist. (Nvidias CUDA bietet schon eine gute Basis). Dehalb ein großes Lob von mir an dieser Stelle an NVIDIA.
 
Zuletzt bearbeitet:
@ByteHunter
Ist ehr unwarscheinlich das die CPU später ganz durch GPUs abgelöst wird weil sie nicht alles berechnen können und bei manchen Sachen langsamer sind.
Eine ATI ist für große Rechenmaßen auch nicht schlechter mit den 1,2TFlops oder die kommende X2 mit der doppelten Leistung.
 
Zurück
Oben