Test GeForce GTX 280 im Test: Neues Nvidia-Flaggschiff lässt die Konkurrenz hinter sich

Tja,..ich kann dir höchstens den Allgemeinsatz bieten: Kaufe "just in time". Ich habe selbst lernen müssen, das es sich nicht lohnt für die Zukunft zu kaufen. Erst wenn dein Spiel rauskommt, kaufe die Karte mit der das Spiel am besten läuft.

Ich glaube, ich würde dein angefangenes Projekt weiterführen. Und wenn die 9800GX2 günstiger wird zuschlagen.

Gruss Hr.Rossi
 
Zuletzt bearbeitet:
Ich denke auch du hast recht. Mich nervt dieses zickige nforce Board eh schon. Immer ärger mit dem Speicher.
Dann bau ich den Dinosariere zu ende, und freu mich auf das nächste Intel Based Mainboard mit einem CF verbund.
 
MacPok schrieb:
Sie ist laut, verbraucht unter Last (fast) genau so viel Strom wie eine Doppel-Chip 9800GX2, Stromsparmechanismus ist unter Windows (noch) wirkungslos und der Preis für das gebotene ist eine Unverschämtheit.
sie ist auch genau so schnell wie ne 9800gx2, also ist der verbrauch wohl logisch
immerhin ist sie auch noch in 65nm gefertigt
und der stromsparmechanismus ist bestimmt nicht wirkungslos, sonst würde der monsterchip im idle nicht weniger verbraten als der G92 auf der 9800gtx
Die Karte wurde bis in den Himmel gehyped. Und das was da raus kam ist meiner Meinung nach nicht zufrieden stellend. So ein Geforce FX 5800Ultra-Dejavu steck ich mir jedenfalls nicht in meinen Rechner.
naja sie ist deutlich schneller als der vorgänger, mehr konnte man imho nicht erwarten
vll. haben manche unrealsistische vorstellungen und springen auf jedes gerücht an

und das ding hat mal gar nichts mit dem nv30 gemein, der kam verspätet und war langsam
es trifft hier keins von beidem zu. die gtx280 hat nur das problem das die 9800gx2 aufgrund des preiskampfes vorher so billig ist

ansonsten hat sie noch keine konkurrenz, was sich aber wohl noch ändern wird
 
@ Alle GTX280-Besitzer : Da das einzige, was mich bei Crysis interessiert , die FPS im Multiplayer sind und leider nicht im SP oder irgendwelchen Demos, wollte ich euch ma Fragen, ob Crysis im MP und 'ner GTX280 auf 1680x1050 + 2AA auf High-VeryHigh flüssig laufen wird?

Habe zwar keinen 4GHz DualCore, aber einen Q6600 @ 2,4 (Standard), welchen ich auch auf 3GHz übertakten könnte. Aber mich würden halt hauptsächliche die FPS im MP auf 1680 + High bis Very High + 2AA.


Kann mir jemand was zu berichten?


Danke im Voraus und schönen Abend noch,

mfG h0ver
 
Flüssig im MP, d.h. über 40-50 Fps und möglichst nie unter 35 Fps packt mit den Settings auch keine GTX 280.

cYa
 
@Nille1234:
Also für 200 Euro Rabatt würde glaube ich eine sehr breite Käuferschaft Mikroruckler (wenn sie denn mal auftreten) in Kauf nehmen ...
 
@bensen:

ad 1.) Ist es in deinen Augen etwa "Fortschritt" wenn ich eine NEUE Karte auf den Markt bringe, die annähernd genau so schnell wie das Vorgänger-Top-Modell ist und genau so viel Strom verbraucht? Ich denke nicht!
Und als Endverbraucher sollte man solch einen horrenden Stromverbauch nicht als "logisch" betrachten. Im allgemeinen bitte ich sowie so mit dem Wort "logisch" vorsichtig umzugehen.

ad 2.) nVidia hat selbst genug Öl und Heu ins Feuer geworfen um dieser Karte ein möglichst starkes Auftreten zur Ersterscheinung zu bescheren.
Und der Vergleich zwischen dem NV30 und dem GT200 war so gemeint, dass hier in meinen Augen eben ein kleines Dejavu abläuft. Das hat nun mal absolut gar nichts mit der Leistung der beiden Karten zu tun gehabt.

In meinen Augen geht es mittlerer Weile nicht mehr nur um ein Konkurrenzfähiges Produkt. Es geht auch um technologischen Fortschritt, und "Geschwindigkeit" bzw. "Performance" ist nur ein Unterpunkt. Dazu zählen noch viele Andere, so zum Beispiel der Stromverbauch relativ zur erbrachten Leistung. Und dieser Stromverbauch hätte in jedem Fall gedrosselt werden sollen (wenn nicht sogar müssen). Rein wirtschaftlich will ich (als Gamer) nicht die Stromrechnung für ein Jahr GTX 280 bezahlen wollen. Für alle die noch bei Mami und Papi wohnen ist das natürlich was anderes. Da kommt der Strom ja auch aus der Steckdose und ist umsonst.
 
Warum gehen immer alle von der GX2 als Vorgänger aus. Klar war das die beste Karte, aber es war auch eine Multi-GPU-Karte.

Von daher finde ich die Leistung ganz ok. Der Preis muss aber auf jeden Fall noch sinken.
 
MacPok schrieb:
So ein Geforce FX 5800Ultra-Dejavu steck ich mir jedenfalls nicht in meinen Rechner.

Besser hätte man die GTX 280 nicht bezeichnen können. :D
 
TheNameless schrieb:
Warum gehen immer alle von der GX2 als Vorgänger aus. Klar war das die beste Karte, aber es war auch eine Multi-GPU-Karte.

Und warum gehen immer alle davon aus, das ein Dualcore bzw. Quadcore die Nachfolger eines Singlecore bzw Dualcore sind?

Gruss Hr.Rossi
 
@MacPok
naja ein refresh hat noch nie ne innovation gebracht, sondern einfach nur mehr power
und selbst bei der gtx280 ist die performance/watt gestiegen. sie ist ein wenig schneller und verbraucht ein bisschen weniger, im idle sogar deutlich weniger

die karte ist keinesfalls ein rundum gelungenes paket, aber ein vergleich zur fx ist irgendwie lächerlich
denn die fx war viel hitziger als die vorgänger, langsamer als die konkurrenz und kam viel zu spät

wo siehst du parallelen zur gtx280?
 
Zuletzt bearbeitet:
@bensen

du drehst dich im Kreis.
 
nein ich widerlege deine behauptungen
auserdem hast du immer noch kein argument genannt warum die karte ähnlichkeiten mit der fx hat
ich aber welche dagegen
 
@bensen

Ja du hast dich im Kreis gedreht.

Das Argument für den zugegebener Maßen Abstrakten Vergleich ist einfach:
Die Karte ist zum Launch ganz und gar nicht das, was nVidias Marketing-Abteilung gehyped hat.
Dazu kommen, um mich vor dir abermals zu widerholen und somit sehr ungerne ebenfalls im Kreis zu drehen, ein (unter Last) sehr unfortschrittlich hoher Stromhunger (wesentlich höher, als sehr viele hier erwartet hätten). - Performance pro Leistungsaufnahme hin oder her.
Warum ich den Vergleich auch noch herangezogen habe, ist zumindest die Tatsache, dass die Karte sehr laut ist [nVidias FXFlow lässt grüßen (und komm mir jetzt nicht mit: "Ja aber die benutzt doch nicht den FXFlow-Kühler???!?!?!?!)]
[...]
Also jeder, der einigermaßen abstrakt denken kann, hätte diesen Vergleich nachvollziehen können.
Und weil du es ja genau wissen willst: Deine "Gegenargumente" sind was diese Thematik betrifft mehr lächerlich als mein Vergleich. Es sollte mehr belustigend wirken, als beleidigend. Sollte ich dich (und vlt. "dein" nVidia) irgendwie beleidigt haben, möchte ich mich dafür selbstverständlich entschuldigen.

Für mich ist das Thema jedenfalls abgeschlossen. Du kannst ja gerne darauf antworten und ich werde deine Antwort auch gerne zur Kenntnis nehmen, dir aber nicht mehr darauf antworten, weil mir sowas nicht nur blöd ist, sondern weil ich mich nicht gerne im Kreis drehe.
 
Um bensen etwas aus der Schusslinie zu ziehen:

Die Karte bringt nicht die doppelte Power eine Ultra, da hat sich nVs Marketing (mal wieder) ins Bein geschossen. Die Leistungsaufnahme könnte in 2D geringer sein (VCore senken und Chipteile deaktivieren), dr Verbrauch unter Last ist angesichts der 65-nm-Fertigung und den Transis aber top, keine Karte bringt mehr Fps/Watt. Ja, die Karte ist in 2D nicht silent und in 3D sehr störend - der Vergleich mit der FX5800Ultra ist aber wahrlich übertrieben. Die FX ist rund 3-mal so laut. Der Vergleich mit der GX2 hinkt zudem. Die GX2 besteht aus zwei gekoppelten Mid-Range-Karten, sie mikroruckelt und erzeugt einen Mauslag, sie hat viel zu wenig VRAM, sie ist lauter, sie schluckt mehr Strom, sie heizt das MoBo und das Case stärker auf und die Leistung hängt stark von den Treibern und der Skalierung ab. Daher sind die 100€ Aufpreis zur GTX 280 mehr als gerechtfertigt.

cYa
 
Zuletzt bearbeitet:
@y: Wenn Du schon immer die gleichen Argumente gegen die GX2 anbringst, dann bitte mit der Einschränkung auf bestimmte Auflösung, AA/AF Zielgruppen. Ich kann versichern, dass in den meisten Spielen keine Mikroruckler auffallen, v.a. nicht bei aktuellen Spielen wie Crysis. Eher bei Half-Life 2, aber da könnte es auch auf die Programmierung zurückzuführen sein - Crysis lädt jeden Levelabschnitt unauffällig im Hintergrund, HL² macht einen Staatsakt daraus. Würde mich nicht wundern, wenn es da anderweitig Effizienzprobleme gibt, die nicht von SLI rühren. CoD4 etc., kein Mikroruckler Problem, kein Mauslag. Woher hast Du denn diese Meinung? "Viel zu wenig VRAM" siehe Zielgruppe (high-end hat bei mir nichts mit der Monitorgröße zu tun, warum auch), die GX2 ist gerade mal 0.5dB lauter (andererseits gibt es hier hauptsächlich "meine GTX280 ist zu laut" threads), und die GX2 nimmt 19 Watt mehr auf bei Last, das sind vielleicht max. 5 Euro im Jahr mehr Stromrechnung (wenn der Rechner 8h jeden Tag laufen würde, eher unrealistisch...). Ich möchte nur betonen, dass Du es nicht stets so eindimensional hinstellen solltest.
 
Wie kommst du dann auf NV30?
Wenns extrem wird ist die GTX 280 10mal schneller als die GX2.
Oder im mal auf GPGPU-Bereich/PhysX geguckt? Da rennt die GTX 280 einfach davon.

µRuckler/hochgefakte FPS sind Fakt, wems egal ist, warum kauft er sich nicht gleich eine 9800GTX? Obs jetzt alle 2 Frames ruckelt oder ständig ist ja egal
Input Lag ist immer vorhanden bei jedem Spiel,
VRAM ist immer zu klein,
nur ein Bildschirm dank SLI ist ein Totschlagargument,
im Idle zieht die GX2 grob das Doppelte wenn kein Hybrid SLI Brett da ist.....
Und SLI mit der GX2 kann man ganz vergessen, 4 GPUs machen noch weniger Spass ....

So das kommt wohl davon, wenn man sich nur einseitg an Balken erfreut.
 
@ crake

Tja, Kollege Unyu und ich sind eben doch mal einer Meinung :D

Ich nenne genau die Argumente, die gegen die GX2 in dem ihr zugedachten Einsatzgebiet sprechen. Oft genug habe ich mit einer GX2 gebencht und gezoggt, und das Teil ist schlicht eine Niete im Vergleich zur 280er. Die Lautstärke misst CB leider nur unzureichend - eine GTX 280 ist "leiser".

cYa
 
@unyu:
"wenn's extrem wird... 10x schneller...": wen spricht das genau an? Leute die sich benchmarks einrahmen ;-)?
µRuckler sind Fakt: Du siehst sie, ich seh sie nicht, brauchen wir nicht diskutieren.
Input lag: kann ich auch nicht nachvollziehen, vielleicht hast Du eine andere Konfig?
"VRAM ist immer zu klein": ist Quatsch, denn siehe unterschiedliche Zielgruppen. Die aktuellen Top-Titel sind bei mir smooth in hervorragender Qualität - was will ich mehr?
Nur ein Bildschirm: ich spiele mit dem PC und arbeite daher nicht mit 2 Bildschirmen.
Idle Stromverbrauch: der PC ist bei mir entweder unter Last oder aus. Für Arbeit und Internet hab ich einen anderen.
4 GPUs: das würde mich interessieren, ob Du es schon mal getestet hast. Computerbase selbst sagt im Test, dass die µRuckler nur bei niedrigen (!) fps in einigen (!) Spielen auftraten. Niedrige fps sind mit QuadSLI aber Seltenheit...
Balken: eben nicht, ich erfreue mich am Spielen, und habe diese Problemchen bis jetzt nur im Forum bemerkt, nicht bei mir am PC.
@y: wir müssen nicht auf einen Nenner kommen, dafür sind ja unterschiedliche Meinungen da. Wir haben Beide unsere Argumente gebracht, damit ist's ja dann gut.
 
Zurück
Oben