Test GeForce GTX 280 im Test: Neues Nvidia-Flaggschiff lässt die Konkurrenz hinter sich

AvenDexx schrieb:
Seh ich im Grunde genau so. Meiner Meinung nach wird das Thema auch zu hoch gepushed. Aber es gibt nun mal Leute, die es stört. Ich habe bei meinem damaligen CF-System auch nichts von Mikro-Rucklern gemerkt, aber jedem das seine. Für den einen reichen 30fps zum Spielen, ein anderer braucht eben mindestens 60fps. So what?

Es gibt ja auch welche, die sich die Karte vor release weit überteuert kaufen. Darum geht es auch nicht, sondern um eine Einschätzung der Karte.
Und das die GTX 280 schon einen Tag nach Vorstellung für 100€ weniger bestellbar ist, zeigt doch wie sie eingeschätzt wird. Sowas habe ich jedenfalls noch nicht erlebt.

Wenn 2 x HD4850 Crossfire für insg. 360€ gleichauf bzw. schneller sind, dann weiß man doch, wo die Karte preislich hingehört.

Gruss Hr.Rossi
 
Ja, die GTX 280 wird auf Höhe der 9800GX2 eingeschätzt. Performanctechnisch liegen sie nicht weit auseinander und da gibt die 9800GX2 nunmal den Preis vor. Klar, dass der Preis da fallen muss und auch fällt. Wenn dann die HD4850 auf den Markt kommt und sich diese Benches bewahrheiten, wird sich das Preislich sicher auch bemerkbar machen. So war es bei AMD/Intel und auch schon bei nVidia/ATi. Da wird sich nichts ändern.
 
@ HomerJSi

Hmmm ... mal schauen, dass 2007er find ich grausam^^

cYa
 
OpenOffice lässt grüßen ;)
 
Unyu schrieb:
Wo werden die CF/SLI Probleme weniger?
Belege?

schau dir doch einfach nochmal den test an und die skalierung ;)
da haste den ersten beleg...
dann schaue doch mal bitte, welche spiele nicht davon profitieren, außer ms pinball...
2ter beleg...
mikroruckler total behämmert...vermutl. bei der x2 behoben und selbst wenn nicht, wer hat sli und cf und spielt unter 30fps ?? selber schuld sag ich da mal.

naja, was soll ich sagen...ich denke es gibt eine positive entwicklung, ob du sie siehst oder nicht.
wenn ich dir ein system mit triple-sli vorsetzen würde und dir sagen würde, das ist eine single-graka, dann würdest du sie nicht sehen... ;) (unter o.g. vorraussetzung logischerweise)

mfg
 
Freynhofer schrieb:
Naja, ich hätte mir eigentlich mehr erwartet - aber was solls, da die mitlerweile gängige 22" Auflösung von 1680 x 1050 ja eh nicht getestet wurde, ist imo das Ganze natürlich ohnehin nur bedingt aussagekräftig :rolleyes:...
Es werdem aber 1600x1200 getestet. Die Auflösung hat 8 Prozent mehr Bildpunkte als 1680x1050. Wenn Du Dich also an den entsprechenden Messwerten orientieren würdest, kannst Du bei spielbaren Werten in 1600x1200 immer von einer (guten) Spielbarkeit in 1680x1050 ausgehen.

die.foenfrisur schrieb:
die 280 gtx wird wohl erst so richtig auf die ka**e hauen, wenn games mit physik genutzt wird ;)
das hat ja leider noch niemand getestet/testen können.
dann wird sie vermutl. nix an spiele-performance verlieren, aber physik berechnen können und einen höheren verbrauch aufzeigen.
3DMark Vantage könnte ein erster Indikator dafür sein. Oder anders rum: Das hohe Potential der GTX 280 in der Physikberechnung könnte der Grund für das gute Abschneiden im 3DMark Vatage sein.

Picknatari schrieb:
OK, dann hat man seitens CB aber zumindest adäquat darauf hinzuweisen, daß ein wohl nicht optimaler Treiber für einen der Testkanidaten eingesetzt wird. Und dann ist zumindest dieser fehlende Hinweis doch Nachlässigkeit, Faulheit oder Absicht!
Diesen Informationen ist ein kompletter Abschnitt namens Testsystem gewidmet. Wenn man sich Gedanken um Treiberversionen macht, sollte man dort einen Blick hinein werfen, bevor man von Nachlässigkeit oder Faulheit spricht.
 
die.foenfrisur schrieb:
mikroruckler total behämmert...vermutl. bei der x2 behoben und selbst wenn nicht, wer hat sli und cf und spielt unter 30fps ?? selber schuld sag ich da mal.
Wo liegt der Sinn an SLI/CF, wenn man deren Leistung für 50fps braucht damits so flüssig wie bei 30fps ist? -> Fakt ist, der Vorteil ist gerniger, als das der Balken es dich glauben lässt.
Ich würde selbst verständlich die Leistung für Bildqualität nutzen, sonst kann mans gleich sein lassen.

Wo ist es so toll, das mit jeder weiteren GPU der Input Lag um 1 Frame anwächst?
 
Zuletzt bearbeitet:
AvenDexx schrieb:
Wenn dann die HD4850 auf den Markt kommt und sich diese Benches bewahrheiten, wird sich das Preislich sicher auch bemerkbar machen. So war es bei AMD/Intel und auch schon bei nVidia/ATi. Da wird sich nichts ändern.

Auf den Markt kommt?
Es gibt bereits einen shop, wo man sie offiziell bestellen kann und da hat der user sie her:

http://www.forumdeluxx.de/forum/showthread.php?t=500923

Klar fällt der Preis, wenn die Konkurrenz mithalten kann. Nur solche Anfangspreise kann man sich nur leisten, wenn man außer Konkurrenz ist, und das ist man mit der GX2 ja noch nichtmal im eigenen Haus.
Und es spielt auch keine Rolle, das die GX2 zwei GPUs hat. Es ist die letzte Karte der vorherigen Generation, und die neue Generation setzt sich nicht soweit davon ab, als das es einen Preisunterschied von 200€ zuläßt.

Gruss Hr.Rossi
 
Zuletzt bearbeitet:
Unyu schrieb:
Wo liegt der Sinn an SLI/CF, wenn man deren Leistung für 50fps braucht damits so flüssig wie bei 30fps ist? -> Fakt ist, der Vorteil ist gerniger, als das der Balken es dich glauben lässt.
Ich würde selbst verständlich die Leistung für Bildqualität nutzen, sonst kann mans gleich sein lassen.

Wo ist es so toll, das mit jeder weiteren GPU der Input Lag um 1 Frame anwächst?

natürlich auch bildquali, das ist doch wohl logisch oder??
aber dann doch bitte auch mit spielbaren frameraten ;)

30fps liegen sicher nie dauerhaft an...
also spiele ich doch lieber bei 60fps+ und habe bei einbrüchen immernoch keine ruckler ;)

mfg
 
Anscheinend ist SLI eifnach nicht das wahre . Sonst gäbe es diese Diskussion seit Jahren nicht .
Die gab es schon immer . Manche sind dafür , manche waren dagegen .

SLI ist definitiv nicht das gelbe vom Ei .
 
HrRossi, jetzt mal butter bei die Fische. Die Karte ist noch nicht offiziell am Markt verfügbar. Da kann der Onlineschop sie ruhig schon verkaufen und ein User bei HWLX sie schon testen, fakt ist und bleibt, die Karte wurde offiziell noch nicht vorgestellt.

Weiterhin möchte ich keinen Test von Zocker28, sondern einen offiziellen, unabhängigen Test. Zockers Phenom-Test war stellenweise schon sehr seltsam. Da gebe ich also nicht so wirklich viel drauf.

---Absatz---

Und da man die Konkurrenz in Form der 9800GX2 im eigenen Haus hat, fällt der Preis der GTX 280 doch auch jetzt schon.
 
@Sebastian:

da scheinst du was falsch verstanden zu haben...
denke keiner hier beklagt sich dass es keine info zur verwendeten hw/sw gibt, sondern dass ihr mit dem veralteten 8.3er treiber testet, was die benchmarks somit wertlos macht, da der 5er weit schneller ist.
 
Pornomafia schrieb:
SLI ist definitiv nicht das gelbe vom Ei .


Nun ja,das gewiss nicht. Aber es ist kein Vergleich mehr mit der Leistungsfähigkeit von vor einem Jahr. SLI skaliert mittlerweile mit so gut wie jedem neuen Spiel gut bis sehr gut.
Ziemlich Zeitgleich mit beginn dieser Entwicklung (anfang diesen Jahres) wurden aber auch die Stimmen wegen der Mikroruckler lauter. Wenn man es aber genau betrachtet waren und sind es einige "wenige" die diese Problematik wirklich haben/bemerken aber viele die dankbar ohne eigene Erfahrung auf den "Jammerzug" aufspringen.

Was sich definitiv nicht wegdiskutieren lässt ist (zumindest bei den Nv Karten wie auch ich sie habe) der imense Stromverbrauch (das System wie es unten in meiner Signatur steht braucht inkl. TFT in realer Spieleumgebung gemessen bis zu 600W und immer noch ca. 410-420Watt im Idle unter Windows :mad: ).
 
Zuletzt bearbeitet:
Also, und noch was wegen der Preis... so teuer ist die Karte hierzulande gar nicht (Schweiz) :)
Sie kostet umgerechnet ca. 60€ mehr als eine GF9800 GX2 und ist auch schneller die GTX 280.
685.- CHF (ca. 430€) ist wahrlich nicht die Welt für diese Leistung bzw. diese neue GraKa.
 
Ich weis gar nicht was alle gegen die 280 gtx zu mekern haben

viele waren am meckern das es keine singel gpu gibt die auf einen 24 zoll die aktuellen spiele mit guten einstellungen z.b. 4AA 16 AF spielen kann und wollten auch kein cf/sli haben wegen den microrucklern ob man die microruckler wirklich merkt weis ich nicht hatte noch kein cf/sli system wurde aber viel berichtet davon will aber auch nicht weiter darauf eingehen also bitte keine diskusion über micror..

nun ist die karte da und alle heulen hier rum

ok crysis ist so ein problem aber vielleicht wurde es einfach schlecht programiert und crytek bringt nicht mal neue patches dafür raus für die ist das spiel abgeschrieben und der multiplayer ist auch nicht der hit

für einen 22 zoll ist die 260 gtx doch perfeckt und alle was drüber ist nimmt man halt die 280 gtx

finde die 260 gtx hat doch einen ordentlichen preis um die 300 € rum und die wird noch fallen wenn die ati/amd karten rauskommen

die 280 gtx ist halt das sahnestück deshalb auch der preis ob es gerechtfertig ist oder nicht spielt keine rolle wer ab 24 zoll spielt wird sich die karte holen
 
Zuletzt bearbeitet:
AvenDexx schrieb:
Weiterhin möchte ich keinen Test von Zocker28, sondern einen offiziellen, unabhängigen Test. Zockers Phenom-Test war stellenweise schon sehr seltsam. Da gebe ich also nicht so wirklich viel drauf.

Ok,...deckt sich aber gut mit diesem hier:

http://www.nordichardware.com/news,7860.html

Ich glaube halt, das sich die meisten hier nicht so über die Leistung aufregen sondern über den relationslosen Preis.

Gruss Hr.Rossi
 
sie ist und wird das vorerst auch bleiben, die schnellste single-gpu...mehr aber auch nicht.

mfg
 
Wenn ich meine bescheidene Meinung auch mal kund tun darf:
Für mich kommt diese Karte absolut nicht in Betracht, da ich als Student so viel Geld nicht aufbringen kann und will!.
Denke aber, dass sie etwas mehr kosten darf, als eine SLI Lösung bei gleicher Geschwindigkeit. Man spart Zeit bei der Installation/ Einrichtung (zumindest Neulinge bei SLI/Crossfire) und Geld beim Mainboardkauf, welches kein SLI (oder bei ATI eben Crossfire) unterstützen muss.
Ich finde den Stromverbrauch im Vergleich zur Leistung und zu den anderen schnellen Karten (GX2 und X2) auch in Ordnung, aber auch nur im Vergleich zu denen. Absolut muss ich sagen, müsste der Trend in richtung sparsam gehen, aber immerhin tut sich beim Idleverbrauch kräftig was.
Wenn die Lautstärke wirklich so brachial ist, ist das schon sehr unschön- gut, dass es ja meißtens schnell andere Kühllösungen gibt. Die Kosten dafür muss man allerdings wieder mit berücksichtigen.
 
Zurück
Oben