Test GeForce GTX 280 im Test: Neues Nvidia-Flaggschiff lässt die Konkurrenz hinter sich

Schöner Test... naja war zu erwarten das der Performence Sprung nicht so groß ausfällt weil letztendlich ist es auch wieder nur ein aufgebohrter G80.Die Grönung empfinde ich aber das es Nvidia nicht für nötig gehalten hat Direct 3D 10.1 zu implantieren. Aber wahrscheinlich haben die schon soviel Marktmacht das sie die neusten Features nicht anzubieten brauchen (genauso wie ordentliche Treiber).Hat der G200 eigentlich immer noch den Vrambug oder hat es Nvidia endlich mal geschafft den zu entfernen?
 
Dachte mir schon, dass es wieder ein aufgepuschter G92 wird. ;)
Was ich aber wirklich schwach finde von Nvidia, ist die fehlende Direct 3D 10.1 API.

Naja, ich wollte mir sowieso eine ATI kaufen, wegen dem besseren P/L-Verhältnis und Direct 3D 10.1. Des weiteren bin ich der Meinung, dass ATI einfach bessere HD-Unterstützung bietet. (Kann mich auch irren).

Tja, was soll man dazu noch sagen? Wieder mal ein klasse Test von CB! Großes Lob!
Schade, dass Nvidia nix neues gebracht hat...

Gruss
SPEX
 
Zuletzt bearbeitet:
Es paßt zwar nicht ganz in die Diskussion einer ohnehin maßlosen, neuen Highendkarte. Aber ich möchte, dass mein System weiterhin am Rande der Unhörbarkeit bleibt.

Mit einer passiven 8800gt kann ich das per Accelero S1 Kühler erreichen. Wenn jetzt jedoch der Last Stromverbrauch von der 8800gt auf die 280gtx um schlappe 110 Watt steigt, dann hört da einfach der Spaß für mich auf.

Mein (passives) Netzteil hat nur 400 Watt und ich werde es nicht wechseln. Klar ist das ein gewagter Spagat zwischen HD Gaming und einem ultra-silent System, aber der Trend geht immer mehr in die Richtung leiser Hardware.

Dafür will ich nicht erst eine Wasserkühlung anschaffen müssen. Intel zeigt mit ihren Cpus derzeit, dass es durchaus möglich ist, das Performance / Watt Verhältnis akzeptabel zu halten. Klar, highend war fast immer besonders heiß und besonders teuer, bloß irgendwann sind auch mal die normalen Kühlmöglichkeiten von Kupfer und Luft ausgeschöpft.

voodoo56000.jpeg
R.I.P


Der Preis hingegen wird sich schon noch von alleine in normalere Regionen bewegen.
Abermals vermisse ich die Auflösung 1920x1200. Test um Test sollte 1600x1200 abnehmen und 1920x1200 zunehmen. Mein fortwährender Kritikpunkt an diesem ansonsten gelungenen Test.
 
Zuletzt bearbeitet:
Naja , da bleibe ich wohl erstmal bei meiner 8800Ultra , die reicht noch dicke.

Warte dann auf die next Gen , bin echt enttäuscht von der 280.
 
Hm die GTX260 schon für 329€ bei Alternate gelistet. Da ist wohl schon eine klare Kampfansage an die Radeon 4870, beide Karten dann sicher bald deutlich unter 300€ in ein paar Wochen. Alternativ dann eine 3870X2 für gut 200€ abgrasen...Tolle Sache meine ich :D

Bei der pcghw gibt es übrigens einein interessanten Größenvergleich zwischen NVidias Monsterchip und dem Penryn.
 
Schinzie schrieb:
lol,was ich grad erst gesehn ahb,die ist fast doppelt so laut wie eine X2....

Wo?

Idle = 45,5 zu 47db
Last = 56,5 zu 58db
 
Ja auch an alle Nvidia fanboys, ob ihr die realität nun aktzeptiert oder nicht, die karte wird ein relativer flopp. Daher auch wenn ihr unverbesserlich seit und unbedint nvidia kaufen müsst.


WARTET MIT DEM KAUF, DEN DIE KARTE WIRD SEHR SCHNELL DEUTLICH BILLIGER.


(ob sich das nivida leisten kann oder nicht, die karte nicht verkaufen können sie sich auch nicht leisten ^^)
 
Schinzie schrieb:
wo siehst du 2fache G80 leistung?
Hat du dir alle G200 Reviews angeguckt? :)
Die Settings mit CPU Limit darfst du ruhig ausblenden.

Ach ja zum Thema VRAM: Beim VRAM Vergleich hat CB nicht mal 1GiB richtig nutzen können, andere Seiten haben das geschafft, also. ;)
 
@KAOZNAKE,
ich kann nichts dafür wenn deine Ansprüche so niedrig sind. Du kannst deine Bedürfnisse nicht auf andere übertragen. Ich kann schon begreifen wofür ich mein Geld ausgebe. Ich nehme Hardware eben nicht persönlich.
Die Karte ist für mich perfekt. Andere werden was anderes kaufen. Dürfen sie auch. Deswegen muss man nicht persönlich werden.

Gruß Wolf
 
Na ja so schlimm finde ich das Ergebnis nicht natürlich ist die Karte "zu" teuer aber das ist immer
so bei der TOP Hardware. Und wenn man ein paar Wochen wartet bekommt man die sicher
wesentlich günstiger und bessere Treiber aber trotzdem bleibt es die schnellste Single GPU Karte und
man hat kein SLI Gefummel wie bei der 9800gx2.
 
Unyu schrieb:
Hat du dir alle G200 Reviews angeguckt? :)
Die Settings mit CPU Limit darfst du ruhig ausblenden.

Ach ja zum Thema VRAM: Beim VRAM Vergleich hat CB nicht mal 1GiB richtig nutzen können, andere Seiten haben das geschafft, also. ;)

welche denn bitte? Würde den test gerne mal sehen
 
@Unyu
Tja,.....Schade nicht? Wieder eine Graka, die mit deinen Spielen der letzten Jahre überfordert ist.

Gruss Hr.Rossi
 
Naja Leuten, die 500-600€ für grafikkarten ausgeben ist sowieso nicht mehr zu helfen. Davon ernähren manche 2 Monate lang eine 6-köpfige Familie...
 
Ich bin auch etwas entäuscht von der karte,abgesehen würde ich mir für den preis sowieso keine kaufen.

Abwarten was ati noch auf lager hat!
 
Unyu schrieb:
Hat du dir alle G200 Reviews angeguckt? :)
Die Settings mit CPU Limit darfst du ruhig ausblenden.

Ach ja zum Thema VRAM: Beim VRAM Vergleich hat CB nicht mal 1GiB richtig nutzen können, andere Seiten haben das geschafft, also. ;)


Wirst du von Nvidia bezahlt für dein Quatsch den du hier schreibst?
Warst du in der Schule auch immer der Klassen Clown?
 
Jetzt kommt die geschichte wieder .. dann spende doch den armen kindern in afrika, das tut hier aber nichts zur diskussion. Die karten werden noch rapide im preis fallen und wenn ich slie kaufen würde , würde ich auf keinen fall jetzt zugreifen , da man sonst jeden tag ein paar euro im wert verliert.
 
Für den Preis wirklich ne Enttäuschung obwohl ich seit längerem und gerne Nvidia nutze... auf jedenfall gibts nun wohl endlich für ATI die Chance Nvidia mal zu schlagen. Wenn nicht jetzt, dann nie.
Sehr schade auch, dass nach Jahren der guten und leisen Kühlung nun wieder solche Lärmteile verbaut werden.
 
Zuletzt bearbeitet:
Wegen der Laustärke: Kauft euch en EVGA und haut den kommenden accelero drauf. Fertig ist die sache.
Wäre ATI nicht so verspätet mit ihrem 1GB 4870er Modell würden die noch mehr gewinn machen
 
Zurück
Oben