Test GeForce GTX 280 im Test: Neues Nvidia-Flaggschiff lässt die Konkurrenz hinter sich

Okay. Wie schon geschrieben, bei mir ging es nicht auf dem i975X (mit einer 8800GTS 512). Die Spezifikationen kenne ich seit damals.

PS: Danke, dass es mal sachlich geklärt wurde. :)
 
H3rby schrieb:
Außerdem stellt der PCIe 1.0 Standard nur 25W über den Slot zur Verfügung, egal was das Netzteil kann.
wo nimmst du dieses gewaltige wissen her?
die quelle würd mich interessieren:lol:
 
Der PCIe Slot liefert 75W. Egal ob 1 oder 2.
Nur diese 75W werden kaum ausgereizt, lieber ein paar Stecker rangeklebt.
 
War ja klar, dass die GTX 280 auf Platz 1 landet, aber sobald AMD mit ihrer HD 4870 X2 kommt, dann wars das mit NVIDIA. ^^
 
@H3rby
zB aus der quelle die du gepostet hast. aber ansonsten natürlich von der offiziellen seite der pci-sig
wenn du dir den von dir verlinkten artikel anschaust siehst du das auch bei dem peg slot nach pcie 1.0 75w bereit gestellt werden können

du behauptest einfach sachen ohne dich informiert zu haben
 
Habe da einmal eine frage.
Ist die entwicklung nicht langsam an einem Punkt wie eben diese GPU sogar vieleicht schon von einem
1200Euro teuren Extrem CPU Limitiert wird besonderst in großen auflösungen ?
 
Kevin1992 schrieb:
War ja klar, dass die GTX 280 auf Platz 1 landet, aber sobald AMD mit ihrer HD 4870 X2 kommt, dann wars das mit NVIDIA. ^^

Nee nicht ganz Nvidia wird Kontern. Muhhhhha
 

Anhänge

  • 45053_1b.png
    45053_1b.png
    354,4 KB · Aufrufe: 555
Das eben die neuen Gpu die durch aktuelle Highend Cpu's gebremst werden vieleicht.

Ich kann mir gut vorstellen das Mittelklasse Cpu`s solch eine GTX280 nur Bremst.

Edit: Das Bild sieht sehr stark nach eine Fotomontage aus. Außerdem ziemlich lang und 2000Watt. OMG
 
Bullet Tooth schrieb:
Nee nicht ganz Nvidia wird Kontern. Muhhhhha

Ihr wisst schon, dass das Bild nur ein Fake ist?
 
Wie kann man an dieser Karte nur ein gutes Wort lassen?
Sie ist laut, verbraucht unter Last (fast) genau so viel Strom wie eine Doppel-Chip 9800GX2, Stromsparmechanismus ist unter Windows (noch) wirkungslos und der Preis für das gebotene ist eine Unverschämtheit.
Bemerkenswert ist, dass mal ganz abgesehen von dem ganzen Mikroruckler-Dingens etc der 9800GX2 in niederigen Qualitätseinstellungen dieser Karte nicht nur das Wasser reichen, sondern auch überholen kann.
Warum soll dann ein Otto-Normal-User hingehen und 200EUR mehr für eine GTX280 auf den Tisch legen, wenn er die selbe Leistung mit einer 9800GX2 erhält?

Die Karte wurde bis in den Himmel gehyped. Und das was da raus kam ist meiner Meinung nach nicht zufrieden stellend. So ein Geforce FX 5800Ultra-Dejavu steck ich mir jedenfalls nicht in meinen Rechner.

Tja. Dann wird auf meine GeForce 8800GT wohl jetzt eine Radeon HD 4870 folgen ...
 
IgG schrieb:
Ihr wisst schon, dass das Bild nur ein Fake ist?

Ja klar! Finde aber witzig das Leute trotzdem drauf anspringen.
Wenn ich mir aber so überlege würde ich es nVidia aber zutrauen so ein Monster zu schaffen.
 
@Mac Vielleicht wollen einige leute einfach kein Multi-GPU system wegen mikrorucklern wenig ram usw
 
Nille,wenig ram ist kein argument,außer man will sich sli zulegen.



gruß
 
Naja, VRAM ist imo immer ein Argument.

cYa
 
Tja ist so eine Sache mit der 280er.
Leider hat CB bei dem Test die Werte der 9800 GX2 im Quad SLI rausgelassen. Obwohl es dazu einen schönen Test gibt: https://www.computerbase.de/2008-03/test-ati-crossfire-x-vs-nvidia-quad-sli/24/
Und wenn man sich die Werte anschaut wackelt der Tron der 280er im Preis Leistungs verhältniss schon gewaltig.
Ich für meinen Teil hab jetzt aber ein Problem: Ich habe eine 9800GX2 in meinem Rechner. Es war eine zweite geplant... ja das 1200 Watt Netzteil ist schon drin.
Dann kamen die ersten hinweise auf die 280er also die Anschaffung der zweiten Karte erst einmal verschoben. Wenn ich mir die Werte jetzt anschau lohnt es sich nicht wirklich vom Quad SLI Plan abzurücken und noch mehr Geld rauszuhauen für zwei 280er.
Auf der andren Seite sind Vram und der zukünftige Focus von nvidia auf den G200 schon argumente komplett noch mal umzurüsten.
Und das einzige Game in dem die 280er die 9800GX2 wirklich verblasen hat ist COH. Wenn zukünftige Games aber mehr Texturenspeicher brauche, kann den 9800ern allerdings auch schnell die Luft ausgehen.
Wenn einer einen guten hinweis für mich hat bitte her damit. Wer das alles bekloppt und zu teuer findet was ich hier Bastel braucht mich darüber nicht belehren.

Gruß
Andreas
 
Zurück
Oben