Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test GeForce GTX 280 im Test: Neues Nvidia-Flaggschiff lässt die Konkurrenz hinter sich
wo nimmst du dieses gewaltige wissen her?H3rby schrieb:Außerdem stellt der PCIe 1.0 Standard nur 25W über den Slot zur Verfügung, egal was das Netzteil kann.
die quelle würd mich interessieren
Xanthor1992
Lt. Commander
- Registriert
- Jan. 2007
- Beiträge
- 1.215
War ja klar, dass die GTX 280 auf Platz 1 landet, aber sobald AMD mit ihrer HD 4870 X2 kommt, dann wars das mit NVIDIA. ^^
@H3rby
zB aus der quelle die du gepostet hast. aber ansonsten natürlich von der offiziellen seite der pci-sig
wenn du dir den von dir verlinkten artikel anschaust siehst du das auch bei dem peg slot nach pcie 1.0 75w bereit gestellt werden können
du behauptest einfach sachen ohne dich informiert zu haben
zB aus der quelle die du gepostet hast. aber ansonsten natürlich von der offiziellen seite der pci-sig
wenn du dir den von dir verlinkten artikel anschaust siehst du das auch bei dem peg slot nach pcie 1.0 75w bereit gestellt werden können
du behauptest einfach sachen ohne dich informiert zu haben
Commander Alex
Fleet Admiral
- Registriert
- Dez. 2007
- Beiträge
- 29.889
Wie meinst des das eine CPU die GPU bremst wenn überhaupt dann is sehr kleinen Auflösungen.
Bullet Tooth
Commander
- Registriert
- Mai 2008
- Beiträge
- 2.972
Kevin1992 schrieb:War ja klar, dass die GTX 280 auf Platz 1 landet, aber sobald AMD mit ihrer HD 4870 X2 kommt, dann wars das mit NVIDIA. ^^
Nee nicht ganz Nvidia wird Kontern. Muhhhhha
Anhänge
Commander Alex
Fleet Admiral
- Registriert
- Dez. 2007
- Beiträge
- 29.889
Sieht nach einer Verzweiflungtat wie bei Voodoo aus
finde das Teil echt schon Krank mit NT
finde das Teil echt schon Krank mit NT
Das eben die neuen Gpu die durch aktuelle Highend Cpu's gebremst werden vieleicht.
Ich kann mir gut vorstellen das Mittelklasse Cpu`s solch eine GTX280 nur Bremst.
Edit: Das Bild sieht sehr stark nach eine Fotomontage aus. Außerdem ziemlich lang und 2000Watt. OMG
Ich kann mir gut vorstellen das Mittelklasse Cpu`s solch eine GTX280 nur Bremst.
Edit: Das Bild sieht sehr stark nach eine Fotomontage aus. Außerdem ziemlich lang und 2000Watt. OMG
Commander Alex
Fleet Admiral
- Registriert
- Dez. 2007
- Beiträge
- 29.889
Also wenn du ein Mittelklasse CPU mit 2x2,4GHz oder so hast dann schon außer du Spielst auf sehr hohen Auflösungen.
Einhörnchen
Rear Admiral
- Registriert
- März 2007
- Beiträge
- 5.145
Bullet Tooth schrieb:Nee nicht ganz Nvidia wird Kontern. Muhhhhha
Ihr wisst schon, dass das Bild nur ein Fake ist?
Commander Alex
Fleet Admiral
- Registriert
- Dez. 2007
- Beiträge
- 29.889
Also normal schon weil das Bild ist schon vor Monaten im Internet rumgeschwirt.
Iron Grey
Lt. Junior Grade
- Registriert
- Juni 2006
- Beiträge
- 450
Wie kann man an dieser Karte nur ein gutes Wort lassen?
Sie ist laut, verbraucht unter Last (fast) genau so viel Strom wie eine Doppel-Chip 9800GX2, Stromsparmechanismus ist unter Windows (noch) wirkungslos und der Preis für das gebotene ist eine Unverschämtheit.
Bemerkenswert ist, dass mal ganz abgesehen von dem ganzen Mikroruckler-Dingens etc der 9800GX2 in niederigen Qualitätseinstellungen dieser Karte nicht nur das Wasser reichen, sondern auch überholen kann.
Warum soll dann ein Otto-Normal-User hingehen und 200EUR mehr für eine GTX280 auf den Tisch legen, wenn er die selbe Leistung mit einer 9800GX2 erhält?
Die Karte wurde bis in den Himmel gehyped. Und das was da raus kam ist meiner Meinung nach nicht zufrieden stellend. So ein Geforce FX 5800Ultra-Dejavu steck ich mir jedenfalls nicht in meinen Rechner.
Tja. Dann wird auf meine GeForce 8800GT wohl jetzt eine Radeon HD 4870 folgen ...
Sie ist laut, verbraucht unter Last (fast) genau so viel Strom wie eine Doppel-Chip 9800GX2, Stromsparmechanismus ist unter Windows (noch) wirkungslos und der Preis für das gebotene ist eine Unverschämtheit.
Bemerkenswert ist, dass mal ganz abgesehen von dem ganzen Mikroruckler-Dingens etc der 9800GX2 in niederigen Qualitätseinstellungen dieser Karte nicht nur das Wasser reichen, sondern auch überholen kann.
Warum soll dann ein Otto-Normal-User hingehen und 200EUR mehr für eine GTX280 auf den Tisch legen, wenn er die selbe Leistung mit einer 9800GX2 erhält?
Die Karte wurde bis in den Himmel gehyped. Und das was da raus kam ist meiner Meinung nach nicht zufrieden stellend. So ein Geforce FX 5800Ultra-Dejavu steck ich mir jedenfalls nicht in meinen Rechner.
Tja. Dann wird auf meine GeForce 8800GT wohl jetzt eine Radeon HD 4870 folgen ...
Bullet Tooth
Commander
- Registriert
- Mai 2008
- Beiträge
- 2.972
IgG schrieb:Ihr wisst schon, dass das Bild nur ein Fake ist?
Ja klar! Finde aber witzig das Leute trotzdem drauf anspringen.
Wenn ich mir aber so überlege würde ich es nVidia aber zutrauen so ein Monster zu schaffen.
Tja ist so eine Sache mit der 280er.
Leider hat CB bei dem Test die Werte der 9800 GX2 im Quad SLI rausgelassen. Obwohl es dazu einen schönen Test gibt: https://www.computerbase.de/2008-03/test-ati-crossfire-x-vs-nvidia-quad-sli/24/
Und wenn man sich die Werte anschaut wackelt der Tron der 280er im Preis Leistungs verhältniss schon gewaltig.
Ich für meinen Teil hab jetzt aber ein Problem: Ich habe eine 9800GX2 in meinem Rechner. Es war eine zweite geplant... ja das 1200 Watt Netzteil ist schon drin.
Dann kamen die ersten hinweise auf die 280er also die Anschaffung der zweiten Karte erst einmal verschoben. Wenn ich mir die Werte jetzt anschau lohnt es sich nicht wirklich vom Quad SLI Plan abzurücken und noch mehr Geld rauszuhauen für zwei 280er.
Auf der andren Seite sind Vram und der zukünftige Focus von nvidia auf den G200 schon argumente komplett noch mal umzurüsten.
Und das einzige Game in dem die 280er die 9800GX2 wirklich verblasen hat ist COH. Wenn zukünftige Games aber mehr Texturenspeicher brauche, kann den 9800ern allerdings auch schnell die Luft ausgehen.
Wenn einer einen guten hinweis für mich hat bitte her damit. Wer das alles bekloppt und zu teuer findet was ich hier Bastel braucht mich darüber nicht belehren.
Gruß
Andreas
Leider hat CB bei dem Test die Werte der 9800 GX2 im Quad SLI rausgelassen. Obwohl es dazu einen schönen Test gibt: https://www.computerbase.de/2008-03/test-ati-crossfire-x-vs-nvidia-quad-sli/24/
Und wenn man sich die Werte anschaut wackelt der Tron der 280er im Preis Leistungs verhältniss schon gewaltig.
Ich für meinen Teil hab jetzt aber ein Problem: Ich habe eine 9800GX2 in meinem Rechner. Es war eine zweite geplant... ja das 1200 Watt Netzteil ist schon drin.
Dann kamen die ersten hinweise auf die 280er also die Anschaffung der zweiten Karte erst einmal verschoben. Wenn ich mir die Werte jetzt anschau lohnt es sich nicht wirklich vom Quad SLI Plan abzurücken und noch mehr Geld rauszuhauen für zwei 280er.
Auf der andren Seite sind Vram und der zukünftige Focus von nvidia auf den G200 schon argumente komplett noch mal umzurüsten.
Und das einzige Game in dem die 280er die 9800GX2 wirklich verblasen hat ist COH. Wenn zukünftige Games aber mehr Texturenspeicher brauche, kann den 9800ern allerdings auch schnell die Luft ausgehen.
Wenn einer einen guten hinweis für mich hat bitte her damit. Wer das alles bekloppt und zu teuer findet was ich hier Bastel braucht mich darüber nicht belehren.
Gruß
Andreas
Ähnliche Themen
- Antworten
- 212
- Aufrufe
- 30.669