Test GeForce GTX 280 im Test: Neues Nvidia-Flaggschiff lässt die Konkurrenz hinter sich

das ist ein quadcore extreme der mit 4ghz läuft wie soll der bitte den benchmark ausbremsen? man muss aber sagen 3dmark hängt stark von der cpu ab..

ich freu mich auch schon auf die 4870 , heute in einer woche ist es so weit oder?
 
LOL, die GTX 280 verbraucht unter Volllast ca. ~11.5x soviel Strom wie meine aktuelle Graka xD
 
AYez schrieb:
Ati hat gewonnen findet euch damit ab nvidia bringt veraltete technik die VIEL ZU LAUT und VIEL zu VIEL STROM zieht, dazu sind die temperaturen auch gestiegen.

Lächerlicher Post, der so definitv nicht haltbar ist. Dazu gibt es einfach noch keine Infos zu den Karten. Zudem fehlt die Info, wo nVida verloren haben soll. In allem oder nur in den Punkten, die du anführst? Die sind längst nicht für alle wichtig.

Rasemann schrieb:
Wurden ALLE Karten mit 2.0 und neuesten Treibern getestet?
NEIN.
Also ist der Test eigentlich für den Ars...
Wenn man sich den Test zu P45 liest, mit teilweise 10FPS(60 auf 70) mehr!

Ich glaube, daß einfach der Speicherdurchsatz der Mainboards zu gering ist.
Wird sich mit Triplechannel ändern(Nehalem).
Mal sehen wie die Karten dann abgehen!
Mit 2GB Testen ist auch ein Witz.
AoC kommt damit gerade so aus.
4GB + 64Bit sind quasi Pflicht, wenn man schon einen utopischen 4ghz Quadcore einsetzt.

Der Test ist eben nicht für den Arsch. Was der RAM des Systems an der GPU-Performance ändern soll, muss man mir auch mal erklären. Wenn es nicht gerade CPU-Lastige Games sind, ist der System-RAM relativ egal. 2GB sind völlig in Ordnung. Auch für AoC, zumal das gar nicht getestet wurde.


@FreeZer_
Was hast du denn für eine Graka?
 
Zuletzt bearbeitet:
... jetzt bin ich total gespannt auf die Ergebnisse der GTX 260 und natürlich im Besonderen auch auf das Abschneiden von AMD/ATIs neuer Grafikkarten-Generation.

Dass das Preis-Leistungs-Verhältnis von Nvidias neuem Schlachschiff jenseits von Gut und Böse liegt, darüber brauchen wir uns sicherlich nicht unterhalten - aber hatten wir das nicht auch schon bei der 8800 Ultra so?
Ergo - ein Problem, mit dem sich die Käufer von "sogenannten" High-End-Produkten eigentlich schon immer rumschlagen mußten - was aber wenigstens diesmal wohl nur von sehr kurzer Dauer sein wird.

Insgesamt gesehen ist die Leistung der neuen Karte doch gut - jedenfalls im Vergleich zur 9800, die sich ja nun nicht wirklich von der alten 8800 absetzen konnte.

Was mich aber schon ärgert, ist die Lautstärke im Idle und unter Last.
Verdammt - da verlangt man von seinen Kunden eine schöne Stange Geld und ist nicht einmal in der Lage, eine leise Kühlung zu integrieren.
Bei der 7900GTX und der 8800GTX ging das doch auch. Was hat man sich dabei eigentlich gedacht - oder hat Nvidia noch nichts davon gehört, dass auch die Lautstärke eines Produktes für den Käufer entscheidend sein kann?

Insgesamt gesehen, bin ich also von dem Release der neuen Geforce GTX 280 nicht enttäuscht, aber auch nicht so überzeugt wie damals, als die 8800 neu auf den Markt kam.

Nicht umsonst habe ich mir damals eine 8800GTS 640MB@648/1512/1026 gekauft, die bis heute meinen Ansprüchen (1280x1024 und 4AA-16AF) vollkommen genügt und mich sicherlich auch noch in diesem Jahr begleiten wird. (Assassin's Creed lief jedenfalls mit allen Einstellungen auf MAX, und Crysis ist nicht mein Spiel ;))

Was danach kommt, werden wir sehen - aber ich könnte mir gut vorstellen, mal wieder zu AMD/ATI zu wechseln, denn wenn die Gerüchte nur halbwegs stimmen, könnten die neue 4800er Generation genau meinen Vorstellungen entsprechen ...
 
wer auf den shrink der gt200 auf 55 nm hofft... ja ok, nvidia muß ja mal nachziehen.... nur ati wird wohl schon ende des jahres mit dem rv870 (dann r800) in 40-45nm davonziehen.
der r800 soll übrigens eine völlig neue architektur sein... ohjee ich seh nix gutes für nvidia.... alleine die aussage, der g92 soll noch ein jahr laufen bereitet da kopfschmerzen *g*
 
Cosmic, deine Glaskugel möchte ich auch haben. Vom Die-Shrink darauf zu schließen, dass ein Hersteller dem anderen Davonzieht und das Ende somit besiegelt ist, halte ich für mehr als nur eine fragwürdige Äußerung...
 
darf man fragen, wieso ihr mit sli getestet habt und nicht mit einer single karte? mich würde die leistung einer einzelnen karte interessieren (oder hab ich da etwas bei den testergebnissen übersehen?)
 
@buuge

Hast du! Nicht nur den Test nicht gelesen, sondern auch diesen Thread nicht. Es wurde nämlich schon mal das Gleiche gefragt. Wie kann man übersehen, dass eine Single-Karte und SLI getestet wurde? Das steht doch mehr als Deutlich vor den Ergebnissen.
 
AvenDexx schrieb:
Wie kann man übersehen, dass eine Single-Karte und SLI getestet wurde? Das steht doch mehr als Deutlich vor den Ergebnissen.

Das ist vielleicht eine schwierigere Frage, als die ganzen anderen Fragestellungen mit denen man sich in diesem Thread beschäftigt hat...
 
In 1280*1024 nicht mal 60% schneller als die über anderthalb Jahre alte und um ein vielfaches billigere 8800 GTX, in meinen Augen eine Enttäuschung, aber auf hohem Niveau.
 
ernüchternd. :rolleyes: Naja einfach mal ne Generation auslassen. :D

Hätte man schon bei der Missgeburt von 9800 Generation machen müssen.
Ich finde der Fortschritt lässt deutlich zu wünschen übrig ...
verallendingen die SLI - Performance ist immernoch nicht brauchbar geworden ... schnitt 50-60% was eine verschwendung ...
 
stokes83 schrieb:
In 1280*1024 nicht mal 60% schneller als die über anderthalb Jahre alte und um ein vielfaches billigere 8800 GTX...

Wenn man die Aussagen nVidias einfach übergeht, hast du natürlich recht.....
 
Ich denke Fortschritt wird sehr ausgebremst, wenn man keine Konkurenz hat.
Der G92 wäre sonst, in der Form nie rausgekommen.

Daher muss man jetzt hoffen das endlich mehr Konkurenz auf dem Grafikkartenmarkt entsteht. Das hilft den Preisen und dem technsichen Fortschritt.
 
naja... eher konkurrenz unterschätzt....

was für konkurrenz nvidia hat, wirste in 9 tagen sehen ;)
 
hi,
also meines erachtens ist die gtx280 ein flop.

kann auch sein dass meine erwartungen durch die ganzen werbungen zu hoch waren, aber wenn ich mir jetzt bei compu-base die tests ansehe...

meiner meinung nach nahezu peinlich xD
für den stolzen preis von 500-600€ eine vergleichsweise "maue" leistungsteigerung.

teils nur liehct besser oder sogar schlechter als 9800gtx und 3870gx2...

wenn man dann bedenkt dass die 4870/ 4870gx2 da noch besser sein sollte als die 3870, denke ich dass die neuen ati karten wieder ernstzunehemde kunkurente der gt200 karten werden.

vor allem das preis/leistungsverhältnis.

mfg
 
Es ist eben so, daß schon sehr viele Leute 4GB+64 Bit haben.
Und sehr viele Spiele profitieren von mind. 4gb, beim Nachladen von Gegenden etwa.
AoC bringt Vista mit 2GB an die Grenze des Machbaren.
Wird nicht das einzige Spiel sein.
Es wird eben soviel RAM verwendet wie vorhanden.
Beim Beenden von AOC steht die Speicheranzeige bei mir auf 12% von 2GB(245MB)!
Also muß Vista alles rausschmeißen was nicht unbedingt laufen muß, suboptimal.

Die Texturdaten kommen vom Hauptspeicher zur Graka, also ist der Hauptspeicher sehr von belang.
Dualchannel , bzw FSB + PCI 1.1 ist bei flotteren Grakas schon voll auf Block.
Die Tests zum P45/X38 zeigen das.
Es gehören also sinnvollerweise alle relevanten Karten mit 2.0 nachgetestet.

AoC sollte unbedingt in den Test aufgenommen werden, spielen jetzt schon weit mehr Leute als so manches relativ unbekannte Game im Test.

AoC@9600GT@High = 15-20FPS, AA egal, die Karte hat mit 512MB zu wenig Speicher, läuft so schon mit 256MB ausgelagertem Grakaram.
@Medium mit verwaschenen Texturen @4xAA = 45 FPS

Ich glaube, daß die Karte erst in verbindung mit Triplechannel DDR3 ihr Potenzial entfalten kann.
Also auf die Nehalem Tests in 6 Monaten warten.
 
Zuletzt bearbeitet:
Zurück
Oben