Test GeForce GTX 280 im Test: Neues Nvidia-Flaggschiff lässt die Konkurrenz hinter sich

Tut mir leide, aber langsam nehme ich wieder Abstand von Nvidia. Sich die Krone zu erkaufen durch einen so hohen Preis wie der Stromverbrauch dieser Karte, ist meineserachtens eher Verzweifelung als meisterleistung. Nur damit sie sagen können wir haben die schnellste Karte.
Ich verweise zusätzlich auf die Chipsatzlösungen, unausgereift und Fehlerbehaftet.
Nach 9 Jahren treuer Nvidia Anhänger, ist auch für mich das Konzept nicht mehr überzeugend.
Ich nehme an bzw. bin davon überzeugt das AMD/ATI aus dem letzten Wurf, dem RV680, ne Menge dazu gelernt haben und sich nun wieder den Weg zurück in den Mainstream und Enthousiastenhimmel erkämpfen.

Die Karte von Nvidia ist und bleibt für mich lediglich n Potenzprotz, wenn mein Rechner n halbes Kilowatt die Stunde aus der Leitung zieht mach ich irgendwas falsch. Das beweisst nur das die Architektur weder Fortschrittlich noch zukunftstauglich ist. Das ist auch für die Mainstreamableger anzunehmen. Da steckt keine wirkliche Weiterentwicklung dahinter, nur das man Geschafft hatt 250Watt auf n PCB zu Bannen. Zumindest brauch man im Winter keine Heizung mehr.
 
SirMarkPower schrieb:
Welche Begründing gibt es dafür, dass in den Benchmarks ein GTX 280 SLI auftaucht aber nicht ein 8800GTX SLI ?! Uns Leser interessieriert auch dieser Performance unterschied!

Richitg. Wenn SLI, dann doch bitte alle karten im SLI testen. Sprich 8800GTX SLi, 8800 Ultra SLI, 9800GTX SLI.

Dann würde wohl die GTX 280 auch nicht mehr so gut aussehn. Is ja klar das die GTX 280 im SLI überall ganz vorne ist.
 
Das dürfte auch der Grund sein, warum nv keine gtx260 rausgerückt hat: dann hätten die Balken der neuen Karten auf den ersten Blick nicht so lang ausgesehen.
 
Bezüglich der Leistungsaufnahme frage ich mich langsam ob ihr euch den Test genau angeschaut habt?

https://www.computerbase.de/2008-06/test-nvidia-geforce-gtx-280-sli/32/#abschnitt_leistungsaufnahme

Die GTX280 verbraucht im Idle nur unwesentlich mehr als eine sparsame 9600GSO oder 8800GT.

Unter Last liegt der Verbrauch unter dem einer 9800GX2 / 3870X2 und nur knapp über dem einer 8800Ultra.

Es wurde die Leistungsaufnahme des gesamten Systems gemessen, nicht die der einzelnen Karte!

Also was soll die Kritik?
 
Zuletzt bearbeitet:
Hi!

Also, ich muss auch ganz ehrlich sagen, dass die neue GTX 280 mich überhaupt nicht überzeugt hat und der Preis erst recht nicht! Ich weis nicht was an der Karte so toll sein soll, der Preis ist es nicht, die Leistung meiner Meinung nach auch nicht, der hohe Stromverbrauch mit Sicherheit auch nicht, langsam bleiben mir die Argumenten, die für den Kauf dieser Karte sprechen aus bzw. es gibt keine!
 
@nfszocker:

Och ja, was ne Schrottkarte die mit Qualitätseinstellungen bis zu dreimal schneller als eine 8800 Ultra rendert, zudem nicht wesentlich mehr Strom als diese verbraucht und nicht mit den typischen Multi-GPU Problemen einer 9800GX2 zu kämpfen hat.

Die Preise der Karte werden sich schnell relativieren. Ich habe für meine 8800GTX vor 1,5 Jahren auch 490 EUR bezahlen müssen, was solls?
 
Zuletzt bearbeitet:
Also ich finde die Karte ist schon ein beachtliches Stück Hardware, nur eine neue Leistungsgeneration (wie es Nvidia und verklickern wollte) ist es in meinen Augen nicht. Ich kann auch ein Auto mit mehr PS bauen indem ich 12 statt 4 Zylinder verwende! Und der Preis rechtfertigt die Leistunge nicht!

Was mich noch interessieren würde: Gibt es von "BadaBOOM Media Converter" eine Final? kann man die kaufen oder eine Demo irgendwo runterladen? würde mich wirklich interessiern!

Gruß
Torhe
 
Bitcatcher schrieb:
Also was soll die Kritik?

236Watt Maximalverbrauch sind numal 236 Maximalverbrauch, sicher mag sie den Stromverbrauch herunterfahren, allerdings heißt es da schon wieder es gäbe ein Treiberproblem und die angepeilten 25Watt Verbrauch im Desktopbetrieb werden noch nicht erreicht. Und zum Thema Treiberproblem hat ja schonmal jemand n paar Dinge gepostet, der hohe Verbrauch im Desktopbetrieb der G80 Karten war damals ja auch angeblich nur ein Treiberproblem (welches bis heute noch nicht gefixed ist)

Dazu kommen erste User Tests wo es heißt die Karte wäre auch im Desktopbetrieb unsagbar laut und heiß, ja bitte wie kann die Karte laut und heiß sein, wenn der Lüfter röhrt ohne Ende und eigentlich nur paar wenige Watt aus der Steckdose gezogen werden sollen :rolleyes:
 
Ich finde einen Test mit einem CPU-Takt, den so gut wie kein Normalbürger verwendet, noch immer witzlos...

Ausserdem ärgert mich bei CB, dass 1920 x 1200 scheinbar ein Stiefkind von CB ist und dass es keine Vergleiche bei den Zusammenfassungen für diese Auflösung gibt. Es wird ja wohl mehr Menschen mit einem 24"-Monitor geben, als mit einem 30"...

Warum alle so jammern, kann ich nicht nachvollziehen. Die Karte ist ca. 50 % schneller als die GTX, das ist doch was.

Wem es zu langsam ist, der kann sich darüber freuen, dass er mal nicht aufrüsten muss ;-) Oder aber die Unzufriedenen gehen einfach her und produzieren eine schnellere Grafikkarte :P

Hoff mer mal, dass ATI besser ist. Viel Unterschied wird wohl nicht sein.

Es ist zwar nett, dass die Grafikkarte im idle mode weniger verbraucht, aber imho sollte das noch besser gehen. Für´s nix tun is imho immer noch viel zu viel. Bin mal gespannt, was die Behebung des angeblichen Treiberfehlers bringen wird. Ich frag mich, wieso CPU´s so leicht einen Stromsparmodus aktivieren können, während GPU´s das nicht können.

Ich fürchte ich müsste mir (schonwieder) ein neues Netzteil kaufen für diese Karte, weshalb ich im Moment lieber verzichte.
 
Zuletzt bearbeitet:
Was ich mir hier (bevor ich meine Meinung zur Karte äußere) wirklich wünschen würde, ist:

1.) Tests mit den höchstmöglichen einstellbaren Bildverbesserungen (16xFSAA, 16xAF)
2.) Tests mit TAA/AAA (Transparency- bzw. Adaptive Anti-Aliasing)

Für mich war TAA/AAA die revolutionärste und wichtigste Innovation im Bereich FSAA, die es seit der Voodoo5 gegeben hat, also im Multisampling-Zeitalter halt. Keiner testet damit. Gut, in Crysis mag es nicht funktionieren, aber in vielen anderen Spielen schon, wo es auch einiges bringt (World in Conflict, HL², u.v.m.).

Ich spiele nämlich hauptsächlich in 1280x1024, sowie 1600x1200, in seltenen Fällen 3200x1200 über zwei Schirme. Da ich mittlerweile wieder auf Intel Chipsätze fixiert bin, und mein SLI damals mehr eine Katastrophe war als sonst was, bin ich halt Single-Chip Nutzer, und das wird wohl auch so bleiben.

Wenn man also Multi-Chip Lösungen aus bekannten Gründen außen vor läßt, was für eine Wahl hat man dann, wenn einem eine 8800GTX zu lahmarschig ist?

Und die Leute die hier meinen, 550€ wären ach so viel zu teuer, und der Stromverbrauch wäre ach so viel zu hoch, weil wir müssen ja jetzt alle unbedingt "grün" und umweltfreundlich denken, gehen mir langsam am Arsch. Nicht hier auf CB, sondern global.

Wenn ich die schnellste Single-Chip Bombe will, die gutes Geld kaufen kann, dann ist und bleibt die GTX 280 die einzig mögliche Wahl, oder irre ich mich da etwa? Mid-Range ist nicht für jedermann das Maß der Dinge.

Es gibt auch Leute, die interessiert Preisleistung nur... sagen wir mal "bedingt". Und das hatt nichts mit hauptberuflichen Söhnen zu tun. ;)

Ich finde, die Karte wird hier zu stark gebasht. Wer glaubt, man könnte eine Single-Chip Karte bauen, die die GTX 280 in Sachen Leistung verbrennt, 300€ kostet und nur 150W unter Load braucht, der hat entweder den heiligen Gral gefunden, oder lebt nicht ganz auf diesem Planeten.

AJO, ein Detail fällt mir da noch ein: Wenn man eine brachial schnelle Karte bauen kann, die 150W frisst... Was hindert einen dann daran, eine NOCH schnellere zu bauen, die 300W frisst? (oder halt 290...).

Ich finde, es sollte zu jeder Generation immer eine SC-Karte gebaut werden, die das absolut maximal technisch mögliche darstellt. Die sowohl in Sachen Fertigung (Die Size) als auch Stromverbrauch und Abwärme absolut an die Grenzen des Machbaren geht, und so das Maximum an Leistung liefert.

Weil ich 1600x1200 mit 16xFSAA und 16xAF halt nun mal gerne einschalten würde. ;) Sobald das Ding unter die 500€ Marke fällt (was ich übrigens für NV Highend unverschämt günstig finde, nicht Mal die FX5900 war damals unter dieser Marke, obwohl die viel mieser war), hol ich mir eine für mein Mainsys...
 
1.
Ich habe mich nie für die HighE karten interresiert, aber ich habe ein bischen mehr erwartet.
Das sie in crysis nur +/- 13 fps schneller ist als eine 8800GT, aber 3mal soviel kostet. NEIN DANKE !

2. Was ist jetzt mit diesem Hybrid SLI ? War dies in dem test ausgenuzt?

3. Ich würde sehr gerne einen test mit GT260 sehen. Weil ich glaube das sie kaum schneller als eine 8800GT wird aber 2mal soviel kostet. Damit wird das P/L bei GT260 noch schlechter als beim HighE

4.
Abwarten und Tee trinken
 
hi,ich finde das der gt 200 schon eine deutliche verbesserung zum g80 ist zumal sie ja auf der gleichen architektur basieren.Wie man im test lesen konnte hat man die effizienz doch deutlich gesteigert womit man wahrscheinlich die niedrigen taktraten kommpensieren kann,aber abgesehen von der lautstärke und dem hohen verbrauch wird wohl der preis die meisten user
abhalten sich so ein monster in den rechner zu bauen.deshalb denke ich wenn die neuen ati karten besser sein sollten als die 9800 gtx die im preissigment von 80% der leute liegt dann wird ati das rennen machen.
 
Also ich finde die GTX280 schon toll. Bei Crysis sind die von vielen erhoffeten oder erträumten Werte erst bei Triple-SLI zu erreichen, was deutlich zeigt, dass Crysis was Ressourcen anbelangt unser "MR. Nimmersatt" ist. Die Schuld gebe ich nicht der Karte. Bei Far Cry 2 schneidet die GTX 280 nachweislich sehr gut ab und auch andere Titel in relativ naher Zukunft werden vermutlich kaum so hardwarehungrig wie Crysis sein und somit für die Karte kein Problem darstellen. Zu bemängeln bleibt die Lautstärke der Karte und natürlich der Preis.
 
LazyGarfield schrieb:
Ich finde einen Test mit einem CPU-Takt, den so gut wie kein Normalbürger verwendet, noch immer witzlos...

Weil du noch immer nicht verstanden hast, warum CB das macht oder aus einem anderen Grund?
 
Was ich in der ganzen GTX280 Testleserei vergessen habe istDANKE Computerbasefür diesen wunderbaren und imensen Test es giebt nicht viele Seiten die sich solch viele Arbeit für so umfangreiche Tests machen.

Das gejammer um 9800GTX/GX2 noch im SLI zu testen verstehe ich nicht schaut doch einfach in den Artikeln da giebts ja den Test dazu.
 
...auf Seite 4: "aus der Leistung zieht" soll wohl aus der Leitung heissen ;)
Schöner Test. Eine GTX 280 wird wohl sowas wie damals die 8800 Ultra bleiben. Ein Exot.
 
Wartet mal ab!

Vergisst nich das nvidia noch immer das alte core (nur mit ein bischen update) und 65nm hat! Hier hat nvidia noch VIELE reserven die sie ausnutzen kann, aber zurzeit braucht sie es nicht.

So lange, bis sich nvidia nicht bedroht fühlt wird sie keinen grosen schritt machen. Aber wenn es soweit kommen wird.

Dann kommt ein volkommen neues core in 45nm !!

Na egal!

DANKE Computerbase
 
AvenDexx schrieb:
Weil du noch immer nicht verstanden hast, warum CB das macht oder aus einem anderen Grund?
Weil normalo User keine Vergleichsmöglichkeiten haben...

Wen interessiert, wie ein Spiel bei 4 GHz skaliert, wenn dieser Takt nicht Standard ist? :rolleyes:

Mich würd noch interessieren, wo der CUDA-FAH-Client her sein soll. Offiziell gibts sowas nicht. Ist der von NV oder woher kommt das Teil?
 
IgG schrieb:
Crysis, Very High, 1920x1200 1xAA/1xAF: 24 FPS.

Damit ist alles gesagt... jetzt stehe ich vor der Wahl:
  • HD4870 XT: Schafft Crysis zwar auch nicht, aber besseres P/L
  • XBOX 360 mit Blu-ray: Hier machen Mortal Kombat, SF usw. mehr Spaß, aber keine Shooter und kein C&C :(

Du weisst schon dass es viele gute Shooter auf dem PC gibt, die nicht die exorbitanten Anforderungen von Crysis haben? Und wenn Du viel Online zockst, kanns Du ja bei der Hardware etwas sparen, bei Shootern die Grafik runterschrauben/tweaken, und für andere Spiele mit guter Grafik eine XBOX anschaffen.
 
Zurück
Oben