Test GeForce GTX 280 im Test: Neues Nvidia-Flaggschiff lässt die Konkurrenz hinter sich

also ehrlich gesagt hab ich schon auf der zweiten seite des artikels ("technische daten") mit solch einem ergebnis gerechnet. im großen und ganzen ist der gt200 schon ein wesentlicher fortschritt im gegensatz zum g92, da zum beispiel wichtige faktoren wie shadereinheitenanzahl und speicherbandbreite stark erhöht haben. allerdings ist auch zu sehen, dass z.b. der shadertakt im gegensatz zur 9800gtx um ca. 1/4 gesenkt wurde, ebenso wurde der chiptakt um 73 MHz gesenkt. und der übertaktungsteil zeigt ja auch, dass nicht mehr viel aus der karte herauszuholen ist. und schlussendlich muss man ja sagen, dass sich die technik nicht wesentlich verändert hat, der gt200 aubau ist grundsätzlich derselbe wie bei g80/g92. der g80 konnte sich ja damals nur durch die einführung der unified shader soweit von der g70-reihe absetzen (wer sich noch erinnert: bis g70 gab es noch getrennte vertex- und pixelshader, sprich je nach spieleengine wurden mehr vertex- oder pixelshader benutzt, wodurch stehts ein teil der leistung brach lag, was durch die unified-shader umgangen wurde). und da der gt200 nicht wirklich solch eine revolutionäre neuerung mit sich brachte, war zu erwarten, dass die leistung nicht die höhen erreicht, wie es sich einige erträumt haben.
 
@ lübke.

crossfire skaliert bei aoc zB auch schon mit +90%

wer immer noch annimmt, die zukunft liegt in großen single gpus dürfte heute eines besseren belehrt sein.

die GT200 ist der letzte seiner art, ein dinosaurier zum aussterben verurteilt.

in der zukunft wird sich nvidia an ati orientieren.

und wenn ati es geschafft hat 1024vram für beide gpus gleichzeitig zur verfügung zu stellen und microruckler auch teil der vergangenheit sind, ja dann kannste die GTX 280 auch inne tonne werfen.

ach noch ne private frage.. *g*
wer hatte nu recht, mr unyu mit seinem verherrlichen der GT200 oder ich mit meiner skepsis. *g* bin ja so rechthaberisch *gg*
 
Zuletzt bearbeitet:
Voyager10 schrieb:
Nvidia besteht immernoch darauf das der Idlewert 25w ist also muss man genau davon ausgehen und nichts anderes.
Genau das muss man nicht, wenn Messergebnisse das Gegenteil beweisen. Ich halte es für absolut unbegründet, wenn aufgrund der Aussagen bzgl. der 25 Watt dann der idle Verbrauch anderer Karten auf Basis der vorliegenden Messergebnisse hoch gerechnet wird und wie im Falle der HD 3870 3 Watt idle raus kommen sollen. Was soll das bringen? Eine HD 3650 würde bei dieser Betrachtung nicht etwa Leistung aufnehmen sondern sogar abgeben. Wie Du zu dem Schluss kommst, dass man blind von der Aussage Nvidias ausgehen muss, ist mir etwas unverständlich.

Wenn es Dich stört, dass Nvidia auf 25 Watt besteht, dann warten wir doch mal auf die angekündigten Optimierungen und auf entsprechende Messergebnisse. Solange würde ich mal von etwa 45 Watt idle Verbrauch der GTX 280 ausgehen.
 
Lübke schrieb:
und bitte bitte auch ein aktuellen 8800gtx sli test mit einbauen, da die sowohl preislich als auch leistungstechnisch wohl vorne liegen dürften und imho schon allein aufgrund ihres alters ne sehr gute referenz ergeben ;) und mich würd interessieren, ob die sli-performance in diesem test vom neuen treiber oder der neuen hardware herrührt. so effizient hab ich sli bisher noch nicht gesehn...

Ich will mich deiner Nachfrage nach einem neuen 8800erSLI Test anschließen. Wenn ich die Zeit und alle hier getesteten Spiele hätte würde ich es ja selbst machen aber........ .

Eines kann ich allerdings vorweg nehmen . Einige werden sich umschauen wie gut SLI mittlerweile skaliert (unabhängig ob es nun ein älteres MB und 2 in die Jahre gekommene 8800GTX sind wie in meinem Falle). In den Tests die ich selber machen konnte schneide ich mit den 2 "Rentnerkarten" deutlich besser ab als die GTX280 (Einzelkarte).

Also CB, bitte ein "neuer" 8800GTX SLI Test :D
 
Also ich finde die Karte hat ordentlich power. Aber die 8800GTX war damals bedeutend eindrucksvoller! Für diese hatte ich auf 900CHF springen lassen! Ich werde also entweder eine 260er oder 4870er kaufen. Mehr als 500CHF geht gar nicht mehr!!
 
cosmicparty schrieb:
@ kasmopaya.

was soll die 260 reißen?

30% langsamer als die 280 mit der gleichen alten technik. und das noch teurer als ne moderne, feinstrukturierte 4870 mit GDDR5.

die wird der neue ladenhüter, wie seinerzeit die 2900xt.

PS hat wohn n grund, warum nvidia die 260 noch versteckt. *g* die ist doch kaum schneller als ne 9800 GTX und langsamer als ne GX2

Bei THG gibts einen test zu der GTX260...
http://www.tomshardware.com/de/GTX-280-260-GT200-Geforce-Nvidia,testberichte-240063-24.html

Aber wenn ich überlege das die 8800GTX z.T für unter 200€ zu haben ist, dann ist das Ding auch kein Preis/Leitungskrache....
Mal 2-3 Monate warten, dann sind die Preise normal, vorallem wenns die 4870 gibt....
 
@cosmicparty

Eine 9800GTX 512 soll gegen eine GTX 260 den hauch einer Chance haben? Wenn du das wirklich glaubst: Nochmal alle Testberichte der 9800GTX lesen und darauf achten was mit der Karte unter DX 10 passiert wenn der Vram voll ist!

Die 88GTX ist innerhalb von 2 Monaten auf 470€ gefallen, genau da hab ich zugeschlagen. Die GTX 280 wird das auch tun nur das der hohe € Kurs das ganze noch unterstützt und je nach dem wie sich die Karte verkauft, könnte der Preis auch schnell bei ca. 400€ sein.

Jaja, hätte, währe, wenn, ... HD 4000 muss sich erstmal beweisen...
 
Zuletzt bearbeitet:
Ich finde es lustig das bei Alternate steht das man damit Quad SLI machen kann :volllol:
Ich meine sie ist ja nicht schlecht, ich finde nur das der Performancegewinn für den Preis einfach nicht passt.
 
kannste mit dem 9800GTX sli test vergelichen,wobei die GF9 wohl durchwegs besser skaliert.


gruß
 
@ CB: Wann fangt ihr endlich an, die Leistungsaufnahme des Restsystems - geschätzt - rauszurechnen? Und was ist das bitte für ein Fazit, dass die GTX nicht für die Zielgruppe Stromsparer ist? Wenn sie sich nur ordentlich runterschalten könnte... mal sehen, wie die HD4000 beim Idle-Verbrauch abschneidet!
 
wo steht denn aber, daß die mikroruckler im sli-betrieb weg sind? ich habs nirgends gefunden.
danke.

mfg
 
Hmmm haben irgend welche Hersteller ne leisere Variante angekündigt ?
 
geht glabue ich frühestens in 2 wochen,bis dahin dürfen sie keine eigenen lösungen anbieten. war zumindest in etwas bei der 9800gtx so.


gruß
 
Kleine Preisinfo zwischendurch:

Wenn auch größtenteils nicht lieferbar, so hat sich ein paar Stunden nach Veröffentlichung schon einiges getan.

GTX 280 für unter 500€
GTX 260 für 329€
3870 X2 für 229€

Da werfen die kommenden ATI Karten ja schon gehörig ihre Schatten vorraus. Würde mich nicht wundern wenn wir zum 4870/4850 Release GTX 280 für ~440€ und GTX 260 für ~260€ sehen :)

Nur zum Vergleich: 8800GTX und 8800ULTRA waren damals quasi doppelt so teuer, viele High-End Karten zuvor auch (GF2Ultra für 1700DM anyone?). Da sieht man mal, wie gut Konkurenz ist :)
 
@kosmopaya.

natürlich wird die 260 schneller als ne 9800GTX. aber nicht beeindruckend schneller.

ich erinnere an die aussagen nvidias, dass die 260 30% langsmaer ist als ne 280.

na dann rechne mal, viel bleibt da an leistungsplus gegenüber ner 9800GTX net übrig ;)


PS die fallenden nvidiapreise sprechen ihr übriges, oder meinste die machen das freiwllig, weil sie der 4er reihe von ati so überlegen sind? *g*
 
Schinzie schrieb:
sind sie net,wo haste des her?


gruß

na das steht hier am anfang der kommentare von einigen "spaßvögeln", die es nicht besser wissen ;)
das die im single-betrieb weg sind, das war schon immer so...
wollte es nur bestätigt wissen.

thx

mfg
 
naja toll ist sie nicht geworden.... von wegen crysis in 1920x1200 mit aa generell ist sie nicht mal anähernd so schnell wie angekündigt geworden. da behalte ich meine ULTRA lieber noch so extrem ist der unterschied jetzt auch nicht zur GTX280, da würde ich mir eher die 9800GX2 holen die ist fast immer schneller.
 
naja wenn schon fast die komplette erste Lieferung ausverkauft ist, kann sie ja nicht so schlecht sein. :)

Find sie auch zu teuer und auch zu laut, aber beides kann sich ja in Zukunft ändern.

In jedem Fall ist es momentan die referenz-Single core GPU und NICHT zu vergleichen mit SLI oder CF oder DualCore Karten.

MAn muss hier den reinen Core vergleichen: sprich mit 9800GTX, 8800GTX oder HD3870.

Und da ist der Perfromance Sprung schon recht ordenlich.

Bin auch mal auf ATIs HD4870 gespannt und vor allem wie gut sic dieser in Games gegen den GTX280 schlägt.
nvidia war ja bis dato bei der letzen Generation etwas besser als ATI. Aber ich denke in dieser Periode kann ATI gut aufholen.
Das spricht für einen noch stärkeren Preiskampf.
Somit sind die Ergbnisse das beste was uns Endkonsumenten passieren kann. ;)

Für den vernünftigen Käufer sit diese Karte doch eh weit überteuert. Is halt der Mercedes unter den GPUs. premium war schon immer teuer.
Da bruacht man auch kein Rating, die Premium Modelle haben immer das schlechteste P/L Verhältnis. Is ja auch klar.

naja da kann ich ja beruhigt schlafen, dass ich mir ne 8800 GTS gekauft hab. So outdated is die auch noch nicht. :)
 
Zuletzt bearbeitet:
wieso kann man net dualcores mit singlecores vergelichen, wenn der preis der selbe ist?



gruß
 
Zurück
Oben