Test Test: Nvidia GeForce GTX 480

JueZ schrieb:
OMG ... ein ATi Kampfposter.
MultiGPU und Single GPU kann man nicht vergleichen. Mikroruckeln, Inputlagg ... nur damit einem Fraps viele Frames anzeigt?

Dir ist schon klar, dass er mit 5890 eine 5870 mit höherem Takt meint?? Das wäre keine Multigpu Karte wie die 5970!!!!

Auch hier hätte lesen geholfen, statt einfach mal draufhauen....

MfG...
 
JueZ schrieb:
OMG ... ein ATi Kampfposter.
MultiGPU und Single GPU kann man nicht vergleichen. Mikroruckeln, Inputlagg ... nur damit einem Fraps viele Frames anzeigt?

Ich hatte vorher auch eine nVidia und griff auch immer gerne zu nVidia. Hatte vorher auch schon ein paar ATIs. Und zum Kaufzeitpunkt war eben ATI die bessere Wahl.

Und wenn ein Hersteller scheiße baut, muss er ausgebooht werden. Hab ich bei ATI auch gemacht.

Das ATI Avatar hat keine Bedeutung! :D


Und übrigends würde ne HD5890 keine 2-GPU Karte darstellen, sondern Single GPU. Die mit 2 GPUs gibts schon in Form der HD5970. Aber das zählt eh nicht. M-GPU ist IMHO eh schrott.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
riverdief schrieb:
@CB
Ich finde die Übertaktbarkeit gar nicht :S Mich würde interessieren, wie lange die Leistungsaufnahmen der Karten noch ansteigen können...

Die Karte sprengt ja schon jetzt die eigene TDP bzw. die Spezifikationen für die empfhohlenen Netzteile. Wer das Ding übertaktet riskiert, das im der PC in bestimmten Spielen/Anwendungen um die Ohren fliegt.
 
Zuletzt bearbeitet:
Die karte lohnt sich so oder so nicht. Wer vertraut schon 500 Euro einer Karte, die nur ein Jahr Garantie besitzt?

Hat man schon bei der 8800-Generation gesehen, die fallen reihenweise nach der Garantielaufzeit aus. Nene, drei Jahre ist bei Nvidia Minimum.
 
Was den Bereich der Konsumergrafikkarten angeht eine absolute Totgeburt.
Im Tesla Bereich hingegen wo Kosten und Stromverbrauch nicht wirklich interessieren mag dieser Chip durchaus ein komerzieller Erfolg werden, aber als Grafikchip ist das ein Desaster.

Was mich übrigens noch mehr stört als der absurde Verbrauch unter Last ist der Idle-Verbrauch. 50 Watt für den Windows-Desktop ? Das war für mich schon beim G80 und RV770/790 ein absolutes Auschlußkriterium.

NVidea hat im Prinzip zum dritten mal das selbe gemacht:
Mit dem Kopf durch die Wand an die Grenzen des machbaren gegangen.
Das war beim G80 ein großer Erfolg, beim GT200 war es nicht so toll, da dieser Chip letztlich in einer Preisklasse antreten mußte, für die er viel zu teuer in der Fertigung war.
Diesmal gings komplett in die Hose.
Das einzige was den Fermi als Consumer-Grafikchip retten könnte wäre ein Die-Shrink, aber 28nm wird wohl vor Mitte nächsten Jahres nicht verfügbar sein.
Was ich nicht verstehe ist die Schadenfreude der Fanboys: Verlierer sind die Käuffer, den die Grafikkartenpreise in der Oberklasse werden sich wohl dieses Jahr nicht mehr groß bewegen.
 
franeklevy schrieb:
Glaubt ihr nicht auch, dass dies bereits geschehen wäre, würde es so einfach möglich sein? Ich vermute es wird keine weitere Karten nach oben hin geben, auch keine Dual-GPU Karte.
Glaub ich auch nicht. Wenn das möglich gewesen wäre, hätte man nicht mit langer Verspätung ein derartig verhunztes Gesamtpaket released.
In nächster Zeit wird man die Bemühungen darauf konzentrieren, abgespeckte Mainstream-Ableger des Fermi und cGPU-Lösungen in die Marktreife zu bekommen. Ansonsten verhagelt man sich die Bilanz.
 
Hmm,was mann hier so liest....

Die GTX480 ist alles andere als eine krücke,die leistung ist genau die die ich erwartet hatte.In DX9 und 10 ein tick schneller als die Ati 5870,in DX11 ausser konkurrenz.

Für mich ist die GTX480 eindeutig ein DX11 karte,mit enormer leistung im tesselation so wie im kombinierten raytracing,hier sieht die ati kein licht.

Den einzigen kritikpunkt den ich an dieser karte finde ist die leistungsaufnahme,allerdings bringt sie auch die leistung einiger dual gpu karten,von daher ist das wieder annehmbar.

Nvidia hatt ein beindruckendes stück silizium abgeliefert,nun muss nur noch an der stromaufnahme optimiert werden.
 
habichtfreak schrieb:
kann mir jemand erklären warum fast alle karten in riddick mehr leistung bei 4xAA/16xAF als bei 1xAA/1xAF haben?

Steht im Text über den bunten Balken ;)
 
Es war klar, dass irgendwann die PCIe-Spezifikationen von 300W ausgenutzt werden würden, aber dass das so schnell mit einem Single-Chip passieren würde, der 300W TDP haben müsste (250W nenne ich mal vorsätzliche Täuschung) hätt ich nicht gedacht... und ich hoffe inständig, dass das den Käufern auch zu viel ist. Nichts gegen NV, ich hab selber NV, aber irgendwo muss auch mal Schluss sein was den Stromverbrauch angeht... Wo soll das noch landen? Bei 400W? 500W? Das geht einfach nicht. Mehr als 200W ist eigentlich inakzeptabel für einen Grafikchip, genau wie mehr als 150W inakzeptabel für eine CPU ist. Ich finde nicht, dass man sowas unterstützen sollte - die Hersteller sollten gezwungen sein, wieder etwas mehr auf Effizienz zu achten.
 
der hype war, wie man denken konnte, nicht gerechtfertigt.

das die 480 leistungsmäßig klasse wird war abzusehen, aber die nachteile wie verbrauch, temp und lautstärke machen alles zunichte.
nebenbei ist der preis ein k.o. argument

guter test
 
Hmm,was mann hier so liest....

Die GTX480 ist alles andere als eine krücke,die leistung ist genau die die ich erwartet hatte.In DX9 und 10 ein tick schneller als die Ati 5870,in DX11 ausser konkurrenz.

Für mich ist die GTX480 eindeutig ein DX11 karte,mit enormer leistung im tesselation so wie im kombinierten raytracing,hier sieht die ati kein licht.

Den einzigen kritikpunkt den ich an dieser karte finde ist die leistungsaufnahme,allerdings bringt sie auch die leistung einiger dual gpu karten,von daher ist das wieder annehmbar.

Nvidia hatt ein beindruckendes stück silizium abgeliefert,nun muss nur noch an der stromaufnahme optimiert werden.

Gesundheit, Gott, steh dir bei...egal wie die Karte ausgefallen wäre, du hättest sie eh gekauft, wa? :rolleyes:

mhh, un der "kleine" Kritikpunkt Leistungsaufnahme, gibts bestimmt nen Treiberupdate, der die um 200W senkt.

Ganz bestimmt...hust.
 
@ #511: Sühesse:

Interessiert einen Gamer wirklich der Stromverbrauch? Hier schreiben Leute das 15-20% Mehrleistung nicht im Vergleich zu dme hohen Stromverbrauch stehen. Das ist doch soweit hergeholt.... welchen Zocker interessiert es, am Jahresende wegen einer schnelleren Grafikkarte 25€ mehr zu bezahlen?!?!?!
Sollte dann nicht jeder schon auf i3 umsteigen, wo man genausoviel spart? SSDs kaufen, HHDs wegschmeißen, 26" eintüten und zum 15" greifen?

Ne macht auch keiner ..... aber wenns zur Argumentation dient, zwar nicht sinnvoll ist, aber reicht zum motzen... "ohje die zieht aber viel Strom, das kostet ja bestimmt soooviel Geld"


lächerlich...
...
......
viel interessanter sind doch die technischen Daten. Warum die KArte trotz der hohen Zahl Prozies weniger FLOPs hat. Warum der Unterschied von 1GB zu 1,5 GB VRAM nicht wirkt... etc.!
 
Tkohr schrieb:
Die GTX480 ist alles andere als eine krücke,die leistung ist genau die die ich erwartet hatte.In DX9 und 10 ein tick schneller als die Ati 5870,in DX11 ausser konkurrenz.

Für mich ist die GTX480 eindeutig ein DX11 karte,mit enormer leistung im tesselation so wie im kombinierten raytracing,hier sieht die ati kein licht.

Den einzigen kritikpunkt den ich an dieser karte finde.....

nein, ist sie auch nicht. Jedoch durch enorme Preise, Hitze, Lautstärke und Leistungsaufnahme erkauft.

Ist es Dir das Wert?

Bin und war nie Fanboy, jedoch ist das Gesamtkonzept hier einfach nicht aufgegangen.
Oder würdest du dieser Karte nen Wasserkühler aufschnallen (Garantie weg und 500€ vllt auch) und jeden Monat nen paar € weglegen, nur damit 10-30% schneller zu sein?

Vielleicht werden die Techniken (Tesselation, RayTracing) noch stärker gefragt, jedoch verbleibt Peis/Hitze/Leistungsaufnahme im indiskutablen Bereichen.
 
Zuletzt bearbeitet:
nebenbei ist der preis ein k.o. argument

Dass der Preis so enorm hoch ist liegt ja auch an der Leistung, die Karte ist schneller als eine 5870, daher auch wohl teuer, das sind halt verschiedene Preisklassen.

Freuen wir uns schonmal auf einen neuen Weltrekord mit ner 6Kern CPU und 2 oder 3 480GTX! :king:
 
Flop Flop und nochmals Flop! Da übertakte ich meine HD 5870 und habe die gleiche Leistung bei halbem Stromverbrauch :D!

Ati bringt mit sicherheit demnächst nen Refresh mit mehr Leistung und das wars dann für NV!Was AMD in letzter Zeit geleistet hat, Hut ab wenn man bedenkt wo sie mit der 2900xt waren
 
Hat man schon bei der 8800-Generation gesehen, die fallen reihenweise nach der Garantielaufzeit aus. Nene, drei Jahre ist bei Nvidia Minimum.

Hmm, dann ist doch gut, wenn die ersten frühstens nach 3 Jahren ausfallen... Also meine 8800GTS 512 hat 2 Jahre ohne Probleme bestanden ;)
 
Epic Fail dir Strom Anbieter werden sich freuen.

Und ein normaler Gamer hatt eh nich mehr wie 1920x1080 und da reicht ne Ati 5850/5870 logger.
 
Diese Karte macht mir die Entscheidung leichter: Meine nächste Karte wird eine 5870!

Schade Nvidia.
 
Zurück
Oben