Test Test: Nvidia GeForce GTX 480

@ Beatmaster A.C.

Glaub mir du wirst es nicht bereuen.Ich hab jetzt meine beiden Rechner auf Ati umgestellt und sie tun beide was sie tun müssen und das gut. Meine 8800 gts war ne gute Karte aber da ich auf die 5770s umgestiegen bin erkenn ich keinen Nachtteil gegenüber NV mehr.

@ Topic

Tja , wie ich es erwartet habe. Hab mir ja schon damals genau den Test von Semiaccurate durchgelesen. Also war meine Entscheidung doch nicht falsch , jetzt zu kaufen , da das Ati Lager nicht mal die Preise drücken muss.

And the Winner is: ATI , wenns jetzt noch eine 5890 rausbringen haben sie den berühmten Titel Fastest Single GPU auch wieder zurück

ATI 4ever
 
Hah...als hätte ich es geahnt.
CptHirni ist ein Käufer, von dem ich gesprochen habe. Allerdings nicht in der Kategorie 1 einzuordnen (unwissend), sondern ganz im Gegenteil. Er weiß, was er tut, was das bedeutet und kann man den Negativpunkten leben bzw. weiß diese auszumerzen.

...Das soll übrigens kein Angriff sein: Keineswegs. Ich wollte das nur einmal anmerken, dass die Zielgruppe existiert. Auch wenn diese wohl unerwartet schmaler ausfallen wird...
 
Hallo ich habe mal ne Frage auch wenn vieles gegen die GTX480 spricht
und mal abgesehen vom Stromverbrauch..
Welche Karte hat mehr Zukunft die GTX 480 oder die hd 5870
ich frage deshalb weil ich eine hd5870 gekauft habe und noch 3 wochen umtausch recht habe ich spiele in der auflösung 1920 und schraube ungern die auflösung und alles andere runter
wegen der Lautstärke wird es wahrscheinlich irgendwann einen Passiv kühler aller prolimatech mk13 geben.... nun was ist zu empfehlen kann ich für die späteren spiele mich auf die 5870 verlassen auch nvidia optimierte spiele oder wird es sowas gar nicht mehr geben und einheitlich sein ?
Die gtx 470 wird wohl kaum schneller als die hd 5870 ich müsste ja auch 100 euro mehr für die 480er zahlen-
Konkret soll ich meine hd 5870 zurückgeben ? und vllt auf ein schnäpchen der 480 er warten?
oder 470er wenn diese schneller als die hd 5870 ist ?

Vielen Dank für eure Hilfe ;)
 
Oh Gott, wer will sowas kaufen? Mal ganz ehrlich.
Und damit meine ich jetzt nur die Heimanwender. Im Profibereich taugt das Ding wenigstens was.
 
Hm, totaler FAIL... wenn der Test hier nicht so "The Way its ment to be played" lastig wäre, würde das Ergebnis sicher noch düsterer ausfallen...

Aber Laut, Stromhungrig und extrem heiß, einwandfrei :D Ich freu mich schon wie zu 5800 Ultra zeiten, übers TS genau sagen zu können welche Graka mein gegenüber drinne hat :p

Ich wette das schon ein Test mit dem 10.3er und weniger Geforce titeln, den Vorsprung auf wenige % sinken lässt, eventuell ist Computerbase so fair und testet mal ordentlich. Ansonsten, in der Gamestar kommt auch ein test, die sind bisher immer sehr gut gewesen und nicht so "The way..." lastig :)

Ich freu mich auf die 5890 und 5850 mit jeweils 2GB, da ich denke, dass dem RV800 nur Speicher fehlt und wenn er den hat, wischt er mit dem ach so wundertollen Fermi dann den Boden, Ordnung wieder hergestellt.
 
Bennie17 schrieb:
ich frage deshalb weil ich eine hd5870 gekauft habe und noch 3 wochen umtausch recht habe ich spiele in der auflösung 1920 und schraube ungern die auflösung und alles andere runter[/U]
lol... bei was musst du denn die Auflösung runter schrauben mit der 5870? :freak:
 
Bennie17 behalt die HD5870, also wenn die IRGENDWANN nicht mehr reicht wird die GTX 480 auch in die Knie gehen... und sparst dabei 100 euro + die Stromkosten + eventuellen NT austausch
 
CptHirni schrieb:
(...)125W Mehrbrauch zur 5870 machen bei 3h Full-load täglich/365 Tage gerade einmal
(0,125kW*3h*365*0,18€/kWh) 24,64€ aus. Ich bezweifle, dass 2,05€/Monat für jemanden, der die Leistung will und bereit ist 500€ für die Karte an sich zu zahlen, einen Hinderungsgrund darstellen.
Trete ich den V8 frisst er nunmal 30l+/100, dafür hab ich dann die Leistung und den Spaß, was anderes ists bei der Graka auch nicht.
Bei der aktuellen Preisvergleichs-1cent sparen-Geiz ist Geil Gesellschaft wundert mich allerdings nicht, dass daraus nun einer der Aufhänger schlechthin gemacht wird.(...)

Du vergisst da etwas ganz Grundlegendes:
Weder der Kaufpreis der Karte, noch die erhöhten Stromkosten (die du mit 18 Cent zwar etwas arg optimistisch gerechnet hast, 20 Cent kommen da eher hin) stellen hier angesichts der Leistung der Karte irgendein Problem dar.

Das einzige WIRKLICHE Manko ist doch, dass diese Karte "SO" fertig zum Verkauf auf den Endkunden losgelassen wird. SO - im Sinne der enormen Abwärme und der damit verbundenen kompletten Aufwärmung des gesamten Towers. SO - im Sinne der enormen Lärmbelästigung der Karte, denn nicht jeder, der sich ne neue Grafikkarte kauft, verbaut diese in ein WaKü-System. Und HIER könnte man durchaus wieder über Geld reden, denn extra ne WaKü für eine so "blöde" Karte anzuschaffen, liegt sicher den meisten Kaufinteressenten fern.

Enthusiasten kaufen sich natürlich diese Karte, vielleicht sogar zwei oder drei - und vielleicht sogar eine ordentliche Wasserkühlung drum herum. Das ist aber nicht nVidia´s Kerngeschäft, das war es auch nie. Im Gamer-Bereich kommt der Umsatz weiterhin durch den Casual-Markt zustande, der auch dafür zuständig ist, die nicht unbedingt kostendeckenden HighEnd-Karten mit zu finanzieren.

Das war bisher immer so, auch bei AMD/ATI. Das große Problem dabei ist jedoch die Tatsache, dass nVidia hier einen gigantischen Imageschaden erleidet. Den macht man auch mit der "Single-GPU-Krone" nicht mehr wett, schon garnicht, wenn man - um diesen Titel zu erringen - schon fast über Leichen geht (für Grafikkarten-Verhältnisse).

Cya, Mäxl
 
Ich glaube sowieso, dass es bald zu erheblichen Problemen in der Hardwareindustrie aufgrund mangelnder Spiele kommen wird.
Mal ehrlich, was gibt es heutzutage noch für brauchbare Spiele für den PC? 90% sind für die Konsole, von den restlichen 10% sind vielleicht 10% brauchbar und je nach geschmack noch weit weniger. Gute Spiele mit Langzeitmotivation sind eine Rarität geworden.
Wenn ich sehe was ich Spiele, dann sind das alles Klassiker die teilweise über 10 Jahre alt sind (z.b. Starcraft, Warcraft3, Quakelive...). Selbst meine einzige Hoffnung Starcraft 2 wird nicht annährend soviel Grafikpower benötigen.
Ich denke, da kann ich noch lange gut mit meiner 7900GTO auskommen. Die ist quasi lautlos, sparsam und ziemlich kühl.
Ich kenne genug Leute, die sich solche High-End Karten einfach kaufen um sie zu haben und dann die meiste Zeit nur surfen und quasi nichts zocken. :o

Also mein Tipp:
Konsumiert erstmal Software, welche diese Grafikpower benötigt und kauft dann eine entsprechende Graka mit gutem Preis/Leistungsverhältnis und nicht vorher.
 
Sehe ich auch so, DJMadMax.

Dazu kommt, das AMD doch mit den gleichen Mitteln sich die Krone zurückholen könnte:
"Einfach" gnadenlos übertakten und einen dicken, lauten Lüfter drauf.

Die Nvidia Karten kann man wohl frühestens nach 3, 4 Revisionen kaufen - trotz langer Verspätung kommen sie noch zu früh auf den Markt, und damit man zumindest die Blinden und Arglosen noch täuscht, pumpt man soviel Strom rein, dass man die schnellste Karte am Markt hat.
 
Wann kommt denn euer Test der GTX470?

Peace
 
Ich seh sie auch als größten Flop seitens nVidia!

Tesselation ist nicht alles, der Stromverbrauch ist eine Katastrophe und führt im Vergleich zur Radeon HD 5000er Serie zu einer schlechten Effizienz. Eine vergleichbar starke Radeon 5850/5870 benötigen wesenentlich weniger Strom, bei gleichem Ergebnis. Ich befürchte eine GTX 470 wird hier nicht unbedingt besser abschneiden und auf Radeon 5850 Niveau agieren, aber bei deutlich höherem Stromverbauch!

Schade, ich hatte große Hoffnungen auf die neue GTX 470 gelegt, aber nur wegen DX-11. Meine nächste Grafikkarte wird wieder eine ATi werden. Meine letzte ATi war eine Radeon 9500 Pro.

Sobald die Preise an die 200 Euro Marke reichen, für eine HD 5850 wird es interessant, bis dahin reicht mir die GTX 275 dicke. Ich zocke sowieso nur auf 1280x960 Pixel oder über DLP-Projektor auf 1280x720 Pixel. Da läuft alles flüssig mit Antialiasing.

McDaniel-77
 
aspro schrieb:
Naja so kann man das auch nicht sagen. In Bezug auf Dsitributed Computing sieht gar nicht so schlecht aus: http://www.planet3dnow.de/vbulletin/showthread.php?t=375718

Complication schrieb:
Also das mit dem schlechten GPGPU Support von Ati ist irgendwie eine Legende die sich hartnäckig hält. Erst jetzt die aktuelle GT4xx Karten können die HD5 einholen bei GPGPU:
Naja, muss man differenziert betrachten:

Single Precision:
ATI hat ca. die doppelte Leistung des Fermi. Ohne Wenn und Aber. Sieht man schon auf Seite 2 des Testes. 2,7 TFLOPS gegen ca. 1,3TFLOPS
Das sieht man auch am Planet3DNow!-Artikel. AMD hat was GPGPU und SP anbelangt einfach die brachialere Rechenpower.

Double Precision: Hier hat nVidia ATI nun überholt. Dazu kleine Exkursion: Die Radeonkarten haben seit geraumer Zeit 5D-Shader, d.h. mehr oder weniger 5 Recheneinheiten pro Shader, die Single Precision können. Die HD hat auf einen 5D-Shader aber nur eine FMA-Einheit.
In Single Precision geht die Radeonkarte ab wie "Schmitz Katze" (wer kennt den Anke Engelke-Sketch?^^), weil sie die Fermi mit Streamprozessorenzahl (1600=320 Shader *5D-Shader gegenüber 480 bei Fermi) anstatt von Takt und Shaderzahl schlägt (weniger Shader, aber jeder Shader mehr Recheneinheiten)
In Double Precision haben die Radeonkarten die Schwäche, dass jeder Shader nur 1 FMA-Einheit hat und somit auf 20% der Singe Precision-Leistung einbricht. Und da holt sich der Fermi mit Takt und reiner Shaderzahl zum ersten Mal für nVidia die Krone.

Leider können beide Karten noch keine 80Bit-Genauigkeit oder 128Bit (das soll mit OpenCL bald implementiert werden, da bricht die Leistung weiter ein, aber für _echte_ Grundlagenforschung unumgänglich.
Dafür kann die HD5xxx Serie ECC, d.h. Fehlererkennung. Weiß nicht, ob Fermi das auch hat.
Mal sehen, wie AMD kontert. Vllt. eine Single Precision-Einheit gegen FMA tauschen. Würde AMD sofort wieder vor nVidia katapultieren und zwar mit deutlicherem Abstand als nVidia jetzt vor AMD führt, Der Vorsprung lässt sich dich übertakten ausbügeln. Schätze 100-150MhZ Mehrtakt dürften reichen, um zum Fermi aufzuschließen, was DP betrifft.
 
Zuletzt bearbeitet:
pumpt man soviel Strom rein, dass man die schnellste Karte am Markt hat

Das ist nunmal wichtig.
Die Leute sehen bääm nvidia hat die schnellste Karte also sind die anderen Nvidiakarten auch schneller und doch sowieso viel besser.
was kümmert mich denn der Verbrauch
Ach multi Gpu kann man mit single Gpu doch eh nicht vergleichen.
Wenn ich zocke hör ich das Teil sowieso nicht

... übliches gefährliches halbwissen eben ^^

Ich mein ich kenn einen, der sich vor 2 Monaten ne gtx260 für 250€ geholt hat...
Weil "die 5850 is ja viel schlechter" ...
 
Okay, die GTX 480 hat zwar ne gute Leistung, aber was die leistungsaufnahme angeht, kann mich nvidia gern haben. 452W sind nicht mehr schön.

Da greif ich lieber zur HD5870.

Dafür ist sie aber klein. :D

Werd aber warten auf die next gen., von ati und nvidia. :D

Meine GTX 260 reicht noch vollkommen.
 
Faranor schrieb:
Ich mein ich kenn einen, der sich vor 2 Monaten ne gtx260 für 250€ geholt hat...
Weil "die 5850 is ja viel schlechter" ...
Und genau solche Menschen muss man in ihrem Glauben lassen. Ansonsten wirds echt hässlich! :freak:

Die Effizienz dieser neuen Karten ist so manchem hier auch vollkommen Wurst. Da wird mal eben schnell kommentiert, das es die schnellste SGPU Karte ist, die Geräusche die diese Karte macht einen nicht interessieren wollen und schon argumentiert man vollkommen richtig. Manchen Menschen geht echt alles am Ar*** vorbei. Hauptsache ne fette NEUE Fermi im viel zu kleinen und engen Gehäuse haben ;)

Jaja. Momentan sehe ich echt keinen Grund meine GeForce 9600 GT auszutauschen. Das was mir momentan aufm Grafikkartenmarkt geboten wird ist entweder zu teuer (ATi) oder äußerst ineffizient (Fermi)!

Wer jetzt anderer Meinung ist, das der Grafikkartenmarkt doch total anders aussehe, möge mich bitte auf der Stelle bashen!
 
@DJMadMax: Das wirkliche Manko dieser Karte habe ich keineswegs vergessen, nur für mich für irrelevant befunden ;)
Ich möchte auf garkeinen Fall behaupten, dass diese Karte für Jedermann gebaut ist, noch, dass sie in allen Bereichen das Optimum darstellt.
Wie immer, vor allem bei Highend Hardware, muss jeder für sich entscheiden, was er erwartet, braucht und bereit ist zu zahlen und das nicht nur im Sinne des Kaufpreises.

Jemand, der eine >500€ Karte kauft ist normalerweise informiert genug um Vor- und Nachteile abwägen zu können. Hier gehts ja nicht um eine Volume Karte ala G210/GT220, die sich als völlig daneben herausstellt.

Enthusiasten kaufen sich natürlich diese Karte, vielleicht sogar zwei oder drei - und vielleicht sogar eine ordentliche Wasserkühlung drum herum. Das ist aber nicht nVidia´s Kerngeschäft, das war es auch nie. Im Gamer-Bereich kommt der Umsatz weiterhin durch den Casual-Markt zustande, der auch dafür zuständig ist, die nicht unbedingt kostendeckenden HighEnd-Karten mit zu finanzieren.
Vollkommen richtig. Der Gamer Bereich wird ja durch die kommenden GF104 Derivate abgedeckt, und noch viel mehr von den G210-GT240 Karten bzw. den OEM Pendants. Da tut diese Ausbaustufe der Karte recht wenig zur Sache.
Wenn die kleineren Karten im Bereich bis ~200€ kommen wirds erst interessant, die GF100 ist mehr Technologieträger, 1%-Karte.
 
Kasmopaya schrieb:
und bei GPGPU ist bei ATI auch tote Hose
Falsch. Gibt genügend CTM/Brook/Stream Anwendungen für ATI. OpenGL/OpenCL noch nicht mal mitgerechnet. ATI hat als erster übrigens schon einen OpenGL 4 Treiber veröffentlicht. Und wie Complication schon sagte, mehr als eine Legende ist das nicht.

Kasmopaya schrieb:
AMD als Plattform kann hier auch nichts mehr reißen, es fehlt einfach die Flexibilität eines Fermi.
Auch das ist schlichtweg falsch. Fusion bietet hier eine weitaus grössere Flexibilität als das nVidia mit einer GPU jemals erreichen können wird.

Fortatus schrieb:
Double Precision: Hier hat nVidia ATI nun überholt.
Sehe ich anders. ATI hat immer noch Hemlock. Und da kommt auch Fermi bei DP nicht ran. Und dass wir bei Hemlock über Dual-GPU sprechen, ist für GPGPU sowieso irrelevant. Thermisch ist dieser auch nicht kritischer als Fermi.
 
Zurück
Oben