Test Test: Nvidia GeForce GTX 480

Ich frage mich echt wie manche behaupten können, dass die Lautstärke mit einem Headset vollkommen egal sein. Wenn man nicht gerade non-stop auch in den Spielen sehr Laute Musik laufen lässt (was bei vielen Spielen wiederum die Atmo versauen dürfte) wird man ja wohl immer wieder die Lüfter hören können. Sei es bei Ladevorgängen, ruhigen Stellen oder sonst wo.
Außer natürlich man hat 100% Schall isolierende Ohrmuscheln :rolleyes:

Edit:
thegmbh Oh gott :D Und ich dachte am Anfang wäre schon die Maximallautstärke dargestellt ^^
 
Hallo zusammen,

@ Amboss76

Zugegebenermaßen, weil ich etwas genervt war bzw. bin von diesem Brimborium.

@ Turbostaat

Das bezweifle ich auf jeden Fall!

@ Schaffe89

Ist nicht ganz richtig, zwar war im Oktober konkret auf die Ankündigung von Nvidia bei heise was zu Lesen, jedoch in der C´t vom Juli war schon in einem kleinem Artikel die Rede von den Problemen. Inwieweit die C`t - und somit heise - hier vom Inquirer was übernommen haben, kann ich nicht beurteilen, jedoch bezweifle ich es, da heise bzw. die C`t selbst über extrem gute Kontakte verfügt.

@ Creativ

Mit deiner 8800 GTX bist du meiner Meinung auch noch immer gut bedient in den derzeitigen Spielen bis zu einer 1600er Auflösung, zumal die Karte sehr Gut zu Übertakten ist. Zudem wird sie bei weitem nicht so heiß. Allerdings hatten die 8800 GTX/GTS 640 auch im IDLE schon einen Verbrauch von ca. 55 - 60 Watt.

Lustigerweise hatte Nvidia dies selbst als nicht tolerierbar damals beurteilt und wollte per Treiber dieses Manko beheben, was bis Heute leider nicht gelungen ist.

So long....
 
@thegmbh
WOW. Danke für dieses Video. Da fehlen selbst mir die Worte und das, obwohl ich jede Frau in Grund und Boden reden kann ;)
 
sehr netter test, danke ans cb team.

also mein eindruck der 480 ist :headshot:

wenn man es mit den anderen test, bei denen noch die 470 dabei ist, vergleich kann man eigentlich nur einen schluß ziehen: die 470 ist der fermi den nvidia entwickelt hat und aus leistungsmangel zur 470 degradiert. ich glaube die jetzige 480 ist einfach in den letzten 6 monaten entstanden um doch noch die schnellste singelgpukarte stellen zu können.

von der leistung/abwärme/stromhunger her scheint mir das die einzige vernünftige erklärung zu sein.
 
schöner Test. Aber nVidia musste ja ganz schöne Kompromisse eingehen, um die Single- GPU- Krone ansich reißen zu können :evillol:
 
@Wolfgang

man hätte noch auf den Namen eingehen können, "Fermi" bezieht sich wohl auf Enrico Fermi und der ist schließlich dafür mitverantwortlich, dass Tod und Elend über die Welt gekommen sind mit der Atombombe, natürlich aber auch die Kernkraft in AKW wenn man mal von Tschernobyl absieht. Nomen est Omen? Was will Nvidia uns damit sagen? Zur Karte selbst wurde ja schon das Wesentliche gesagt.
 
Wie jetzt...das soll es gewesen sein? Da warten wir gefühlte 6 Monate auf DIE perfekte Grafikkarte - und nun das.

Was soll ich dazu sagen, enttäuschender kann es überhaupt nicht sein. Was hat sich nVidia denn dabei gedacht in der heutigen Zeit so einen Stromfresser auf den Markt zu bringen, das geht ja GAR NICHT! :mad:

Für mich die peinlichste Produkteinführung des Jahres und mit der Meinung bin ich ja nicht alleine...
 
Die Karte ist ja mal richtig mies! Wieso gibt Nvidia eine maximale Leistungsaufnahme von 250W an, obwohl diese deutlich darüber liegt. Imo grenzt das schon an Betrug!
Für so ein Produkt hätten sie sich nicht die Mühe machen müssen mit den ganzen ach so tollen Benchmarks, usw.
 
thegmbh schrieb:

Vielen Dank für den Link!
Ähnlich gute Demonstration des Lüfters, wie auch schon im PCGames Hardware-Test. Zahlen auf dem Papier sind bekanntlich geduldig, die ermittelten 63dB wären im (c) Messbereich als Beispiel unhörbar (aber Schallmessungen werden allgemein ja in dB(a) gemessen, von daher gehts schon in Ordnung).

Dennoch kann man sich hier wunderschön davon überzeugen, dass die enorme Stromaufnahme, Wärmeerzeugung und damit verbundene Kühllösung definitiv nicht für den alltäglichen Betrieb geeignet sind, das wird nun auch nVidia schmerzlich feststellen müssen.

Eine solch lange Entwicklungsphase verschlingt Unmengen an Geld und ich wage zu bezweifeln, dass der Konzern diese Investitionen mit der GF100 Serie (natürlich nicht nur mit den beiden Enthusiast-Karten) wieder reinholen kann.

Nun hat es AMD/ATI doch eindeutig in der Hand, die tolle Erfolgsserie, die sie seit der HD4000er Serie inne haben, wieder fort zu setzen.

Cya, Mäxl
 
Treiberversionen

* ATi Catalyst 10.3a Preview (HD 5870)
* ATi Catalyst 8.703_RC2 (HD 5830)
* ATi Catalyst 8.69 RC3 (HD 5670)
* ATi Catalyst 9.11 (Dirt-2-Hotfix)
* Nvidia GeForce 197.17 (GTX 480)
* Nvidia GeForce 195.62

und welchen treiber habt ihr beim HD 5970 verwendet? da die neuen treiber ja deutlich die CF performance erhöht hat

und wieso testet ihr die Karten nicht mit den aktuellen treibern? also bei so einem großen release der 480GTX haette ich das auch erwartet
 
Zuletzt bearbeitet:
Nun ja, mit Abstand die schnellste Single-GPU-Karte. So weit so gut, aber für jeden, der auch nur ein Minimum auf Lautstärke und Leistungsaufnahme achtet ist das Teil völlig inakzeptabel.

@CB: In eurem Artikel zur GF100-Architektur habt ihr noch geschrieben, dass die TMUs, ähnlich wie die Shadereinheiten, eine eigene „High-Clock-Domain“ besitzen, die mit einer höheren Frequenz als der restliche Chip angesteuert wird. Was ist daraus eigentlich geworden?

mfg
 
Was mich derzeit interessiert:

NV hatte die ATI-Karten ja vorleigen. Kannten deren Stärken und Schwächen. Alles bekannt.
Warum ist die GTX480 so released worden? Warum hat die doppelte Streamies und 2x soviel Transitoren und dennoch weniger FLOPs, was ja nac hwie vor Rechenleistung wiederspiegelt?

Wo ist denn da der Hacken an der Sache? Ohne rumzunörgeln bitte, gibts da irgendwann ein AHA oder ist die KArte für Anderes geschaffen?
BMW bringt ja auch kein Auto mit 3 rädern raus. Auch NV denkt doch nach... irgendwer gute Ideen?
 
@Na_Dann_Ma_GoGo
das dachte ich auch :D

am anfang dachte ich wowho.... man is die laut und am ende des videos fehlten mir dann einfach die worte.
am ende glaubte ich dann sie hebt jetzt noch vom tisch ab :D aber dazu ist es dann leider nicht mehr gekommen xD
 
Ich glaub bei der Karte hätten sie am besten gleich von Haus aus ne Wasserkühlung montieren sollen !
Sowie die Powercolor LCS ich denk das meine mit OC schon ca. auf dem Level der 480 ist !
 
Naja das mit dem hohen Stromverbrauch relativiert sich, wenn man im SLI Modus mit 2 oder 3 Nvidia-480er fährt.

Denn dann hat man ja wie gewöhnlich auch nur die Hälfte (respektive 1/3) an Leistungsaufnahme. :)
 
@buntstift23: Der Entwicklungsprozeß dauert einfach zu lange, um kurzfristig etwas anderes auf den Markt zu werfen. Bei der heutigen Komplexität der Bauteile, der Gier des mündigen Kunden (alle 6 Monate etwas Neues) und dem kanibalistischen Wesen des Manhatten-Modelles der Wirtschaft geht es einfach nicht, einen folgenschweren Irrtum edel und endanwenderfreundlich zu korrigieren. Die Geier warten schon, in diesem Falle AMD. AMD selber hat sich in seiner Prozessorensparte ordentlich ins Abseits gefahren, weil man die Zeichen der Zeit wohl mißverstanden hatte. Einzig Intel als oligarch gewachsener Quasi-Monopolist steckt Irrtümer nach wie vor etwas schadfreier weg.

nVidia gab vor einem halben Jahr noch an, daß 'Fermi' in erster Linie mit Blick auf den professionellen GPGPU-Markt konzipiert worden sei. Gegen Ende des wirtschaftlichen Jahres verkündete dann nVidia eine durchaus gesunde und schwarze Bilanz - gemessen an den Unkenrufen hinsichtlich Leistungsaufnahme, 'Relabeling' einiger Chips und den ansonsten im Plebs zu Ungunsten des Herstellers verkündeten Rufen eine kontroverse Tatsache! nVidia wird 'Fermi' schon zu korrigieren wissen, sei es über die PR-Abteilung, die Treiber oder spätere Optimierungen am Chip. Immerhin liegen ja 32 Shader-Units brach, wie man las.

Ich würde diese ersten Tests mit frühen, unfertigen Treibern nicht überbewerten. Man warte auf die GPGPU-Leistungsdaten. Ich bin sicher, daß 'Fermi' Dank seiner neuartiger Architektur große Sprünge machen wird, die von AMD nicht so ohne Weiteres kompensiert werden können (schon jetzt ist es schwer von AMD/ATi überhaupt etwas Brauchbares in Sache GPGPU-Entwicklung mit Zukunftsgranatie zu erhalten, hier hat nVidia deutlich bessere Pflege betrieben).

Aber was den Spielzeug-Sektor betrifft, da schließe ich mich dem Tenor in dieser Runde an. nVidia hat mit diesem Preis und dieser Leistungsaufnahme einen kapitalen Bock geschossen!
 
Zuletzt bearbeitet:
Ich möchte mich bei allen entschuldigen, denen ich in den letzten Wochen geraten habe noch auf den Fermi-Launch zu warten. Ich hätte nicht erwartet, dass das Ergebnis so schlimm ausfällt.
Immerhin fällt die Entscheidung zur 5870 jetzt noch einfacher ;)

Ich hoffe mal, dass die Preise der ATI Karten dadurch nicht in die Höhe schießen werden, da es ja immer noch keine wirkliche umfassend schlagkräftige Konkurrenz gegen die ATIs gibt.

Danke CB für den Test, bin extra deswegen zum Hotspot im McDoof gefahren :)
 
Ich hab jetzt zwar nicht alle kommentare gelesen aber mit dem Test bin ich jetzt durch :D

Nunja die aktuelle Kühlung ist müll ganz klar sieht man auch auf den bildern ne ordentliche ac drauf und fertig aber für den preis, den die kosten wird da holt man sich ne ati und ist sogar besser bedient.
 
Zuletzt bearbeitet:
Ich frage mich echt was die Hersteller bei der Garantie machen werden, vor allem bei der GTX 480. Und ob da wir weitere Probleme haben werden. Ich Spiele BC2 oder WoW und das kann schon mehr 3-5h dauern am stück, ob da die Karte lange mit machen wird.
 
@Buntstift:
NV hatte die ATI-Karten ja vorleigen. Kannten deren Stärken und Schwächen. Alles bekannt.
Warum ist die GTX480 so released worden? Warum hat die doppelte Streamies und 2x soviel Transitoren und dennoch weniger FLOPs, was ja nac hwie vor Rechenleistung wiederspiegelt?
Wo ist denn da der Hacken an der Sache?
dies ist die große Frage. Aber es war wohl einfach nicht mehr drin. Nicht ohne Grund wurde erst der A3-Spin released und nicht bereits der für Ende November geplante A0/1. Nvidia kannte sehr wohl die ATi-Karten und darum erfolgte wohl auch die bis heute andauernde Verzögerung. Ich möchte daher gar nicht wissen, wie (katastrophal) die früheren Revisionen abschnitten. Der Haken scheint wohl wirklich innerhalb der Tiefen vom generellen Design des Fermi zu liegen. An welcher Stelle genau, wird wohl nur Nvidia selbst beantworten können.

Grüße
franeklevy
 
Zurück
Oben