Test GeForce GTX 480 im Test: Nvidias neues Grafik-Flaggschiff sucht die Extreme

@d3n!z: Kommt Zeit kommt Rat, derzeitige Gerüchte sprechen davon das ATI die 6000er Reihe noch in 40nm bringen möchte.
Wenn ATI kein Risiko eingehen will, wirds der 40nm Prozess. Vorallem wenn sie vorhaben 32/28nm direkt in Dresden fertigen zu lassen, die noch nie eine GPU in der Fertigung hatten. Neue Architektur + neues Fertigungsverfahren sind schon ein paar mal Schief gelaufen:
Geforce 5800 Ultra ->130nm
Geforce GTX 480 ->40nm
HD 2900XT -> 80nm

Insofern liegt ein Fluch auf dem Vorhaben beides gleichzeitig durch zuziehen. Ich würde mich das als Hersteller nie wieder trauen sowas gleichzeitig durch zuziehen. Ich glaub NV wirds auch nicht wieder machen. Wobei, die überraschen einen immer wieder aufs neue.
Da kann man XFX aber nur dazu Gratulieren, daß sie Karten von ATI ins Programm genommen haben, sonst würden die wohl sicherlich Pleite gehen, ich bezweifle nämlich, daß es einen Run auf die Neuen NV Karten geben wird!
Gainward wird sich grad in den Arsch beißen wieder weg von ATI zu sein. Tja da müssen sie jetzt durch...

Auf jeden Fall renen die Leute Edel-Grafikkarten schon mal die Bude ein und wollen leisere und sparsamere(undervolten) Karten:rolleyes::
http://edel-grafikkarten.de/NVIDIA/GTX-480
http://edel-grafikkarten.de/NVIDIA/GTX-470
 
@ Tek
Möglicherweise hast Du den von Dir geposteten Bericht nicht gelesen?
Hast Du mal auf die Temps der GTX 470 geachtet?
Crysis ---> GTX285 = 82°, GTX470 = 93°
Furmark ---> GTX285 = 86°, GTX470 = 92°
und hier in dem Test geht es sogar nachweislich auf 95° rauf und die Lautstärke spricht auch hier für sich!
http://www.hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/7
So habe ich die GTX285 nicht in Erinnerung......

Und zu der Tesselation, da bricht die GTX 470 ja auch schon ordentlich ein - siehe Metro2033 mit gerade spielbaren 30 fps! Da ist die GTX470 vor Erscheinen schon am Limit. Wir müssen uns im Augenblick damit abfinden, dass keine derzeitige Karte - egal ob ATI oder nVidia für Tesselation bei anspruchsvollen Anwendungen genug Leistung hat.

@ Jenergy
Und übertakten ~20% ist wohl ein Witz! Ohne Wasserkühlung denke ich, ist das stabil und ohne Gehörschaden auf Dauer nicht möglich!

Versteht mich nicht falsch - ich habe auch darauf gewartet, vor allem wegen Cuda (BOINC) - aber das ist ja völlig gefloppt.
 
Zuletzt bearbeitet:
Lars_SHG schrieb:
@ Tek
Möglicherweise hast Du den von Dir geposteten Bericht nicht gelesen?
Hast Du mal auf die Temps der GTX 275 geachtet?
Crysis ---> GTX285 = 82°, GTX470 = 93°
Furmark ---> GTX285 = 86°, GTX470 = 92°
und hier in dem Test geht es sogar nachweislich auf 95° rauf und die Lautstärke spricht auch hier für sich!
http://www.hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/7
So habe ich die GTX285 nicht in Erinnerung......

Und zu der Tesselation, da bricht die GTX 480 ja auch schon ordentlich ein - siehe Metro2033 mit gerade spielbaren 30 fps! Da ist die GTX470 vor Erscheinen schon am Limit. Wir müssen uns im Augenblick damit abfinden, dass keine derzeitige Karte - egal ob ATI oder nVidia für Tesselation bei anspruchsvollen Anwendungen genug Leistung hat.

Habe ich von den Temperaturen geredet? Die Temperatur+Lautstärke sind das kleinste Problem was Nvidia momentan hat. Sowas kann man mit Custom-design gut drücken - wir wissen alle, dass die Referenz-Kühler dreck sind - besser sie hätten gar keine draufgemacht und die Karten blank an die Grafikkarten-Hersteller geschickt.

Natürlich sind die Tesselation Werte nicht optimal trotzdem steckt in den Nvidia Karten weit aus mehr Leistung hinsichtlich Tesselation als in den ATI-Karten. Inwiefern die Metro2033 Engine nun dafür optimiert ist wird man erst dann sehen wenn man mehr Tesselation Spiele hat, die auch die Grafikkarte gut fordern.

P.s Nvidas Architektur ist schließlich für Tesselation ausgelegt - zwangsläufig muss die Karte schneller sein als eine vergleichbare ATI in Tesselation
 
Zuletzt bearbeitet:
GodCast schrieb:
Wenn es stimmt was so auf den anderen Seiten erzählt wird, hat Nvidia aus 9000 Wafern nur 10 000 brauchbare Karten gewinnen können. Angeblich war die Ausbeute bei der GTX280 über 60% und die Karten haben sich kaum für Nvidia gelohnt. Die GPU allein hatte damals über 100USD gekostet. Ich denke eine Fermi GPU dürfte mindestens darüber liegen.

Ein Wafer kostet 5000$. Gerüchteweise soll die erste Fermi-Lieferung die letzte sein(nach dem Launch-Kontingent ist Ende Gelände) Wenn man den Taschenrechner zückt, weiss man warum :D


Lars_SHG schrieb:
Crysis ---> GTX285 = 82°, GTX470 = 93°
Furmark ---> GTX285 = 86°, GTX470 = 92°

Ich würde sagen, beim Furmark bremsen die NV-Treiber die GTX470 künstlich ein......



BTW, ich habe gerade 'ne Sapphire HD5870 bei Amazon UK geordert, umgerechnet 310€ incl. Versand, allerdings "Temporarily out of stock"

http://www.amazon.co.uk/gp/product/B0031HAVSA/ref=oss_product
 
Zuletzt bearbeitet:
@ bernd n
Ich würde sagen, beim Furmark bremsen die NV-Treiber die GTX470 künstlich ein......

Ich würde eher sagen der Lüfter geht hier hoch! In dem Video (aus meiner Vorpost) ist die GTX470 ja am Anfang schon auf 95° dann dreht der Lüfter nochmal ordentlich auf und es geht 3° runter!

edit:
@ Tek
ich glaube das die Temps das größte Problem von nVidia sind - aber das ist sicher alles Spekulatius!
Meine Gedanken, wäre die Stromaufnahme nicht so hoch, wäre auch die Temperatur niedriger - durch niedrigerer Temperatur hätte man nicht Teile des Thermi deaktivieren müssen und die Karte wäre wirklich DEUTLICH schneller als die 5870, nicht die 15% die überall im Mittel getestet wurden.
Gleichzeitig wäre ohne hohe Temperatur die Karte auch nicht so laut und die ganzen Argumente gegen die GTX480 / 470 wären erledigt.

Ich glaube aber nicht, dass derzeit ein alternativer Kühler viel reissen kann. Aber wir werden sehen......

edit 2:
364,00 € für 5870 Vapor-X und lieferbar!
http://geizhals.at/deutschland/a478790.html?v=l
Da kann man nix sagen........ und so schlecht ist pixmania nicht. Ein Kumpel hat dort neulich eine Karte gekauft. Als die verreckt ist, gab es innerhalb von 5 Tagen eine neue!
 
Zuletzt bearbeitet:
Hallo zusammen,

@ Tek

Ich weiß nicht, warum du laufend auf DX 11 verweist, denn momentan kann man überhaupt noch nicht Sagen, ob ATI wirklich in Spielen soviel Schlechter da steht, als es in Metro 2033 der Fall ist, zumindest Punktuell. Du darfst auch nicht vergessen, daß Metro 2033 NV-optimiert ist meines Wissens nach. Wenn dem nicht so ist, lasse ich mich gerne eines Besseren belehren.

Desweiteren bleibt auch abzuwarten, wie sehr Tesselation überhaupt in kommenden Spielen ihren Niederschlag findet und wenn, dann kommt es auch auf die Optimierung an.

Was das von dir propagierte bzw. aufgezeigt "Custom-Design" angeht, solche Karten sind ja nochmals Teurer als die Normale NV Kühlung! Man hat ja für Maximal 10 - 15 % Mehrleistung gegenüber dem ATI-Pendant so schon ca. 100 Euro Mehrkosten, noch dazu kommt auch noch bei vielen ein Neues NT hinzu in Höhe von ca. 50 - 100 Euro, nicht gerechnet dabei ist der erhöhte Kühlungsbedarf in Form von evtl. zusätzlichen Gehäuselüftern.

Also ehrlich, wenn ich dann noch den enormen Strombedarf rechne, ist mir das alles im Verhältnis zur Mehrleistung deutlich zuviel! Tut mir leid.

So long.....
 
Tek schrieb:
Natürlich sind die Tesselation Werte nicht optimal trotzdem steckt in den Nvidia Karten weit aus mehr Leistung hinsichtlich Tesselation als in den ATI-Karten. Inwiefern die Metro2033 Engine nun dafür optimiert ist wird man erst dann sehen wenn man mehr Tesselation Spiele hat, die auch die Grafikkarte gut fordern.

Also ich find, es ist egal, wieviel Leistung sie jetzt dann mehr bringt, wenn metro2033 mit beiden Karten nur mit Augenschmerzen anzuschauen ist.....:D
 
Luxmanl525 schrieb:
Hallo zusammen,

@ Tek

Ich weiß nicht, warum du laufend auf DX 11 verweist, denn momentan kann man überhaupt noch nicht Sagen, ob ATI wirklich in Spielen soviel Schlechter da steht, als es in Metro 2033 der Fall ist, zumindest Punktuell. Du darfst auch nicht vergessen, daß Metro 2033 NV-optimiert ist meines Wissens nach. Wenn dem nicht so ist, lasse ich mich gerne eines Besseren belehren.

Desweiteren bleibt auch abzuwarten, wie sehr Tesselation überhaupt in kommenden Spielen ihren Niederschlag findet und wenn, dann kommt es auch auf die Optimierung an.

So long.....

Auch wenn Benchmarks wie Unigine Heaven 2.0/Stone Giant entfernt von einem Spiel sind, zeigen sie knallhart die Leistung einer Grafikkarte in einem bestimmten Bereich. Hier in dem Fall Tesselation, was auch nicht verwunderlich ist - habt ihr euch schonmal die GF100 Architektur angeschaut? Die GF100 Serie besitz nunmal 16 Tessellation-Engines. Die Architektur ist darauf ausgelegt Tessellation gut zu verarbeiten.

Natürlich wissen wir nicht wie die Zukunft hinsichtlich Dx11 aussieht. Jedoch halte ich Tessellation für ein sehr interessantes Feature welches die Grafikqualität enorm steigen kann, deswegen gehe ich davon aus dass sich Dx11 schneller durchsetzt als Dx10. Alleine schon aus dem Grund da Nvidia wie man sieht Interesse an Dx11 hat.
 
ati oder nvidia dieses thema hat sich spätestens 2011 erledigt wenn Intel mit larrabee 2 alles wegrockt :evillol:
 
@Vitec:

Bis dahin baut AMD Systeme, die komplett auf eine CPU verzichten :p
 
Hallo zusammen,

@ Tek

"Alleine schon aus dem Grund da Nvidia wie man sieht Interesse an Dx11 hat"

Nvidia hatte miindestens genausoviel Interesse an Direct X 10 mit dem G80, zur Erinnerung, die 8800er Reihe war mit Abstand die erste Grafikkartenreihe für Direct X 10.

Von der Unterstützung für Direct X 11 kann man nun wirklich gar nichts ableiten. Egal wie was ausgelegt ist, zumal beide großen Hersteller immer schon unterschiedliche Achitekturdesign-Ansätze hatten. Was die von dir aufgezählten Benchmarks angeht, du weißt, daß z. b. Ungine Heaven praktisch völlig auf Nvidia zurück geht bzw. initiiert wurde?

Lies dir mal den Test von www.hartware.net durch, die haben die GTX 470 getestet, schau mal unter "CUDA", was denen da Passiert ist bei Sage und Schreibe 112 Grad und sogar bei offenem Aufbau!

Bei heutigen Grafikkarten zählt nunmal sehr die Effizienz und das ist ein geradezu peinliches Kapitel für NV beim Thermi. Man darf sich gar nicht vorstellen, wenn mehrere solcher Dinger in einem Rack werkeln.

So long.....
 
godcast schrieb:
Wenn es stimmt was so auf den anderen Seiten erzählt wird, hat Nvidia aus 9000 Wafern nur 10 000 brauchbare Karten gewinnen können. Angeblich war die Ausbeute bei der GTX280 über 60% und die Karten haben sich kaum für Nvidia gelohnt. Die GPU allein hatte damals über 100USD gekostet. Ich denke eine Fermi GPU dürfte mindestens darüber liegen.
Quellen? Son Schmarn.... Genau die verkaufen eine KArte die in der Herstellung nach dir exorbitante Summen gekostet hat, für 500€...

Was manche hier für einen, Sorry aber ist so, Blödsinn verbreiten!

bernd n schrieb:
Gerüchteweise soll die erste Fermi-Lieferung die letzte sein(nach dem Launch-Kontingent ist Ende Gelände) Wenn man den Taschenrechner zückt, weiss man warum
Wie kommst du darauf? Der Gerüchte thread ist woanders.

Eine Firma die auf Gewinnerzielung ausgerichtet ist(genausso wie AMD) bringt ein Produkt auf den MArkt was dann wieder vom Markt genommen wird...genau. Ihr habt alle BWL verstanden...*auslach* Das war auch bei der 2900 etwas anders...

Ist genauso wie bei der Einstellung des i7 920 und dem anlaufen des i7930 das Ende des Sockel 1366 von einigen FANBOYTROLLEN angekündigt wurde... .
 
Zuletzt bearbeitet:
Nvidia ist nur bei Einsatz von tesselation in Metro deutlich schneller.
Ansonsten ist Nvidia unter directx11 nicht viel schneller als ATI. 20% höchstens.
 
Gearde ein mal 10%-15% schneller als ne HD5870
fisst ohne ende Strom und läuft auch noch zu heiß
keine rosigen Aussichten für ein langes Leben....

Ich frag mich wenn überhaubt par Fanboys den kaufen wie lange es dauern würde bis
das Massensterben anfängt bei den Karten ?!?!?

Was auch ganz witzig ist das jetzt die Fanboys noch länger warten wollen aufn Refresh :D:D:D
als ich parr solcher Komentare gelesen hab musste ich mich weghaun
 
Zuletzt bearbeitet:
Luxmanl525 schrieb:
Hallo zusammen,

@ Tek

"Alleine schon aus dem Grund da Nvidia wie man sieht Interesse an Dx11 hat"

Nvidia hatte miindestens genausoviel Interesse an Direct X 10 mit dem G80, zur Erinnerung, die 8800er Reihe war mit Abstand die erste Grafikkartenreihe für Direct X 10.

Von der Unterstützung für Direct X 11 kann man nun wirklich gar nichts ableiten. Egal wie was ausgelegt ist, zumal beide großen Hersteller immer schon unterschiedliche Achitekturdesign-Ansätze hatten. Was die von dir aufgezählten Benchmarks angeht, du weißt, daß z. b. Ungine Heaven praktisch völlig auf Nvidia zurück geht bzw. initiiert wurde?

Lies dir mal den Test von www.hartware.net durch, die haben die GTX 470 getestet, schau mal unter "CUDA", was denen da Passiert ist bei Sage und Schreibe 112 Grad und sogar bei offenem Aufbau!

Bei heutigen Grafikkarten zählt nunmal sehr die Effizienz und das ist ein geradezu peinliches Kapitel für NV beim Thermi. Man darf sich gar nicht vorstellen, wenn mehrere solcher Dinger in einem Rack werkeln.

So long.....


Wenn Nivida extra Tessellation Engines in ihre Grafikkarten einbauen, kann man schon davon ausgehen das Interesse da ist. Außerdem schau dir mal an was AMD zu Dx11 gesagt hat: http://www.pcgameshardware.de/aid,6...dator-Update-Weitere-DX11-Spiele/Spiele/News/

oder:
http://www.pcgameshardware.de/aid,6...Monaten-noch-mehr-Konsolen-Ports/Spiele/News/

DX11 ist definitiv im Fokus der Hersteller, da kann man sagen was man will ;)


Als ob www.hartware.net die einzige Seite wäre die die Gtx470 unter Cuda laufen gelassen hätte. Seltsamerweise hatte PCGH keine Probleme damit. Man kann sich natürlich die Fehler zusammensuchen jedoch daraus ein allgemeines Bild abzuleiten ist schlichtweg falsch.

Nachmal zu Tessellation - verstehtst du eigentlich was ich meine wenn ich sage, dass die Nvidia Architektur dafür ausgelegt worden ist und ATIs Architektur eben nicht? Natürlich gibt es unterschiedliche Achitekturdesigns jedoch hat man bei ATI eben nicht soviel wert auf Tessellation gelegt. Ist außerdem der Stone Giant Benchmark auch von Nvidia - Sind eigentlich alle Spiele wo Tessellation eine Rolle spielt von Nvidia gesponsert? Vielleicht ist ja Tessellation selber Nvida powered oder so lol man kanns auch echt übertreiben.

Klar zählt die Effizienz und da sage ich auch ganz klar - hier hat Nvida mist gebaut aber ansonsten ist die Architektur ganz okay und hat noch sehr viel Potential.
 
dirky8 schrieb:
Quellen? Son Schmarn.... Genau die verkaufen eine KArte die in der Herstellung nach dir exorbitante Summen gekostet hat, für 500€...

Was manche hier für einen, Sorry aber ist so, Blödsinn verbreiten!

"As things stand, the 9,000 risk wafers seem to have produced less than 10,000 GTX480s and about twice that many GTX470s if the rumored release numbers are to be believed. That would put yields of the new lower spec GTX480 at well under the two percent Nvidia saw last fall.

It is hard to say anything good about these kinds of yields, much less to call it a win. A one-point-something percent yield, however, is a number greater than zero."

http://www.semiaccurate.com/2010/03/29/why-nvidia-hacked-gtx480/

Zugegeben, kommt von Forenliebling Charlie aber er hat vermutlich deutlich mehr Ahnung als Du und die anderen Forenuser hier.
Du träumst doch, wenn Du glaubst, dass Nvidia Fermi mit Gewinn an die Boardpartner in nächster Zukunft verkaufen kann. Wieso wurden die letzten HighEnd GTX Karten eingestampft? Weil damit kein Geld zu machen war.
 
Zurück
Oben