Test Test: Nvidia GeForce GTX 480

Ich habe mich schon geärgert, dass ich mir zu voreilig die 5780 gekauft habe, aber siehe da, ich habe genauso wie Ihr mehr von der 480 GTX erwartet.

Ich hatte ein Leistungsplus von etwa 50% in allen Bereichen erwartet - aber das was die 480gtx zeigt ist doch ziemlich enttäuschend. Hätte die Karte die 50% Leistungsplus erreicht, hätte ich ohne weiteres 400 Euros für eine GTX investiert.

Für die gringe Mehrleistung einfach zu hoher Verbrauch im Idle und bei Last.

Zumal die 5780 bei allen Spielen bei FullHd mit über 30-60 Bildern pro Sekunde bisher ausreichend schnell ist und eine gute Figur zeigt.
 
Zuletzt bearbeitet:
Na da bekommen die "handelsüblichen" 1200Watt Netzteile im 480GTX SLI Konfig. auch mal Arbeit ^^

Bei dem PCGH Video Link hier musste ich scho etwas lachen. Der Sound hat schon was beim load...

Aufjedenfall schöner Test ^^
 
Ich will jetzt nicht sagen das war wohl nix....aber ich hätte mir mehr erwartet.
Damit meine ich mehr Grafikpower und weniger Stromverbrauch !
8 Monate "rumgedattelt" an einer neuen GK Generation und dann eigentlich nur so schnell wie ATI.
Dafür aber Lauter , Stromhungriger und Teuer !

Na Klasse Nvidia !
Es ist wohl wieder ATI Zeit !
 
bernd n schrieb:
Kommt der Strom für Fermi direkt aus der Steckdose? :D

Der muss über den Wirkungsgrad des Netzteils, CB hat's schon richtig gemacht.....

Vielleicht solltest du dir deren Testmethode erstmal betrachten, bevor du so einen Unsinn postest.

@FSS

Die Unterschiede beim CB-Test belaufen sich auf 147W brutto - nach Abzug von NT ergibt sich eine Differenz von indiskutablen ~120W. Nach deiner Rechnung dürfte die 5870 lediglich ~120W unter Warhead verbraten - das kommt nicht hin.
 
Zuletzt bearbeitet:
sorry aber mir kommt hier mal wieder die galle hoch. NVID"I"A mit "I", nicht NVID"E"A. so langsam muss es auch mal im letzten hohlschädel angekommen sein :stock:
 
Indeskutable ein ebenso großer Fehlschlag wie WinME und FX5800.

Wie kann man ernsthaft solch ein Monstrum auf den Markt werfen. Das ist ja schlimm.
Da hat Nividia mit der 8er Geforce Generation einen Coup gemacht, sich darauf aber viel zu lange ausgeruht. Womöglihc haben sie durch das ganze Umlabeln der alten Grafikkarten in neuere Generation gänzlich vergessen, wie man echte Neuentwicklungen entwickelt. ;)

Ist schon interessant wie sich Geschichte wiederholt.
Auch 2002 war ATI vor Nvidia mit einer neuen Technologie auf dem Markt (Radeon 9700 und Dx9) und auch damals kam Nvidia einige Monate verspätet (2003) mit einer kompletten Neuentwicklung (Geforce FX 5800).
Und wie heute kämpfte das neue Nvidia-Modell mit Hitze, lautem Lüfter und einer zu hohen Verlustleistung gegenüber dem ATI-Modell.
Aber im Gegensatz zu dem Monster heute verdiente die Geforce FX5800 ja ein "Green-IT" Label.

Bissel witzig das Nvidia immer bei 5800er Modellen Probleme hat. Wie ausgeführt damals bei den eigenen 5800ern und heute bei den 5800ern von AMD ;)

Jetzt im Frühjahr kratzt die Karte schon an 100C. Wie soll es erst im Hochsommer sein? Da sehe ich viele Forumposts "Mein Thermi....ehm Fermi, wird zu heiß"
Im PCGH Video sah man schon das der Lüfter schon auf 85% unter Furmark lief. Da ist nicht mehr viel SPiel nach oben.

Svenko schrieb:
Ich glaube, dass hier ist nVidias Pionierkarte auf dem DX11 Gebiet, und auf diese Architektur werden die nächsten 2, vielleicht 3 Graka-Generationen aufbauen.
Unsinn. Die Geforce FX 5800 war damals auch keine Pionierkarte, sondern einfach nur ein Fiasko.
Wie will Nvidia auf diesem "Ding" aufbauen? Soviel Shrinks kann man garnicht machen, um diese Verlustleistung in den Griff zu bekommen.

Dieser Karte wird es so ergehen wie damals der FX-Serie. Sie wird durch eine Neuentwicklung abgelöst werden (Damals die viel bessere Geforce 6).
 
Zuletzt bearbeitet:
Na da hat Nvidia alles an Leistung raus geprügelt puls aller negativ erscheinungen wie Lautstärke und Verbrauch.

Respekt für den letzten Satz im Fazit auch wenn er deutlicher hätte ausfallen können.
 
das war wohl nichts.

peinliche vorstellung von nvidia und der begriff Thermi passt wohl wirklich.

heiß, laut, ein stromfresser und nur unwesentlich schneller als ne 5870.

leute die leistung wollen, greifen da wohl eher zu ner 5970. die ist immer noch leiser und stromsparender als Thermi, dafür aber auch wesentlich schneller.
 
FX 5800 like

mhh... geht ein bissel daneben schade eigentlich hab mir viel mehr erhofft
und für die leistungsaufnahme absolutes no go

gegen den lauten lüfter kann man ja noch mit referenz designe was machen aber für 480 euro nein danke

dann wird meine nexte karte wohl doch ne 5870

mhhh seit jahren mal wieder ne ati
 
Jezt meckern noch alle an der GTX480 rum , aber bald hat jeder eine und dan wird alles schön geredet , naja is doch so :) . Ich bleib bei ATI .
 
Schade, dass ihr Farcry 2 nicht gebencht habt ;), jetzt glaubt Volker auch weiterhin nicht an den Weihnachtsmann... :(. Auch ein SLI bench sollte noch nachgeschoben werden, gerade hier scheint sich bei Nvidia einiges bzgl. SLO Skalierug getan zu haben (zumindest laut anderen Benchmarks).

Ansonsten wie erwartet: Performancekrone zurückgeholt, überlegene AF und Bildqualität Features, CUDA, Tesselation, PhysX; aber leider zu Lasten der Gesamtausgewogenheit, wobei mich bei der GTX480 die Lautstärke (empfindlich) unter Last mehr stört als der Stromverbrauch (egal).
 
AMD hat, das kann man mittlerweile wohl behaupten, mit der HD5K das stimmigere Gesamtpaket hervorgebracht. Ich bin gespannt ob Nvidia zeitnah imstande sein wird, auf Basis dieser Architektur schlanke und effiziente GPUs für das Mainstreamsegment zu designen. Gerade auch im mobilen Bereich dürfte es schwierig werden, falls mit den Fermi-Ablegern nicht eine 180°-Wende gelingen sollte. Dort hätte man sonst nur veraltete und umgelabelte Lösungen im Portfolio und AMD nichts entgegen zu setzen.

Ich könnte mir vorstellen, dass die Karten erst in der nächsten Runde neu gemischt werden, wenn AMD mit einem neuen Design an den Start geht, das Kinderkrankheiten mit sich bringen könnte, und Nvidia es schaffen sollte, den Fermi ausreifen zu lassen. Bis dahin wird es aber noch ein langer Weg für Nvidia. Mit solcher Enthusiastenhardware, die sich nur in geringen Mengen und mit kleinen Margen absetzen lässt, wird man bestimmt keine guten Quartalszahlen erzielen.
 
Zuletzt bearbeitet:
Ja endlich! Aber schade um die Leistungsaufnahme.
 
Also hab ja nur die ersten 3 seiten gelesen aber denke das is für alle kommentare gültig :fail ;)

Zum jetzigen Zeitpunkt absoluter fail ganz klar,aber:

Die tesselation Leistung is schon mehr als dominant und das is es wohl was in nächster zeit interessanter wird je nachdem wie schnell die game industrie nun dx11 einführt.
Den wenn das auch auf andere games anwendbar bleibt dann ist dir Fermi ca. 1/4 schneller und vom Preis her an der Leistung gemessen gleichauf. Und als FReak hat man sowiso ne wakü ^^ und stromverrbauch is bei einem sli high end freak system auch vernachlässigbar.Vergesst auch nicht der fermi hat 500MB mehr vram (ka was das kostet/strom frisst) .

Zur Temperatur die is eher egal, da die nvidias das wohl aushalten werden .Meine is letztens 3 Stunden (mein fehler) mit 105 grad gelaufen und keine bildfehler oder sonstiges im game gehabt.
Hätt ich ned den rivatunermonitor laufen gehabt hätt ichs gar ned bemerkt.
Wobei nochmal würd ichs auch ned herausfordern wollen dafür is mir die graka zu schade ;)

Mfg
V
 
Towatai schrieb:
sorry aber mir kommt hier mal wieder die galle hoch. NVID"I"A mit "I", nicht NVID"E"A. so langsam muss es auch mal im letzten hohlschädel angekommen sein :stock:

Ist doch egal, auf jeden Fall, man (frau) weiss, was gemeint ist.
 
Hi!

@Stromverbrauch:
Hey, mit dieser Karte habt ihr den Bugatti Veyrone im Gehäuse und da mekert man ja auch nicht über den Stromverbrauch:D
Aber ehrlich gesagt hab ich mir auch mehr erwartet als blos "Fastest Singel GPU", so wie NVidia herumgetan hat habe ich gehoft das die ATi Konkurenz in Grund und Boden Gerendert wird aber dem ist leider nicht so und vorallem tut mir die GPU Temp. weh sowas muss nicht sein, hald nur was für WaKü.
ATI hats besser gemacht, hat die Karte zuerst am Markt gebracht und hat glaub ich auch noch was in der Hinterhand.

Der Test ist wie immer SUPER! THX CB!
 
Sagt mal was ist bloss mit dem Preisvergleich auf CB los , das dauert ja ewig bis man da mal durch kommt , bestimmt wollen jezt alle den thermi fermi kaufen :D.
 
Lol bei der Stromaufnahme und der resultierenden Abwärme werden wohl etliche Karten die Garantiezeit nicht überleben. Die Hersteller werden sich freuen wenn im Sommer dann die ganzen Garantiefälle kommen weil die Kühlung es nicht mehr schafft und die ganzen Bauteile beginnen ab zu rauchen.
Also Nvidia das war wohl nix :evillol:
 
Nun ja, das Desaster war abzusehen. Jetzt ist es amtlich. Durchschnittlich nur etwa 15% mehr Performance als eine HD 5870 haut nun wirklich niemanden vom Hocker. Die HD 5970 ist ausser Reichweite, die Leistungsaufnahme eine Katastrophe, sowohl unter Idle als auch Last, und liegt sogar noch über der HD 5970. Kurzum, eine miserable Energieeffizienz. Dazu kommen hohe Produktionskosten und ein hoher Verkaufspreis. Fermi ist in seiner maximalen Ausführung auf ganzer Linie ein Flop. Und von den kleineren Varianten, wie GF104, erwarte ich ehrlich gesagt auch nicht mehr. Da helfen auch die guten Vorsätze für das Design nichts, wenn die Implementierung so misslingt.
Schnell Deckel drauf und die Totgeburt begraben. Jetzt kann man nur hoffen, es wird mit dem nächsten Design und 28 nm besser. Das Jahr 2010 ist für nVidia jedenfalls gelaufen. Und es wird wohl kein gutes.
 
Quad-core schrieb:
Jezt meckern noch alle an der GTX480 rum , aber bald hat jeder eine und dan wird alles schön geredet , naja is doch so :) . Ich bleib bei ATI .

Also ich sicherlich nicht. :D:D

Aber mal im ernst: Nvidia pusht die Karte auf Teufel komm raus krampfhaft hoch, damit sie jaaaa schneller ist als die HD5870.
Aber bei der Leistungsaufnahme müssen die Ingenieure schon einen dicken Dachschaden haben. :freak:

Von der Chiptemperatur mal ganz zu schweigen. Viel steckt da nicht mehr drin.

Zuerst dachte ich: Wow. Gute Performence. :)

Aber das ist schon eine reine Verarsche.

Wer das Ding kauft, ist selber schuld. Wobei es natürlich genug Nvidia Jünger geben wird.
Mal ganz davon abgesehen, dass die HD5870 die GTX480 bei leichter Übertaktung ruck zuck einholt. Sogar die HD5850 ist der GTX480 bei 1Ghz Chiptakt ebenbürtig.
 
Zuletzt bearbeitet:
Zurück
Oben