Test Test: Nvidia GeForce GTX 480

Schöner Test! Fermi ist wie fast abzusehen war ne Enttäuschung.
Ich bau mir lieber ne ATI ins neue System.
achja, Preise gibts jetzt auch:
Die GTX470 wird schon für 359€ gelistet, was noch relativ akzeptabel ist, und die GTX480 für 499€, was ich persönlich für vollkommen überteuert halte.

Schönes Wochenende allen.
 
@annabla:

also gehe ich mal davon aus, dass die fermi reihe das runtertakten bei 2 monitorbetrieb wieder nicht hinbekommt, toll.

bei mir das selbe problem, dann wirds wohl doch ne 5870 werden
 
Ich bin ja gespannt ob die Jungs bei Nvidia auch diesmal Humor beweisen und ein ähnliches Video wie damals zur FX5800 erstellen - Hut ab finde ich wenn man sich selber so schön auf den Arm nehmen kann :)
http://video.google.com/videoplay?docid=-6044284326929549145#
Und vielleicht benennen sie ja die Karten offiziell um in "Thermi" - Erfahrung mit dem umlabeln haben sie ja :p

Vor allem:
"Its like a Porsche, like a Ferarri or a Harley Davidson" :p
 
Segelflugpilot schrieb:
wieso erreicht die karte eigentlich immer genau 100 fps ist das max bei ner single gpu oder limitiert da das game. irgendwie komisch, so oft 100 fps, dass ist doch kein zufall

Das sind keine FPS sonder Prozent ! Du meinst ja sicherlich das Performancerating, bei den einzelnen Spieletests gibts nämlich nicht einmal glatte 100 fps.
 
CptHirni schrieb:
Lautstärke ist irrelevant, wird eh in die Wakü eingebunden.

Schön wenn man ne Wakü hat, was aber wenn nicht wie der Mehrheit der PC-Nutzer? IMO wird das auch niemals massentauglich, insofern keine Option für die meisten.

CptHirni schrieb:
Der Idle Verbrauch ist zwar 10-20W höher als ich erwartet hätte, aber immernoch weniger als mein jetziger.

Aber nur wenn du absolut GAR NICHTS am PC machts. Schon surfen reicht aus, um 50W zuzulegen. :freak:

CptHirni schrieb:
Load noch locker schaffbar vom beQuiet P7 550W.

Naja, da wär ich mir nicht so sicher. Bissl OC und Ende Gelände. NVIDIA gibt selber 600W min. an. Also "locker" auf keinen Fall...

CptHirni schrieb:
125W Mehrbrauch zur 5870 machen bei 3h Full-load täglich/365 Tage gerade einmal
(0,125kW*3h*365*0,18€/kWh) 24,64€ aus. Ich bezweifle, dass 2,05€/Monat für jemanden, der die Leistung will und bereit ist 500€ für die Karte an sich zu zahlen, einen Hinderungsgrund darstellen.

Naja, das ist ja nur der MEHRverbrauch zur 5870. Die reinen Stromkosten nur für die Graka sind schon beim 3fachen, und da ist noch kein 10 Stunden Zocker Wochenende + "idle" Zeit eingerechnet. 10€ kannste da sicher rechnen pro Monat. Sollte aber auch nicht das Thema sein, is ja nur ne Graka, gelle?

CptHirni schrieb:
Bei der aktuellen Preisvergleichs-1cent sparen-Geiz ist Geil Gesellschaft wundert mich allerdings nicht, dass daraus nun einer der Aufhänger schlechthin gemacht wird.

Also irgendwann is halt auch mal Schluss. Ich zahl auch gern 10 oder 20€ mehr fürn gescheiten Gegenwert, aber das hier ist einfach nur lächerlich. Jedenfalls für jeden, der bissl aufs Geld schaut.

CptHirni schrieb:
Dazu noch die überragende OpenCL/CUDA und Raytracing Performance,

Also CUDA lass ich mir ja noch eingehen, aber Raytracing? 3fps sind wohl kaum überragend, das sind nämlich die avg fps. Kannste auf anandtech nachschauen. Zudem gibts die nächsten 10 Jahre dafür eh keine Software, von daher...

CptHirni schrieb:
Preismäßig hab ich eher 550-600€ in Anlehnung an vorherige Highend-Karten erwartet, die UVP ist doch sehr erfreulich.

In der Tat, wir haben schon schlimmeres gesehen. Kannste dich bei ATI bedanken, selbst NVIDIA hat offensichtlich erkannt, dass sie für ihren "Bacanator" nicht mehr verlangen können...

CptHirni schrieb:
@CB: Mit welchem P-State, bzw. welchen Taktraten läuft die Karte im Multi-Monitor Betrieb?
Danke für den Test.

Vermutlich mit denen vom Bluray Profil. Da sie ja das gleiche verbrauchen. Taktraten findest du hier unter clock profiles


Bitte die Aussagen nicht als persönlichen Angriff werten. Jedem das seine, ich wünsch dir viel Spaß mit der Karte, mir kommt sowas nicht ins Haus. Und das nicht aus finanziellen Gründen. :D

Twilight Hall schrieb:
Ich glaube sowieso, dass es bald zu erheblichen Problemen in der Hardwareindustrie aufgrund mangelnder Spiele kommen wird.[...]Selbst meine einzige Hoffnung Starcraft 2 wird nicht annährend soviel Grafikpower benötigen.
Ich denke, da kann ich noch lange gut mit meiner 7900GTO auskommen. Die ist quasi lautlos, sparsam und ziemlich kühl.
Konsumiert erstmal Software, welche diese Grafikpower benötigt und kauft dann eine entsprechende Graka mit gutem Preis/Leistungsverhältnis und nicht vorher.

Naja, du bist halt nicht die richtige Zielgruppe. RTS braucht halt weniger Grafikpower und mal ehrlich: Wenn du mit ner 7900GTO auskommst, bist du seeeeehr anspruchslos. Oder hast ne geringe Auflösung am Start. Also bei meiner 78GT@22" wars schon ziemlich ätzend selbst anspruchsloses Zeug wie Bioshock gescheit zu zocken, und ich muss nicht jeden Regler auf Anschlag haben...
Viele Shooter bringt man schon an den Rand der Spielbarkeit mit den entsprechenden Einstellungen, mit Eyefinity brauchste nochmal mehr Saft.
Und irgendwann wird raytracing kommen und noch mehr Power benötigen...

Zum letzten Satz allerdings meine Zustimmung.
 
Zuletzt bearbeitet:
buntstift23 schrieb:
.... paar€am Tag ?!?! In Welchem Land lebt ihr alle denn? 25€(mehr) aufs Jahr gesehen bei 4 Std zocken am Tag...... und keine PAAR EUROS AM TAG .... Leute.. denken... ownd!

Süddeutschland, dank der letzten Strompreiserhöhung sind wir inzwischen bei regionalen Preisen von bis zu 24 cent/kwh
Somit kostet der betrieb z.B. des CB Testsystems mit GTX 480

12h zocken = 5,42kw = 1.30€
8h zocken = 3,61kw = 0.86€
4h zocken = 1,8kw = 0.43€
1h zocken = 0.43kw = 0.11€

Rechnet man mit Deinen Werten von 4h zocken am Tag und legt dies dann auf´s Jahr um so kommt man auf 365 x 4 = 1460h (60 Tage des Jahres verspielt) und erhält somit eine um 158,38€ höhere Stromrechnung.
Zum Vergleich eine Radeon 5870 kommt im gleichen System bei 4h zocken am Tag auf 105,12€ im Jahr.

Geht man nun davon aus, dass nicht 365 Tage im Jahr gezockt wird sondern z.B. nur 200 Stunden so erhält man folgende Werte:

GTX 480 = 86,78€
HD 5870 = 57,6€

Sprich die GTX 480 kostet mich auf´s Jahr gesehen runde 50% mehr Strom als eine HD 5870 was schon krass ist bei, über die unterschiedlichen Tests gemittelten Werten, einer Mehrleistung von 7 - 15%.

Btw. Deine 25€ Mehrkosten an Strom erhältst Du wenn Du es schaffst einen Strompreis von 0,17€/kwh zu erhalten und wenn Du pro Tag nur eine Stunde spielst.

Wer die Daten überprüfen möchte, der kann auch den Stromtarifrechner hier verwenden, geht leider nur bis 0,22€ : *klick mich*

So mein lieber Buntstift, nun bist Du wieder dran mit denken, davor scheint es ja leider nicht geklappt zu haben :p
 
Zuletzt bearbeitet:
Ich glaube das ist der Anfang vom Ende für NVIDIA.

@Sherman123
Spieleentwickler.
CryTek wird sich sicher genug davon zu legen - tztz

@KAOZNAKE
Die kannst Grafikkarten problemlos für andere Sachen benutzt außer "zocken". Beim Rendner wird Raytracing oft verwendet, bei Berechnung von wissenschaftlichen/wirtschaftlichen Bereichen ist z.B. auch CUDA deutlich beliebt geworden.
Und nein, ich gehöre zu keinem der überhaupt jemals mehr wie 200 € für eine PC-Komponente ausgeben wird. Ich hab meine 8800 GT und krieg damit noch alle aktuelle Spiele 'hübsch' dargestellt, auch wenn nicht am 'hübschsten' - ich bleib bei der Graka bis mindestens 2011 noch 100 % dabei ;)
 
Zuletzt bearbeitet:
Dein Beitrag war halt auch kiddy. ;) Schön, dass du das einsiehst. :daumen:



Der Verbrauch ist zwar sehr hoch, es handelt sich aber auch um ein high-end Produkt. Kann man also verkraften, wenn man auch die Lautstärke verträgt.
 
Zuletzt bearbeitet:
Wenn man sich so überlegt, dass ein Core i5 System im IDLE deutlich unter 50W bleiben kann, dann wird einem richtig bewusst, wie krass Fermi die Energie verschleudert. Mein Netbook zieht nur 15W unter Volllast komplett, ein Fermirechner dürfte beim Surfen das zehnfache benötigen. Ich bin für eine Fermiumweltabgabe ;-)
 
Gut danke für die Tipps
von der GTx 480 lasse ich die Finger die ist mir auch zu laut..
wie sieht es aus mit der gtx 470 in nvidia spielen wird diese klar vor der 5870 er liegen und der lastverbrauch ist zwar mehr aber dies ist verkraftbar und von der lautstärke hält die karte mit ner 5870 mit.....
und ich würde 30-40€ wiederbekommen da meine 5870 400gekostet hat ;)
also was meint ihr 470er oder meine neue 5870 behalten ?
Danke im vorraus für die antworten
ps: am meisten zocke ich gta 4 im moment auf jeden fall noch
wird dieses tesselations ding nicht zukunft werden ala metro 2033 da liegt die 470 er weit vor der hd
 
Zuletzt bearbeitet:
Leistung ist ok, aber selbst wenn einem die Leistungsaufnahme wurscht ist, kann man doch die 63DB (!) nicht ignorieren. WIe kann man den zocken, wenn neben einem dieser Fön läüft...
 
@Benni17:
Also ich bezweifle, dass du für deine 5870 400 € bekommst ... wohl eher 300
Der Umstieg wird sich nicht lohnen.

Für mich ist diese Karte auch ein Flop. Allein die Tatsache, dass die anfangs veröffentlichten 512 Shadereinheiten auf der 480 (wohl wegen Verbrauch und Hitze) auf 480 beschnitten werden mussten ist für mich ein Reinfall. Das die Karte stärker wird als die 5870 war zu erwarten und alles andere wäre für Nvidia auch kaum zu verkraften gewesen. Aber der Preis, mit dem die Leistung erkauft wird ist mMn viel zu hoch.
 
SchabbeS schrieb:
Und genau solche Menschen muss man in ihrem Glauben lassen. Ansonsten wirds echt hässlich! :freak:

Nöö, geizhals-vergleich und CB-performance rating um die Ohren hauen, dann is ganz schnell Ruhe :D

Twilight Hall schrieb:
Ich denke, da kann ich noch lange gut mit meiner 7900GTO auskommen. Die ist quasi lautlos, sparsam und ziemlich kühl.

Nochmal wegen der 7900GTO. So sparsam ist die nicht.

Schaust du hier

7900GTO = 7900 GTX. Ne 3870 verbraucht schon deutlich weniger (idle jetze), ne 5670 ca. nochma 8W weniger. Das wäre dann sparsam (sogar sehr)

Unter Last das Gleiche. 7900GTX = 3870 von der Wattzahl, aber nur halb so schnell.

Ne 5670 is nochma schneller als ne 3870 und verbraucht nochmal deutlich weniger unter Last.

124 zu 60W nämlich

Also hat ne 5670 quasi 4x soviel fps/W wie ne 7900GTO ;)

@Antimon: Nochmal danke fürs durchrechnen, war mir jetzt zu blöd.
 
@Bennie17:
Naja wenn du jetzt mit der 5870er zufrieden bist würd ich sie behalten, weil damit laufen alle jetzigen Games noch auf hohen Settings.
Die FRage ist natürlich wie schnell Games mit Tesselation unterstützung kommen. Ich denk mal da wird sicher noch ein Jahr vergehen.... und bis dahin sind schon die 6ker da^^
Außer du nutzt natürlich CUDA aber sonst würd ich bei der Radeon bleiben.

Ps: 400 öcken is schon etwas krass viel^^
 
Woohoo schrieb:
Der Verbrauch ist zwar sehr hoch, es handelt sich aber auch um ein high-end Produkt.[...]
Ja, mag ja sein. Aber schau mal was du für die gebotene Leistung an Verbrauch hast. Vergleiche dann mal mit der HD5870/5970 und schon ist der Fermi klar im Nachteil. Auch Leute die sich High-End kaufen, sollten sich schon gewisse Gedanken machen und Vergleiche zu anderen Grafikkartenherstellern ziehen können.
Und da hängts nämlich. Die Argumentation, die Karte sei eben High-End und daher gäbe es auch keine Bedenken was die Leistung zu diesem Preis betrifft, ist vollkommen falsch!

Die ATis sind viel Umweltfreundlicher. Jemand der sich bitte High-End kaufen möchte, der möge doch bitte zu ATi gehen. Was man da für die Leistung bekommt, ähnelt fast der der Fermis und das mit deutlich niedrigerem Verbrauch. Ist natürlich keine Aufforderung, sondern nur ein Angebot. :cool_alt:

Was die Fermis in Zukunft noch so beweisen können ist leicht unklar. Evtl wäre mein Angebot ab dann überflüssig, wenn die neuen Features mehr Einsatz finden werden und Refreshs für eine bessere Effizienz sorgen.

Aber So nicht! Nee...
 
Wie schon an PCGH, auch ein Lob an die Computerbase Redaktion, guter Testaufbau.
Ich habe im Moment noch eine 8800GTS in meinem Rechner drin...und die sollte raus, getauscht durch eine Fermi...nicht durch ein Triebwerk.
Die Leistung der GTX480 sieht eigentlich nicht schlecht aus, wobei ich eine Glaskugel in Sache Direct X11 + Tesselation bräuchte, denn das könnte unter Umständen ein echter Flaschenhals der 5800er sein, wenn es denn in zukünftigen Spielen keine Randerscheinung bleibt, und wäre durchaus in der Lage der Nvidia den Vorzug zu geben. Auch die generelle Leistung spricht, wenn auch, weiß Gott, nicht so deutlich, wie vorher angekündigt, für Nvidia.
Leider wirft Fermi auch nen riesen Schatten. Während ich durch mein HAF922 Gehäuse die Temperatur verschmerzen kann, und ich mir wenig Sorgen mache, dass mir im Sommer die Kiste abraucht, so schmerzt mich der Verbrauch und die Lautstärke richtig. Gleiches gilt für den Preis, der mindestens um 50-100 Euro nach unten korrigiert werden sollte, um die Stromkosten abzudecken.
Ich denke jeder, mich eingeschlossen, der sich momentan eine neue Grafikkarte zulegen möchte...und noch Zeit hat, sollte zumindest noch bis Ende Sommer warten.
1. Dann dürften sich die Preise angepasst haben, eventuell auch durch bessere Verfügbarkeit der Chips.
2. Dürften dann bereits Herstellerlösungen draußen sein, die eventuell die Lautstärke, und falls möglich, den Verbrauch drücken.
3. Ein Warten auf den vollen Fermi, dürfte sich nach meiner Einschätzung, und das ist wirklich nur eine Einschätzung, nicht lohnen. Die Gründe
a) Nvidia wird diesen vermutlich zum Weihnachtsgeschäft veröffentlichen, d.h. zu vernünftigen Preisen bekommt man diesen erst im nächsten Frühjahr
b) Dann kann man auch gleich noch auf die nächste Generation von ATI warten.
c) Wenn die abgespeckte Version schon solche Strom-, Temperatur- und Lautstärkewerte besitzt, dann dürften die bei 40nm und voller Chipbestückung nicht gerade kleiner ausfallen, bei vermutlich wieder höherem Preis.
Wie gesagt, die letzten Punkte sind Hypothesen und ich möchte hier nicht wirklich einen Glaubenskrieg entfachen, wollte aber dennoch meine Meinung kurz mitteilen.
Mein Fazit zu dem Test:
Abwarten und Tee trinken, diesmal nicht auf die Tests, sondern auf fallende Preise und hoffentlich nette Konstruktionen von Bordpartnern...und dann sich überlegen, ob ATI, oder Nvidia. Im Moment gibt es meiner Meinung nach, obwohl es ein ausführlicher Test war, immer noch zu viele Unwägbarkeiten, die die Kaufentscheidung in die eine, so wie in die andere Richtung, noch kippen könnten. Eines steht aber außer Frage, wer sich zu Release eine 5800er gekauft hat, hat mit Sicherheit nichts falsch gemacht.^^:)
 
Spieleentwickler.
CryTek wird sich sicher genug davon zu legen - tztz
Die Jungs werden wohl kaum mehr als zwei "Probierkarten" vor Ort haben.

Beim Rendner wird Raytracing oft verwendet, bei Berechnung von wissenschaftlichen/wirtschaftlichen Bereichen ist z.B. auch CUDA deutlich beliebt geworden.
Leider hat CUDA gegenüber herkömmlichen Server CPU Lösungen noch das Nachsehen. Das wird noch ein wenig dauern, bis Grafikkarten im großen Maße für wissenschaftliche Berechnungen eingesetzt werden.
Zurzeit ist dies ganz klar die Ausnahme.

Jedenfalls setzt man im professionellen Umfeld auf völlig andere Grafiklösungen. (hier werden wirklich zu allerletzt Highend Gaming Grafikkarten eingesetzt (vor allem wie will man sich konzentrieren wenn unterm Schreibtisch der Staubsauger auf 2000W arbeitet.:D)
 
Zuletzt bearbeitet:
Werd mir die Karte zum "Probieren" mal zulegen. Lauter als meine GTX295 ist sie @load ja auch nicht :lol:. Dazu ist das Gehäuse recht gut gedämmt.
Allerdings ist Lautheit nicht gleich Lautheit: es kommt auch auf die Frequenz an, in der die Karte brüllt.

Mit der Leistungsfähigkeit habe ich in etwa gerechnet. Ist ja auch ganz nett, zumal wenn man bedenkt, dass man von Multi-GPU-Problemen verschont bleibt.
 
Zurück
Oben