Test Test: Nvidia GeForce GTX 480

@Whoozy + Complication
Ja, wir können darüber jetzt viel diskuttieren und mutmaßen ... bringt jetzt eh nichts mehr. Bald wird hoffentlich die OpenCL Schnittstelle genutzt, und dann wird man sehen, ob sich PhysX oder Havok darauf durchsetzen können.



Nochmal zum eigentlichen Thema:
So enttäuschend der Stromverbrauch auch ist, finde ich das Gesamtbild trotzdem nicht so desaströs, wie es hier von den meisten dargestellt wird. Die neue Architektur scheint halt sehr stark auf die neuen DX11 Features und GPU-Computing optimiert worden zu sein. Davon kann man sich zwar jetzt noch nichts kaufen, es lässt aber für die Zukunft hoffen.

Naja .. wie's aussieht, werde ich mir so schnell wohl keine neue Graka holen. Ich hoffe nur daß NVidia mit seinen künftigen Midrange-Karten den Stromverbrauch in den Griff bekommt.
 
Luofu schrieb:
5870...summt wie ne kaatzee.... :)
Du meintest wohl 'schnurrt' (...wie ein Kätzchen).

Das Das Alles von nVidia sein soll, kann ich mir ganz und garnicht vorstellen! Die würden ja verdammt viele Käufer vergraulen. (Ja, es soll auch intelligente Käufer geben, die auf Qualität achten)

Nach diesem Debakel, könnte ich mir so vorstellen, kommen richtig gute Produkte raus mit denen man bei ATi wieder den Boden wischen kann oder zumindestens auf gleichem Niveau mit ATi ist. Diese Karten hier (GTX470/480) können in keinster weise mit den HD58X0er Karten konkurrieren.

Es ist echt erfreulich mal über einen längeren Zeitraum Geld sparen zu können. Ich brauche mir einfach keine neue Karte kaufen =3 *freu*

[bla bla blub]
Was zählt ist die Leistung!

Aber in 1 Punkt muss ich mal zustimmen.. der Preis:

Soso. Über die Unverantwortlichkeit, wie nVidia mit dem Stromverbrauch umgeht wird nicht geschimpft. Aber der Preis ist dir zu teuer. Alles klar Meister :D
 
Zuletzt bearbeitet:
Das schreit nach einer neuen Einheit.

1 Fermi = 100°, man könnte es auch als Thermi bezeichnen :)
alternativ
1 Fermi = 400W
alternativ
1 Fermi = 60db
 
Zuletzt bearbeitet:
Vidy_Z schrieb:
Einfach um dir etwas näher zu bringen, was für ein GPGPU Monster mit dem Fermi auf uns zugerollt kommt.

Wahnsinnsmonster.......

BTW, die Elcom-Software ist Cudaoptimiert, die machen groß Werbung damit.

NVDA_GTX480_Elcom2_675.jpg


Single Precision

2,72 TFlops HD 5870

1,34 TFlops GTX 480


Vidy_Z schrieb:
Müsstest du dich mal genauer informieren. Die Architektur ist jedenfalls komplett neudesignt mit Schwerpunkt auf GPGPU.
 
Zuletzt bearbeitet:
@bernd

Bist du dir sicher, dass es sich bei diesen Berechnungen um Double Operationen handelt? Werden sie nicht alle mit AES verschlüsselt, so dass es im Endeffekt auf Integer Operationen hinausgeht? Dann wäre diese Grafik totaler Unsinn.

Generell sieht diese Grafik mir sehr suspekt aus. Niemand, der auch nur einen Hauch von Seriösität ausstrahlen will, verwendet so eine Perspektive oder generell 3D in Balkendiagrammen. Auch passt kein einziger Wert zur Abszisse (Math: X-Achse). Mensch Leute, schaut euch doch mal die Sachen durch bevor ihr sie einfach weiterpostet.
 
Zuletzt bearbeitet von einem Moderator: (Bilderquote entfernt. Bitte Regeln beachten!)
Eselvieh schrieb:
Leistungsaufname.. wayne
Geräuschentwicklung.. wayne
Temperatur.. wayne
Sagt wer? Nicht jeder ist schwerhörig und muss seine Stromrechnung nicht selber zahlen (soll keine Anspielung auf deine Person sein).

Eselvieh schrieb:
Der nächste Punkt ist ATI/AMD hat keine (sinnvolle) exklusiv Feature's wie PhysX oder 3Dvision.
..Eyefinity? Klar.. 3 Monitore, brauch man ja heutzutage. :rolleyes:
..SGSSAA? Wer's brauch, 8x AA reicht auch.
Ob Physix oder 3Dvision sinnvoll ist, liegt im Auge des Betrachters. Und zu behaupten, dass man SGSSAA nicht braucht, da 8xAA ja reicht, zeugt auch nicht von Objektivität.
 
@Eselsvieh:
Die GTX480 liefert 20% mehr Leistung und 80% mehr Stromverbrauch als die 5870. Beachtest du etwa nicht die Relationen!?

Wenn man mit der Karte nicht zockt, merkt man natürlich nichts an der Stromrechnung. Wenn doch, merkt man sehr wohl was, es sei denn man ist für die Zahlung nicht verantwortlich.

Dir reichen 8xAA aus, mir auch und vielen Leuten reicht es ebenso aus, wenn sie auf Physix Effekte verzichten.
 
Zuletzt bearbeitet:
Da seit 2 Jahren immer mehr herkömmliche Glühbirnen aus unseren Haushalten verschwinden, würde ich behapten merkt man das nicht. Schließlich verbraucht die GTX480 soviel Strom wie 3 Energiesparlampen einsparen.
Also muss man den Preis nur mit +3 Energiesparlampen addieren und der Punkt fällt schonmal weg.
Ohne das ganze waren die Kosten bei 42€ durchs zocken... also 3,5 € im Monat. Immernoch verkraftbar.
 
@bernd n:

Hast schon Recht. Wer es in dieser wahnsinnig wichtigen Applikation nicht schafft, der hat's einfach nicht drauf. Oder anders: Ein Spatz macht noch keinen Frühling.
 
SchabbeS: Die Leistungsaufnahme kann man nicht einfach so weg patchen .

Seh ich genauso also ich denke mal das sie um ne Revision nicht herumkommen sonst schaufeln sie sich echt ihr eigenes grab im Gamingberreich. Mit diesem GPGPU scheint sie ja ganz gut zu sein aber was nützt das einem Gamer (sry wenn ich da falschliege )?
Wer pflanzt sich schon freiwilig so ein Stromschluckendes Laubgebläse ins gehäuse wo man am ende dann vielleicht sogar seine ganze hardware austauschen muss weil alles abgeraucht ist . Ganz klarer FAIL , ich hoffe ja das da noch was kommt , vielleicht auch von ATI mit der HD6k Serie :D
 
buntstift23 schrieb:
Da seit 2 Jahren immer mehr herkömmliche Glühbirnen aus unseren Haushalten verschwinden, würde ich behapten merkt man das nicht. Schließlich verbraucht die GTX480 soviel Strom wie 3 Energiesparlampen einsparen.
Also muss man den Preis nur mit +3 Energiesparlampen addieren und der Punkt fällt schonmal weg.
Ohne das ganze waren die Kosten bei 42€ durchs zocken... also 3,5 € im Monat. Immernoch verkraftbar.

Dann hast du offensichtlich den Sinn des Birnentausches nicht verstanden. Die Umwelt wird dir für jede einzelne Fermi mit einem Grad Celsius danken.
 
Zitiat buntstift23:
Da seit 2 Jahren immer mehr herkömmliche Glühbirnen aus unseren Haushalten verschwinden, würde ich behapten merkt man das nicht. Schließlich verbraucht die GTX480 soviel Strom wie 3 Energiesparlampen einsparen.
Also muss man den Preis nur mit +3 Energiesparlampen addieren und der Punkt fällt schonmal weg.
Ohne das ganze waren die Kosten bei 42€ durchs zocken... also 3,5 € im Monat. Immernoch verkraftbar.

Das ist ja mal ne geile Relation, aber ich halte diese Karte auch nicht gerade für wirtschaftlich. Mit OC wirds denke ich bei der Hitze auch eng, da hilft nur Wasser und das kostet eben, von daher werd ich mir nun auch eine ATI kaufen, obwohl ich weiss wie mies die Treiber sind. Da hilft halt nix, bin auch etwas enttäuscht, aber war ja absehbar.
Das Fermi aber in Zukunft noch viel Potential hat da bin ich mir sicher, spätestens in der 3. Revision ist der Stromverbrauch geringer und die Leistung höher, war beim G92 auch schon so.
Natürlich hätt ich mir ne 8800GTX Ultra Reloaded gewünscht, nen Kumpel von mir hat die vor 3 1/2 Jahren mit Wasser für fast 700€ gekauft, jeden Euro wert die Karte, der kann immernoch alles auf max zocken mit seinem 19zöllner.
 
Zuletzt bearbeitet:
Eselvieh schrieb:
Leistungsaufname.. wayne
Geräuschentwicklung.. wayne
Temperatur.. wayne
Preis = Wayne

Die Lösung: HD 5970, dazu noch schneller als Fermi!
Also wer wirklich auf alle negativen Punkte des Fermit keinen Wert legt, dafür über wirklich die Leistungskrone möchte greift doch eh zur ATi 5970, welche nochmals bis zu 35% schneller als die 480 ist.

Grüße
franeklevy
 
@buntstift23:
Also bei mir gibt es schon seit 10 Jahren keine Glühbirnen mehr und nicht erst seit zwei Jahren. Und außerdem soll diese Ersparnis auch erhalten bleiben.

Man sollte auch beachten, dass die Netzteile vieler Leute nicht für diese Grafikkarte ausreichen würden, d.h es kämen noch mal mindestens 100€ auf einen zu. Da kann man noch so viele Glühbirnen ersetzen wie man will. (Für die 5870 reicht ein 450 Watt Netzteil; für die GTX 480 reicht ein 600 Watt Netzteil)

Wenn schon eine Nvidia, dann die GTX 470, die verbraucht nur etwas mehr als eine 4890.
 
Zuletzt bearbeitet:
Aber ist eine GTX 470 besser als eine HD5850 .
ICh glaube nicht und preislich liegen die ja etwas gleich
 
Mojo1987 ja gut da hast du recht aber könnte eine 470er mehr schaffen bzw mehr leistung? oder wird es so welche spiele wie gta 4 mit so einem engine nicht mehr geben ?
 
Nochmal: Wer nirgendwo in seinem eigenen Haushalt auf den Energieverbrauch achtet, der braucht auch nicht plötzlich bei einer Grafikkarte "öko" werden. Wenn man jedoch im ganzen Haushalt konsequent auf den Energiebedarf der Geräte achtet, kommt man u.U. schnell auf zehn Geräte, die allesamt 25 Euro im Jahr einsparen, insgesamt also 250 Euro. Und spätestens seitdem ich selber für meinen Haushalt sorgen muss, habe ich lieber 250 Euro mehr auf dem Konto als einen Fermi im Computer.

Nun gut, am Ende bleibt es dennoch "nur" bei Mehrkosten von 25 Euro. Sicherlich vertretbar. Für diese Mehrkosten und die daraus resultierenden Nachteile (u.U. ein neues, dickeres Netzteil und eine Nachrüstung der Kühlung oder der CPU) bietet die Karte aber auch unterm Strich zu wenig.
 
Fraglich ob die ganzen Umweltaktivisten hier, das ernst meinen.
Wer sich über soetwas aufregt und dennoch OC an seinem Pc betreibt anstatt Energie zu sparen. ODer 4 Festplatten ins Raid schubst so das sie permanent durchrattern....
Die Möglichkeiten Energie zu sparen sind enorm - zB. nicht zocken, kein Auto fahren, weniger aluminium/Plastik verbrauchen etc.
Neeeiiinn... böser Fermi böööse machst die Umwelt kaputt weil arme kleine Teilchen in AKWs wegen dir 2x mehr am Tag springen müssen.
Echt übertriebene Ökodenkweise bei den Leuten hier. Schaut mal in anderen Ländern. Egal was wir letztendlich machen, wo wir wieder pro NAse 2 Watt sparen, gibt es Länder die das looocker wieder zunichte machen.

Lautstärke: Immernoch leiser als eine GTX295 !!!!
Pries: 350€(5870) zu 479@ ...... ob man dort nun ein NT draufschlagen muss? 600W haben die meisten heutzutage doch schon.
 
Es geht hier nich primär um die verfluchen Kosten. Es geht um die scheiss wärme den Lärm. Die Gefahr auf eine kürzere Lebensdauer und dann kommt als Kirsche auf den Sahnehäubchen noch die Mehrkosten die entstehen. Durch den höheren Verbrauch.
 
Zurück
Oben