Test Test: Nvidia GeForce GTX 480

@ Airbag

Aber im ganzen Schnitt ist die Skalierung von 1 auf 3 mit ATI (151%) und nVidia (128%) schon ziemlich unterschiedlich. Bei 1vs2 Karten liegt nVidia mit 8% vorne, daher kann man auch nicht sagen, dass ein Hersteller durch den Parcours bevorzugt worden wäre. Die dritte zusätzliche Karte skaliert bei den Radeons mit 46,9 schon extrem gut!
 
Es gibt keine Alternative zur GTX 480, wenn man die schnellste Karte Haben möchte.
Was den stromverbrauch angeht , na ja die karte hatt fast 1 drittel mehr Transistoren
wie die 5870. Vollgedessen auch 1 drittel mehr schaltvorgände, sprich einen höeren Energiebedarf und höere temps. Leute die sich diese Karte Kaufen ( Die übringens nicht 600 Euro kostet sondern schon für 499 zu bekommen is ) achten nicht auf so Belanglose dinge wie Verbrauch, temps oder Lautstärke.
wen interesierts ? Bei mir kommt die Karte so oder so unter wasser. und der Verbarauch interesier mich bei meinem sys so oder so nicht ;=)

Und ja, ich bezahl meine Stromrechnung selber !
 
Zuletzt bearbeitet:
@ Airbag

Unsere Firma ist auf AMD Spezialisiert und auch im CAD bereich verkaufen wir Karten.
Jedoch ist es nicht so berühmt, weil Nvidia mehr Werbung betreibt.
Gibt aber denoch so gute Karten von ATI die auch sehr gut Redern können.
Oft liegt es bei der Karte nur am Bios Unterschied oder am Ein und Ausgang der Karte.
Chip ist meist der Selbe wie der der Game Karte!

Und ich kann mal wenn ich Zeit habe die Originale Bilder vom Test posten.

Hatte aber kein Bock genau über die Werte zu schreiben!
Aber der Sinn dahinter stimmt 100 %
Ich denke jeder muss sich ein eigenes Bild machen.
Wenn du eher auf die ältere Games stehst dann ist die ATI sicher besser
aber wenn du auf die Aktuellen Titel gehst, ist die Nvidia um einiges besser!

Ich persönlich wäre von der 8800er, 2xx Serie fast auf Ati umgestiegen!
Jedoch hat mich Nvidia überzeugt.
Für mich spielt es keine Rolle ob ich jetzt 100, 200 oder 300 Euro mehr ausgebe.
Für Zocker ist AMD sicher geeigneter da es günstiger ist.
Ich jedoch arbeite (Hobby) neben dem Zocken auch mit CAD Software.
Dafür ist die 480 und ein i7 mit 16GB Ram sicher eine gute Kombination

lg ed gein
 
Zuletzt bearbeitet:
@DvP
Von gut, würde ich bei beiden eigentlich nicht wirklich sprechen.
Eher von schlecht und weniger schlecht.
Immerhin sind selbst 150% bei ATI im 3 vs 1 mehr als erbärmlich.

Es würde mich aber wirklich interessieren, wie es dann im Triple CF/SLI oder Quad CF mit SGSSAA aussieht, weil d ie Skalierung in diesem Setting auch das erreichen soll, was versprochen wird. Nämlich die verdreifachung der FPS.
 
Zuletzt bearbeitet: (nicht wirklich)
Iruwen schrieb:
Scheint wohl mit den GTX 4x0 nicht richtig zu funktionieren da das Ding die GPU zu annähernd 100% auslasten sollte.
Das ist doch das, was ich sage. Software Support ist entscheidend. Deshalb sind Argumente, von wegen Fermi wäre sie viel potenter für die Zukunft, nur weil Unigine Heaven oder Metro 2033 mehr FPS liefert, Augenwischerei.

Antimon schrieb:
Wie Du aus Deinem 2ten Link lesen kannst, handelt es sich bei dem ComputeMark um einen gpGPU Bench und wie waren letztens die News zur gpGPU Leistung des Fermi, vorallem in doppelter Genauigkeit? Richtig, vom Hersteller mit Leistungsbremse versehen.
Das ist zwar richtig. Ich denke aber nicht, dass es etwas mit den Ergebnissen zu tun hat. Da würde Fermi wohl noch weiter zurückliegen. Ich kann im Shadercode auch keine Datentypen für doppelte Genauigkeit erkennen.

Expiritussantus schrieb:
Wir "sprechen"nicht vom selben, für mich als Games ist doch unwichtig wie gross der Grafikchip ist oder wieviel Strom die Karte saugt. Es ist mein Hobby für dass ich bereit bin viel Geld auszugeben um dabei Maximale Leistung zu erhalten ich will kein leiser effizienter Chip ich will pure Leistung
Das sagtest du schon. Und ich kann nur nochmal sagen, das ist ok. Aber dann höre bitte auf, beurteilen zu wollen, was ein gutes Chipdesign ist und was nicht. Denn das kannst du definitiv nicht, wenn du die meisten relevanten Aspekte ausblendest.

Chiller24 schrieb:
Genau das ist das traurige Bild, das man als Fazit ziehen kann!
Egal was ist, es wird einfach nur blind gekauft, hauptsache man hat das "schnellste", "tollste" Produkt. Ganz gleich was der Preis dafür ist.
Leider. Vernunft ist offensichtlich für viele noch ein Fremdwort. Man kann nur hoffen, dass nVidia nicht so denkt wie ihre Käufer, ansonsten werden sie sich irgendwann gänzlich aus diesem Markt verabschieden (müssen). Und davon profitiert kein Verbraucher.
 
gruffi schrieb:
Das ist doch das, was ich sage. Software Support ist entscheidend. Deshalb sind Argumente, von wegen Fermi wäre sie viel potenter für die Zukunft, nur weil Unigine Heaven oder Metro 2033 mehr FPS liefert, Augenwischerei.

Man kann Software schlecht programmieren bzw. nicht anpassen so dass sie auf keiner Hardware vernünftig läuft, man kann aber durch Anpassungen keine Performance herbeizaubern wo die Hardware nicht mehr hergibt.

Bin mal gespannt wie das mit der Performance/Watt bei den Teslas laufen soll. Die Müssen schon abartig schnell sein damit das jemand seinem Rechenzentrum zumutet.
 
Da Fermi eigentlich ein reiner GPGPU Chip ist kann ich mir schon vorstellen das die Teslas ziemlich Dampf unterm Arsch haben
 
Also, die Leistung stimmt. Die Temps der Karte kann man drüber streiten, die 9800GT ist da ja auch nicht viel besser. Stromverbrauch finde ich persönlich recht zwiespältig, einerseits kann ich mir auch in etwa ausrechnen, was mich die Karte mehr kostet, anderseits würde ich schon ein mulmiges Gefühl haben, was meine nächste Stromrechnung an Überraschung bringt. Was aber garnicht geht, ist die Lautstärke. Ständig bei Spielen einen Staubsaugerähnliches Geräusch zu höhren würde ich auf dauer nicht mitmachen. Klar kann ich nen Kopfhöhrer nehmen, aber was sagen meine Mitbewohner dazu. Immer die Tür zu beim Zocken?

Ich muss schon schmunzeln, wenn ich mir so einige Szenarien ausdenke.
-Kind fällt aus dem Fenster, kommt ins Krankenhaus. Nachdem man Stundenlang versucht hat dich zu erreichen und du endlich mit spielen fertig bist, hörst du das telefon, gehst dran, kommt die Frage: wo waren sie denn? Antwort: Hab nix mitbekommen war am zocken... lol
-Freundin zieht aus wärend du am zocken bist...
-Diebe räumen deine Wohnung leer...

...und alles weil du beim zocken die Tür zu hast, Kopfhöhrer auf und Sound auf max. um die Graka nicht zu höhren.

So long, bitte, sind nur, wenn auch teilweise markabere, frei erfundene Szenarien.

Aber...Hauptsache die Leistung passt...
 
Schaby schrieb:
Was aber garnicht geht, ist die Lautstärke. Ständig bei Spielen einen Staubsaugerähnliches Geräusch zu höhren würde ich auf dauer nicht mitmachen.

Das scheint bei den Retails nicht der Fall zu sein.
 
Welchen Retails? Nvidia wird den Testern wohl kaum schlechtere Karten geschickt haben, als die Karten die jetzt verkauft werden.
Imho könnte es sogar sein, dass die Karten, die jetzt verkauft werden noch mehr Strom schlucken und noch lauter sind.
 
Warum sollte es denn nicht sein, dass die Tester schlechte Samples bekommen ?(auch wenn es nicht mit Absicht ist, durch fehlende Anzahl an GPUs oder was auch immer )
Bestes Beispiel sind die Bloomfield die CB erhalten hat. --> totale Krüppel-
 
Einen User Erfarungsbericht haben wir ja auch schon auf CB.
Der Spricht auch von einem sehr sehr lauten aufdrehen unter Last.
 
Dennoch wurde ich eher davon ausgehen, dass bei späteren Karten zumindestens die Spannung minimal abgesenkt werden kann.

edit:
und eventuell ein angepasstes Bios
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Der Spricht auch von einem sehr sehr lauten aufdrehen unter Last.
Haben meine beiden HD 5870, vor Allem die 2., vor dem Umbau auf WaKü allerdings auch gemacht. Beim Benchen waren die unerträglich laut, beim "normalen" Spielen sehr laut. Erstaunlicherweise unter OpenGL (in dem Fall Photoshop) wurden sie selbst unübertaktet so warm, daß der Lüfter fast mit voller Drehzahl gelaufen ist.
Unter dem Strich also in einigen Szenarien genau so nervig wie die GTX 4x0.
 
Nur das es bei einer HD5870 weniger schlimm ausfällt.
Meine HD4850 Single Slot(zum Glück umgebaut) konnte man unter Last noch aus 5Meter Abstand deutlich hören, obwohl die Glotze an war. Und die macht"nur" etwas mehr als 4Sone. Die GTX ist dagegen doppelt so laut.
 
Dennoch wurde ich eher davon ausgehen, dass bei späteren Karten zumindestens die Spannung minimal abgesenkt werden kann.
Fermi-Architektur in 28nm, in einem Jahr sollte es soweit sein. Mit 0.85V auf der GPU werden die Karten bestimmt etwas sparsamer. Doch wenn nVidia seinen Grössenwahnsinn nicht etwas mindern kann, werden die Highend- und "Performance"-Karten trotzdem nicht sparsam, zumindest nicht unter Last :p
 
So habe ich das nicht gemeint.;)
Außerdem gehen auch schon weniger als 0,85V auch wenn nicht ab Werk.
 
Schaffe89, muß ich das jetzt verstehen?
Sicher ist ein direkter Vergleich nur an Hand des im Erfahrungsthreads zur 480 geposteten Videos schwer, da ich mir noch keine vom Händler zum Testen holen konnte, was ich aber hoffe, spätestens nächste Woche nachholen zu können. Aber zumindest leichte Rückschlüsse sind schon möglich. Und die besagen eben, daß meine beiden Radeons unter gewissen Umständen mit dem Referenzkühler scheinbar auch nicht viel leiser waren.
Interessant wäre auch, wie weit sich die durchschnittlich 4x0 undervolten läßt. Bei der GTX 280 konnte ich ja VGPU selbst für den Extra Modus auf den kleinstmöglichen im BIOS vorgesehenen Wert stellen und konnte trotzdem noch hervorragend übertakten, wie auch y33H@ schon schrieb. Das hat natürlich eine sehr deutliche Verbesserung der Energiebilanz zur Folge gehabt.
 
Zuletzt bearbeitet:
Zurück
Oben