Test GeForce GTX 480 im Test: Nvidias neues Grafik-Flaggschiff sucht die Extreme

Denke nicht das Nvidias Fermi durch Treiber noch deutlich zulegen kann. Nvidia Treiber sind fast immer optimiert auf die Spiele im Gegensatz zu ATi... .

mfg
 
Es ist viel wahrscheinlicher anders herum. Die NVidea Entwickler haben doch die letzten 4-6 Monate sicher nicht nur rumgesessen und Däumchen gedreht. Nachdem sich ja von Spin zu Spin nichts grundsätzliches mehr geändert hat seit letztem Jahr, sind die NVidia Treiber bereits ausgereift.

Für neue Sachen, z.B. Metro2033 und Ungine 2 ist NVidia bereits ausgelegt, ATI wohl noch nicht und ich denke, dass da die monatlich erscheindenen Treiber von ATI die Optimierungen in der nächsten oder übernächsten Version mitbringen.

Greetz,
GHad
 
Das wichtigste ist dass man es korrigieren kann - erst wenn das nicht innerhalb der nächste Monate gelingen sollte kann eigentlich von einem echten Fehlschlag sprechen. Bisher ist es sicherlich ein Rückschlag, doch die Architektur soll ja über Jahre die GPU Grundlage sein. Die GT470 und GT480 sind nur Momentaufnahmen.
Ich persönlich sehe viel Potenzial in diesem Ansatz von Nvidia und der Architektur, und es kann gut sein dass in 1 Jahr eine Fermi basierte Karte meine HD5770 ablöst, mit der ich auch sehr zufrieden bin
Bleibt abzuwarten ob NV die Gamingeffizienz überhaupt fixen will, weil seit der GT200 ja GPGPU wichtiger als alles andere ist. Also entweder sie machen es so wie beim G80 und schieben einen abgespeckten effizienten kleinen Chip(G92) nach, oder der nächste wird wieder auf max. GPGPU getrimmt. Da muss man einfach abwarten...


3D Vision ist nen alter Hut; die Treiber sind / werden bald bei ATI zur Verfügung gestellt, und selbst vorher hatte man sowohl was Software / Treiber, als auch Hardware / Brillen angeht, auch bei ATI die Möglichkeit mit gleicher, wenn nicht sogar besserer Qualität zu ggf. günstigeren Preisen,r Spiele in 3D zu spielen.
Ständig wird hier von ATI @ 3D und ATI @ GPGPU Programmen gesprochen, kann ich da mal Links sehen, die eine Liste von GPGPU Programmen zeigen so wie diese hier: http://www.nvidia.com/object/cuda_home.html




Und was man von PhysX und der DX 11 Performance halten kann, sieht man dann in Nvidias Vorzeige Shooter Metro 2033; laut PCGH Test ist die GTX 480 in DX 11 praktisch unspielbar, wenn man nicht auf Details oder Qualität verzichtet.

Von PhysX mal ganz abgesehen, das wurde ja nicht mal verwendet. Wobei PhysX in Metro 2033 ja nach PCGH wohl besser auf der CPU statt der GPU berechnet werden sollte, sofern das System GPU und nicht CPU Limitiert ist.
Da brechen die Frames auf der GPU deutlich ein in speziellen Situationen, und ziehen die FPS insgesammt in den Keller.
Halte von der Tesselation Leistung der Fermi auch nicht allzu viel. Vorallem wenn man dann sieht das beim Unique Heaven zwar die höchsten max. FPS aber auch lange Zeit die niedrigsten hat. Irgend was läuft da in der Architektur noch nicht rund. Das ein Wundertreiber alles fixed glaube ich nicht.



Ach, und das PCB; die Platinen sind gleich lang, die 5870 ist nur aufgrund des Kühleraufbaus im Stock Design etwas länger.
Guter Punkt, aber ein bisschen kleinlich. Werds aber trotzdem ausbessern, rein schon das die Liste perfekt wird.:rolleyes: https://www.computerbase.de/forum/t...sucht-die-extreme.716793/page-35#post-7600551



KAOZNAKE schrieb:
Da fällt mir doch glatt wieder der Aufruf: "Wir werden siegen! Wir sind unbesiegbar! " ein.
Ganz klarer Fall -> Drogen ;)


Womit gleich die nächste und wohl für NV wichtigere Frage aufkommt, inwiefern die Midclassableger von GF100 im Bereich einer schwer zu toppenden HD5770 vor allem in der in diesem Segment noch wichtigeren Leistungsaufnahme (, aber auch was Herstellungskosten und somit konkurrenzfaehige Verkaufspreise betrifft,) einiges vieles besser machen können?
Ich hab da irgendwie kein gutes Gefühl...
Vergiss es, an die Performance per Watt der HD 5000 kommen sie nichtmal ansatzweise ran, erst recht nicht an die HD 5000er Green Serie, hier mal die effizienteste Karte aufm Markt(dicht gefolgt von der HD 5850): http://geizhals.at/deutschland/a496815.html
oder hier die neue kleine, die auch sehr weit vorne liegen müsste: http://geizhals.at/deutschland/a519564.html
Jeweils passiv also lautlos, quasi die Eierlegende Wollmilchsäue schon heute bevor NV überhaupt gestartet ist...


Atomkraft muss (vorerst) ein wichtiger Baustein in eine CO2 freie Zukunft sein, auch wenn gewisse Nachteile vorliegen, die aber überwindbar (bzw. zu vernachlässigen) sind.
Die paar Tausend die dann rund um AKWs an Krebs sterben sind ja Kollateralschäden und zu vernachlässigen oder? Naja Bill Gates teilt deine Meinung und sieht 0 Emissions(Welt retten) als das wichtigste überhaupt an. Knallharte Kalkulation wenn du mich fragst. Ich finde die Mittel heiligen nicht den Zweck und würde die AKWs alle abschalten, auch wenn dafür die Strompreise steigen und in der 3. Welt dann mehr Menschen verhungern bzw. ihnen schlechter geht.(laut Bill Gates)




Mit einer 2 GB Karte @1000 könnte ich mich vllt dennoch anfreunden. Welche Karten unterstützen den nun Voltage Tweaker und gibts da Tests dazu?
Gibts dann demnächst zuhauf, aber um die 2GB zu fordern brauchst du HD Textur Mods und oder SGSSAA, das kann ich dir jetzt schon sagen.


Viel wichtiger ist wie dann mit vielen Polygonen, die beim zoomen durch die Tessellation Einheiten erstellt werden, umgegangen wird. Können die ganzen zusätzlichen Flächen schnell genug mit Texturen gefüllt werden. Und hier zeigt sich bei grossen Auflösungen - wo ja mehr Details erst interessant werden - dass die neuen Nvidia Karten zu wenig Textur Einheiten haben um die ganzen Tessellation Polygone auch mit Inhalten zu füllen.

Bei Auflösungen die für 3 Monitore z.B. gebraucht werden brechen die Karten ein. das geht aus allen Test hervor die diese Auflösungen auch getestet haben.

Mehr Tesseallation muss immer auch texturiert werden - das muss also in Balance bleiben. von daher muss Ati an seiner Tessellation Einheit gar ncihts machen um höhere Leistung zu erzielen, sondern die Textur Einheiten tunen damit die Polygone schneller befüllt werden. Mehr Polygone machen das ja noch langsamer.

Genauso sehe ich das auch, die Tesselation der GTX 480 ist nicht so überlegen wie einige Tests hier geschrieben haben. Ein massiv OC Cypress(1GHz+) hat hier alle Chancen Fermi sogar zu überholen in den höchsten Settings und das bei weniger Stromverbrauch bzw. besserer Effizienz. Sogar mehr Vram haben sie mit 2GB Karten, was für mich als User der seine Karten immer ewig behält auch sehr wichtig ist.




naja gut, nach 3 jahren haben die es immerhin mal hinbekommen GDDR 5 zu nutzen....
is ja auch mal was wert

Vorallem ist die GTX 480 die einzige NV Karte die mit GDDR5 und der Idle Leistungsaufnahme patzt, wirklich lächerlich sowas zu bringen während GTX 470 und GTS 240 das hinbekommen. Die GTX 480 ist einfach nix halbes und nix ganzes.

Bei der GTX 470 ist es ein wenig grenzwertiger, Fermi ist ja mal extrem schnell mal extrem langsam. Wenn die GTX 470 bei Empire: Total war abgeht wie ein Schnitzel währe sie sogar eine Überlegung wert für mich. Ist aber eher unwahrscheinlich.
Google hilft hier auch nicht weiter, einziger Anhaltspunkt ist PCGH:
Napoleon: Total War - Leistungsfaktor Grafikkarte
Der Hauptgarant für ein Schlachtenspektakel ohne Leistungseinbrüche bleibt die Grafikkarte. Allerdings scheint die uns vorliegende Vorabversion weder von der Performance noch von der Treiberunterstützung her optimiert zu sein. Die Kantenglättung bereitet in Verbindung mit SSAO teils Probleme. Außerdem stellt der Titel noch sehr hohe Anforderungen an Ihren 3D-Beschleuniger. So kommt eine GTX 285 bei ersten Benchmarkversuchen in 1.680 x 1.050 mit 4x FSAA gerade einmal auf 25 Fps, selbst in 1.280 x 1.024 mit 4x FSAA liegt die Framerate bei niedrigen 30 Fps. Davon ausgehend, dass Creative Assembly hier bis zur Verkaufsversion noch nachbessert, schätzen wir, dass in 1.280 x 1.024 (kein FSAA) eine Geforce GTS 250/Radeon HD 4870 und in 1.680 x 1.050 (kein FSAA) eine GTX 260/HD 5770 flüssige Frameraten mit allen Details garantiert. Schalten Sie jedoch noch 4x FSAA zu, kommen Sie wohl um eine GTX 275/HD 5850 nicht he*rum. Napoleon: Total War verlangt auch nach viel Hauptspeicher. Unter Windows Vista/7 sind 4 GiByte, unter XP 3 GiByte Pflicht.
http://www.pcgameshardware.de/aid,7...chmarks-und-Tuning-Guide/Strategiespiel/Test/

Wenn ich das richtig deute müsste eine HD 5870 hier ordentliche FPS liefern auch bei Massenschlachten. Davon ausgehend das es eine HD 5890(ATI ruht sich lieber aus anstatt den Sack zu zumachen: http://hartware.net/news_48853.html ) nicht geben wird wird es wohl dann die HD 5870 2GB von Edel-Grafikkarten mit Prolimatech MK-13 Edition: http://edel-grafikkarten.de/ATI/HD-5870/HD-5870-Prolimatech-MK-13-Edition
Preisklasse ca. 550€, aber man gönnt sich ja sonst nix. :D


Ati hat genug Gewinn gemacht.

Du machst Witze oder? AMD hat genug Gewinn gemacht?:lol:

MfG Kasmo
 
Zuletzt bearbeitet:
Swissjustme schrieb:
Im test steht aber 10.3a

Betrifft aber nur die 5870 und da sind wir mit aktivierten Filtern im Bereich von 10% (wenn überhaupt)... wenn man den 10.3 bei der 5970 zu Grunde legt sieht das Ergebnis noch vernichtender aus...
 
Man darf nicht vergessen das die AMD (ATI ) Leute in den vergangen Monaten viel zeit damit zugebracht haben den Catclyst treiber auf die Neuen Typen Ab zu Stimmen (meine da vor allem die unterschiede zwischen den 5800 , 5700 etc (naja nicht wirklich :p ) dagegen sind die nvidia leute wohl eher auf der realisierbarkeit ihrer karte im algemeinen gesessen und noch etwas die 58XX serie hatte ja am anfang bei einigen spielen probleme (ich konnte ANNO 1404 erst mit cataclyst 10.1 (oder so bin nicht sicher ) spielen da vorher alles Schwarz war daher haben die sicher einiges s an zeit zugebracht damit alles (richtig ? ) einzustellen und die werden erst jetzt wirklich alle mittel auf effizienz steigerung setzen können !
die GTX 480 wird vermutlich ähnliche probleme haben dh bis wir wirklich eine treiber bedingte effizienz steigerung sehen dauert es noch 3-4 monate ...


Es scheint wirklich so zu sein als möchte Nvidia seine chips für GPU computing umstellen denn für so etwas scheint mir die gtx 480 genau richtig zu sein !
 
Hallo zusammen,

ihr solltet mal nachlesen, was www.hartware.de bei Folging@home mit ihrer GTX 470 passiert ist, das Ding wurde 112 Grad warm und throttelte nicht einmal! Nur mittels eines schnellen Resets konnte das Ding gerettet werden!

Hier zum Nachlesen, ist der letzte Abschnitt auf der Seite:

http://www.hartware.de/review_1079_16.html

Wenn ich jetzt überlege, daß diese Dinger ja angeblich so für Wissenschaftliche Arbeiten genutzt werden sollen mit ihrer Architektur, dann ist das ja ein umso größeres Desaster, denn man muß sich nur mal vorstellen wie heiß es wird, wenn man mehrere dieser Teile in einem Rack hat!

Also wirklich brauchbar können die Dinger auch nicht für GPU-Computing sein!

So long.....
 
Also das ist schon masiv ! wenn auch es ein wenig so klingt als wäre es deren schuld !

ich binn ja schon gut gerüßtet weil die Idioten (tut mir leid ) die den PC zusammengestellt haben ein 700 Wat Netzteil eingebaut haben (be quiet ) :D

ich habe noch "NIE " mehr als 70 ° Gehabt und das war als ich 4 stunden durch gegambelt habe mit Maximal settings !

Die Karte wurde von Nvidia und RWE gemeinsam entwickelt, oder?
:-D
 
@velipp
nvidia hat nicht nut 1 team, welches sich für die chip und pcb entwicklung kümmert;)
 
es gibt aber auch nicht nur 1 Spiel das Man fixen muss ;)

das ist schon klar ! trotzdem ist es anzunehmen das es priorität hat das die diversen Problem Spiele Überhaupt laufen!
 
Kasmopaya schrieb:
Ständig wird hier von ATI @ 3D und ATI @ GPGPU Programmen gesprochen, kann ich da mal Links sehen, die eine Liste von GPGPU Programmen zeigen so wie diese hier: http://www.nvidia.com/object/cuda_home.html

http://www.hardware-infos.com/news.php?news=3470
Ich kann nichts dafür, das darüber auf CB nicht berichtet wurde.
Aber auch die Treiber ändert nichts an der Existenz von wazabee, dem Zalman oder iz3D.

Und was GPGPU betrifft, da werde ich ganz sicher nicht drauf einsteigen, das wurde im Forum schon unendlich mal diskutiert, und du weißt Bescheid - unnötige Übertreibungen sind unnötig. Wir alle wissen das Nvidia zur Zeit mehr (consumer) Anwendungen unterstützt.


Kasmopaya schrieb:
Guter Punkt, aber ein bisschen kleinlich. Werds aber trotzdem ausbessern, rein schon das die Liste perfekt wird.:rolleyes: https://www.computerbase.de/forum/t...sucht-die-extreme.716793/page-35#post-7600551

Wieso kleinlich, es ist ja nunmal nicht das PCB welche die Karte ein paar mm länger macht, und wenn ein Custom Kühler sein soll hat man auch keinen Ausbuff mehr am Heck; ob diese wenigen mm nun eine großartige Verbesserung bezüglich Platzprobleme ist, und als + aufgelistet werden soll, werde ich nicht streiten.
 
Wer Pro und Contra Atomkraft diskutieren will, suche sich bitte den passenden Thread.
 
Highendrechner schrieb:
Red Faction ganz klar auf Nvidea abgestimmt, nicht mal ne 5970 kann gegen die 480 was machen, Test sinnlos, sry.

man sollte spiele nehmen, die auf beiden herstellern neutral laufen, nicht wie redfaction
seit wann ist ne 295 schneller als eine 5970? ;)
Also, würde sagen, dass man den Test mal neu macht, oder auf einige spiele verzichtet?



Und das sollte man machen weil?

Eine Menge Spiele laufen mit manchen Karten besser und mit anderen schlechter. Das ist nun mal Fakt. Und natürlich muss man das berücksichtigen was nützt es mir wenn sagen wir mal Karten von AMD super bei RPGs sind und ich aber nur Shooter spiele?

Und zur 480 das is ja wohl ein Witz. Da hätte man lieber den G200b weiter aufbohren sollen.
 
Luxmanl525 schrieb:
Also wirklich brauchbar können die Dinger auch nicht für GPU-Computing sein!

Sehe ich genau so, da ist der Schuß noch mehr nach hinten losgegangen.

Ein Tesla S2070-Einschub verbraucht 900Watt, für Supercomputer ist absolute Effizienz gefragt und Tesla da ist nicht konkurrenzfähig.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7935236#post7935236

Auch wenn hier offensichtlich in dem Beispiel "nur" Single Precision benötigt wird....., scheinbar skalieren alle Chips sehr gut mit ihrer Rohleistung
 
Die Performance der GTX480 ist gut und mit dem ein oder anderen Treiberupdate bestimmt hier und da noch steigerungsfähig. Über den Rest brauchen wir nicht zu reden, der ist Schitte, ganz klar und ich kann mir nur schwer vorstellen, daß NV den Fermi, so wie er jetzt ist, langfristig über seine Boardpartner durchpeitscht, dies dürfte angesichts der vorliegenden Fakten gegenüber der Kundschaft nur schwer vermittelbar sein. Persönlich hoffe ich, daß NV nach der ersten Charge die Reißleine zieht und der berechtigten Kritik Rechnung trägt.

Zum Vergleich: die FX 5800 wurde im April 2003 vorgestellt und bereits im Juni von der FX5900 Ultra in den Ruhestand geschickt, allerdings hatten wir damals keine Weltwirtschaftskrise...
 
moin

Bei Hardwarecanucks und deren recht umfangreichem Test Setup, erreicht Fremi einen

Vorsprung 19% bei minimum und 13% bei den durchschnittlichen Fps gegenüber der HD5870.

Mit der Temperatur u Leistungsaufnahme zu wenig.

Bessere Treiber werden noch was rausholen, ATI wird auch weiter kitzeln(aber diesmal bitte ohne "Optimierungen", wie derzeit bei einigen Games).

Insgesammt ist DX11 u die Karten beider Lager bis dato nicht der Knaller. Tessalation Einsatz kostet mal wieder (siehe DX10) mehr, statt weniger Leistung. Für mich hat DX 9 die Krone auf, da muß ich nicht mit der Lupe nach optischen Verbesserungen gegenüber DX 8 suchen. Und es findet nach wie vor zurecht die meiste Verwendung

@Kasmopaya

Ein massiv OC Cypress(1GHz+) hat hier alle Chancen Fermi sogar zu überholen in den höchsten Settings und das bei weniger Stromverbrauch bzw. besserer Effizienz. Sogar mehr Vram haben sie mit 2GB Karten, was für mich als User der Seine Karten immer ewig behält auch sehr wichtig ist.

Die 1GHZ + sollten aber ein fettes + sein..http:///www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=16

mfg
 
jaja immer das Vorzeigeprogramm von ATIs GPGPU der Passwort Bruter. Da muss schon mehr kommen um NV die quasi Monopolstellung im Profibereich abzustreiten. Treiber Support bzw. 24/7 Support sind auf dem Gebiet zb. auch sehr wichtig. NV erwirtschaftet mittlerweile den Großteil seines Gewinns aus der Sparte, wenn ATI hier mithalten könnte müssten sie ja automatisch hier mehr abräumen. -> was aber nicht der Fall ist.

ATI hat ja nichtmal das Gegenstück zum Tesla vorgestellt. GPGPU ist bei AMD aufgrund ihrer CPUs vorerst unrentabel bzw. nicht so interessant wie bei NV. Aufgrund des extremen Potenzials(Gewinnmarge) der Sparte eine falsche Entscheidung
 
Ich glaube kaum, dass die Entscheidung falsch war mit dem GPGPU Zeugs noch etwas zu warten,schließlich wird ATI jetzt erstmal ordentlichen Gewinn mit ihren Karten machen. Ob Fermi, wie er jetzt ist im GPGPU Markt reißenden Absatz findet ist auch erstmal deutlich zu bezweifeln.
AMD bringt ja auch eine neue Architektur, dauert ja nicht mehr lange.

Gegenstück zu Tesla? Teslakarten gibts ja noch nicht einmal zu kaufen. Ich denke ATI hat noch Zeit.
 
Hallo zusammen,

@ Kasmopaya

Zweifelsohne macht Nvidia mittlerweile mit Gamer-Grafikkarten nur noch einen verhältnismäßig kleinen Teil ihres Umsatzes. Das konnte man auch an ihren letzten Quartalsbilanzen verfolgen bzw. nachlesen.

Nichtsdestotrotz ist nunmehr sehr fragwürdig, inwieweit die Fermi-Architektur tatsächlich für GPGPU zu gebrauchen ist. Die von Hartware.net erzielten 112 Grad wurden sogar bei offenem Testaufbau erzielt!

Man mag sich gar nicht ausmalen, was da erst Passiert, wenn man mehrere dieser Dinger in einem Rack nutzt! Ich bin da sehr gespannt, was da noch zu Hören sein.

So long....
 
Kasmopaya schrieb:
Treiber Support bzw. 24/7 Support sind auf dem Gebiet zb. auch sehr wichtig. NV erwirtschaftet mittlerweile den Großteil seines Gewinns aus der Sparte, wenn ATI hier mithalten könnte müssten sie ja automatisch hier mehr abräumen. -> was aber nicht der Fall ist.
Ahja, wieder die Treiber, nen Totschlagargument nicht wahr?
Wenn Nvidia den Großteil ihres Gewinns aus dem Profi Segment zieht, sähe das für den Rest ja nicht so prall aus, denn afaik macht das 'nur' noch ~150 Mio des Umsatzes aus.

Und mit dem aktuellen Fermi werden sie aller Voraussicht nach auch keinen Blumentopf gewinnen, aber: time will tell

Kasmopaya schrieb:
ATI hat ja nichtmal das Gegenstück zum Tesla vorgestellt.
Mit welchen GPUs sollten sie dies denn tun?
Und derzeit steht bei Nvidia auch nur eine Ankündigung im Raum, die ein dreiviertel Jahr vor Veröffentlichung gemacht wurde. Die Tesla auf Fermi Basis ist für Q2/Q3 2010 geplant, und selbst das muß erstmal gehalten werden.

Kasmopaya schrieb:
GPGPU ist bei AMD aufgrund ihrer CPUs vorerst unrentabel bzw. nicht so interessant wie bei NV.

Warum redest du immer so viel Unfug? Wie oft haben ich und andere dir solche und andere Äusserungen schon um die Ohren gehauen? Lass das doch bitte sein, ok?

Nun wieder gut, genug über GPGPU geflamed? Ich denke hier ist etwa anderes das Thema.
 
Zuletzt bearbeitet: (es waren Mio. gemeint.)
Zurück
Oben