Test Test: Nvidia GeForce GTX 470

Dann lies auch den Fazit und denk dir deinen Teil dazu, was passieren wird, falls die Karte wirklich an ihre Grenzen kommt.
Mit einer Singel GPU wird man bei einem SP-Game auch mit 40Fps noch Spaß haben, bei einer DualGPU nicht mehr. Also sind die Maximalwerte für mich nichts wert.
Weiso soll ich mir eine Karte kaufen die bei 60Fps genauso gut/schlecht ist wie eine SingelGPU mit 30?
Treiber Optimierung/Probleme darf man auch nicht vergessen :)

Dann wird man froh sein etwas über den Sinn und das Brauchen nachgedacht zu haben :)
 
Hmm, was sagt mir der Test? Die NV-Karten haben bei der technischen Tabelle einzig mehr ROPs, mehr rohe Shaderleistung, weil getunter Shadertakt, größeres Speicherinterface und daher mehr Speicherbandbreite.

Der Testschwerpunkt müßte eigentlich 470 vs 5850 sein. Und die 470 kann sich fast immer etwas von der 5850 absetzen, besonders in 1920x1200.

Aber die Lautstärke unter Last ist schon arg. Stromverbrauch fällt bei den paar Stunden am Tag unter Last nicht so ins Gewicht.

ATI bräuchte die getunte Shadereinheit mit mehr Takt sowie das 512bit Speicherinterface (wie bei der 2900) inkl mehr Speicher wieder und dann würde Nvidia wohl kaum noch Land sehen?
 
Kasmopaya schrieb:
Viel zu spät, hätte ich zur der Zeit eine ATI gehabt, hätte ich sie umgehend aus dem Fenster geworfen. Ich warte nicht Monate auf einen Treiberfix...

Soweit ich mich entsinnen kann, waren die Patche für Anno und GTA beides Hersteller Fixes und keine Treiberfixes Seitens ATI. Somit solltest Du in dem Fall nicht die ATI Karte zum Fenster raus werfen sondern das Spiel selbst da die Hersteller hier wieder typische Bananensoftware abgeliefert haben. ;)

Kasmopaya schrieb:
Falsch, ATI hat hier keine Ingenieure zu den Entwicklern geschickt, die drauf schauen das das Game 100% mit ihrer Hardware läuft... ATI gibt offen zu das sie ihre Optimierungen (meistens) erst machen können wenn das Game schon auf dem Markt ist. Anders bei NV stehen die TWIMTBP Leute teilweise schon Monate vor Release bei den Entwicklern und helfen mit...

Also bitte, die ATI Grafikkarten sind für den Hersteller frei verfügbar und wenn es hierbei so Probleme wie bei GTA IV gibt, dann stellt sich mir die Frage hat der Hersteller keine QM Abteilung wo jemand in der Lage ist die fertige CD in einen entsprechenden PC ein zu legen und zu testen? Bzw. das gleiche bei Anno, DX 10 Grafikkarten gibt es ja nicht erst seitdem das Spiel released wurde. Noch dazu wo sicher beide Grafikkartenhersteller in den Systemvoraussetzungen der spiele genannt werden. :rolleyes:
 
Zuletzt bearbeitet:
AMD hat dieses mal wirklich die Kurve bekommen. Ich hatte mich damals endlich mal richtig entschieden und meine GTX285 für 200 Euro verkauft und eine Asus 5870 für 399,- Euro gekauft. :D

Bin Happy für AMD :p.
 
Danke für den Test, auch wenn genau das hersusgekommen ist was sich alle nach der 480 erwartet haben.
Naja so ist das im Geschäft, des einen Leid des anderen Freüt, vor ein paar Jahren war es umgekeht und ich habe mir eine grüne gekauft, nun wird es diemal eben eine rote, ist ja auch nicht schlecht.
 
Jungs...ihr unterbietet hier echt jede Nachmittagstalkshow im Niveau und überbietet sie im Unterhaltungswert.
Bei AMD in DRESDEN vorbeigehen? Falsches Land + Kontinent
 
Also ich habe bei Alternate 2 GTX 470 vorbestellt.
Wofür sonst hab ich mir damals ein Seasonic M12D 750W gekauft?

Halt's vor Aufregung kaum noch aus.
 
Hab mal ne Frage zu den Werten der GTX470/480 .. in den Tests von CB sind jedesmal unterschiedliche Werte eingetragen. Hätte mal was handfestes.

Beispiel :
https://www.computerbase.de/2010-03/test-nvidia-geforce-gtx-480/2/
Pixelfüllrate : 33.600 MPix/s (GTX480)

https://www.computerbase.de/2010-04/test-nvidia-geforce-gtx-470/2/
Pixelfüllrate : 21.000 MPix/s (GTX480)

https://pics.computerbase.de/1/9/3/8/0/2-1080.2662683825.jpg
Pixelfüllrate : 37.000 MPix/s (GTX480)

Liegt das an unterschiedlichen Modellen? Oder hat einer beim Copy/Paste nich aufgepasst? Würde eher zum GPU-Z Wert tendieren, aber brauche mal den Status Quo. Am besten von beiden GTX470/480 ..

Danke im voraus..

p.s. Ich besitze im Moment eine PowerColor HD5870.. sollen ja angeblich alle OpenCL unterstützen. Tut die das nun? Laut GPU-Z nicht. Oder wird das erst mit nem neuen Treiber "gebugfixt"?

Hab bisher nur das gefunden dazu:
http://forums.amd.com/devforum/messageview.cfm?catid=390&threadid=119321

Nachtrag 1:
Danke erstmal an Complication.
Hätte da wohl erstmal weiterlesen sollen im Test der GTX470. Hab bloss direkt in der Tabelle gestoppt.

Mit OpenCL. Also jede "ATI Stream" unterstützende Anwendung nutzt das dann auch, bloss GPU-Z zeigts (noch) nicht an. Seh ich das richtig (Hab den 10.3b Preview Treiber, denke daran sollte es nicht liegen)

Nachtrag 2: Hab das "Problem" zu der fehlenden Anzeige zu OpenCL gefunden. Das SDK MUSS zwangsläufig auch installiert werden. Nicht nur der Treiber allein.
 
Zuletzt bearbeitet:
nein - du musst nur etwas runter scrollen für die Erklärung:
https://www.computerbase.de/2010-04/test-nvidia-geforce-gtx-470/2/
zu den ROPs wollen wir an dieser Stelle noch eine Anmerkung machen, da uns im Launch-Review ein Fehler unterlaufen ist. Denn wir sind nicht nur davon ausgegangen, dass eine ROP pro Takt einen Pixel fertigstellen kann (solange dieses aus einem „einfachen“ Format wie 32 Bit, acht Bit pro Farbkanal, stammt) – was so weit auch richtig ist. Gleichzeitig sind wir davon ausgegangen, dass die GPU genauso pro Takt einen Pixel für einen ROPs zur Verfügung stellen kann, was aber falsch ist. Denn so kann jeder Streaming-Multiprocessors der GPU pro Takt nur zwei Pixel an die ROPs weiter schicken, bei der GeForce GTX 480 also 30 Pixel und bei der GeForce GTX 470 28 Pixel. Die 48 respektive 40 ROPs können damit nicht voll ausgelastet werden.

Die „arbeitslosen“ ROPs (18 auf der GTX 480 und zwölf auf der GTX 470) sollen indes die Leistung bei Speicherzugriffen und beim Berechnen von Anti-Aliasing zu steigern. Dasselbe gilt bei Formaten, für die die ROPs mehr als einen Takt für einen Pixel benötigen (zum Beispiel bei FP16), obwohl sich die Effektivität der ROPs dann theoretisch halbiert. Wie die Kollegen der PCGH aber herausgefunden haben, muss der GF100 bei höherwertigen Formate die internen Datenpfade zwischen den Shadern und den ROPs ändern, sodass die effektive Bandbreite gleich bleibt und somit erneut nicht alle ROPs mit Daten gefüttert werden können.
Ergänzung ()

zu OpenCL:
http://www.geeks3d.com/20091218/ati-catalyst-9-12-hotfix-with-opencl-support/
After the WHQL version, AMD release a hotfix for ATI Catalyst 9.12. This hotfix provides full support for GPU acceleration of OpenCL when used in conjunction with the ATI Stream SDK v2.0. This support of OpenCL is limited to Radeon HD 5970 Series, Radeon HD 5800 Series, Radeon HD 5700 Series, ATI Radeon HD 4000 Series and FireStream 9200 Series.

The hotfix also resolves some problems like mouse being enlarged under Windows7, performance of OpenGL games, or CrossFireX support for Eyefinity.
 
@mitch-dk
Achte mal auf den GPU Takt im dritten Link und vergleiche ihn mit dem im ersten Link. ;)
 
Dieser Thread erinnert mich so dermassen an die Threads zur HD2900..
Der Vergleich ist unfair, die Konkurrenz hat schon Performance-Treiber! Wartet nur, bis endlich die optimierten Treiber draussen sind!

Tesselation wird die Technologie der Zukunft!

Ich sag' nur eins: Wir werden sehen!

Ich gehen davon aus, dass wir bis Tesselation verbreitet ist, schon längst mit der nächsten Generation spielen..
 
@ Für die Leute die meinen dass CB keine relevanten Spiele bei den Tests verwendet.

Ihr wollt also GTA4 zu den Benches hinzugefügt haben? Ein Game welches für die Konsole gedacht ist und auf den unterschiedlichsten Systemen nicht stabil läuft und sonst wo welch Probleme macht weil es nun mal eine Konsolenportierung ist. Ja denn braucht ihr euch garkeine Benchmarks anschauen. Kauft euch einfach was ihr wollt. Denn GTA4 ist eines der letzten Benchmarks auf die ich wert drauf lege.
 
Kasmopaya schrieb:
1. Welche Nachteile der GTX 470 stimmen nicht?
2. Du kannst nicht von jedem verlangen das man sich ein costum Desingn holen muss, das Referenzdesign zählt auf jeden Fall am meisten und hier ist unter Last wie schon seit Ewigkeiten Fail auf beiden Seiten, wer jetzt minimal besser, bzw. nicht ganz so laut rödelt spielt eigentlich keine Rolle...

1. Die die drüber stehen (nicht der Nachteil direkt, sondern die Aussage das die 5850 lauter sein soll als die 470). Jedenfalls nach gefühlt 90% aller Tests kann man das eben nicht so stehen lassen.
Und das war eben auch widersprüchlich mit der Aussage, das es ja schon leise Custom Designs der 5850 gibt. Kann ja schlecht lauter sein dann ;)
(war zwar auf idle bezogen, aber unter Last zeigt sich ja dann auch immer ne Verbesserung)

2. Das Referenzdesign zählt eigentlich so gut wie gar nichts, bei der 5750 gibts z.B. überhaupt kein Ref-Design.

Aber is ja auch wurscht, war ja nur ein kleiner Punkt.

Außer das du einen offensichtlichen Programmierfehler seitens Anno-Programmieren AMD vorwirfst, hab ich keine Probleme. Schlechte/fehlerhafte Programmierung kann man eben schlecht per Treiber fixen ;)

(Hab grad letztens gelesen, dass mancher OpelGL Programmierer AMD schlechte Treiber vorwirft, dabei liegts an der eigenen schlechten, nicht OpenGL-konformen Programmierung die auch nur dazu diente, irgendwelche NVIDIA-Probleme zu umgehen)

EDIT:

Fictivision schrieb:
Also ich habe bei Alternate 2 GTX 470 vorbestellt.
Wofür sonst hab ich mir damals ein Seasonic M12D 750W gekauft?

Halt's vor Aufregung kaum noch aus.

Sehr gute Ironie

:daumen:
 
Auch wenn ich mich erst jetzt zu Wort melde:

Ich verstehe das Fazit nicht:

Wolfgang Andermahr schrieb:
Wer dagegen unter keinen Umständen Schwierigkeiten in kommenden DirectX-11-Titeln inklusive Tessellation haben...will

Wo sind denn im test die geforces deutlich schneller, oder gar so, dass man in Zukunft (wer will das wissen?) dei 5% mehr Leistung der Grund für Spielbarkeit sein wird. Oder ist das nur auf theoretische Überlegungen gegründet, wegen der Tesselationseinheiten? Dann gehört das imo nicht ins Fazit oder wenn dann nicht so formuliert!

UNd wie bei jedem Test noch ein Mangel:

Warum messt ihr nicht mal beim OC der Grafikkarten den Strom?

Gerade für OCer wäre dass doch sehr interessant wieviel Reserven Netzteile haben sollten usw...Für Interessierte wäre das Verhältnis von Watt/PErformance sehr interessant.

Schade dass ihr das nie macht, bei der Karte wäre es auch noch aus anderen gründen interessant gewesen...:(

Sonst natürlich wieder gute Arbeit, keine Frage...
 
@ angHellic

Das ist komischerweise einzig und allein auf den Unigine Heaven Benchmark bezogen und auf sonst nichts. Kann man eigentlich schlecht sagen in wieweit man den als Referenz nehmen kann.

In Stalker – Call of Pripyat wurde Tesselation leider deaktiviert. Es kommt aber demnächst noch ein spezieller Tesselation Artikel, der mehr klarheit bringen wird.
 
Complication schrieb:
Der Prozess ist nicht desaströs - und AMD hat die Schwächen sehr wohl schon frühzeitig erkannt. Also konnte man davon ausgehen wo die Probleme zu fixen sind im Design.
Dieses Spiel haben beide bei jedem neuen Prozess vor sich - nur diesmal hat Nvidia das nicht gebacken bekommen. AMD macht es doch vor wie es funktioniert in 40nm.
Da hat einfach jemand Mist gebaut - doch das ist immer im Bereich des möglichen bei "On the edge"" Technologien. TSMC versucht ja seine Fertigung auch gut zu verkaufen und nicht die Schwächen zu betonen. Da muss man wohl viel zwischen den Zeilen lesen beim planen der Architektur - da hat scheinbar AMD/Ati traditionell die bessere Kompetenz. Hier hat sich das mal richtig ausgezahlt, zumindest kurzfristig.

nein, das sehe ich nicht so. Der GF100 dürfte weit länger in Entwicklung gewesen sein als der RV870 oder gar der RV770. AMD hat gegenüber Nvidia von zuvor auf kleinere Chips gesetzt, den Computing Teil weitestgehend umgangen.

Auch der RV770 ist weit kleiner als der G200.

Die Gerüchte um den G100 reichen weit zurück, der G200 wurde mehr oder weniger kurzfristig als aufgebohrter G80 /G92 mit mehr Shadern eingeschoben, auf DX10.1 etc wurde verzichtet da es schnell gehen musste und billig sein sollte... Aber der G200 lies bereits einige Computing dinge die der G100 nun ausbringt einfliesen. Die Frage ist, wieso erst G200 dann G100 - ganz einfach, dieser war schon viel eher, unmittelbar nach G80 Gegenstand der Entwicklung. Eventuell wurde schon von gar 28 nm bei frühen Planungen ausgegangen.

Die ATI Architekur basiert nach wie vor auf dem R600, selbst Tessellator etc waren bereits an Bord. Die Entwicklung die NVidia mit dem G100 vollzogen hat war ein Kraftakt , viel mehr Fokus auf Computing, Raytracing etc. Wir merken jetzt davon äußert wenig, ich denke für jemand der sich tief mit der Materie befasst hat ist dies deutlicher (ich würde mich dennoch nicht als einen solchen halten).

Mit dem Ur DX10 Chip G80 hat der G100 nur noch wenig am Hut. Auch könnte der G104 eher eine rasche Weiterentwicklung des G92, mit einfacheren - vielleicht 512 Shadern auf kleinerer DIE ohne großen Computing Teil, sein. Der Name "G104" könnte dafür sprechen.
Die GPGPU Chips wären demnach G200 und der jetzt verspätete G100, der Megachip der seit Jahren in Gespräch war.

Man darf G100 wahrlrich kaum mit RV870 vergleichen, weder effizienztechnisch noch logistisch. Man sollte NV Insider sein, wissen was in der Planung / Entwicklung so läuft. leider ist die Prozessorindustustrie hier weit durchsichtiger.
 
@ DVP:

oh, dann hat es in dieser Form ja erst recht nix im Fazit zu suchen, imo.
 
7 % schneller als ne HD 5850 -..- somit liegt sie auf 5850 NIV.
 
Nun, typisches Thermi Fazit :) war ja aber schon seit Monaten vorrauszusehen, das Thermi floppen wird.

Ohne die vielen "The Way its meant to be Nvidia´ed" Spiele, wäre ein echtes Ergebnis möglich, aber dass wird wohl bei Computerbase nicht auftreten :) In den Printmedien liegt die GTX470 ziemlich exakt gleich auf, mit den Radeon 5850 modellen.

Aber für die ganzen Leute, die gerne alles besserwissen : Dual Core und ne GTX480 sind absolut 1337 :D (Ich geh immernoch kaputt, das bis ende August 09 im ach so tollen Guide "Der beste Gaming PC oder so" ein Dualcore empfohlen wurde... in der PC-Games Fazit : "Ein Quadcore ist bis zu 120% schneller" da helfen auch keine 4GHz mehr :P -> daher vermute ich mal, wird auch im Guide bestimmt bald die GTX480 empfohlen, samt 1000W Netzteil :P

Ich könnte mich ständig auf dem Boden rollen, wie oft habe ich gelesen : "Soll ich mir eine Radeon 58x0 kaufen? -> Antwort : Warte auf Thermi! Der wird 1337, der verbraucht soviel Energie wie nen Kompletter PC!" :D

Köstlich
 
Krautmaster schrieb:
nein, das sehe ich nicht so. Der GF100 dürfte weit länger in Entwicklung gewesen sein als der RV870 oder gar der RV770. AMD hat gegenüber Nvidia von zuvor auf kleinere Chips gesetzt, den Computing Teil weitestgehend umgangen.

Nicht so ganz - als erhellend könnte sich dieser Artikel erweisen ;)
http://www.anandtech.com/show/2937/7
Der GF 100 wäre bei weitem nicht ein solches Problemkind, wenn Nvidia die vias wie AMD verdoppelt hätte, oder eben wie AMD Balast aus dem Chip geworfen hätte um mit der Fertigung bessere Ergebnisse zu erreichen - man muss diese Entscheidungen halt treffen. Mal liegt man richtig mal liegt man falsch. Das ist aber bei dem neuen Fertigungsprozess aufs neue so - und immer wieder von vorne.

AMD hats dank RV770 Test gemerkt und rigoros Features raus geworfen:
Through a lot of hard work and sacrifice, even on Carrell’s part, ATI cut the RV870 from as much as 22mm on a side down to roughly 18mm x 18mm. The problem is that RV770 was around 16mm on a side. The RV870 was still too big.

Carrell wanted to cut it down even more, but two things changed his mind. First, in order to build 870 in the space of a 770 ATI would have to cut out much more from the chip than Carrell originally tought. One of the things that would have to go was some of the shader core.
 
Zurück
Oben