Test GeForce GTX 470 im Test: Nvidias neue „Kleine“ ist besser als der große Bruder

Bully|Ossi schrieb:
Aber stimmt schon, ich bin einfach nicht Klug genug :D Dass schreibt einer der kaum Deutsch kann :evillol:

Zu dem Satz braucht man tatsächlich keinen Kommentar abgeben. :lol:

Ich hab übrigens auch nen Q6600 G0 seit fast drei Jahren und damit bin ich ja dann schon fast so toll wie du. Nur älter...
Dennoch hätte mich die Antwort auf meine Frage gewünscht: MMO oder FPS oder ??? Online-Zocker? Sei so nett.

Bully|Ossi schrieb:
Ich sehs schon kommen im Guide : Aufgrund der enormen Verbreitung von Cuda/PhysX ist es absolut Notwendig eine GTX480 zu kaufen. Dafür bekommt er dann, Geld von Nvidia und EON

Kann schon sein :-)
Ich denke es wird eher so laufen, dass PCGH oder wer auch immer den Guide schreibt, dann Geld von nVidia und EON bekommt und die dann wiederrum von jenen, die dem Rat folgen ;-)
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Man darf hald nicht den Fehler machen 1,3GB Karten mit 1GB Karten zu vergleichen, die richtig guten 5800er mit 2GB kommen gerade erst auf den Markt. Und ich kann dir jetzt schon sagen in Metro und Crysis gehts Fermi an den Kragen, mit den 2GB Radeons. HD 5870 2GB OC macht Kleinholz aus der GTX 480 in Crysis und die GTX 470 schluckt bei Metro auch Staub. Die Tessellationsleistung hat also bei den DX 11 Spielen gar nicht so eine große Wirkung in der Praxis. Aber das gibts demnächst alles bei PCGH...

Was soll man zur GTX 470 sagen? 70 Watt mehr wie eine HD 5870 sagt ja schon alles. Der Preis ist aber ganz ok, man sollte eben nur die 2GB Modelle gegen die neuen Fermis antreten lassen...

Die Lüftersteuerung einer 8800GTX ist auf 80Grad und die einer 8800GT auf 90Grad eingestellt. Sterben diese Karten in Massen -> nein -> also warum sollte es Fermi tun? 90Grad sind sowas von überhaupt kein Problem für die Karte, sogar TRI-SLI packt die GTX 480 lockerst mit Luftkühlung -> wieder bei 90 ->http://www.maingearforums.com/entry.php?23-So-You-Want-To-Buy-A-GeForce


Das ist wunschdenken und absoluter BUllshit den du da schreibst !
Die 2GB version bringt nichts aber auch gar nichts an Frames , die karte wird sogar gebremst egal in welcher einstellung !!!

http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index3.php
 
Aber eine Frage habe ich da noch: Wie werden eigentlich die Lautstärkemessungen vorgenommen ?
Bei einer Spielesequenz oder unter 100% Lüfterdrehzahl ?
Natürlich bei einer Spielesequenz. Wenn der Lüfter direkt bei 100 Prozent stehen würde, wären die messungen ja sinnlos.

Naja abwarten @CB wann wird denn der Tessellation Artikel online sein?
When it's done!:D Sollte nicht mehr allzu lange dauern, morgen oder übermorgen jetzt sicher aber auch nicht.

Nein, weil wir vom Fazit des Computerbase Tests reden und die beziehen sich schlicht und einfach auf ihre Ergebnisse und da wurde nur Heaven mit Tesselation getestet, bei Stalker war es ausgeschaltet und bei Metro war (wenn du mitgelesen hast) nicht Tesselation die Performance Bremse bei den Radeons.
Wir haben hier intern schon deutlich mehr Tessellation-Ergebnisse vorliegen als nur metro und Unigine. Einfach noch was gedulden :)
 
Puscha schrieb:
@ wadenbeisser:

Wenn ich mir Hardware kaufe, denke ich immer an die Zukunft. Was ist mit Standards, Langlebigkeit (z.B. CPU-Sockel) und Aufrüstbarkeit? Man schaut immer voraus, um nicht möglichst bald wieder Geld ausgeben zu müssen, oder?
Ich habe diesen Satz aus dem Zusammenhang gerissen, da ich erstens nicht weiß worüber du vorher diskutiert hast und zweitens, er steht ja auch alleine da.

Ich schrieb Hardware für die Zukunft zu kaufen ist verbranntes Geld und der Punkt Aufrüstbarkeit ist bei Grafikkarten irrelevant.
Was du umschreibst ist aufrüstbare Hardware mit weitsicht zu kaufen und ist ein etwas anderes Thema.
Die letzte Grafikkarte die ich mir für zukünftige spiele gekauft hatte war die Geforce 3 und das Spiel war Doom 3, weil die GF3 ja auch so gut damit laufen sollte.....ich glaube ich brauch niemanden zu sagen was dabei rausgekommen war.
 
Tja, ich habe gehofft das die 470ig was gescheites wird.

Tja ich selbst als mehr nvidia fan junge, werde diesmal eher zu einer 5850 oder sogar 5870 greifen. Schade wikrlich, aber viell. überredet mich eine überarbeitete version oder bestimmte Version eines bestimmten Herstellers.

Aber wies ausschaut werde ich jetzt auf ATI umsteigen, die 5xxx serie ist defenetiv besser! bis jetzt, hoffe nvidia macht noch was.

MfG
 
Die Ergebnisse sind in der Tat ernüchternd.

Die Temperatur sehe ich weniger als Problem; das hat Nvidia ja schon bei der 8800 GT gemacht: Temperaturregelung auf eine Zieltemp ausgerichtet, erst wenn die erreicht wird dreht der Lüfter hoch. Die Kühllösung auf beiden Karten könnte wesentlich mehr kühlen, würde dann aber lauter. Laut PCGH Video erreichte die Karte im Test maximal 68% Drehzahl. Anders gesagt: sie könnte noch einiges mehr erreichen. Dass einem dann die Ohren abfallen steht auf einem anderen Blatt.

Letzten endes scheint Nvidia beim Fermi irgendwo gründlich auf die schiefe Bahn gekommen zu sein, das errinert schon an das Hd2000-Desaster. Viel zu spät und dann noch schwächer, mit höherem Stromverbrauch, lauter, heißer als G80, geschweige denn der G92. Diesmal hat es eben NV verbockt; so what, es wäre ja auch langweilig wenn immer einer die Oberhand hätte. Immerhin war der G92 seinerzeit revolutionär und hat die Tür für das was heute am Markt ist erst geöffnet... Weniger Strom bei mehr Leistung. Wettbewerb braucht der Markt, sonst geht nichts weiter.

In diesem Sinne: freut euch das Fermi nicht das wurde, was Nvidia wollte - jetzt wird die nächste Generation mehr Liebe bekommen und so vielleicht den gesamten Markt nach vorne schubsen. Und wie schnell das gehen kann hat der RV670 gezeigt, nur 6 Monate nach dem R600 - Debakel kam eine schon deutlich bessere Generation.

mfg
 
Ich war auch eher Nvidia fan aber das was sich Huang mit der Fermi geleistet hat ist peinlich.
So lange die Kunden warten zu lassen und dann so einen mist rausbringen !
ok, wäre die gtx470 30% schneller als HD5870 und GTX480 um 50% könnte man über die problem e (lärmbelästigung ,stromhunger ) hinwegsehen, aber so ?
 
Ich denke Huang wurde selber überm Tisch gezogen. So stolz wie er diese Holzkarte gehalten hat. :p

is nur Spaß...

EDIT: Ich finds ja schlimm, das ich völlig unbewusst schon als art absicherung geschrieben habe, das es sich nur um ein Scherz handelt.
 
Zuletzt bearbeitet:
Was ist mit neueren Spielen, mir fehlt Bd Company2 oder Metro..... eigentlich ein nichts sagender Test wo man weder ein Fazit noch dergleichen lesen braucht. Erinnert mich an die legendären Computerbase Kühlertests wo keine Delta Temps angegeben werden ;)

Edit: Vielleicht interessiert ja der Test mehr...Den Thread ein bisschen lesen *g*
 
Hallo zusammen,

@ Bully|Ossi

Ach, ich nutze einfach die Gelegenheit, diesen Guide Helden mal was vorweg zu nehmen, bevor wieder zig Leute ihr Geld verpulvern. Ich hab da schon viele Diskussionen geführt, immer wurden irgendwelche vollkommen veraltete Tests zitiert usw. wie jetzt auch, ich rede von den PC-Games hardware Artikel von diesem/letzten Monat... da war GTA4 nichma aufgeführt, aber dennoch schlägt nen "Schrottiger Q6600@stock" einen E8500@3,6GHz nur, habe ich meinen auf 3,6GHz und stehe dort damit in der Liste sogar auf Platz 4... und der ist viele(3 :P = also Oldtimer) Jahre alt, da habe ich wohl damals richtig investiert Da ich mich halt schlau mache...

Was du hier schreibst, ist teils völliger Schwachsinn und meiner Ansicht nach recht Arrogant!

Was GTA 4 angeht, das Game ist mehr als mies von Konsole portiert und extrem CPU-lastig, vielleicht das CPU-lastigste überhaupt, wobei es ohnedies vielleicht maximal noch 5 Spiele gibt, welche überhaupt mehr CPU- als GPU-lastig sind. Jedenfalls ist GTA 4 als Anhaltspunkt für die Leistungsfähigkeit einer Grafikkarte meiner Ansicht nach alleine aus diesem Grund schon völlig ungeeignet.

Desweiteren hältst du dich ja für solcher Art "Weise", da du dich zum Kauf eines Quad 6600 damals entschlossen hattest. Dabei solltest du nicht vergessen, daß die wenigsten Quad 6600 eine Übertaktung bis 3,6 GHz zulassen. Du hast also durchaus auch einiges Glück gehabt, was sowieso auch bei Übertaktung von Hardware grundsätzlich dazu gehört, denn jede CPU ist anders und vor allem hängt die Übertaktung dann vor allem noch vom Gesamtzusammenspiel der sonstigen Hardware ab bzw. dem Harmonischen Zusammenspiel mit den restlichen Komponenten.

Du magst mit deinem Quad gerne auf Platz 4 von was weiß ich welche Liste stehen. Das ändert aber nichts an der Tatsache, daß der Quad in Spielen nunmal bis dato mehr als mies ausgelastet bzw. ausgenutzt wird. Es ändert schon gar nichts daran, daß ein C2D 8500 in Spielen - bis auf die besagten 5 Games welche eben CPU-lastig sind und zu denen auch GTA 4 gehört - grundsätzlich für Spiele besser geeignet ist, als ein Quad 6600.

Weiter schreibst du etwas von "Aufgrund der enormen Verbreitung von Cuda/PhysX", von welcher enormen Verbreitung sprichst du da? Es gibt maximal eine handvoll Spiele, die PhysX nutzen. Und ganz ehrlich, der Nutzen in Spielen mit PhysX ist in meinen Augen geradezu lächerlich, z. B. für das bißchen Rauch etc. in Batman Arkham Asylum, der Performanceverlust in Relation hierzu ist geradezu ein Witz!

@ All

Für mich Persönlich ist die Radeon 5850 auf jeden Fall weit attraktiver als die Geforce 470, von der 480 ganz zu Schweigen. Meiner Meinung nach haben die Thermis zwar sehr wohl Potenzial, doch wird dieses durch das rabiat verheerende Verhältnis von Performance / Lautstärke / Stromverbrauch geradezu in den Orkus befördert.

Für mich sieht es so aus, wie wenn Nvidia regelrecht mit der Brechstange an der Radeon 5850 /5870 vorbeiziehen wollte und dabei die Lautstärke und vor allem den Stromverbrauch aus dem Auge verloren hat. Insbesondere der exorbitante Stromverbrauch ist meiner Ansicht nach unverzeihlich, zumal die Strompreise sicher nicht sinken werden.

Da ich mit meiner im Profil aufgeführten Geforce 8800 GTS 640 nach wie vor noch alle Games flüssig Spielen kann, werde ich wohl noch weiter Warten, bis eine Karte kommt, die wirklich stimmig im Verhältnis von Performance / Stromverbrauch und Lautstärke ist.

So long.....
 
Zuletzt bearbeitet:
Oh man der selbe scheiss wie bei der GTX480 , ok die GTX470 ist etwas sparsamer dafür aber auch deutlich langsamer als die GTX480 .
 
KainerM schrieb:
In diesem Sinne: freut euch das Fermi nicht das wurde, was Nvidia wollte - jetzt wird die nächste Generation mehr Liebe bekommen und so vielleicht den gesamten Markt nach vorne schubsen. Und wie schnell das gehen kann hat der RV670 gezeigt, nur 6 Monate nach dem R600 - Debakel kam eine schon deutlich bessere Generation.

Das Problem ist nur, in welchem Prozess fertigt man eben diese "neue" Generation? Ein Teildebakel ist ja im Moment die 40nm Fertigung, 32nm sollen übersprungen werden und die 28nm Fertigung ist noch absolut nicht Spruchreif.

Das 40nm Fermi Design ist ne, gelinde gesagt, Katastrophe allerdings gibt es im Moment keinerlei Ausweichmöglichkeiten und von vorne Weg sagen n Shrink auf 28nm sei der Heilsbringer ist sehr gewagt. Hier kann es eben so gut der Fall sein, für Nvidia wie auch ATI, dass das Komplette Design überarbeitet werden muss, neue Fehlerquellen sich auftun oder Dinge Probleme bereiten die keiner vorhersehen konnte.

Von daher ist die Annahme 6 Monate bis Refresh bei der jetzigen Technik sehr gewagt.
Zudem war der R600 eine Ausnahme sondergleichen. Basisentwicklung Seitens ATI, vor Release Übernahme durch AMD und erst ab diesem Zeitpunkt flossen die Fertigungs- und Designkenntnisse von AMD mit ein.
Es gab da mal einen netten Bericht drüber wie erstaunt die ATI Ingenieure waren als sie von den AMD Ingenieuren gezeigt bekamen, was man mit Silizium alles anstellen kann. :D

Und eher das war der Grund dafür, dass man mit der HD38x0 Serie sehr schnell wieder aufschließen konnte. Man bedenke dies waren die ersten Karten welche weitreichende Stromsparfeatures mitbrachten und wer die Grundlage dafür gelegt hat dürfte sicher auch klar sein, ATI war´s nicht ;)
 
wadenbeisser schrieb:
Die letzte Grafikkarte die ich mir für zukünftige spiele gekauft hatte war die Geforce 3 und das Spiel war Doom 3, weil die GF3 ja auch so gut damit laufen sollte

Wegen dem Spiel hab ich meine G3Ti500 gegen ne X850 getauscht, vorher halb durcggespielt auf 800x600 und low details, weil damals ATI etwas länger gebraucht hat :D


Das_W schrieb:
ist halt auch nur die halbe Warheit, oder glaubst du ernsthaft, dass da ~300 Amper im Einsatz sind :D .

hmmm.... Spawas?

CPUs laufen auch mit irgendwas um 1,2V und verbrauchen 120W...:freaky:

Antimon schrieb:
Es gab da mal einen netten Bericht drüber wie erstaunt die ATI Ingenieure waren als sie von den AMD Ingenieuren gezeigt bekamen, was man mit Silizium alles anstellen kann. :D

Link Bitte! Danke!

(nicht mehr finden zählt nicht)
 
Zuletzt bearbeitet:
War doch zu erwarten das die GTX 480 mit weniger Takt sprich GTX 470 da nichts mehr retten kann. Wenn Ati jetzt die nächste Kartengeneration nicht ins Wasser wirft und Fermi 2.0 raus bringt sollten sie Konkurrenzfähig bleiben.
 
@KAOZNAKE: Falls dieser Bericht z.B drei Jahre alt sein sollte, würde es schwer sein diesen wieder zu finden. Falls es den jemals gegeben haben sollte.

Ist ja nicht jeder wie du, der sich die Links ausm Ärmel schüttelt. :)
 
Zurück
Oben