Test Test: Nvidia GeForce GTX 470

Schade, dass die Fermis für den Einsatz in Home-PCs weniger geeignet sind. Kleinere Ableger für den Mainstream wird es ja wohl auch nicht in absehbarer Zeit geben.

Für mich ist der Alltagsnutzen entscheidend. Tesselation hin oder her, zur Zeit kann man drauf verzichten. Wenn Tesselation wirklich wichtig wird, reicht die Performance der Karte wahrscheinlich nicht mehr aus (in Bezug auf Leistungsaufnahme und Geräuschentwicklung). Wären die Karten schon 2009 auf den Markt gekommen und verfügbar gewesen ...


grüße
 
Welche CPU wird den empfohlen um die GTX480; HD5870 oder sogar die HD5970 zu betreiben?

Mit freundlichen Grüßen

Stefan1207
 
@ DvP


Zitat:
Zitat von Finsterkatze Beitrag anzeigen
du verwechselst da was. Hab nicht von "braucht keiner "geschrieben, sondern davon das genug Leistung da ist ohne 2.graka für Physx
Leider stimmt nicht mal das. Und da muss ichs jetzt auch mal sagen -> Fail!

"PhysX – Eye Candy! This is what we all want to see when playing video games, glass that breaks like glass, materials that shred with realism, walls that break into a million pieces when blown up, fog that surrounds you and parts as you walk by. With the PhysX apexes this is all possible and you can only get it using an NVIDIA GeForce Video Card. The games benchmarked all used different PhysX Apexes, such as destruction, clothing and turbulence. It made game play more realistic. The GTX 480 with all PhysX set to high (except for Dark Void) benchmarked with acceptable, playable frame rates."

Quelle: http://www.hitechlegion.com/reviews/...view?showall=1

LOL die GTX 480 schafft Dark Void mit PhysX high auch nicht mit spielbaren Frameraten


Was ich damit meinte: Es ist genug Leistung da für die Physik-Effekte , nicht für "PhysX" von Nvidia..

mfg
 
Stefan1207 schrieb:
Welche CPU wird den empfohlen um die GTX480; HD5870 oder sogar die HD5970 zu betreiben?

Ich würde nen Phenom II X4 955 empfehlen.
Mehr ist unnötig Geldverschwendung meiner Meinung nach.
 
Ich auch, der ist beim zocken so schnell bzw. langsam wie alle in der kategorie spiele, da macht auch ein core i7 mit 6 kernen net mehr...
 
gremlinkek schrieb:
hier ein weiterer test : http://www.hardwarecanucks.com/forum...review-11.html
....und wer jetzt denkt die 2GB version ist schneller, nein ist sie nicht die Hd5870 Toxic karte ist von haus aus übertaktet

Hast du den Anandtech Test angeschaut? Du hast behauptet, dass die 2GB nirgends was bringen. Das ist falsch, was anderes hab ich auch nicht gesagt.


Hier zur Sicherheit nochmal deine Aussage:

gremlinkek schrieb:
Das ist wunschdenken und absoluter BUllshit den du da schreibst !
Die 2GB version bringt nichts aber auch gar nichts an Frames , die karte wird sogar gebremst egal in welcher einstellung !!!

Jetzt setze ich das Bild mal rein um sicher zu gehen, dass du es siehst:

22281.png


Takte sind übrigens gleich! Noch einer, sind aber "nur" ca. 15% Leistungszuwachs: http://images.anandtech.com/graphs/5870e6_033110003509/22288.png

Finsterkatze schrieb:
Was ich damit meinte: Es ist genug Leistung da für die Physik-Effekte , nicht für "PhysX" von Nvidia..

Und für welche GPU Physikberechnungen ist sie dann schnell genug wenn du PhysX ausschließt?


@ ALL
Noch was interessantes: nVidia schafft es nicht und bringt keinen OpenGL 4.0 Support zum Launch der GTX4X0 Karten. Wortlos und kommentarlos übrigens.
Angeblich gibts in der ersten Woche weltweit 8.000 Fermi Karten, nicht mehr: http://semiaccurate.com/2010/04/08/nvidia-misses-gtx470480-launch-targets/


@ CB
Geschichten aus der Nvidia Mafiosi Familie
= Link!
Das ist der Blog von einem renomierten österreichischen Hardwarehändler, der versucht hatte nVidia GTX 4X0 Karten einzukaufen!!! Genau wie Charlie am 23.3 schon vorrausgesagt hat: LINK!
 
Zuletzt bearbeitet:
dann guck dir mal die auflösung an....

kaum einer besitzt einer einen TFT mit dieser auflösung
 
Ich für meinen Teil werde der GTX280 erstmal treu bleiben. Auch wenn jeder sagt, dass Physx nichts besonderes ist. So hatte ich schon 2-3 Spiele in letzter Zeit erlebt, wo ich das Feature einschalten konnte und bemerken durfte, dass es da sehr wohl unterschiede gibt. Und für mich ist das derzeit der Auschlaggebende Punkt, nicht auf eine ATI Karte zu wechseln.

Die neuen Nvidia Karten verbrauchen zuviel Strom und sind zu laut. Also lohnt es sich einfach auf das nächste Refresh abzuwarten. Ich denke mal meine GTX 280 wird bist zum nächsten GTX 470er Refresh oder deren nächste Generation aushalten können. Zumal ich eh nicht wirklich den Sinn sehe, jetzt eine neue GK zu kaufen, da die meisten Games bisher alle bei mir in Full HD superflüssig laufen. 2xAA+16x dingens ist immer drin. Ausgenommen Crysis oder GTA4,, aber das sind in der Masse an Produkten der letzten Zeit gesehen, eigentlich nur kleine Ausreisser. Zumal heute eh nur noch von Xbox und PS3 portiert wird, ist es Gottlob eh nicht mehr unbedingt so notwendig auf den nächsten Zug der moderneren Grafikkarten aufzuspringen. Schont zumindest meinen Geldbeutel ;-)
 
gremlinkek schrieb:
Die 2GB version bringt nichts aber auch gar nichts an Frames , die karte wird sogar gebremst egal in welcher einstellung !!!

DvP schrieb:
Hast du den Anandtech Test angeschaut? Du hast behauptet, dass die 2GB nirgends was bringen. Das ist falsch, was anderes hab ich auch nicht gesagt.

s4pph1r3 schrieb:
dann guck dir mal die auflösung an....
kaum einer besitzt einer einen TFT mit dieser auflösung

Lesen hilft, vor allem beim Diskutieren ;)
 
Den ganzen Thread lesen oder die Benches der Eyfinity 6 (die an Daten nicht mehr bietet als 2GB) bei Anandtech anzusehen, war wohl zu viel Arbeit. Sonst wüsstest du, dass diese superpauschale Aussage einfach falsch ist.
Lass es, die Zeit wird ihr Lehrer sein und sie genauso abstrafen wie die dualcore und 512MB Karten Verfechter der letzten Jahre. Aber sagt nicht wir hätten euch nicht gewarnt. :evillol:


Echt Schade, wäre wohl doch besser für Nvidia gewesen damals mit intel zu fusionieren.
Ich kann zwar Nvidia voll verstehen, doch jetzt sieht man die Kehrseite der Medaille.

Danke Nvidia für den Linux Treiber! Da sieht man wer Qualität nicht nur versteht, sondern auch liebt.
Verschreie es nicht, der Kurs von NV könnte jetzt nach unten gehen und Intel hat immer noch Geld wie Heu, die kaufen dann mal nebenbei das kleine NV und basteln dann ION; Tegra und co. in ihre CPUs. Das währe die perfekte Konkurrenz für den Bulldozer von AMD, also hoffen wir mal das Intel hier nicht die Gunst der Stunde nutzt...
 
Zuletzt bearbeitet:
Nvidia war schon immer ein Stehaufmännchen. Haben sie doch damals 3DFX locker kaufen können. Und in den neuen Generation von GPU´s reichen sich beide ständig die Hände. Einmal ist der eine vorn, dann der andere. De Rythmuss wird seit Jahren einbehalten.
Nvidia hat jetzt eine neue Generation gebracht die noch nicht perfekt ist. Zu Laut zu Stromfressend, nur wenn die das bald in Griff haben, hoffe ich dass Ati dagegen was in Petto hat. Ansonsten heisst es dann wieder, Ati schlecht, Nvidia=Guru. Dann 2 Jahre später ists wieder umgekehrt. Also wer das in all den Jahren nicht mitbekommen hat und dadurch nicht in die Glaskugel schauen kann ;-)
 
Zuletzt bearbeitet:
Wir werden alle Glücklich! guck mal, der Publisher, AMD, ATI denken ja auch so über uns. >Es ist nicht genug das wir 100erte von Euronen in die Hardware stecken,,, NEIN, wir sollen auch noch klein bei geben und deren Kostenvolle Systeme nutzen. Sprich, wenn überhaupt, musst du mal immer on sein, dann kann man über alles andere reden *ggg* verkehrte Welt irgendwie. 4 Players macht das genau richtig, sie fangen inzwischen an Brettspiele zu testen. löl.. Sarkassmuss off, aber das die das teste ist tatsächlich so,,,...
 
Zuletzt bearbeitet:
ich stelle mir gerade die frage, was nvidia eigentlich gemacht hat.
Sie hatten mit dem G80 einen super chip, den sie bis zum erbrechen wiedergekaut wurde (G92, G92b, G200, etc) und dieser firma Jahre (!!!!!) zum entwicklen eines komplett neuen chips gegeben hat und dann kommt soetwas heraus.

Viel zu laut, viel hoher stromverbrauch, viel zu teuer, schlechte yields-rate. einfach ein griff ins klo.
 
HFkami schrieb:
3D Vision... und SLI Test fehlt auch gänzlich. Danke CB das ich wiedermal mal mein Geld verschwenden kann und selber sehen muss was für mich funktioniert.

du kannst ja gerne dein Geld zusmmenkratzen und eine der gut verfügbaren Karten an CB schicken...
 
Vertue dich da mal nicht. Aus der Generation wird noch was. Leider erstmal jetzt nicht.
Die G8xxx Generation hatte auch Vorläufer wo jeder das grauen in Person kennen gelernt hat. Dann kamen aufeinamal aus der frischen Technik die 8800Gtx 8800Gts und jeder schrie Boar, will haben. Ich gebe Nvidia 1 Jahr und keiner schreit mehr nach den Verlust von heute. Das ist so sicher wie das Armen in der Kirche. Ich hoffe nur, das Ati zwecks Cuda und Physx was im petto hat, denn wenn nicht, kann es schwer werden, schnellere Karten ohne diese Funktionen zu rechtfertigen.

Ok, bei Cuda kann man noch ein Auge zudrücken,, aber etwas Physx Kompatibles muss her, zumal jetzt immer mehr Games rauskommen, die das unterstürtzen werden.

Es bleibt halt spannend... Nur das man sich heute beruhigt zurück lehnen kann, da eh die meisten games von der PS3 und Xbox portiert werden. Das heisst, dass ein Upgrade in den heutigen Tagen mal nicht absolut notwendig ist... ausser man hat eine vertagte 8800gts oder noch ältere Karte.

Also invistiert man dieses Jahr in leckere CPU´´s und schaut halt nächstes Jahr weiter, was der Grafikkartenmarkt so bringt. Obwohl CPUs, naja, wer da halbwegs auf den laufenden ist, brauch noch nichtmal da Upgraden. ALso ist doch echt mal ein schöner Urlaub für das Geld angesagt *g*
 
Zuletzt bearbeitet:
der G80 war ne komplett neue Architektur, genau wie jetzt der GF100.

Was aber nicht bedeuten muss, dass es in zukunft potente refreshes gibt. Siehe AMD was sie aus der stromfressenden und lauten R600 Architektur raus geholt haben. Den effizientesten Grafikchip auf dem Markt, den Cypress.


gruß
 
Nvidia hat ja nur Probleme mit den Schrinks. Wenn das der GPU Hersteller in Griff Kriegt und die den 100er mal komplett nach Norm produzieren, ohne abgestellte Einheiten, dürfte ATI deutliche Probleme kriegen. Vorteil: die neuen Ati Karten werden wie immer, zu diesen Situationen günstiger.

Aber mal abwarten was kommt.

Wie gesagt, ich habe noch kein Jahr erlebt, wie dieses, wo ein Grafikkartenupgrade mal nicht notwendig ist. Ich denke mal, das wird ein richtiger Preiskampf erleben werden, wovon wir nur profitieren werden. Ich hoffe nur, dass die sich nicht soweit ausboten, bis einer pleite ist,, das riecht meiner meinung danach.
 
Zuletzt bearbeitet:
Zurück
Oben