4870 oder gtx260 ideal für mein system?

Ich seh' die Vorteile nicht so klar, bei vielen Tests dominiert die 260, nur eben nicht bei 8AA, was man bei hohen Auflösungen eh nicht benutzen kann.
Außerdem hat die 4870 einen exorbitant hohen Stromverbrauch im Bereich der 280, Hitze und Lautstärke sind noch nicht wirklich bekannt. Und nicht zu vergessen die Übertaktbarkeit, die 260 könnte durch Übertaktung nahe an die 280 kommen, wie die 4870 geht weiß man noch nicht. Dazu noch PhysX Unterstützung, was mit Havok ist weiß auch noch keiner.
Warten wir mal den CB Test ab, bisher gehen meine Sympatien eher in Richtung 260, wenn der Preis sich noch anpassen wird.
 
Der 8.6er Catalyst soll einen Bug haben der die Chipspannung viel zu hoch ansetzt .

Habe ich gehört^^

Mit dem 8.7 beta sinkt bei der HD4850 der Idle-Verbrauch auf 11 Watt , am Load soll sich auch was ändern

"Dies ist ganz einfach zu beantworten. ATI hat bezüglich der Stromsparmechanismen mit den 8.6 Cat Mist gebaut. Dadurch verbrauchen Sie wesentlich mehr als Sie eigentlich tun sollen. Inzwischen gibt es die Beta Cat 8.7 im Netz. Bei Verwendung dieser wird nun die Spannung auf die richtigen Werte gesenkt und der Verbrauch unter Idle fällt auf 11 Watt und unter Last auf knapp 160 Watt. NVidia verbraucht aber mit der GTX 280 bis zu 236 Watt."
 
Jo, dann packen wir mal PhysX aus... Nachdem wir es gefunden haben... Na wo isses denn?

Ah ja, die UE3. Aber die läuft auch ohne, wenn man nicht grad Demo-Level spielt.

Je nachdem, wie man testet, kommt die HD4870 sogar fast an die GTX 280 ran.
http://www.tomshardware.com/de/HD-4870-Radeon-ATi-RV770,testberichte-240071-21.html

Die Leistung der GTX 260 liegt zwischen HD4850 und HD4870. Also sollte der Preis da auch liegen.
 
@Lar337:
Ah ja, die UE3. Aber die läuft auch ohne, wenn man nicht grad Demo-Level spielt.
so kann man aber auch nicht argumentieren. crysis läuft ja auch ohne dx10 und aoc läuft ohne aa und ac kann man auch ohne af spielen. sind deshalb alle diese techniken überflüssig? ich denke schon dass physix ne daseinsberechtigung hat und über kurz oder lang kommen wird. ob sich nun havok oder agaia durchsetzt weis noch keiner aber ich vermute dass eins davon mal genauso selbstverständlich sein wird wie aa. allerdings rechne ich bei ati ab der hd5k auch mit physikbeschleunigung. welcher standart das dann sein wird, wird sich zeigen. ati kanns sich ja frei aussuchen ;)
 
Der Nachfolger von Havoc wird sich, denke ich mal, auch gut etablieren. Die Spieleentickler kamen schließlich gut mit dem Vorgänger klar und haben gute Erfahrungen schon erlangt.

Havoc ist einfacher als dieses PhysiX zu implementieren - warum soll es dann auch nicht besser sein?
 
Laut dem hier hat AMD sich die Lizenz für Physx bereits gesichert - soll so viel heißen, dass es, falls es sich bewahrheitet, per Treiber nachgerüstet werden kann.

Das würde demnach bedeuten, dass AMD Havok als auch Physx unterstützt - ich lass das mal unkommentiert, um unyu nicht aufzuregen ;)
 
Lübke schrieb:
hm spricht dann eher dafür, dass sich physx durchsetzen wird, da es dann von allen karten unterstützt würde... interessante entwicklung :)

.. oder nVidia kauft auch eine Lizenz für Havok.

Commander Alex schrieb:
Gibt es schon Infos wann Physxtreiber für ATI rauskommen?

Es ist ein Gerücht. Und wenn es sich bewahrheitet, wird das auch ein wenig dauern. Nvidia hat seinen Physx-Treiber auch nicht aus dem Ärmel gezogen.
 
@Commander Alex: ati fängt doch grad erst an. die werden wohl kaum jetzt schon wissen, wie lange die entwicklung dauern wird... hab doch ma n bisschen gedult ;)

mit #34 bin ich deiner meinung. nv wäre ja schön blöd, die konkurrenz zu fördern :D und wir alle wissen ja wie gut sich intel und nv verstehen :stock:
 
Ich hoffe auch stark das PhysX sich gegenüber Havok durchsetzt!

zum thema: Nimm die 4870 und kauf dir von den gesparten 50€ ein neues Spiel und teste sie gleich aus^^
 
Wo ist die Havokspieleliste?
icon7.gif


Commander Alex
D3D10.1 war nicht AMDs Erfindung. :rolleyes: Wo bleibst eigentlich AMDs Entwicklersupport für .1?
Das es MS verbockt hat ist mit D3D11 eh Geschichte, jetzt brauchen wir eh erst mal Leistung für D3D9.
 
Zurück
Oben