Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
@spam23 hast schon recht... die FPS-Krone geht hin und her aber Spiele wie GTA4 (crysis) laufen immer noch nicht rund darauf können wir Jahre warten...
@cbmik ^^ wir reden über eine GX2, da muss ich doch nicht immer wieder wiederholen
Sind sie nicht, der G80 war ein Stromfresser, G92 war etwas besser und der G200 frisst wieder ordentlich, dank der Transistorenanzahl...
Die GTX280 z.B. mag zwar im Idle etwas besser sein, was aber an dem fehlerhaften Powerplay im Treiber der HD4xxx liegt, unter Last wiederum dreht sich das ganze und die GTX brutzelt wieder mehr weg.
nothe schrieb:
Mir persönlich ist es eigentlich erst mal egal obs nun wieder eine Sandwichkarte wird oder wie bei ATI alles auf einem PCB Platz findet. Bei ATI kommunizieren die Chips auch nur über ein internes Crossfire und bisher konnte ich keinen Vorteil daran erkennen alles auf ein PCB zu platzieren.....
Die ATi Karten lassen sich mit der weise deutlich besser kühlen als diese Sandwichmethode, da dort ein Hotspot entsteht
Ich schätze das nvidia zu der Sandwichmethode greifen muss, da die Karte sonst viel zu lang wird und in kaum ein erhältliches Gehäuse passen würde. Irgendwo muss ja Platz gemacht werden.
Und genau das habe ich mir auch gerade vorgestellt. Die normale GTX ist ja schon so lang wie ..., aber jetzt noch eine, die auch noch ein gutes Stück dicker ist. Oha. Ich bin gespannt.
Aber im Prinzip war das abzusehen, dass NVidia auf diese Weise kontert.
Und das die 4870 trotz geringerer Leistung wesentlich beliebter ist als die GTX280 bzw. GTX260 liegt bestimmt nicht nur am Preis sondern auch am Stromverbrauch.
Die HD4870 verkauft sich besser, weil sie bei fast gleicher Leistung einfach billiger ist. Punkt.
Turbostaat schrieb:
Die GTX280 z.B. mag zwar im Idle etwas besser sein, was aber an dem fehlerhaften Powerplay im Treiber der HD4xxx liegt, unter Last wiederum dreht sich das ganze und die GTX brutzelt wieder mehr weg.
>>HIER<< mal lesen. Die GTX 280 braucht in Idle 30W weniger, bei Last dafür 30W mehr. Aber in welchem Verhältnis steht Idle zu Last bei den meisten? -> Punkt für Nvidia
aber hallo "sparsamer"
Der G200 der GTX 260 braucht weniger als ein R770, sowohl unter Last und vorallem auch in Idle.
G200b dürfte weniger brauchen - der G200 ist also nicht umsonst noch effizienter als ein R770. Zudem skaliert SLI meist besser. Ich sehe keinen Grund wieso eine GTX 295 nicht gekauft werden sollte, abgesehen von Microrucklern und Stromverbrauch, die eine 4870 X2 jedoch genauso haben und vermutlich noch mehr verbraucht bei wneiger Leistung
cool! was kostet der spass dann? wir das auf der vorstellung veröffentlicht? und ist damit zu rechnen dass das dann der neue stern am zocker himmel ist?
.... >>HIER<< mal lesen. Die GTX 280 braucht in Idle 30W weniger, bei Last dafür 30W mehr. Aber in welchem Verhältnis steht Idle zu Last bei den meisten? -> Punkt für Nvidia
Na aber sicher doch, die 4870 hängt so oft an der Arschbacke der GTX280, manchmal sogar schneller. Manchmal aber auch langsamer, es kommt halt immer darauf an inwieweit das Spiel auf nvidia optimiert wurde...
Und ganz ehrlich ob F.E.A.R. mit 250 fps (GTX) läuft oder "nur" 210fps in 1600x1200 bei der HD4870, ist sowas von egal.
Du meinst mit dem neuen optimierten nvidia Treiber der genau bei 5 Spielen ansetzt und wo ATi noch mit dem im Dezember erscheinenden 8.12 nur nachziehen muss.
Ja das war ganz großes Kino und was es sich damit auf sich hat(te) sollte eigentich jedem bekannt sein.... aber offensichtlich hat es sich bis zu dir wohl nicht rumgesprochen.
Na da binn ich mal gespannt schade das die GTX295 warscheinlich auf 2PCbs basieren wird da wird die Wakü wieder teuer dafür.
Das mit den taktraten die heruntergeschraubt werden ist auch nicht so toll hoffe ja immernoch das dem nicht der Fall sein wird, der Preis wird auch sehr interesant wenn die leistung unterhalb von 2GTX260 liegen sollte hoffe ich das der Preis das auch sein wird.
Der Jannuar wird sehr interesant.
@Turbostaat an einem treiberfehler liegt glaube ich das fehlen des Powerplay bestimmt nicht sonnst hätte AMD dann schon implementieren können nach den Treibern die schon erschienen sind. Ist wie bei der 8800GTX es geht einfach nicht auch wenn mann es selber machen kann ich möchte eine Grafikkarte die das gleich kann. Die Asus Matrix Modelle könnten die Hilfe sein wenn auch zu einem hohen Preis.
Bekannter hat 2x8800GT`s, Microruckler deutlich sichtbar. Dann wurde eine 4870 X2 getestet, selbst bei 24-30fps (Crysis auf DX10, Ultra Detail, 1900er Auflösung) nicht sichtbar.
Die kommende Dual 260er ist viel zu spät dran, bis die lieferbar ist und irgend ein Hersteller eine gute Kühlvariante anbietet (die Standart kann man wohl selbst wenn 0 Infos darüber bekannt sind vergessen) vergehen noch mindestens 3-4 Monate, da stehen schon die neuen Karten von den 2 Firmen in den Startlöchern. Alles nur PR-Schrott.....
Also wenn die Taktraten gesenkt werden, wird sie doch nur unwesentlich die X2 4870 schlage können. Zudem funktioniert bei der X2 von AMD ja auch das IDLE-Runtertakten, so dass sie genau so viel wie eine 4870 im IDLE verbraucht. Da muss Nvidia erstmal ran kommen.
Oha der Nvidiaverfächter.
Und das die 4870 trotz geringerer Leistung wesentlich beliebter ist als die GTX280 bzw. GTX260 liegt bestimmt nicht nur am Preis sondern auch am Stromverbrauch.
Ossi94 nichts für ungut aber woher hast du die stumpfsinnige Behauptung, dass Nvidiakarten weniger verbrauchen? Wo steht denn das bitte?
Und 2. Warum soll die Karte denn so viel besser sein? Das sind lediglich 2 mal GTX 260 mit 216 Shadern und die auch noch runtertetaktet aufgrund von Hitzeproblemen schätz ich mal. Ob die Nvidia Graffikarten besser Skalieren in SLI lass ich mal dahingestellt, das weis ich nämlich selber nicht. Das einzig blöde an der Karte ist, dass sie das gleiche Design anwenden, was schon bei der 9800 GX2 nichts gebracht hat und auch bei der 7950 GX2. Und es wird auch nie was bringen, weil es von Prinzip her total behindert ist. Man kann aufeinandergestapelte Karten nunmal nicht effektiv kühlen, weil sie sich beide gegenseitig erhitzen. Da sollten die echt was verbessern. Mit dem ATi Design (2 Chips auf einem PCB) könnten die schonmal die Hitzeprobleme lösen und auch mit vollem Takt laufen lassen. Dann wärs ne "geile" Karte.
Daher ein Flop wie eh und je, siehe 9800 GX2 und 7950 GX2. Und vom Preis wollen wir erst gar nicht reden.. Der wird mit Sicherheit jenseits von Vernunft liegen..
Das ist auch eine Art, die Microruckler zu bekämpfen: man streicht das X2 aus dem Namen. Eine Kunden werden sicher glauben, dass sie das (überbewertete) Problem so vermeiden.
Nachdem die gtx260 und die HD4870 praktisch gleich schnell sind dürfte das gleiche auch für die X2-Karten (oder wie man die nennt) gelten. Der Test wird interessant, auch wenn das Ergebnis mehr was über die SLI vs. Crossfire Unterstützung der Software aussagt und extrem von der Treiber-Version abhängen wird. Aber das ist ja auch ein spannendes Thema.