News Aus Dual-GPU-GeForce GTX 260 GX2 wird GTX 295

Unyu schrieb:
Oh Herr towa, auf der Packung steht oft mehr als nur der Name der Karte.

Klar auf der Packung, wenn man denn eine Sieht..... :rolleyes:

@ch33rio
Mit aber nur unter 30fps.... wie bei allen anderen auch ;)
 
Zuletzt bearbeitet:
@spam23 hast schon recht... die FPS-Krone geht hin und her aber Spiele wie GTA4 (crysis) laufen immer noch nicht rund darauf können wir Jahre warten...

@cbmik ^^ wir reden über eine GX2, da muss ich doch nicht immer wieder wiederholen:freak:
 
Zuletzt bearbeitet:
Ossi94 schrieb:
@AkShen Du weisst schon dass die Nvidia Karten dieses jahr "viel" sparsamer sind... oder??

Sind sie nicht, der G80 war ein Stromfresser, G92 war etwas besser und der G200 frisst wieder ordentlich, dank der Transistorenanzahl... :rolleyes:

Die GTX280 z.B. mag zwar im Idle etwas besser sein, was aber an dem fehlerhaften Powerplay im Treiber der HD4xxx liegt, unter Last wiederum dreht sich das ganze und die GTX brutzelt wieder mehr weg.

nothe schrieb:
Mir persönlich ist es eigentlich erst mal egal obs nun wieder eine Sandwichkarte wird oder wie bei ATI alles auf einem PCB Platz findet. Bei ATI kommunizieren die Chips auch nur über ein internes Crossfire und bisher konnte ich keinen Vorteil daran erkennen alles auf ein PCB zu platzieren.....

Die ATi Karten lassen sich mit der weise deutlich besser kühlen als diese Sandwichmethode, da dort ein Hotspot entsteht
Ich schätze das nvidia zu der Sandwichmethode greifen muss, da die Karte sonst viel zu lang wird und in kaum ein erhältliches Gehäuse passen würde. Irgendwo muss ja Platz gemacht werden.
 
Und genau das habe ich mir auch gerade vorgestellt. Die normale GTX ist ja schon so lang wie ..., aber jetzt noch eine, die auch noch ein gutes Stück dicker ist. Oha. Ich bin gespannt.

Aber im Prinzip war das abzusehen, dass NVidia auf diese Weise kontert.
 
AkShen schrieb:
Und das die 4870 trotz geringerer Leistung wesentlich beliebter ist als die GTX280 bzw. GTX260 liegt bestimmt nicht nur am Preis sondern auch am Stromverbrauch.
Die HD4870 verkauft sich besser, weil sie bei fast gleicher Leistung einfach billiger ist. Punkt.

Turbostaat schrieb:
Die GTX280 z.B. mag zwar im Idle etwas besser sein, was aber an dem fehlerhaften Powerplay im Treiber der HD4xxx liegt, unter Last wiederum dreht sich das ganze und die GTX brutzelt wieder mehr weg.
>>HIER<< mal lesen. Die GTX 280 braucht in Idle 30W weniger, bei Last dafür 30W mehr. Aber in welchem Verhältnis steht Idle zu Last bei den meisten? -> Punkt für Nvidia
 
Zuletzt bearbeitet:
cbmik schrieb:
?? Sparsamer als was? Eine alte Mikrowelle, ein E-Herd, ... ?? :lol:

aber hallo "sparsamer" ;)
Der G200 der GTX 260 braucht weniger als ein R770, sowohl unter Last und vorallem auch in Idle.
G200b dürfte weniger brauchen - der G200 ist also nicht umsonst noch effizienter als ein R770. Zudem skaliert SLI meist besser. Ich sehe keinen Grund wieso eine GTX 295 nicht gekauft werden sollte, abgesehen von Microrucklern und Stromverbrauch, die eine 4870 X2 jedoch genauso haben und vermutlich noch mehr verbraucht bei wneiger Leistung ;)
 
@Turbosalaat die GTX 260 ist auch unter last "sparsamer" und eine GTX 280 kann man nicht mir einer
HD4870 vergleichen:rolleyes:
 
Sgt.Speirs schrieb:
Die GTX 280 braucht in Idle 30W weniger, bei Last dafür 30W mehr. Aber in welchem Verhältnis steht Idle zu Last bei den meisten? -> Punkt für Nvidia

Wenn man nicht dazu in der Lage ist, die Karte selber herunterzutakten, hast du Recht.
 
cool! was kostet der spass dann? wir das auf der vorstellung veröffentlicht? und ist damit zu rechnen dass das dann der neue stern am zocker himmel ist? ;)
 
Sgt.Speirs schrieb:
....
>>HIER<< mal lesen. Die GTX 280 braucht in Idle 30W weniger, bei Last dafür 30W mehr. Aber in welchem Verhältnis steht Idle zu Last bei den meisten? -> Punkt für Nvidia
Daher auch der Hinweis mit dem Treiberproblem... :) Zumal man auch selber die Karte runtertakten kann und somit den Verbrauch drosselt.

Ossi94 schrieb:
@Turbosalaat die GTX 260 ist auch unter last "sparsamer" und eine GTX 280 kann man nicht mir einer
HD4870 vergleichen:rolleyes:

Na aber sicher doch, die 4870 hängt so oft an der Arschbacke der GTX280, manchmal sogar schneller. Manchmal aber auch langsamer, es kommt halt immer darauf an inwieweit das Spiel auf nvidia optimiert wurde... :rolleyes:

Und ganz ehrlich ob F.E.A.R. mit 250 fps (GTX) läuft oder "nur" 210fps in 1600x1200 bei der HD4870, ist sowas von egal.
 
Ok die Karten sind gleichwertig...

Aber wer sich ein Over-High-End-System kauft denkt doch net an die Stromkosten...

@Turbosalaat

Da sagen die letzen Benchmarks was anderes:D
 
Ossi94 schrieb:
....

@Turbosalaat

Da sagen die letzen Benchmarks was anderes:D
Du meinst mit dem neuen optimierten nvidia Treiber der genau bei 5 Spielen ansetzt und wo ATi noch mit dem im Dezember erscheinenden 8.12 nur nachziehen muss.
Ja das war ganz großes Kino und was es sich damit auf sich hat(te) sollte eigentich jedem bekannt sein.... aber offensichtlich hat es sich bis zu dir wohl nicht rumgesprochen. :freak:
 
Na da binn ich mal gespannt schade das die GTX295 warscheinlich auf 2PCbs basieren wird da wird die Wakü wieder teuer dafür.

Das mit den taktraten die heruntergeschraubt werden ist auch nicht so toll hoffe ja immernoch das dem nicht der Fall sein wird, der Preis wird auch sehr interesant wenn die leistung unterhalb von 2GTX260 liegen sollte hoffe ich das der Preis das auch sein wird.

Der Jannuar wird sehr interesant.


@Turbostaat an einem treiberfehler liegt glaube ich das fehlen des Powerplay bestimmt nicht sonnst hätte AMD dann schon implementieren können nach den Treibern die schon erschienen sind. Ist wie bei der 8800GTX es geht einfach nicht auch wenn mann es selber machen kann ich möchte eine Grafikkarte die das gleich kann. Die Asus Matrix Modelle könnten die Hilfe sein wenn auch zu einem hohen Preis.
 
Zuletzt bearbeitet:
Bekannter hat 2x8800GT`s, Microruckler deutlich sichtbar. Dann wurde eine 4870 X2 getestet, selbst bei 24-30fps (Crysis auf DX10, Ultra Detail, 1900er Auflösung) nicht sichtbar.

Die kommende Dual 260er ist viel zu spät dran, bis die lieferbar ist und irgend ein Hersteller eine gute Kühlvariante anbietet (die Standart kann man wohl selbst wenn 0 Infos darüber bekannt sind vergessen) vergehen noch mindestens 3-4 Monate, da stehen schon die neuen Karten von den 2 Firmen in den Startlöchern. Alles nur PR-Schrott.....
 
Also wenn die Taktraten gesenkt werden, wird sie doch nur unwesentlich die X2 4870 schlage können. Zudem funktioniert bei der X2 von AMD ja auch das IDLE-Runtertakten, so dass sie genau so viel wie eine 4870 im IDLE verbraucht. Da muss Nvidia erstmal ran kommen.
 
Zuletzt bearbeitet:
AkShen schrieb:
Oha der Nvidiaverfächter.
Und das die 4870 trotz geringerer Leistung wesentlich beliebter ist als die GTX280 bzw. GTX260 liegt bestimmt nicht nur am Preis sondern auch am Stromverbrauch.

reden wir von der 4870 die im idle 47W und unter last 13W mehr verbraucht als die 260 wenn ich mich so an den lezten test erinner ?

jo glaube auch das sie wegen ihrer enormen spaarsamkeit so beliebt ist
 
Ossi94 nichts für ungut aber woher hast du die stumpfsinnige Behauptung, dass Nvidiakarten weniger verbrauchen? Wo steht denn das bitte?

Und 2. Warum soll die Karte denn so viel besser sein? Das sind lediglich 2 mal GTX 260 mit 216 Shadern und die auch noch runtertetaktet aufgrund von Hitzeproblemen schätz ich mal. Ob die Nvidia Graffikarten besser Skalieren in SLI lass ich mal dahingestellt, das weis ich nämlich selber nicht. Das einzig blöde an der Karte ist, dass sie das gleiche Design anwenden, was schon bei der 9800 GX2 nichts gebracht hat und auch bei der 7950 GX2. Und es wird auch nie was bringen, weil es von Prinzip her total behindert ist. Man kann aufeinandergestapelte Karten nunmal nicht effektiv kühlen, weil sie sich beide gegenseitig erhitzen. Da sollten die echt was verbessern. Mit dem ATi Design (2 Chips auf einem PCB) könnten die schonmal die Hitzeprobleme lösen und auch mit vollem Takt laufen lassen. Dann wärs ne "geile" Karte.
Daher ein Flop wie eh und je, siehe 9800 GX2 und 7950 GX2. Und vom Preis wollen wir erst gar nicht reden.. Der wird mit Sicherheit jenseits von Vernunft liegen..
 
Das ist auch eine Art, die Microruckler zu bekämpfen: man streicht das X2 aus dem Namen. Eine Kunden werden sicher glauben, dass sie das (überbewertete) Problem so vermeiden.

Nachdem die gtx260 und die HD4870 praktisch gleich schnell sind dürfte das gleiche auch für die X2-Karten (oder wie man die nennt) gelten. Der Test wird interessant, auch wenn das Ergebnis mehr was über die SLI vs. Crossfire Unterstützung der Software aussagt und extrem von der Treiber-Version abhängen wird. Aber das ist ja auch ein spannendes Thema.
 
Zuletzt bearbeitet:
Zurück
Oben