News Finale Taktraten der GeForce GTX 280/GTX 260?

Nein, die GTX 280 wird mit dem Speicherkrüppel und Skalierungs-Schrott ( = GX2) den Boden wischen.

cYa
 
Nein, Finger weg von der GX2. Kannst du nicht lesen?! :freak:

cYa
 
Da sage ich aber was andres. Selbst bei nicht überarbeiteten ALUs hat die GTX 280 mehr Power.

cYa
 
Je nach SLI Skalierung und VRAM Nutzung wirds peinlich oder sehr peinlich für die GX2.
 
Zuletzt bearbeitet:
Ne GX2 skaliert oft mies, hat zu wenig VRAM und 2x 256 Bit sind nicht 512 Bit :rolleyes: Und du hast auch keine 16 Shader mehr :freak:

cYa
 
kommt die gtx 280 eigtl. auch als x2 version ? so in ein paar monaten ...
geht das überhaupt (wärme und platz betrachtend)? die braucht ja dann bestimmt 4x8pin stecker :D
 
als GX2, ja klar, die schluckt dann 500 watt unter last und im Winter brauchst du dein Zimmer nichtmehr heizen :)
 
Schade, das die PCIe Spezifikation bei 300W als Spassbremse agiert.

y33H@ schrieb:
2x 256 Bit sind nicht 512 Bit :rolleyes:
Warum?
Die SLI Skalierung hast du schon erwähnt. :confused_alt:
 
Zuletzt bearbeitet:
El_Mariachi999 schrieb:
also erstmal wird 100 pro die gtx die gx2 niemals schlagen eine standart gx2 vieleicht aber nicht meine gx2 und ausserdem habe ihc 16 shader mehr als die gtx und wegen 512bit interfase hat die gx2 auch durch die 2 chips.
Fast alles was du sagst ist falsch. Wieso hast du überhaupt eine GX2 gekauft? Hier om Forum hat dir sicher fast jeder davon abgeraten.

Und die GX2 wird neben der GTX280 dastehen wie ein mittelmäßiger Prototyp (SLI-probleme, schlechte Skalierung, langsamere Performance). In 8 Tagen ists soweit, dann wirst dus mit eigenen Augen sehen...
 
@ Unyu

Weil ja beide GPUs auf eigenen RAM zugreifen, daher kann man das SI ebenso wenig addieren wie den VRAM.

cYa
 
Wenn der VRAM der GX2 limitiert (praktisch immer) kann die GTX 280 auch mal 10mal so schnell sein. :)

Bei den Preisen besteht wohl noch Erklärungsbedarf. Schon mal geguckt, was früher (vor 1,5 Jahren) High-End Karten gekostet haben?


y33H@ schrieb:
Weil ja beide GPUs auf eigenen RAM zugreifen, daher kann man das SI ebenso wenig addieren wie den VRAM.
Im VRAM liegt auch das Selbe, die GPUs rechnen aber meist verschiedene Frames.


Ist doch auch egal, ob ich Dateq1 aus VRAMw1 lese, dann Dateq1 aus VRAMw2 (wär dann SLi/CF)
oder ob ich Dateq1 aus VRAMp1 lese und im nächsten Frame nochmal aus VRAMp1.
:confused_alt:
 
Zuletzt bearbeitet: (?)
Recht hast du schon, nichtsdestrotrotz finde ich hier eine Addition nicht gerechtfertigt.

cYa
 
Also ich bin mal auf die Tests gespannt, GX2 vs. GTX280, ich Persönlich glaube ja auch an die GTX280 aber weiß es nicht, aber der der am Ende falsch liegt, ist ganz schön innen Arsch gekniffen :D :D
 
Zurück
Oben