Lohnt sich der Umstieg von 8800GTX auf eine Ati Radeon 3870 X2

... die Ultra jedoch 150,00 Euro mehr kostet, und in Sachen Zukunftssicherheit doch alle Spiele CF unterstützen werden ...
 
*löl* Wovon träumst Du Nachts.
Wie lange gibt es CF/SLI? Schon ein paar Jahre. Und wie das mit dem Support aussieht hat man an einem Blockbuster wie Crysis gesehen. Ziemlich mies. Und jetzt bring mal bitte die Transferleistung und überleg Dir wie das bei einem Game aussieht das nicht mit zig Millionen gepushed wird sondern von einer kleinen Klitsche kommt.

Das ist genau das gleiche wie "in Zukunft wird jede Software von 4/8/16/32 Kernen profitieren". Macht die Augen auf. Diese Technik gibt es jetzt schon seit über 5 Jahren und nix kommt hinten bei rum.
 
so isses. und wenn es ATI wirklich schaffen sollte mehrere gpus auf einen chip zu packen und das nicht mit cf läuft sondern unabhängig von der unterstützung der spiele ist, werden die hersteller keine notwendigkeit mehr sehen ihre games auf cf/sli zu optimieren.
 
HisN schrieb:
*löl* Wovon träumst Du Nachts.
Wie lange gibt es CF/SLI? Schon ein paar Jahre. Und wie das mit dem Support aussieht hat man an einem Blockbuster wie Crysis gesehen. Ziemlich mies. Und jetzt bring mal bitte die Transferleistung und überleg Dir wie das bei einem Game aussieht das nicht mit zig Millionen gepushed wird sondern von einer kleinen Klitsche kommt.

Je mehr CF/SLI nutzen desto mehr werden auch die Spiele CF/SLI unterstützen und die X2 ist jetzt genau die Karte welches CF Einsteigerfreundlich bedient. Wenn der Schwellenwert erreicht ist, haben die Games dann per Default CF/SLI Unterstützung ;)

Dump schrieb:
werden die hersteller keine notwendigkeit mehr sehen ihre games auf cf/sli zu optimieren.

Warum sollten sie, sicher eine Multicore GPU ist gut, aber 2 Multicore GPUs im CF sind besser :D
 
bleibt aber abzuwarten ob du mit der generation alle spiele auf max zocken kannst. wenn das der fall sein sollte werden auch die kunden keine notwendigkeit für cf/sli sehen
 
Zuletzt bearbeitet:
@ Antimon
"Warum sollten sie, sicher eine Multicore GPU ist gut, aber 2 Multicore GPUs im CF sind besser" das trifft so wenn überhaupt auf DX10 Spiele zu. Schon Quad-SLI ist am 3 Frames Prerender-Limit von DX9 SOftware gestorben. Dieses Limit ist von der verwendeten Hardware völlig unabhängig und tritt daher auch beim x2 Crossfire in erscheinung.
 
hab mal gehört dass die spielehersteller dieses limit "weggepatcht" haben. kann aber auch sein dass ich da was verwechsel oder es in nem andern bezug stand
 
kann ich mir nicht vorstellen, das MS erlaubt einfach ihr DX zu verändern. ;) aber keine Ahnung. mir ist in der Hinsicht nichts bekannt.
 
ne so wars eigtl nich gemeint. weiß auch nich wie das mit dem limit zustande kommt. hab da nur mal irgendwo was aufgeschnappt ;)
 
Vielleicht sollte man auch mal berücksichtigen, dass die Tests mit der GTX und der Ultra vor nem Jahr gemacht wurden und der Test mit der X2 gerade erst. Vor einem Jahr gabs noch andere Treiber und das Testsystem war auch ein anderes. Wenn man jetzt alles aktuell nochmal vergleichen würde, bin ich sicher, dass der Vorsprung der X2 nicht mehr so groß sein würde, dass sich der Umstieg lohnt. Also meine Meinung: bleib bei der GTX.
 
Ja hab mich jetz auch entschieden ich bleib auf jeden bei der gtx und warte auf die neuen nvidias... weil wär irg ein wunder wenn ati auf euinmal richtig taugen würde.... grade die treiberprobs sind ja bekannt hall
 
@ Dump

Dieses Renderlimit ist wohl in DX9verankert und ohne größere Änderungen im DX Code (wenn überhaupt) nicht wegzubekommen. Das is mein Stand der Dinge zu dem Thema.
 
Ich würde momentan noch bei der 8800gtx bleiben, da die treiber für die hd noch lange nicht ausgereift sind.
 
mir is das ganze zu doof ich kauf mir doch lieber ne 3870 einzel. selbst mit ner x2 ist man nur im mittelmaß wenn man mal an crysis denkt und man einen 24" kauft/hat. auch mit der karte kann man viele spiele nich auf 1920er auflösung mit AA/AF zocken. also wofür jetzt auf diese karte aufrüsten wenn in paar monaten die next gen mit (hoffentlich) riesen performance schub kommt. dann lieber jetzt geld gespart und später in die "echten" high end karten gesteckt.

edit:
@mustis: wenn du das sagst muss es wohl stimmen :)
 
Ich würde sagen: nein. Bei echten Benchmarks (vgl. HardOCP, Bit-tech) ist die X2 sogar noch oft schlechter als die GTX.

Was bringt mir eine Karte, die auf den vorgefertigten Demoskripten (für die natürlich fleißig optimiert wird) schnell ist, in Real-Life Benchmarks aber auf der Strecke bleibt?
 
@IgG:
CB hat wenn das "echteste" Benchmark, weil CB bekommt kein Geld dafür und wird daher auch nicht irgendwie gepolt oder manipuliert.

Greetz.Mr.Mushroom
 
lol ich finds ja ziemlich einfach andern manipulation zu unterstellen ohne beweise zu haben. zudem ist der cb zwar der übersichtlichste und am schönsten zu lesen aber glaube nich, dass es sowas wie den "richtigen" oder "echten" test gibt
 
Sorry wenn ich mich falsch ausgedrückt habe.
Ich unterstelle nicht den Benchmarkseiten Manipulation, sondern den Herstellern. Es ist bekannt, dass diese gerne für bestimmte Spiele ihre Treiber optimieren, bin mir ziemlich sicher auf für bestimmte Demos (das meinte ich damit).

HardOCP und Bit-tech umgehen dies indem sie eben nicht "crysis.exe +timedemo 1" (oder so ähnlich) zum Benchmark nehmen sondern ein repräsentatives Level durchlaufen lassen.

Nachteil dieser Methode ist, dass es nicht standardisiert ist, d.h. je nach Szenario können andere Ergebnisse kommen. Ich finde das aber aus oben genannten Gründen trotzdem besser. Ist eben eine philosophische Frage. Aber wofür kaufe ich meine Karte? Fürs Spiel oder für die Benchmark-Demo?
 
Zurück
Oben