News ATis „CrossFire X“ ausführlich getestet

Alles ganz toll - nur was bringt das, wenn ich mit CF bzw. SLi nur einen Bildschirm nutzen kann. Ein 2. Display ist für mich mittlerweile unentbehrlich, solang sich da nix tut, ist CF oder SLi keine Alternative (für mich zumindest).

Greetz
Ganzir
 
el Chupa Cabra schrieb:
Die Verlustleistung steht in keinem Verhältniss zum (grafischen) Nutzwert!

Sowas darfst bei dem Thema sowieso nie annehmen, darum gehts im eigentlich auch garnicht. Soll nur zeigen, was geht den wirklich und was schaut unterm Strich raus.

Das es sinnlos ist, braucht man wohl nicht erwähnen. Jetzt zumindest ;)
 
Ati/amd soll mal an die treiber schneller arbeiten damit crysis halbegs läuft !
denn wen man bedenkt das meine alte gts besser damit zurecht kahm wie die x2 kommt einen echt schons lachen !
Erst eine Karte bringen wenn die treiber schon halbwegs passen !
Ansonsten weiter hinter Nvidia anstellen ..
 
ich denk mal mit tri sli mit ner 9800gtx wirts dann voll laufen mit 8xaa .. auf 600x400 ;-) kostet eh nur 1800euro so eine grafikleistung !
den 25fps sind immer nocht nicht super ! 50fps mind für perfektes shooter vergnügen !
ich tendiere auf Cryteks schlechte performance optimierung und Korupte zusammenarbeit mit nvidia !
Denn so ein spiel ist für den Grafikkartenmarkt Gold wert !
was glaubt ihr wieviel millionen $ nvidia verlohren hätte wenn es crysis nie gegeben hätte ...
 
Zuletzt bearbeitet:
OT und Spambeiträge werden in das Aquarium versenkt und mit einer Verwarnung versehen.
Bitte auch die Ankündigung dazu lesen.
 
wenn ich crysis betrachte, ziehen 2x3970x2 zusammen mit 3x88ultra ... das sieht doch gut aus :) vor allem, wenn man den preis betrachtet
 
@18

Diese Leute gibt es wirklich, die wollen auf 1920 x 1200 bei 8A (und bis zu 14AA) sowie 16AF HQ zocken. Und ich gehöre dazu, und habe ein X1900XTX CF und kann selbst Crysis damit auf High zocken, und mit spielen meine ich nicht =35FPS sondern 60-80FPS.

Fakt ist, Crossfire skaliert einfach wahnsinnig gut, und die Leute die meinen, dass es unausgereift ist, haben schlichtweg keine Ahnung und selber noch nie eine Multi-GPU Lösung gehabt, aber nen Dualcore oder besser noch son Q6600 haben sie alle ...
 
Zuletzt bearbeitet von einem Moderator:
Naja trotzdem ist CF oder Sli totaler scheiß !
ein quad kannst du mit dem doch nicht vergleichen ..
quadcore 200€, cf oder sli mind.600€ und der leistungszuwachs ist teils. nicht mal 35% !
bei einem quad 100% gegenüber dual vorallem im Videobereich !
Also cf/sli nur wenn man wirklich zuviel Kohle hat oder wenn es sich in den seltensten fällen wirklich rentiert !
zb. crysis veryhigh 15fps, -
cf/sli 35fps. dann kann man zugreifen !
Aber das hatts bisher noch nie gegeben, also finger weg !
 
Zuletzt bearbeitet:
M4rvin schrieb:
@18

Diese Leute gibt es wirklich, die wollen auf 1920 x 1200 bei 8A (und bis zu 14AA) sowie 16AF HQ zocken. Und ich gehöre dazu, und habe ein X1900XTX CF und kann selbst Crysis damit auf High zocken, und mit spielen meine ich nicht =35FPS sondern 60-80FPS.

Fakt ist, Crossfire skaliert einfach wahnsinnig gut, und die Leute die meinen, dass es unausgereift ist, haben schlichtweg keine Ahnung und selber noch nie eine Multi-GPU Lösung gehabt, aber nen Dualcore oder besser noch son Q6600 haben sie alle ...

... sorry M4rvin - aber du erzählst gequirrlten Mist, um es ein wenig eleganter auszudrücken!

Du spielst also Crysis mit einer Auflösung von 1920x1200 Bildpunkten - hast ganz cool 8A, 16AF und HQ aktiviert - und willst uns dann erzählen, daß du mit einem X1900XTX CF-System auf HIGH spielst und dabei 60-80 FPS erreichst?

Wovon träumst du eigentlich Nachts?

Das nimmt dir ja noch nicht einmal deine Oma ab ... :evillol:
 
Zuletzt bearbeitet:
Ganzir schrieb:
Alles ganz toll - nur was bringt das, wenn ich mit CF bzw. SLi nur einen Bildschirm nutzen kann. Ein 2. Display ist für mich mittlerweile unentbehrlich, solang sich da nix tut, ist CF oder SLi keine Alternative (für mich zumindest).

Greetz
Ganzir

Ich musste mich auch belehren lassen, seit 8.1 kann CF Multimonitoring. Neu^^

M4rvin schrieb:
@18

Fakt ist, Crossfire skaliert einfach wahnsinnig gut, und die Leute die meinen, dass es unausgereift ist, haben schlichtweg keine Ahnung und selber noch nie eine Multi-GPU Lösung gehabt, aber nen Dualcore oder besser noch son Q6600 haben sie alle ...

Wovon träumst Du Nachts. Meinst Du jeder der mal SLI/CF ausprobiert hat ist dabei geblieben weils so geil ist? Schau über Deinen Horizont. Es gibt tatsälich Leute die nicht nur auf die Schwanmarks schauen sondern sich ein bisschen mit dem ganzen Scheiss befassen, oder sogar noch mehr machen als mit ihrem Rechner nur zocken. Bei mir isses wieder rausgeflogen. Funktionierende Treiber für meine Anwendungen/Games gabs immer erst wenn das Spiel schon wieder im Schrank verstaubte, und eigentlich hat es mehr Probleme gebracht als gelöst. Mir war das zu viel GEFUMMEL. Ich will Plug and Play und nicht Plug and Pray. Und ich kauf mir lieber alle 6 Monate eine neue Highend-Graka+Wasserkühler als zwei Highend-Grakas und zwei Wasserkühler^^.

Und das sagt einer der mit seinem 30" eigentlich unter die "MustHave"-Klientel von SLI/CF fällt.
Ausserdem wollte ich nicht auf Multimonitoring verzichten. Auch wenn das inzwischen kein Kritikpunt mehr ist (seit ... 3 Wochen? *g*)
Und wie geil es skaliert sieht man auch .. von 3x zu 4x ... GAR NICHT? *g* Oder lese ich das 1. Bild falsch :-)
 
Zuletzt bearbeitet:
Faszinierend finde ich vor allem die MinFPS in CoD4. Je GPUs desto schlechter die MinFPS? MaxFPS sind ja bei allen spielbar, warum also doppelt so viel Geld ausgeben für gefühltes doppeltes Ruckeln? :lol:

Davon abgesehen sind über 600W mal richtig überzogen.

Fakt ist, Crossfire skaliert einfach wahnsinnig gut

Seh' ich nach wie vor nicht. Genau wie bei SLI. Ist zwar in einigen Momenten nochmal deutlich schneller, aber es steht bislang noch in keinem Verhältnis zu den Problemen, die die Technik mitbringt. Kein guter Treibersupport, keine gute Unterstützung in vielen aktuellen Spielen, Stromverbrauch, Kaufpreis.
 
Mal ne kleine Rechen- und Wirtschaftlichkeitsüberlegung meinerseits (die demonstriert wie ich!! die Sache sehe):

2 Karten kosten jeweils ~300€. D.h. ich benötige 300€ für ein Single-Karten und 600€ für ein Sli-System. Sagen wir pro Karte fallen 130Watt unter last und 80 Watt Idle an. Das NT hat einen 80% Wirkungsrad, also werden daraus ~150Watt bzw ~100Watt. Mit dem Rechner wird pro Woche 10h gespielt und er ist weitere 25h an (realistische Werte imo, wer so ein System hat nutzt es auch). D.h. der PC hat die Woche allein durch die Grafikkarten einen Verbrauch von 4kW bzw. 8kW.
Gehen wir nun davon aus, dass ein solches System ein Jahr betrieben wird. Dann fliegt die GPU-Lösung sowieso raus, weil man ja Enthusiast ist und mittlerweile selbst die günstige Variante der neuen Generation in Singleslot-Form schneller ist. D.h. der PC läuft 50Wochen und verbraucht durch die GPUs 200kW bzw 400kW. Das sind in Kosten ausgedrückt: 60€ vs 120€ nur für die Grafik. D.h. die Verwendung eines SLiSystems kostet 360€ mehr. Man könnte natürlich auch mit der X2 ein Jahr spielen. Es ist eine High-End-Graka, das sollte man aushalten können und sich dann von dem Geld was eingespaart gespaart wurde eine neue High-End-Graka holen und gleich noch das nächste Jahr überbrücken. Diese Karte hat vermutlich mehr Leistung, als das Sli-Gespann, welches zu diesem Zeitpunkt vermutlich das erste mal sinnvoll genutzt wird.
Foglich komme ich mit gleichem Geld doppelt so weit, hab am ende eine Single-Slot-Lösung, die schneller ist als die Sli-Lösung und sogar noch eine immer noch gute X2, die ich nem Freund schenken oder bei Ebay für 100€ verkaufen kann. (oops, schon wieder 100€ für die nächste Gen)
Die Sli-Lösung kann natürlich auch verkauft werden. Hat man vll. 200€ minus den 60 für den Strom, also 140€. Legt man somit 160€ drauf für die nächste gute Karte und hat am Ende eine Singleslotlösung die auch nicht viel besser ist. D.h. man machts entweder richtig und gibt gleich wieder viel Geld aus oder man fährt das SliSystem noch ein Jahr, die Karten sind dann gar nichts mehr wert und es werden weitere 60€ mehr verheitzt.

Ich bin auch weiterhin stark dafür, dass die MinFps gebenched werden. Das ist die eigentlich interessante Größe!! Weil 50fps max und 40avg liefern alle Lösungen und sind damit super spielbar. Und gerade bei den MinFPS wird die Sache hier peinlich.
 
Zuletzt bearbeitet:
Ich finde das ganze sehr sehr dumm... die Werte zeigen ziemlich deutlich, wie schlecht CF hier skaliert. 4 Chips für circa die doppelte Leistung... ich bin beeindruckt.. mehr Geld- und Ressourcenverschwendung kann ich mir nicht vorstellen.
 
Hm, der Treiber wurde nur als Beta-Treiber angesprochen. Diese ganzen Verbesserungen für CrossfireX sollen ja erst mit 8.3 kommen. Kann man nur hoffen, daß es damit besser wird, ansonsten ist es wirtschaftlich weiterhin unrentabel.
 
@RubyRhod
Schon mal was von Skulltrail gehört?

Ich weiss gar nicht, was einige hier erwarten. Da steht CrossfireX oder Quad-CF noch ganz am Anfang, läuft eigentlich ganz gut und es wird nur gemeckert. Es ist doch schön zu sehen, dass es bereits jetzt gut läuft.
Keiner zwingt hier irgendjemanden sich vier Grafikkarten zu kaufen. ABER man kann. Man hat die Option sein System noch schneller zu machen.
Also alles ist gut.
 
lol? Seit wann ist Crossfire bzw. SLI neu? Oo und der Unterschied ob nun2 oder 4 karten werkeln ist ziemlich marginal. die Technik dahinter bleibt trotz neuem namen so ziemlich die gleich. und da 2 Karten nach wievor nicht viel reißen bei neuen Spielen tuen es auch 4 karten nicht. Von neu kann hier inzwischen absolut nicht mehr die rede sein. Die Technik ist inzwischen an die 2-3 Jahre alt. Mehr als genug Zeit für optimierung. Das sind keine Kinderkrankheiten mehr, dass ist ein Fehler in der DNS. Oo
 
Du redest von Fehlern? mehr gibt die Architecktur einfach nicht her, bzw die Programmierung der Software ergo Games...solange zb alle karten auf den selben Speicherinhalt(alle 4mal 512mb haben zu jederzeit den selben Inhalt) angewiesen sind stellt dies einen natürlichen Flaschenhals da. Ist einfach ein Bandbreiten problem hoffe mal die neue gen im herbst hat das besser gelöst ähnlich einem shared Cache bei CPUs.
 
Zurück
Oben