Test Test: ATi CrossFire X vs. Nvidia Quad-SLI

Erlich gesgat koennte ich mich schwarz ergern. schoener 1000 euro grafikkarte test, der anteil der leute die sich 2 gx2 leisten ist aber recht niedrig und demensprechen ist der sinn dieses test auch recht niedrig.

Ich moechte mal einen vergleich der GX2 mit SLIsystemen aller 2x 9600GT; 2x 8800GT; 2x 8800GTS; 2x 8800GTX und bald 2x 9800GTS und vll noch 2x 9800GTX sehen. Um die frage zu klaeren ob die Gx2 zu dem preis ueberhaupt sinn macht, bei hoh hab ich eine 8800GTX fuer 250 euro gesehen und frage mich ob zwei GTX die gx2 plattmachen.
 
Wie geil, da denkt man das SLI/CF DIE Domäne ist für 30" Monis. Und dann brechen die Dinger durch die Mager-Speicher-Ausstattung wieder zusammen^^

17"-User gebt alles. Ihr braucht es.
 
Klasse Test!

Die Power der zwei 9800GX2 ist ja wirklich gewaltig. "staun"

Die Leistungsaufnahme von über 600 Watt ist auch jenseits von Gut und Böse.

Hätte gedacht das die 9800GX2 heißer werden.
 
Eigentlich finde ich das quad sli gerade bei niedrigen Auflösungen auch Punkten kann.
3-Way sli ist um einiges langsamer als quad sli bei 1280*1024, bei höheren Auflösungen und Kantenglätung rockt 3-Way sli mehr.
 
Interessant zu sehen, wie viel ein normaler PC verbrauchen kann,
600W sind nicht ohne..
Aber warum bei den kompletten GF9 nurnoch auf 256bit SI (oder schlechter) gesetzt wird, verstehe ich nicht.
 
Zuletzt bearbeitet:
Bin ich froh, dass Quad-CF/SLI nicht so gut weg kommt und abschließend 8800GTX-SLI (evt. 3-Way) empfohlen wird - das einzig wahre eben! :daumen:

cYa
 
Sehr schöner Test! :daumen:

Auf Seite 22 fehlt in den Diagrammen bei der heißeren X2 allerdings das "CF" dahinter ;)
 
ein kleiner fehler hat sich auf der 2ten seite eingeschlichen
die rv670er sind doch in 55nm gefertig ^^
Danke, ist korrigiert!
komisch bei jericho und stalker habe ich mit meinem triple cfx super werte.wenn ihr schon auf stur schaltet und keine exe änderung macht dann erwähnt wenigstens das,wenn man es tuen sollte was da raus kommen kann.das gilt nur für jericho ,bei stalker klappts auch ohne exe. ändern keine ahnung wie ihr immer benchen tut.
Nochmal, wie schalten nicht auf stur sondern zeigen CrossFire so wie es aktuell nunmal funktioniert. Sollen wir denn auch bei Nvidia jedes Spiel mit dem nHancer ausprobieren, Bits verändern und dann schreiben, wie toll es danach doch besser läuft?
Bringt eigentlich V-Sync etwas bei den Rucklern ?
Nein, das ändert an der Problematik gar nichts.
Auf Seite 22 fehlt in den Diagrammen bei der heißeren X2 allerdings das "CF" dahinter
Korrigiert! :)
 
Das was ich aus diesem Test entnehme ist:

1. Die Spiele sind mal wieder nicht alle auf den neusten stand gepatched (ausser Crysis weil dieses spiel natürlich eine sonderbehandlung erhält ;) )
Jeder weiss in welchem zustand heutzutage spiele auf den markt kommen (bis auf ganz wenige ausnahmen). Dazu kommt das das "Nvidia" logo schon seine berechtigung hat in den spielen weil der SLI support höchst wahrscheinlich schon von Haus aus mit eingepflegt wurde. Genau in dem Punkt müssen dann AMD/ATI mit treibern oder auch der Entwickler des Spiels mit patches nachhelfen um Crossfire richtig zum laufen zu bringen.

(wer spielt heutzutage ungepachte spiele o.m.g)

2. Wieso wird immer noch Gothic 3 gebencht (das spiel das so verbugt ist das sogar der entwickler aufgegeben hat) wen von vorne rein klar ist das es kein Crossfire, schon gar kein CrossfireX, Support hat und auch niemals welches bekommen wird.
(schon gar nicht wenn man keine patches installiert :p)

3. Wieso wird ein solides SLI und Crossfirefähiges Spiel wie Anno1701 aus dem Benchmark Parkur rausgenommen und dafür CoD4 eingesetzt?. (wieso fliegt nicht Gothic 3)

4. Wieso wird nicht STALKER endlich auch gepacht um richtige ergebnisse zu erzielen?

Von dem allem mal ganz abgesehen sagt mir dieser Benchmark nur eins
9800GX2 ca. 470 euro und 1x HD3870 und 1x HD3870X2 ca. 430 euro
sind in diesem test vom preformence rateing gleich auf.
 
Es zeigt sich wieder mal, dass die 8800GTX ne Ausnahmekarte ist.
Als Besitzer eines 30er Bildschirms nimmt man am besten zwei von diesen Oldie-Karten
und hat immer noch bessere Leistung als mit einem modernen Quad SLI System.
Stillstand statt Fortschritt. Und das seit über einem Jahr.
 
@HDReady
Was würde es bringen nur Spiele zu benchen die CF/SLI-Support mit sich bringen?
Das verzerrt doch die "Wirklichkeit". Es funktioniert halt nicht jede Anwendung mit SLI/CF.
Vor mir aus könnte der Mix aus Geht/Geht nicht noch viel näher an der Realität liegen.
 
@HDReady
1. Welches Spiel ist bitte schön nicht auf den aktuellsten Stand gepatcht?
Und ist ja nicht so, als müsste Nvidia die SLI-Prpfile nicht auch erst erstellen. DIe Arbeit ist keine andere, ATi ist da einfach etwas langsamer. Ist ja nicht so als hätte ATi nie Testversionen der Spiele.

2. Was für ein Grund. Das Spiel unterstützt kein CrossFire, also müssen wir es aus den Benchmarks herausnehmen - aha. Und ja, warum behauptest du wieder, dass kein Patch installiert ist?

3. Weil wir das so als sinnvoll angesehen haben. Anno 1701 war zu CPU-limitiert und COD ist dies nicht, zudem zur zeit sehr beliebt.

4. Stalker ist gepatcht. Nochmal, warum immer diese völlig unbegründeten Behauptungen?
 
zu STALKER:
ich hab das spiel natürlich nie gebencht. ich habe es komplett durchgespielt und mit dem neusten patch funktioniert auch AA. ich habe auf 1600x1200 4xAA 16xAF und meine fps sind NIE unter die 60 fps marke gefallen. und das mit 2x HD3870 Crossfire.
(ich hatte nämlich ohne den patch 1.0005 auch grottige resultate)


zu Gothic 3:
wenn ein test gemacht wird um Crossfire und SLI Systeme zu zeigen dann zeigt ihr also zum 5ten mal das Crossfire in diesem Spiel nicht funktioniert. GZ ^^


CoD4:
Finde ich ja gut das es gebencht wird aber das dafür Anno1701 weichen muss finde ich Persönlich schade (vor allem da es die einzgiste Wirtschaftsimulation ist in eurem test).

Und wieso ich darauf komme das kein spiel gepatcht ist.....

"Shader-Model-3.0-Effekte kommen zum Einsatz, ebenso hochwertiges FP16-HDR-Rendering, das für ein realitätsnahes Farbenspektrum sorgt. Ein weiteres Highlight sind die zahlreichen hochwertigen Licht- und Schatteneffekte, die man in dieser Form bis jetzt noch nicht zu sehen bekommen hat. Dies ist der Vorteil von Deferred Shading, da die Licht- und Schattenberechnungen sehr schnell ausgeführt werden können. Ein große Nachteil ist aber, dass Direct3D-9-Beschleuniger deswegen kein Multi-Sampling-Anti-Aliasing ausführen können. Dazu benötigt es nicht nur eine D3D10-Grafikkarte, auch das Spiel muss mit der neuen API ausgestattet sein."

und genau das funktioniert doch.......oder etwa nicht (durch den patch)?
 
Haha 65 Dezibel auf Last. Da muss man sich ja bald bei den Nachbarn entschuldigen oder doch in den Keller ziehen.
Mein Eindruck war jedenfalls auch, dass der Test einfach zu abhängig von den Treibern ist. Und wenn sogar dieser Prozessor da irgendwo am limitieren war dann Prost Mahlzeit.
 
@ HDReady

Bei Stalker funzt AA doch nur mit den GF8? Der Trick wie mit der UE3 blieb bei mir mit einer HD3870 erfolglos, egal ob X2-Release-Treiber oder 8.x. Da bringt auch der Patch herzlich wenig, da dieser nur Bugs und Co behebt, aber sicherlich nicht den Deferred Renderer abändert :lol:

nV/DAAMIT können froh sein, dass mit Gothic3 nur ein Spiel dabei ist, wo Multi-GPU abka**t. Für CF/SLI ist Anno1701 mal nichts, wie schon gesagt, CPU-limitiert und ab einer HD3870 rennt das eh ganz smooth.

cYa
 
Hmm der Test erscheint mir nicht glaubwürdig, war schon beim letzten so.
Die Average FPS habe ich nichtmal als minimal FPS in den meisten Test. (jedenfalls dort wo so rapide einbrüche sind)

Sorry, aber der Test nicht i.O.
Die Leute im Luxx denken auch ähnlich drüber.
Zudem ist mir auch noch kein Spiel untergekommen, was kein CF unterstützt.
 
Zuletzt bearbeitet:
Mir fehlt imernoch (wieder) der Vergleich zwischen einem SLI Gespann aus zwei 8800GTS 512MB und der 9800GX2!
Das wäre sinnvoll zu wissen! Ich spiele nämlich it dem Gedanken mir ein SLI aufzubauen... (Oder halt auf den GT200 warten, was aber sehr sehr schwer ist :D)
 
Gebirgsjaeger90 die Idee ist gut.
Hätte auch gern einen Test 2 HD3870, vieleicht auch 3 einzelne? Gegen eine X2 und 8800GT/S SLI gegen GX2.
Sowas wäre mal sehr interesant zu sehen, was es für unterschiede gibt, ob es überhaupt welche gibt.
 
Wie immer eine toller Bericht und ich bedanke mich für diese Informationen.

Wie schauts denn aus mit Alternativen zu AFR? Könnte man nicht ein einzelnes Bild in sagen wir 120 Rechtecke zerlegen? Dann müsste man sich erst bei 120 Kernen wieder gedanken machen. 120, da dort viele Teiler zu finden sind.
 
Zuletzt bearbeitet:
Zurück
Oben