Test Quad-CrossFire: Zwei Radeon HD 5970 mit gleich vier GPUs im Test

Wenn ich mir den Energiebedarf mancher Gaming-Rechner so vorstelle, wird mir übel.

Kein halbwegs vernünftiger Mensch verbaut zwei 5970 zum Spielen, das war ja nur fürs benchen sowie um zu sehen, was die Architektur hergibt und wo die Probleme liegen. Das das nie und nimmer Mainstream ist, liegt auf der Hand. Und die paar, die sowas haben, die zählen nicht.^^

Ich persönlich wäre auch schon mit einer 5830 und einem hübschen Drittanbieter-VGA-Lüfter (Scythe) zufrieden. 5870 wär natürlich noch schöner *träum*.
 
CB schrieb:
ist die Skalierung teilweise sogar beinahe perfekt (bis zu 100 Prozent in Dirt 2). Das sah vor einiger Zeit noch anders aus.

Dort ist es 184%, bei Crysis Warhead ist es exakt 200%. Echt beeindruckend.
 
Ich persönlich wäre auch schon mit einer 5830 und einem hübschen Drittanbieter-VGA-Lüfter (Scythe) zufrieden. 5870 wär natürlich noch schöner *träum*.
Dein Wunsch wird wohl bald erfüllt, für die HD 5850 gibt es bereits eine neue Kühlung, die wohl alles andere was es zur Zeit gibt in den Schatten stellt: ->5850 Scythe Musashi Edition http://edel-grafikkarten.de/ATI/HD-5850/HD-5850-Scythe-Musashi-Edition

Batman AA bleibt hoffentlich im Parcours, mit dem Titel hat man 2 Fliegen mit einer Klappe geschlagen, 1. sehr Vram lastig auf hohen Einstellungen und gleichzeitig ein PhysX Titel, also die GPGPU Performance gleich mitgetestet.
 
Zuletzt bearbeitet:
Nur zum Benchen gut die Kombi :)
 
Ich bleib trotzdem bei meiner GTX 285 2GB von Sparkle. Völlig unnötig...und Mikroruckler lassen grüßen. Wer sowas braucht...frag ich mich immer wieder. Die heutigen Spiele sind doch so gut wie keine Neuentwicklungen mehr. Viele Spiele basieren auf andren. Höchstens GTA IV und das neue Battlefield BC2 sind recht leistungshungrig...und eventuell Crysis noch. Sonst kenne ich keine Spiele die nen wirklichen Leistungshunger haben...Deswegen ist sowas definitiv zu kostenspielig und sinnfrei zugleich :). Selbst ne Dual GPU alleine halt ich für mist. :lol:
 
Ah, nicht schlecht.
Jetzt gibt es Vergleichsdaten für die Fermi (alias GF100 alias GTX 380)
He he :stacheln:
 
y33H@ schrieb:
Die HD5870 ist nicht auf einmal auf dem Level der GTX295 weil die Treiber besser geworden sind, sondern weil CB den Parcours geändert hat und zwei DX11-Spiele mit bencht, in denen die HD5k durch DX11 zulegen. Lässt man DX11 außen vor, ist die GTX295 nach wie vor klar schneller. Und das mit den Treibern gilt es abzuwarten, Leistungssteigerungen sind wahrscheinlich, ich kenne aber aktuell keine - AMD hat für die HD5k übrigens auch bisher noch keine in den Release Notes kommuniziert iirc.


Abgesehen davon, dass ich dir, was deine Meinung zwecks Praxistauglichkeit von Quad-CrossFire bzw. Quad-Sli angeht zustimmen kann, so muss ich dir an dieser Stelle wiedersprechen. Ich habe sehr wohl einen wirklich beachtlichen Leistungszuwachs durch den Cat. 9.12 festgestellt.

Ich muss dazu sagen, dass ich Ende Oktober meine HD5870 erhalten habe, die auch bisher ohne jegliche Probleme mit den Cat. Versionen 8.66-090914a-088591E-MSI,9.10,9.11 und jetzt 9.12 funktionierte. Meine Systemkonfiguration was Hardware und Software betrifft wurde nicht verändert. Als OS dient Vista Ultimate 64bit SP2.

folgende Performanceverbesserung im Crysis Warhead Benchmark 0.33

Cat. 8.66 - DirectX 10 ENTHUSIAST 2X @ Map: ambush @ 0 1280 x 1024 AA 8x
==> Framerate [ Min: 24.02 Max: 49.05 Avg: 35.35 ]

Cat. 9.10 - DirectX 10 ENTHUSIAST 2X @ Map: ambush @ 0 1280 x 1024 AA 8x
==> Framerate [ Min: 23.98 Max: 47.85 Avg: 34.80 ]

Cat. 9.11 - DirectX 10 ENTHUSIAST 2X @ Map: ambush @ 0 1280 x 1024 AA 8x
==> Framerate [ Min: 23.98 Max: 47.58 Avg: 34.61 ]

Cat. 9.12 - DirectX 10 ENTHUSIAST 2X @ Map: ambush @ 0 1280 x 1024 AA 8x
==> Framerate [ Min: 29.45 Max: 55.57 Avg: 42.24 ]

Cat. 8.66 - DirectX 10 ENTHUSIAST 2X @ Map: frost @ 0 1600 x 1200 AA 8x
==> Framerate [ Min: 15.87 Max: 31.96 Avg: 26.22 ]

Cat. 9.12 - DirectX 10 ENTHUSIAST 2X @ Map: frost @ 0 1600 x 1200 AA 8x
==> Framerate [ Min: 20.82 Max: 39.87 Avg: 31.76 ]

Bei beiden Settings habe ich mind. 5 Durchläufe gemacht, gerade um zu sehen, ob es einen mittelfristigen Performanceboost durch reifere Treiber gibt. Der 9.12 hat zumindest in Crysis Warhead einen für dieses Spiel ernormen Boost gebracht, den man sich ja gerne mal prozentual ausrechnen kann, denn dann sieht das nämlich richtig beeindruckend aus. Für Crysis selber habe ich leider keine Benchmarkwerte, aber es läuft mit dem Cat. 9.12 auch deutlich schneller.

Außerdem noch folgender Auszug aus dem changelog des Cat. 9.12.:

- 3DMark Vantage – overall performance improves as much as 9% on ATI Radeon HD 5800 and ATI Radeon HD 5700 series products. GT1 – Jane Nash performance improves as much as 15% and FT4 – GPU Cloth improves up to 15%
- S.T.A.L.K.E.R. – Call of Pripyat – Performance improves as much as 6% on single card configurations

Damit ist der letzte Satz deines zitierten Beitrags wiederlegt.
Auch bei Dirt2 habe ich eine kleine Performanceverbesserung feststellen können (über den integrierten Benchmark), die sich bei 3-4 min Fps und ca.5 avg Fps bewegt und reproduzierbar ist..Deine Aussage, dass es noch keine Performanceverbesserungen durch gereifte Catalyst-Treiber gegeben hat, stimmt zumindest iin meinem Fall nicht.

Die HD5870 lief übrigens leicht übertaktet mit 900/1300MHz. Ich finde keine andere Erklärung als Performancezuwachs durch den Cat. 9.12.
 
Zuletzt bearbeitet:
@Kasmopaya

Batman AA bleibt hoffentlich im Parcours, mit dem Titel hat man 2 Fliegen mit einer Klappe geschlagen, 1. sehr Vram lastig auf hohen Einstellungen und gleichzeitig ein PhysX Titel, also die GPGPU Performance gleich mitgetestet.

So wie es derzeit gebencht wird?:freak:

und wieso hoffentlich? Wer sagt denn was von rausnehmen

mfg
 
JanEissfeldt schrieb:
- nervige Mikroruckler, egal bei welchen fps

Lord Quas schrieb:
Das Thema Mikroruckler wurde zwar schon x-mal durchgekaut aber ich muss es hier jetzt nochma loswerden. Mikroruckler sind messbar vorhanden! Aber, ich selbst hatte eine 3870X2 und bin auf eine GTX280 gewechselt. Was soll ich sagen, das wo ich dachte es sind Mikroruckler macht die GTX280 genauso schlecht. Das selbe stottern.. wird wohl dann an meinem Samsung 223BW liegen.

Es gibt scheinbar immer noch so viele Leute, die sich unter Mikrorucklern irgendein "Stottern" oder sichtbare einzelne Ruckler vorstellen... :(

"Fake-fps" wäre viel passender und einfach nachzuvollziehen.

Ich würde gerne mal ein paar frametimes von den benchmarks sehen!
 
@ MoD23

Ja, Vantage. Das ist aber kein Spiel ;-)

CB misst in Warhead nicht mehr Fps, ich auch nicht. Allerdings Win7 x64, unter Vista (wie bei dir) siehts evtl. anders aus. Das OS-Problem hatte ich nicht bedacht.
 
Zu diesen Microrucklern: Könnte man bei so einem Test nicht vielleicht eine Videosequenz mit einbeziehen? Ich find es immer relativ schwierig zu erahnen, wie sich sowas auswirkt. Vor allem, weil ich mir die Kombi nicht zulegen werde.
 
@ y33H


Das steht aber auch:

S.T.A.L.K.E.R. – Call of Pripyat – Performance improves as much as 6% on single card configurations

Gut wie das mit Win7 aussieht weiß ich jetzt nicht, werde aber demnächst wechseln und kann das dann beurteilen. Mir ging es nur darum, dass man die Aussage das es noch keine Performanceverbesserungen bei der HD5er-Serie gab so nicht verallgemeinern kann.
 
Hmmm, die HD5k werden nicht explizit benannt, aber auch keine anderen Karten. Ergo gilts wohl zu für alle. Gut, dass ich ein "iirc" angehängt habe - in CoP ist damit eine Steigerung auch für die HD5k kommuniziert und du hast Recht.
 
sagt mal leute stört es euch nicht das COD MW2 nie in den allg bench genommen wird ?

oder habe ich hier was verpasst warum hier einfach kein COD6 gebencht wird aber dafür COD5 :rolleyes::freak:

da ist doch was faul :rolleyes:

und zur den kurztest oder allg test wäre es nicht was feines wenn man ab nun immer einen clip macht in 720p und über youtube hochlädt ?

also damit wir alle es besser betrachten können was genau damit gemeint wird bzw die problematik besser zu begutachten und dann auch mal selbert ein fazit machen können ;)

sowas müsste doch schon längst geschehen oder sind wir noch in den 90er jahren ? :freak::stacheln:
 
Da bin ich auch für!

Gerade Dirt2 aber auch andere Games mit über 100fps sollen ja laut Test unspielbar sein,

ein Videobeweis ist angebracht.

Mal sehen ob in diesem thread mal von CB ein Kommentar kommt oder ob wie beim Test HD5670
demnächst geschlossen wird.




mfg
 
Zuletzt bearbeitet:
F_GXdx schrieb:
Dort ist es 184%, bei Crysis Warhead ist es exakt 200%. Echt beeindruckend.

Bei Dirt 2 sind es 202%, stimmt schon was im Fazit steht. Trotzdem frag ich mich wie eine Skalierung von 100% bzw 102% mehr Leistung zustande kommen kann.
 
der test hammer hart und zeigt die wahre kraft der hd5XX0. wer solar energie zu hause schon nutzt den stören ja die 530 watt nicht so aber für die andren wird das woll drei mal überlegt werden sich sowas an zuschaffen.
also eine hd5970 würde ich eh schon gerne haben und jetzt nach den test so gar zwei.
 
ist mir unverständlich, wie einige multi gpu schönreden können. multi gpu ist nichts für enthusiasten, sondern für leute, die sich mit fake fps verarschen lassen. ist so, bin ja selber für amd.

übrigens finde ich hardware ziemlich unedel, die soviel strom fressen, laut werden und das system heizen.

es ist einfach ein schlechtes, überteuertes produkt. kann mir selber keine 5870 leisten, es ist also kein neid oder so.
 
Schwachsinnige KArte.

1 GB VRAM
CF ---> Microruckler ftw
Teuer!


Malwieder sone "hier guck mal wie lang er ist" Kombination, die aber in der Praxis unbrauchbar ist.
Tz....
 
milamber! schrieb:
Die Mehrqualität wird in den hohen Auflösungen und Qualitätseinstellungen eben dadurch erreicht, das man nicht mehr an den qualitätsverbessernden Optionen sparen muss, um weiterhin Spielbare Frameraten zu erzielen. Das dies nur bedingt bis gar nicht erreicht wird, sagt dieser Test aus, und mit Frameverläufen wäre das auch noch deutlicher.
Das meine ich doch.
Das Problem ist nur, das man nicht weiss, wie viel mehr Spielraum man an den Optionen hat.
Die FPS Angaben verraten es wie gesagt nicht, so etwas wie Frameverläufe wären besser.

Und vor allem deine subjektiven Äußerungen hätten hingegen nicht mehr Aussagekraft. Mich persönlich interessieren keine Treiber Tweaks und Texturmods, das können die "Enthusiasten" unter sich aus machen - oder die 'Profis' bei PCGH.
Mit subjektiv meinte ich viel mehr eine subjektive Beschreibung des Spielgefühls.

Die Kritik am "eingerosteten Testsetting" ist auch mal wieder nur das übliche Bellen deinerseits. Du machst keine Vorschläge, du gibst keine Anstöße, du provozierst und diffamierst lediglich.
Den AAA Schalter zu betätigen ist ein Vorschlag.
Gut, mach ich noch einen, nutzt wenn möglich SSAA.

Ansonsten habe ich mich oft genug wiederholt, was an den Settings uninteressant ist. 8xMSAA, 16xLQAF ist nicht das Höchste der Gefühle. Bei 1xxx€ Grafikkarten erwarte ich doch etwas mehr.
Siehe oben, z.b. SSAA. Wärs ein SLI Test hätte ich zudem sofort nach HQAF geschriehen.
Auf die angebliche Vergleichbarkeit kann man ruhig verzichten, wirft man die Geforces notfalls raus.

Sag mir, was soll ich noch für Vorschläge machen?

Big Baby Jesus schrieb:
@Unyu: was meinst du mit mehr Qualität?
Mehr BQ bei angenehmen flüssigem Ablauf.

Und bei Mikrorucklern ist es sowieso schon das Wort "Qualität" eine unpassende Wortwahl.
Eben, jede weitere GPUs senkt die Qualität erstmal.
Durch mehr FPS relativert sich das eventuell, bzw. kann sogar so weit gehen das die weiteren GPUs Vorteile bringen. In wie weit dies geschieht erzählt uns der Artikel NICHT.
 
Zurück
Oben