Test ATi Radeon HD 3870 X2 im Test: AMDs ersehnter Griff nach den Sternen

In der aktuellen Ausgabe der PC Games Hardware wurde die 3870 X2 getestet.
Am Ende des Testberichtes wird folgendes geschrieben:

Alle aktuellen Muti-GPU-Verfahren haben ein Problem, das jedoch nur empfindliche Zeitgenossen als störend empfinden. Die Symptome lauten: Trotz höherer (angezeigter) Frameraten durch Multi-GPU-Berechnungen wirken 3D-Szenen oftmals nicht flüssiger als mit einer Karte - oder sogar ruckeliger.

Verursacht wird das Phänomen durch eine Disharmonie bei der Frame-Ausgabe. Die Multi-GPU-Verfahren AFR (Alternate Frame Rendering) und SFR (Split Frame Rendering) berechnen das Bild - wie die Namen vermuten lassen - durch Aufteilung der Frames auf die multiblen GPU's. Dabei sorgt mangelndes Balancing dafür, dass die berechneten Frames in unterschiedlichen Intervallen ausgegeben werden, sodass für das (empfindliche) menschliche Auge kein harmonischer, also flüssiger Ablauf zustande kommt. Damit werde die höheren Fps-Werte relativiert - und der Gedanke von mehr Leistung durch multiple Grafikchips wird ad absurdum geführt.

Crossire, SLI und auch Multichrome von S3 Graphics sind alle betroffen und gelten deswegen in diversen Hardware-Foren schon als "Benchmark-Gewinnverfahren" anstatt spieletaugliche Lösungen. Nvidia ist das Problem schon eine Weile bekannt, man arbeite bereits an einer Lösung.


Tja, sind dann doch ziemlich vernichtende Worte die man dan in der PC Games findet. Decken sich auch mit den meisten Foren, da dort immer wieder von Microrucklern geschrieben wird. Ob ATI das Problem irgendwann mal mit Treibern beheben kann, bleibt abzuwarten. Ich jedenfalls kaufe mir jetzt bestimmt keine Karte für über 300 eur die vielleicht in ein paar Monaten ordentlich funktioniert. Wenn dann muss die Karte ab dem 1. Tag bei allen Spielen schnell sein!
Mal sehen wie die Lage dann Ende März aussieht. Dann werd ich mir einen neuen PC zusammen stellen. Ist das Problem bis dahin noch nicht behoben werd ich bestimmt zur Single GPU tendieren.
 
Habe den Artikel auch gelesen.
Da hatte ich meine Karte noch nicht. War dann ziemlich enttäuscht, als ich das las.

Doch nun hat sich alles gewendet.
Von wegen Mikroruckler. Entweder bin ich blind oder naja....
 
@Rush|: als nvidia-fan würde ich mich nicht bezeichnen. Hatte mit nvidia-Karten auch schon Probleme, so z.B. mit einer überhitzenden 6800GTO.
Allerdings schreibe ich hier im Forum meine Meinung über eine Grafikkarte, die ich selbst besessen habe. Und die Probleme, die ich in dieser kurzen Zeit mit der Karte hatte, reichen mir aus. In Crysis hatte ich im GPU-Benchmark trotz relativ hohen ~39fps im Schnitt extreme Ruckler, die ich mit der GTX bei ~35fps (gleiche settings) nicht hatte. Für ältere games brauche ich auch keine X2, da hier die GTX auf jeden Fall ausreicht. Von daher bin ich von der X2 enttäuscht.
Die anderen Probleme habe ich ja bereits in einem anderen thread angeführt.

Ich finde einfach, dass man nicht von einer Hammerkarte sprechen und diese uneingeschränkt empfehlen kann, wenn man sie selbst noch nie getestet hat.
 
@ Maddin007 und @ mmic29 :

könntet ihr mal bitte sagen welchen Monitor ihr verwendet ?


so langsam muss mal Licht in die Angelegenheit gebracht werden ob die Mikroruckler auf vernünftigen Monitoren(MVA/IPS) auch auftreten oder nur auf den TN/Röhren mit wahnsinns Reaktionszeiten.
 
@Maddin007,

nur leider wäre dein sys nicht 100%tig performend wie mein sys für crysis:(

musst mindestens q6600 3,6ghz (emfohlen ab 4ghz hoch:freak: ) auf ein x38 chipsatzt board und ein raptor mit 10000 RPM

erst dann wird x2 so richtig -->:schaf: :D
 
Zuletzt bearbeitet:
wer erzählt denn so einen blödsinn ?

bsp crysis : selbst ein E6600 @ 2.4ghz ist stark genug um hier 80fps und mehr zu erreichen(siehe CB Test), dabei ist es VÖLLIG unabhängig welche grafikkarte man verwendet, solange diese das auch schafft.(was natürlich bei aktuell keiner der fall ist, außer in low details)

Frag mich echt immer wo solche Zahlen herkommen.

Der Chipsatz ist genauso unwichtig wie die Festplatte. Wie kommt man bitte auf die idee durch minimal schnelleres Levelladen ein flüssigeres Spielverhalten zu erzeugen ?

Langsam wirds abenteuerlich


achja gecan, selbe frage an dich : welcher monitor und wie stark spürst du mikroruckler ?
 
@ Gecan

Habe hier eine WaKü am laufen *äätsch* :D. Ich habe diese exakt vor 10 Minuten zu Ende installiert :p. Daher läuft mein Q6600 NOCH auf 2.4 Ghz. 3.6 Ghz sollte ich noch schaffen *hoff*. Ein X38 Board ist hierbei eigentlich nicht nötig...

@ Realsmasher

Einfach mal in die Signatur schauen. Habe einen Dell 2407 WFP Revision A04 (das ist die Revision, die nicht schliert). Ich denke mal, dass das ein sehr guter Monitor mit S/PVA Panel ist...
Wobei ich aber nicht denke, dass es etwas mit dem Moni zu tun hat. Warum sollte es bei einer GTX zum Beispiel ohne Mikroruckler laufen?

Wie gesagt merke ich hier nichts von Mikrorucklern. Obwohl die Frametimes bei CoD4 nicht gerade für sich sprechen. Für mich isses flüssig wie Sau..
 
Zuletzt bearbeitet:
Maddin007 schrieb:
Wie gesagt merke ich hier nichts von Mikrorucklern. Obwohl die Frametimes bei CoD4 nicht gerade für sich sprechen. Für mich isses flüssig wie Sau..
Dann teste doch mal ohne CF, dafür mit weniger FPS, denn wahrscheinlich brauchst du gar nicht so viele FPS, um einen für dich flüssigen Eindruck zu haben.
 
@Realsmasher,

du meinst e6600 2,4ghz sei stark genug für x2?


ich hab ein Hyundai W240D:smokin:

mit der x2 läst sich genau so prima spielen wie ein normales hd3870:hammer_alt: halt viel mehr power natürlich;)

jedes spiel auser nfs street und crysis hat x2 seine macken manchmal, was ich mir aber sicher bin das es an treiber liegt:rolleyes:

aber sonst den power der x2 muss man einfach selbst erleben :o
 
Zuletzt bearbeitet:
Maddin007 schrieb:
Wobei ich aber nicht denke, dass es etwas mit dem Moni zu tun hat. Warum sollte es bei einer GTX zum Beispiel ohne Mikroruckler laufen?

Wie gesagt merke ich hier nichts von Mikrorucklern. Obwohl die Frametimes bei CoD4 nicht gerade für sich sprechen. Für mich isses flüssig wie Sau..


genau das spricht doch dafür das es eben doch was mit dem monitor zu tun hat.
MVA/PVA/IPS und andere bessere zeigen das Bild immer erst rund 20-30ms nachdem sie es bekommen haben an.

Dadurch würden mikroruckler praktisch automatisch geglättet werden und man bräuchte kein Tool mehr dafür.

Das ist aber nur eine Vermutung.

Jedoch würde das Sinn machen, wenn Leute mit gutem Panel keine Probleme haben, während die Röhren und TN Nutzer Ruckler wahrnehmen.

Im Moment stehts da 1:0 für die Theorie.



@ gecan :

Ob die CPU reicht ist von Spiel zu Spiel unterschiedlich.

Bei Crysis reicht jeder billig cpu, bei supreme commander reicht selbst für eine einzelne 3870 kein 4ghz quad.

Die x2 braucht jedenfalls NICHT mehr cpu-power als eine Einzelkarte welche gleich viele FPS raushaut, auch wenn dieser Irrglaube weitgehend besteht.


Leider hast du nicht geschrieben ob du irgentwo spürbare Mikroruckler(nicht flüssig trotz >30fps) wahrnimmst, somit hilft mir der Monitor auch nicht weiter. Oder ich habs übersehen...
 
Zuletzt bearbeitet:
die cf verwaltung übernimmt nicht die cpu.

es ist technisch völlig unmöglich das eine x2 die 50fps erzeugt mehr cpu power braucht wie eine beispielsweise eine ultra die 50fps erzeugt, ganz einfach weil eine graka keine anforderung an die cpu stellt, sondern nur das beste aus dem machen kann was die liefert und das ist gpu unabhängig.

natürlich, wenn die x2 MEHR fps erzeugen soll(z.b. 60), dann braucht sie auch eine schnellere cpu, in dem Fall eine 20% schnellere, was 3ghz -> 3,6ghz entspricht.
 
Empire schrieb:
... ein Problem, das jedoch nur empfindliche Zeitgenossen als störend empfinden.....

... sodass für das (empfindliche) menschliche Auge kein harmonischer, also flüssiger Ablauf zustande kommt. ...


Tja, sind dann doch ziemlich vernichtende Worte die man dan in der PC Games findet. Decken sich auch mit den meisten Foren, da dort immer wieder von Microrucklern geschrieben wird. Ob ATI das Problem irgendwann mal mit Treibern beheben kann, bleibt abzuwarten. Ich jedenfalls kaufe mir jetzt bestimmt keine Karte für über 300 eur die vielleicht in ein paar Monaten ordentlich funktioniert. Wenn dann muss die Karte ab dem 1. Tag bei allen Spielen schnell sein!
Mal sehen wie die Lage dann Ende März aussieht. Dann werd ich mir einen neuen PC zusammen stellen. Ist das Problem bis dahin noch nicht behoben werd ich bestimmt zur Single GPU tendieren.

Wie man´s nimmt, ich für mein Teil gehöre (zum Glück?) zu eben jenen Zeitgenossen die Microruckler nicht wahrnehmen von daher stört es mich nicht weiter. Ansonsten steht es natürlich jedem frei das Wunschsystem mit SLI/CF vor der Anschaffung erst einmal anderswo unter die Lupe zu nehmen.
Testberichte sind immer so eine Sache, der eine interpretiert da etwas ganz anderes rein als der andere von daher, selbst testen und gut is ;)
 
Hallo!

Eine Frage an die Besitzer einer 3870 X2, die ZWEI Monitore angeschlossen haben:

Sind Crossfire (also der Betrieb beider GPUs gleichzeitig) und ein Multimonitorbetrieb (erweiterter Desktop unter Windows) möglich? Ich hörte da nämlich von Problemen, bei denen angeblich entweder Crossfire ODER Multimonitorbetrieb möglich seien.
 
der treiber dafür ist jedenfalls rausgekommen, allerdings bin ich mir nicht sicher ob CF jetzt bei allen CF Karten im Multimonitorbetrieb funktioniert oder nur bei der x2.

naja, bei letzterer in jedem Fall, das wolltest du ja eigentlich wissen.
 
Gut.. das wäre neben den Mikrorucklern das K.O. Argument gegen die Karte. Aber wen es jetzt läuft, umso besser.
 
So Leutz, habe heute meine CPU Übertaktet. Von 2.4 auf 3.6 Ghz (Stabil).

Davor hatte ich ja 12.995 3D Marks. Und nun (mit WaKü - wie ihr an den Tempreaturen erkennen könnt):



Will 20.000 :D
 
Ich denke mal das dein Rechner bei der auflösung egal wie der cpu getaktet ist die benchs in die 20000er richtung gehen wird.

mfg MVS
 
3dmark ist sehr cpu abhängig.

Du kannst da ne alte sm2.0 karte ins system reinstopfen und die auflösung auf 2650*1200 drehen, solange du einen schnellen quad dazupackst bekommst du immer haufenweise Punkte.

Da lob ich mir die alten Versionen, wo wirklich noch Werte rauskamen die man ETWA mit Spielen vergleichen konnte.
 
Zurück
Oben