Test ATi Radeon HD 3870 X2 im Test: AMDs ersehnter Griff nach den Sternen

Das kann ich dir jetzt auch nicht genau sagen. Da man, wie bereits erwähnt, das zustande kommen der Microruckler noch nicht ganz geklärt hat, kann dir auch niemand sagen, warum es manchmal auftritt und manchmal nicht. Ebensowenig lässt sich deswegen sagen, ob dies je treibermässig gefixt werden kann.
 
fixx fixx
 
Zuletzt bearbeitet:
Es kann auf jeden Fall gefixt werden per Treiber.

Die Frage ist eher: Wird es gefixt?


Für ATI/NV kostet es viel Geld ein Treiberteam nur mit dieser Aufgabe zu beschäftigen.
Die Karten würden an Balkenlänge verlieren, wenn sie immer schön syncronisiert werden. -> Das ist im Grunde das Totschlagargument. Solange die Balkenlänge über alles geht, gibt es keinen Fix.
 
Wenn du noch eine Röhre hast kann man dies gut testen. bei 60 Hertz (oder für empfinlichere 75 hertz ^^) sieht man beim direkt draufschauen kein direktes flimmern mehr. wenn man aber am Bildschirm vorbeischaut und ihn nur noch am blickfeldrand sieht, flimmert es auf einmal duetlich.

Ich habe zwar keine Röhre mehr, doch dieser Effekt ist mir bekannt. Und ich hatte ihn in Vergangenheit schon oft erlebt. Nur über den Grund habe ich mir bisher keine Gedanken gemacht. Und wieder was dazu gelernt. Danke! :)

Ja.
100ms -> 10fps -> imho unspielbar

*sich an den Kopf fasst*

Natürlich, darauf hätte auch ich kommen können. :D Danke! ;)

LG
Ganeagon

PS: Ich wollte mir die X2 wahrscheinlich zulegen. Nicht jetzt, erst in ein paar Monaten, aber trotzdem, die Mikroruckler scheinen ja doch ziemlich übel zu sein. :/
 
@ Unyu, das man immer wieder auf den 24 fps rumreiten muss. -.- Das ist doch völlig schnuppe! dann mach 30 draus und passe die Zahlen an und fertig. wo ist das problem? Das soll doch nur der verständlichkeit dienen. wo nun die genaue Grenze liegt ist doch schnuppe, zumal das eben auch an anderen Faktoren wie zum Beispiel dem Blickwinkel abhängig ist. Dachte, der Hinweis mit dem genau draufschauen würde ausreichen um dies zu verdeutlich. irgendwo muss ein richtwert gefunden werden, der aber nur bei bestimmten Faktoren "100%" ist. und da sind die 24 fps nunmal gängig.
 
das Problem der mikroruckler ist in jedem Fall vollständig geklärt, sowohl was die ursache, als auch was die lösung angeht.

ich werde die frametimes gleich mal nehmen und eine Art Ablauf aus "realen" fps und gefühlten fps berechnen lassen, bin schon gespannt, weil das meine Entscheidung mit Sicherheit stark beeinflussen wird :)


edit : Ergebnisse der ersten 1000 Frames :

durchschnittliche frametime insgesamt : 37.5ms
durchschnittliche angegebene FPS : 26,6

durchschnittliche frametime der zweiten frames : 60.5ms
durchschnittliche gefühlte fps : 16,5

FPS Verlust durch "microruckler" : 38%

ist schon beachtlich und eindeutig mehr als ich erwartet habe, allerdings sind das hier ja auch durchschnittlich nur 26fps und nicht 55 wovon zuerst die Rede war.


Aus diesem Grund hab ich dasselbe nochmal für die Frames 3000-4000 laufen lassen :

durchschnittliche frametime insgesamt : 18.5ms
durchschnittliche angegebene FPS : 53.9

durchschnittliche frametime der zweiten frames : 27,2
durchschnittliche gefühlte fps : 36,7

FPS Verlust durch "microruckler" : 32%




Also die Ergebnisse hauen mich um.

Selbst bei >50 fps immer noch massive Verluste durch zu früh begonnene Zweitframes.
Damit ist die Karte für mich vorerst gestorben.


Danke an l33 schon mal für die Frametimes !

Wärst du eventuell so freundlich das gleiche nochmal bei einem anderen Spiel mit ähnlichen fps Werten(30-50) zu machen ?
Ich wüsste nur gerne ob das eventuell doch ein crysis Problem ist wie du vermutest.

Eventuell kannst ja sowas wie UT3, Jericho, Dirt,Bioshock oder ein anderes spiel mit guter CF Skalierung mal kurz probieren und nochmal aufzeichnen, muss auch nicht unbedingt so lang sein.

Wäre echt Klasse wenn wir da klarheit hätten.
 
Zuletzt bearbeitet:
hmm also hier passts ja so ungefähr mit den frames. ist wohl wirklich nur von spiel zu spiel verschieden. also kommt auf die programmierung an...
 
Oh gott!
Was lese ich da!
Sind die Microruckler nur bei wenigen Spielen oder sind sie doch heftig?
Sollte man sich diese Karte nun nicht kaufen?
Beim CB Test wird das Problem mit den Microrucklern ja ziemlich minimiert.
Beim Fazit steht auch: Es führt kein Weg an dieser Graifkkarte vorbei(Im High End Bereich).
Scheiße, jetzt weiß ich nicht mehr ob ich sie kaufen werde.

Greetz.Mr.Mushroom
 
hallo hab gerade die Need for speed PRo Street getestet da muss ich Ati mal loben die karte leuft dort absolut tadelos was man auch in den frame tests sehen kann. ich hab so ca im schnitt mit 90 fps gespielt bei voller auflösung sprich 1400 x 1050 bei höchsten details und 4 x Antialiasing also im spiel alles auf max gestellt. Damals bei meiner 2900xt lief das spiel um welten schlechter genau 50 % langsamer. an Antialiasing war mit ner 2900 gar nicht dran zu denken :)


Diese Diskussion über die microruckler sind Treiber Probleme die Ati ausmerzen wird.Es kommen zahlreiche Treiber für diese Karte ... die nächsten 3 treiber versionen werden sicherlich speziel für Crysis optiemiert werden,das steht fest.

ich kann diese Karte nur empehlen. man sollte immer bedenken das bei Crysis ca 50 Mitarbeiter von NVidia mit gebastelt haben... und das spiel Millionen gekostet hat.....
 

Anhänge

Zuletzt bearbeitet:
ist das jetzt oblivion oder dirt ?

naja, zur auswertung :

durchschnittliche frametime insgesamt : 11.3ms
durchschnittliche angegebene FPS : 88.3

durchschnittliche frametime der zweiten frames : 12.7ms
durchschnittliche gefühlte fps : 78.4

FPS Verlust durch "microruckler" : 12%


Hier scheint das Problem eher klein zu sein, wobei das bei solch hohen FPS werten ja auch allgemein erwartet wurde.



edit @ L33 :


durchschnittliche frametime insgesamt : 11.7ms
durchschnittliche angegebene FPS : 85.3

durchschnittliche frametime der zweiten frames : 17.1ms
durchschnittliche gefühlte fps : 58.5

FPS Verlust durch "microruckler" : 31%


und das trotz derart hoher fps zahlen. Das ist ja schrecklich, ich dachte eigentlich über 50fps würde das problem nichtmehr auftreten, tut es aber trotzdem und auch noch so heftig.


---> wenn nicht ein treiber erscheint der das fixt kann man das alles vergessen -> karte nutzlos :(
 
Zuletzt bearbeitet:
erkär mir mal wie du das ausrechnest?

denn... bei meiner 2900xt lief das damals richtig scheisse...... mit solch hohen settings also ich find das jetz nich so schlecht wie das lief :|
 
Zuletzt bearbeitet:
Ich hab die Exe umbennant sonst hat man nicht wirklich die Leistung in Dirt;)

Wie gesagt sind mir persönlich noch keine Microruckler aufgefallen, Crysis lass ich jetzt mal ausenvor da dort Ati noch hinterherhinkt.

Ich werde noch ein paar Games so Testen aber das Thema wird hier schon sehr aufgepusht und einfach sagen das die Karte "nutzlos" ist ist mal völlig daneben:rolleyes:

l33 sagt ja selber das es absolut Traumhaft läuft (NFS pS)...
 
jop, bischen übertrieben das ganze ;)
 
bei deinem dirt bench ist die sache ja auch praktisch nicht vorhanden.

hingegen finde ich 30% Verlust bei nfs schon mehr als deutlich. Klar sind gefühlte 58.5 fps bei einem 60hz monitor immernoch super flüssig, aber um solche high-fps spiele ging es ja auch nie.

Die Frage ist ob Spiele die nur mit 30-50fps laufen diese Probleme aufweisen.

Bei 90 fps ist mir das egal, da bin ich dann auch mit den 45 einer einzelkarte mehr als zufrieden.


edit :

erkär mir mal wie du das ausrechnest?

hab mir ein kleines Programm dazu geschrieben.

Es berechnet zum einen sämtliche differenzen zwischen den einzelnen frames um heraus zu bekommen wie lange ein frame angezeigt wird.

Dieser wert wird addiert und am ende durch die Anzahl aller frames geteilt, so kommt man auf die angezeigten fps.


Die gefühlten fps sind hingegen von den längeren frametimes abhängig.

die 2 GPUs berechnen unabhängig voneinander die bilder. Bild 1 ist zum zeitpunkt x fertig, bild 2 etwas später und noch etwas später kommt bild 3 von gpu1 wieder.

nun liegen zwischen diesen 3 Bildern 2 pausen, nämlich die zeit wo Bild 1 angezeigt wird und die zeit wielange Bild 2 angezeigt wird.

Das Problem der Microruckler ist nun, das Bild 1 nur kurz gezeigt wird und dann ewig Bild2 zu sehen ist, dann wieder kurz Bild3, dann laaange Bild4.

berechnet man nun die FPS auf basis der angezeigten Bilder von GPU2, also jene die man länger sieht, dann bekommt man heraus wie das ganze auf einen wirkt.

Natürlich ist das nur gefühlsmäßig zu verstehen und nicht als genauer Wert, aber in etwa diesem Maße kann man es abschätzen, wobei man sagen muss, das die von mir angegebenen "durchschnittliche gefühlte fps" den Worst-Case darstellen und es in der Realität etwas flüssiger wirken KÖNNTE.

Da ich kein solches System besitze kann ich es leider nicht selbst probieren und mir ansehen.


Hoffe ich hab es einigermaßen verständlich erklärt....
 
Zuletzt bearbeitet:
ich glaube nicht, das das so schnell gefixt wird... Crossfire und Dualkarten gibts nun wirklich schon ne ganze weile und nichts mit Änderung per Treiber.

Eine Synchronisation der Frames ist auch nur eine Behebung der Symptome, keine Bekämpfung der Ursache. Zumal die Synchro die durchschnittlichen Frames stark senken würde, da die Karten ja immer wieder warten müssen.
 
hi,
mal ne frage, mit der 3870 X2 sollte man in COD4 2 Grafikkarten einstellen?

G. Chris
 
Radeon HD3870 X2 mit GDDR4-Speicher in den Startlöchern?

In Sachen Chipakt überflügelt die, diese Woche vorgestellte, Radeon HD3870 X2 die Radeon HD3870 um ein paar Megahertz. Beim Speichertakt hat die Dual-GPU-Karte (900 MHz) gegenüber ihrem kleineren Namensvetter (1.080 MHz) das Nachsehen.

Dieser Umstand könnte sich jedoch demnächst ändern, denn laut einer Meldung von Techconnect.com bereiten diverse Hersteller bereits Modelle mit GDDR4-Speicher vor, welcher höhere Taktraten verkraftet und somit eine gesteigerte Speicherbandbreite erwarten lässt. Sapphire könnte womöglich der erste Vertreter sein, der eine solche Karte auf den Markt wirft.

Quelle: Klick
 
Mustis schrieb:
Zumal die Synchro die durchschnittlichen Frames stark senken würde, da die Karten ja immer wieder warten müssen.


das ist quatsch. Wann Karte 2 mit dem frame beginnt ist unerheblich für die gesamtanzahl an frames.

Eine Senkung könnte nur entstehen wenn die fps insgesamt stark schwanken und die syncro sich ständig anpassen muss.

Selbst disen Fall könnte man aber durch minimale microruckler ausgleichen, z.b. gpu 2 konservativ lieber ein wenig zu früh als zu spät beginnen lassen.


Ob so eine technik aber überhaupt kommt und wann ist fraglich.

Irgentwie bin ich schon ein wenig enttäuscht. wollte mir eigentlich eine x2 holen, aber so nich. lieber nich.


Bleibt nur die Frage nach einer Alternative für 1920*1200...naja wirds wohl ne einzel 3870 mit so viel OC wie geht :(
 
Zurück
Oben