Test Mikroruckler bei Grafikkarten

@Payne19: und was soll das bringen? Der schlimmste Fall, der bei MGPU eintreten kann ist, dass es dank Mikroruckler effektiv nur so schnell ist wie eine Karte alleine. Klar, du kannst eine GPU abschalten, aber dann hast halt Makroruckler :p

In Bereichen wo du mit MGPU Mikroruckler bemerkst (nicht nur theoretisch misst), bist du mit einer GPU schon laengst im unspielbaren Bereich.
 
Zuletzt bearbeitet von einem Moderator:
Ich verstehe auch nicht, warum hier solch ein Test gebracht wird, der zwar den entsprechenden Treiber von AMD erwähnt, aber eben nicht beinhaltet.
So stellt der Artikel doch aktuell nur wieder dar, dass AMD in diesem Bereich noch Nachholbedarf hat und rückt NVidia mal wieder schön ins bessere Licht.

Den Vorher/Nachher Vergleich mit und ohne Frame Pacing Treiber hätte man auch nach dem 31. bringen können und hätte somit dann auch gleich gezeigt, ob es dann bei AMD oder NVidia besser läuft.

Aber nö, lieber bringt man nen halben Monat vorher so einen pro NVidia Artikel und lässt AMD nochmal richtig schön alt aussehen.
 
domidragon schrieb:
Zitierenregel beachten. Danke.


Gut möglich das der von manchen gemessene CPU Effekt da vlt. zuschlägt? manche Kombinationen aus CPU und GraKa produzieren vlt. mehr gerade mit HT enabled bei Intel und andere weniger. Wäre sehr schön wenn CB das in seinem nächsten test mit untersucht!

@morrich: Ja aber es ist nun mal einfach Fakt das AMD Nachholbedarf hat wieso ist es denn verboten das zu schreiben? (und das sag ich als eigentlicher AMD-fan)
 
Zuletzt bearbeitet von einem Moderator:
@Jan

Nochmal wegen der Diagrammfarben:

Wichtig wäre hier ein großer Kontrast, sprich Unterscheidung in der Farbhelligkeit.
Farbuntüchtige erkennen Nuancen hauptsächlich über Helligkeitsunterschiede.

Das muß man ausprobieren. Einer hatte Rot/Blau vorgeschlagen. Geht schon, wenn man zB ein dunkles Blau und ein helles Rot nehmen würde. Dunkles Blau und dunkles Rot sind in Kombination für uns kaum Unterscheinbar. Für mich zB wären beide auf den ersten Blick und auf hellen Untergrund, erst mal Schwarz. Erst nach wirklich genauem Hinsehen erkenne ich dann die Unterschiede :-)

Dunkelrote oder dunkelblaue Schrift auf weißem Grund ist auch erst mal Schwarz. Na ja, läßt sich schwer erklären.

Wie gesagt, die Farben ansich sind vielleicht beim schnellen Überfliegen erst mal gar nicht so wichtig. Der Kontrast muß stimmen :-)

Gruß, Schattenspender
 
Nvidia hat Redaktionen nicht nur die FCAT-Software zur Verfügung gestellt, auch der Speicher, die Video-Capture-Karte (Neupreis um die 1.500 US-Dollar) und der Switch (Neupreis um die 400 Euro) sind eine Leihgabe – darauf sei an dieser Stelle hingewiesen.
Ach das erklärt nun auch wieso der Test erst Monate nachdem das Thema entbrannt ist auf CB erscheint. Danke das ihr euch die Mühe gemacht habt alles zu testen. Und schön das auch endlich jemand auf die Idee gekommen ist eine Ramdisk zu verwenden anstatt ein SSD raid :evillol:


karod3 schrieb:
Ah ich dachte dieses dual-GPU Karten verhalten sich bezüglich Mircoruckler noch mal anders als single-GPU Karten im SLi/Crossfire Betrieb.
die GTX690 hatte einen zusatz chip verbaut der Mikroruckler eliminieren soll, ja.




btw meine persönliche Wunschliste wäre noch:
3GPU Benchmarks
Eyefinity /Surround Benchmarks.

gerade da ein AMD Mitarbeiter iwo mal erwähnt hat das Eyefinity völlig anders funktioniert als Einzel Monitor und daher der Wundertreiber gar nichts bringen wird.
 
Ich weiß nicht, was ihr habt. Der AMD-Alpha-Treiber wurde doch auch gestestet und er funktioniert offensichtlich trotz Alpha-Status größtenteils schon sehr gut, so dass AMD, wenn er den offiziell erscheint, damit unterm Strich mindestens gleich auf mit Nvidia sein wird.

Wie man daraus ableiten kann, CB würde AMD absichtlich runtermachen wollen, kann ich einfach nicht nachvollziehen. :rolleyes:

Dass "böserweise" auch noch die aktuellen Treiber und damit die Situation der letzten Jahre berücksichtigt wurde, kann man doch wohl kaum übel nehmen.

Wie hätte ein Artikel in 3 Wochen denn aussehen sollen? Nur mit dem dann brandneuen AMD-Treiber und ganz ohne Vergleich zu den bisherigen Zuständen, so dass es aussieht, als ob es das Mikroruckler-Problem niemals gegeben und Nvidia (und CB und der Rest der Welt) die ganze Zeit alles nur aufgebauscht hätte?
Das würde ich dann doch eher als tendenziöse Berichterstattung sehen.
 
TrabT schrieb:
@morrich: Ja aber es ist nun mal einfach Fakt das AMD Nachholbedarf hat wieso ist es denn verboten das zu schreiben?

Der Artikel ist halt unvollständig und das Fazit völliger Quark:
CrossFire ist aktuell nicht zu empfehlen, in zu vielen Spielen machen deutliche Mikroruckler den Spielspaß zunicht

2 Karten erlauben einem Aufloesungen und Einstellungen zu spielen die mit 1 Karte unmoeglich sind weil dann die FPS unter 20 fallen. Und wenn man in den problematischen Spielen einen Frameratenbegrenzer wie z.B. in Afterburner, RadeoPro oder Dxtory verwendet dann kriegt man die Ruckler auch sehr gut in den Griff.

Mit meinen 2x7970 kann ich hoehere Einstellungen als eine Titan benutzen und hab nur 2/3 von dem Geld ausgegeben.

PS: Bei der naechsten Gelegenheit werde ich aus verschiedenen Gruenden wahrscheinlich mal wieder zu Nvidia wechseln, aber Crossfire ist fuer mich mit ein wenig tweaken sehr gut verwendbar.

Ach ja, was bei der 7970 (und anderen 7xxx Karten) auch noch toll ist (evtl. bei einigen Nvidia Karten auch), dass mit 'Zero Core Power' sich die 2. Karte komplett abschaltet wenn sie nicht gebraucht wird und damit keinen Strom verbraucht und kein Geraeusch verursacht.
 
Zuletzt bearbeitet:
Ich finde es amüsant und traurig zugleich, dass es AMD(ATI) und NVIDIA es seit 2004(?) immer noch nicht geschafft haben, die Microruckler zu beseitigen bzw. sie fast völlig auszumerzen.....Naja da bin ich nach fast 10 Jahren immer noch beim gleichen Entschluss...SLI/CF? Never ever!
 
Bin gespannt ob man für Hyprid-CF auch Fortschritte gibt sobald Kaveri da ist.
 
Tobi86 schrieb:
Ich bin so glücklich mit meiner Intel OnChip HD4600. Damit kann ich wunderbar aktuelle Spiele spielen, ganz ohne Ruckler oder "Mikroruckler". Lächerlich!

Mir geht es ähnlich, in Spielen heißt meine Grafikkarte immer HD4000!

.... Moment, unter dem Decknamen tarnt sich ja meine 7970M :lol:
 
also für mich war SLI oder CF nie ein thema.
ich kaufe lieber alle4-5 jahre eine sehr gute wenn auch teure grafikkarte und hab dann meine ruhe und keine mikroruckler.
meine GF GTX580 habe ich seit gut 4jahren drinne und sie packt noch alle meine spiele auf maximalen details flüssig. meine nächste wird wohl eine gtx880.
 
willi23 schrieb:
Battlefield 3 is schon ne Diva in Sachen Mikroruckler. Damit ich das spiel flüssig wahrnehmen kann muss ich HT und die ganzen anderen Intel Gimmicks bei meinem I-5 abschalten und ich hab ne Single Chip GPU..

Welcher I5 verfügt denn über HT, doch wohl nur die 2 Kerner und ohne HT ist damit BF3 erst recht nicht spielbar, da die Performance dnan um 50% einbricht.
Insofern kann man deiner Aussgen keinen Glauben schenken, außre du hast dich verschrieben und meinst einen i7.

Anbei, ich höre sie noch die STimmen aus allen Richtungen, das man mit einer AMD Single GPU auch unter massiven Microrucklern zu kämpfen hat und das eine 7970 sich damit immer schlechter anfühlt als eine 680GTX, das Echo halt noch lange nach aber wie man sieht ist das alles nur heiße Luft gewesen, was ich selbst bei jedem Wechsel ins andersfarbige Lager erleben durfte.
 
Wenn man so in die Signaturen schaut, ist es komisch, dass hier fast nur AMD-GPU-Besitzer sich aufregen.

Der Artikel zeigt einfach den aktuellen Stand. In einem Monat gibt es dann den nächsten aktuellen Stand. Man kann sich hier wirklich künstlich aufregen. Was kommt als nächstes? Darf man dann auch nicht mehr über die GPU schreiben, weil der Konkurrent ja ein paar Wochen/Monate später seine auf den Markt bringt und dann alles anders ist ...

cb hat die redaktionelle Freiheit so zu berichten, wie sie es für richtig und angemessen halten und dabei sollte auf keinen Fall das Image einer beliebigen Firma eine Rolle spielen.
 
Bluescreen schrieb:
also für mich war SLI oder CF nie ein thema.
ich kaufe lieber alle4-5 jahre eine sehr gute wenn auch teure grafikkarte und hab dann meine ruhe und keine mikroruckler.
meine GF GTX580 habe ich seit gut 4jahren drinne und sie packt noch alle meine spiele auf maximalen details flüssig. meine nächste wird wohl eine gtx880.


Gratuliere du hast also die GTX580 grob 1 1/4 Jahre VOR ihrem eigentlichen Erscheinungstermin gehabt...Ich möchte auch GPU Beta tester sein...
:D
GeForce GTX 580 9 November 2010
Aber grob hast du recht....normalerweise reicht es in einem 2...2-3 Jahrestakt aufzurüsten.

Update: Hehe LOL @unter mir war etwas schneller beim tippen :D
 
Bluescreen schrieb:
also für mich war SLI oder CF nie ein thema.
ich kaufe lieber alle4-5 jahre eine sehr gute wenn auch teure grafikkarte und hab dann meine ruhe und keine mikroruckler.
meine GF GTX580 habe ich seit gut 4jahren drinne und sie packt noch alle meine spiele auf maximalen details flüssig. meine nächste wird wohl eine gtx880.

dann hast du aber ein sehr frühes sample erhalten bei release date 09.11. 2010
 
Ich hab Multikarten nach meinen 2 3GB GTX580 aufgegeben. Lief zwar relativ problemlos aber wars mir nicht mehr wert. Die Einstellungen, schauen ob beide Karten laufen, Fehlersuche...
Der Unterschied zu den BQ Einstellungen war mir eh nie so wichtig. Das schärfere ATI/AMD Bild sagt mir eher zu als das weichere Nvidia. Will damit sagen, dass ich nie so ein BQ Fetischist war. Wollt eben mal alles rausholen.
Ich bin inzwischen davon überzeugt, dass man besser immer die beste Single GPU nehmen sollte, ist einfach weniger Geschiss. Die Titan reizt mich schon, aber mit der GTX 580 kann man heute auch noch leben. Spiele ich eben GTA 5, sollte es mal kommen, mit weniger Details.
Ich bin übrigens mit einer GTX 580 völlig zufrieden beim BF3 Zocken.
 
Bin ich denn blind? Der einzige Unterschied, der für mich im Video zu sehen ist, ist, dass er sich manchmal schneller und manchmal langsamer dreht... Ich sehe keine Microruckler... :(
 
Wenn ich alles richtig verstehe, liegt folgendes Problem vor: Die beiden GPU rendern unabhängig von einander jeweils eine Bildschirmhälfte. Da sich die 3D-Welt während des Renderns verändert (In-Game-Time) und die beiden GPU meist unterschiedlich schnell arbeiten (weil die beiden Bildschirmhälften nur selten einen völlig gleichen Komplexitätsgrad aufweisen) kommt es an der Nahtstelle oft zu einem horizontalen Versatz, wenn sich beispielsweise der Avatar dreht.

Könnte man dieses Problem nicht beseitigen, in dem die beiden GPU in der Bildschirmmitte anfangen zu rendern und eine von der Mitte nach oben, die andere hingegen von der Mitte nach unten arbeitet? Dann hätten wir zu Beginn des Renderns bei beiden GPU die gleiche In-Game-Time und es könnte kein Versatz entstehen.
 
Bin natürlich auch sehr gespannt was AMDs Treiber so drauf hat.
Ich für meinen Teil benutze die DVC (Dynamic V-Sync Control) aus den Radeon Pro Tools.
Nix anderes als Nvidias Adaptive-V-Sync.
Diese Funktion liefert für mich das mit Abstand beste Ergebnis.
Auch Bekannte die besagte Problematik der Mikroruckler nur aus Berichten und Videos kennen waren doch sehr überrascht wie gut diese "Lösung" funktioniert wenn sie das mal auf meiner Kiste gesehen haben.
Lösung schrieb ich aber nicht umsonst in Anführungszeichen,weil natürlich da mehr von AMD (und Nvidia) kommen muss um die MR wirklich vollständiig zu bändigen.

Das CrossFire aktuell überhaupt nicht zu empfehlen ist kann ich deswegen so nicht unterschreiben.
 
Die Mikroruckler sind der horizontale Versatz bei schneller Drehung des Avatars, meist in der Nähe des Übergangs vom oberen Bildschirmdrittel zum Darunterliegenden.
 
Zurück
Oben