Test Mikroruckler bei Grafikkarten

Zweiter Absatz...

Das kann so weit gehen, dass ein Titel unspielbar wird und auf einer einzelnen Grafikkarte gar besser läuft – obwohl die Bilder pro Sekunde höher liegen.

Müsste es durch den Satzaufbau nicht eigentlich "niedriger" heißen? Ich sehe das so, dass der letzte Teil des Satzes auf eine einzelne GPU bezogen ist und nicht auf zwei... und die liefert eigentlich weniger FPS.

Ansonsten ist es meiner Meinung nach ein gelungener Artikel.
 
Herdware schrieb:
@karod3
GTX690 und HD7990 sind SLI und Crossfire. Das sind im Prinzip jeweils zwei eigenständige Karten auf einer Platine, die untereinander per PCIe verbunden sind. Also genau das selbe, wie bei zwei einzelnen Karten.
.

Ah ich dachte dieses dual-GPU Karten verhalten sich bezüglich Mircoruckler noch mal anders als single-GPU Karten im SLi/Crossfire Betrieb.
 
CF versagt bei vier Spielen nur in einem vollkommen. In zweien kaum und in einem gar nicht. (Gemessen am Vergleich zur NVIDIA)
Trotzdem wird hier ein vernichtendes Urteil gegeben, mit kurzer Bewertung eines Alphatreibers, der aber im Fazit keine/kaum Beachtung findet.
Da sich bisher doch kaum was getan hat, spielt doch ein jetziger Test kaum eine Rolle und die paar Tage hätte man doch noch warten können?
Weiterhin könnte man teilweise bei den Formulierungen davon ausgehen, dass Ihr aus Sicht von NVIDIA das Ganze wiederspiegelt und nicht 'ganz' objektiv seid, was dadurch verstärkt wird, dass die Messtechnik auch von NVIDIA stammt. So wird z.B. von Euch in einem Satz die AMD Karte als Konkurrenzprodukt titeliert.

Ich selbst habe immer ein komisches Bauchgefühl bei so etwas, aber ich bin trotzdem auf den Test gegen Ende diesen Monats bzw. im nächsten Monat gespannt.
Man könnte den Eindruck haben, dass man Menschen, die sich informieren möchten und wenig Ahnung von der MAterie haben, schnell noch mitgeben möchte, dass nvidia deutlich besser ist als amd, noch bevor der finale treiber erscheint. Dazu hat nvidia schnell noch Testequipment zur Verfügung gestellt, damit die Testsnoch vor Release des Treiber stattfinden können.
Die Vergangenheit hat ja bereits bewiesen, dass sich einige Dinge sehr gut einbrennen lassen und sich lange halten und immer so weitergegeben werden. Es dauert Jahrzehnte um veraltete Vorurteile dann wieder zu korrigieren.
 
Zuletzt bearbeitet:
Trotzdem wird hier ein vernichtendes Urteil gegeben, mit kurzer Bewertung eines Alphatreibers, der aber im Fazit keine/kaum Beachtung findet.

Das negative Fazit zu CrossFire im Status quo fällt mit einem Absatz genau so lang aus wie die positive Erwähnung des Alphatreibers einen Absatz später. Deine Einschätzung teile ich damit nicht.
 
Ich reihe mich in den Reigen der Kritiker ein:

- Warum wurde nicht noch die drei Wochen gewartet, bis der Treiber verfügbar ist?
- Warum gibt es keinen Hinweis auf RadeonPro bzw. Framelimiter?
- Warum wurde nicht auch mit anderen CPUs getestet?

Speziell durch die Verwendung von RadeonPro kann ich den folgenden Satz NICHT unterschreiben:
"CrossFire ist aktuell nicht zu empfehlen, in zu vielen Spielen machen deutliche Mikroruckler den Spielspaß zunichte."

Was bleibt ist ein Artikel auf Bild-Niveau mit den üblichen nVidia-Lobeshymnen zum unsinnig gewählten Zeitpunkt.

Generell:

- Warum gibt es auf Computerbase in letzter Zeit immer wieder Beiträge, die einen an Eurer Neutralität zweifeln lassen?

Für eine Beantwortung meiner Fragen wäre ich sehr dankbar...
 
Zuletzt bearbeitet:
Der Zeitpunkt für diesen Test ist denkbar schlecht gewählt und widerspricht einem professionellen redaktionellen Verhalten. Diese 3 Wochen bis zur Veröffentlichung des Treibers hätte man doch warten können.

Zugzwang ? Androhung von Gewalt ?
Was ist hier schief gelaufen , dass man nicht warten konnte... ?!

Mein Verständnis hält sich arg in Grenzen.

Mfg
ssj3rd
 
Jan schrieb:
Das negative Fazit zu CrossFire im Status quo fällt mit einem Absatz genau so lang aus wie die positive Erwähnung des Alphatreibers einen Absatz später. Deine Einschätzung teile ich damit nicht.

Danke das du damit meine Aussage bestätigst. Wie gesagt. Es wird kurz Erwähnt, aber das Fazit lautet aufgrund dessen anders und dort wird nichts dergleichen darüber erwähnt. Ein solches Fazit ein paar Tage vor Release des neuen Treibers und aufgrund der Erfahrungen mit dem Alphatreibers abzugeben, finde ich mehr als fragwürdig. Schnell nochmal eben den aktuellen Stand losschießen, bevor sich alles ändert? Aus meiner Sicht könnte man hier ganz klar Absicht erkennen. Für NVIDIA auf jeden Fall gelungen. alles weitere habenich ja vorher schon geschrieben.

Nichtsdestotrotz bin ich auf den nachfolgenden Test gespannt.
 
Also auch wenn Mikroruckler hier auf CB seit Jahren ein Thema sind,kann ich bei meinen Erfahrungen nichts übermäßig schlechtes berichten.Sowohl mein SLI Verbund aus zwei 8800GTS damals,sowie ein ausführlich getestetes Crossfire Gespann eines Kumpels das damals aus Gigabyte Komponenten bestand (GA 790X UD4 und 2x Gigabyte HD 5770) liefen nahezu perfekt und ich fragte mich schon damals,was viele Leute mit den Mikroruckern überhaupt für Probleme haben.

Mag sein,das diese Erlebnisse aufgrund abenteuerlichen Konfigurationen der Hardware entstehen,wenn ich mir aber wieder mal ein SLI und Crossfire System basteln sollte,dann weis ich,das alle Komponenten von ein und demselben Hersteller kommen werden.

Bei meiner unteren 8800GTS konnte ich nur die zu große Abwärme bemängeln damals (mein Chieftec Gehäuse war aber auch eher ein Server Gehäuse,welches nicht vom Airflow für SLI ausgelegt war)aber seit dieser Zeit hat sich sicherlich sehr viel getan,sowohl von der Hardware,als auch Treiberseitig.
 
Zuletzt bearbeitet:
bigot schrieb:
Tut mir leid das sagen zu müssen, aber ich bin von dem Artikel enttäuscht, da überhaupt nicht auf die Rolle der CPU eingegangen wird bzw. da nicht mit einer AMD-CPU oder einer Intel NON-HT CPU gegengetestet wird. Das wird schlichtweg von nahezu allen Magazinen totgeschwiegen. Afaik hat den Einfluss der CPU bisher nur ein ausländisches (asiatisches?) Magazin untersucht.

Battlefield 3 is schon ne Diva in Sachen Mikroruckler. Damit ich das spiel flüssig wahrnehmen kann muss ich HT und die ganzen anderen Intel Gimmicks bei meinem I-5 abschalten und ich hab ne Single Chip GPU..
 
Ich gebe zu Bedenken, nicht nur die Ausgabezeit des Frames ist wichtig (wie von FCAT gemessen), sondern auch wann der Inhalt berechnet wurde.
Stellt euch einfach den schlimmsten Fall vor, man gibt Frames mit absolut gleichem Inhalt mit 30fps aus. Trotzdem steht das Bild. ;)
Wenn nun bei jedes 2. Frame sich vom vorherigen nur sehr wenig unterscheidet (weil z.b. nur 1ms Gametime zwischen dem 1. und dem 2. Frame lag), dann mikroruckelts auch wenn sie absolut gleichmaeszig ausgegeben werden.
 
Ich kann beim Besten Willen keine Microruckler sehen.
Da wo man sie angeblich sehen soll, sehe ich nur übelstes Tearing!
:freak:
 
Warum nicht 3 Wochen warten? Damit es der erste Test ist, auf den in dernächsten Zeit dann auch verwiesen werden wird. Erster am Markt. Und dies beschreibt den momentanen und aktuellen Status - keine Diskussion. Da gibt's auch von den AMD-Fanboys nichts zu meckern. Keiner hat gesagt, dass es sich nicht in 3 Wochen ändern könnte und ggf gibts es ja einen Nachtest.
 
Hier heulen alle wieder rum, fehlt nurnoch der Hinweis darauf, das cb von nVidia gekauft/bestochen/erpresst wird. Es ist ein Artikel, der den aktuellen Stand darstellen will und es auch tut. Es wird sogar auf den alpha-Status des Treibers hingewiesen. Vielleicht kann sich hier manch engstirniger Kommentator auch mal versuchen vorzustellen, dass es dann nächsten Monat einen Artikel mit den neuen Treibern geben könnte. und hoffentlich dann auch mit Vergleich mit den jetzigen Ergebnissen.

Wenn es cb irgendwie möglich ist, würde ich es begrüßen wenn sie ein eigenes FCAT-System kaufen und betreiben würden, statt es von nVidia auszuleihen (das hat für mich auch einen bitteren Nachgeschmack). Denke, dass das auch für künftige Tests und Reviews besser ist, als auf dem Testsystem selbst zu messen/aufzuzeichnen.

@CPU-Einfluss:
IMHO gibt es den nicht wirklich bzw. ergibt es für mich keinen Sinn, mit kleineren CPU und dem möglichen CPU-Limit bei einem GPU-Test zu messen. Aber bitte cb, macht auch diesen Test, sodass das nicht immer diskutiert werden muss.
 
Super Artikel, danke CB

Mfg
JeverPils
 
Auf das, was AMD an Nvidias-Messmethode auszusetzen hat, wurde doch im Artikel recht ausführlich eingegangen.

FCATs einzige Schwäche ist, dass es eine insgesamt verzögerte Wiedergabe (Inputlag/Latenz) nicht messen kann, sondern nur die Gleichmäßigkeit, sprich die Mikroruckler.

Mit wahrscheinlich sehr viel Aufwand könnte man diese Verzögerung vielleicht auch noch messtechnisch erfassen, aber der subjektive Vergleich zwischen alten und neuem AMD-Treiber macht ja schon klar, dass das bei schweren Fällen von Mikrorucklern auch nichts raus reißt. Es nutzt halts nichts, wenn die Wiedergabe etwas schneller auf die Aktionen des Spielers reagiert, aber das Bild dabei wie wild stottert.
AMD hat daraus die richtige Konsequenz gezogen und bietet mit dem neuen Treibern den Spielern an, selbst für jedes Spiel einzustellen, ob wenig Mikroruckler oder niedrige Latenz gewünscht ist.

Ansonsten ist an Nvidias Messmethode und damit auch dem CB-Artikel nichts auszusetzen.
 
Eine Bekannte von mir hat sich vor 2 Wochen ein SLI Notebook gekauft. Ich war sehr skeptisch am Anfang, muss jetzt aber sagen, dass das Ding echt gut läuft.
Bei Farcry 3 allerdings durfte ich auch das erste mal sehen/spüren, was Mikroruckler eigentlich sind. Das Spiel lief mit ~25FPS unspielbar! Also fix VSync angeworfen und siehe da: es läuft absolut spielbar (FC3 läuft mit niedrigen FPS generell ganz gut)!

Mein Fazit ist daher: DualGPU Systeme sind schon zu was zu gebrauchen, aber bei Mikrorucklern hört der Spaß auf!
 
Achtung OT:

schade!....

Ich bitte hier ein weiteres Mal auf die Rücksicht von Farbenschwachen bzw blinden. Rot-Grün Schwäche/Blindheit ist die häufigste davon und immernoch werden hier dauernd Graphen in diesen beiden Farben gewählt.
Ich habe zwar nur eine leichte Rot-Grünschwäche, aber bei diesen dünnen Strichen reicht das aus, damit ich Sie nur unter Anstrengung unterscheiden kann...

Diese Gegebenheit macht leider viele Artikelgraphen für mich unleserlich.

Wurde dieses Thema schonmal detailierter adressiert? Bisher hab ich zumindest keine Antwort vernommen.
Grüße Cooks

Topic:

Bin mal gespannt wer zuerst eine Möglichkeit findet Mikroruckler sogut zu eliminieren, dass Sie nicht mehr auffallen.
Bisher kommt für mich noch keine Dual Graka Lösung in Frage.
 
Muss hier Vielen, die den Artikel kritisieren zustimmen. Der Zeitpunkt für den Test ist äußerst schlecht gewählt. Diesen gab es genau so schon mal auf Tomshardware (hier nicht sogar auch schon mal?).
Entweder hätte man den Alpha-Treiber komplett außen vorlassen und auf einen separaten Test zum Release des FP-Treibers am 31.07. hinweisen sollen oder den Test komplett noch die 3 Wochen aufschieben sollen.
So fühlt es sich leider so an als würde man AMD noch mal einen Seitenhieb mitgeben wollen.

Das Einzige was hier für mich Sinn gemacht hat, war die Single-GPUs auf Framelatenz-Probleme zu testen und siehe da: Es gibt beim AMD keine (sind mir auch nie aufgefallen mit der 7970 GHz). Naja Hauptsache ein paar Fanboys hatten die Monate seitdem die "Problematik" aufgekommen ist, die Möglichkeit sich künstlich dran aufzugeilen und Hateposts vom Stapel zu lassen :D

Zur Thema Mikroruckler und deren Spürbarkeit bei Dual-GPU Setups kann ich selbst nicht viel sagen, weil ich es bisher noch nicht genutzt habe. Ein Freund von mir hat seit Jahren 2 HD6870 verbaut und nie spürbare Probleme damit gehabt. Ich selbst werde es wohl mal ausprobieren, wenn der Framepacing-Treiber draußen ist und die 7970 GHz noch etwas weiter im Preis gefallen ist.
Generell würde ich aber sagen, dass es auch immer eine persönliche Wahrnehmungssache ist, wie bei vielen Sachen. Während andere Leute den Unterschied zwischen 60 und 120 Hz nicht sehen, liegen für mich noch Welten dazwischen und ich würde die 120 Hz nicht mehr missen wollen.
 
Hmm... Also mal ehrlich und ich habe ein gutes Auge! Ich merke nichts von diesen Mikrorucklern! Ich hatte damals schon zur 8000 Generation von Nvidia, SLi in meinem System und da hat man es noch feststellen können. Heute mit meinen zwei 580 GTX merke ich garnichts mehr! Es gibt ja unzählige Videos, wo man diesen Effekt erkennen kann, wie z.B. bei Far Cry 3: Video. Da merkt man es deutlich! Nur kann ich diesen Effekt überhaupt nicht bei mir feststellen. Ich hab das mal bei mehreren Spielen beobachtet - BF3, Crysis 3... und dennoch ist nichts zu erkennen!

Ich weiß nicht ob's jetzt nur an den Treibern liegt oder ob es an der PC Hardware liegt. Bei mir ist alles sauber und flüssig (ab 40 FPS). Ich bin der Meinung, man kann es mit bloßen Augen (zumindest bei mir) nicht mehr erkennen. Es ist evtl noch messbar, mehr aber auch nicht. Ich möchte noch anmerken, ich bin jemand der sehr genau auf Fehler in Spielen oder sonstige Probleme mit dem Bild aufmerksam beobachtet. Wo andere nichts erkennen, sehe ich den feinen Unterschied! Auch ein nettes Beispiel: Tearing, FPS stottern! Das Problem mit dem Vsync: Was die meisten ja nicht mal mit bloßen Augen erkennen können, kann man evtl durch dieses Video mal wahrnehmen bzw den Unterschied sehen: Video
 
Zurück
Oben