Microruckler für alle : Testprogramm für SingleGPU Nutzer

Blind nicht, eher furchtbar unempfindlich. Gibt ja auch Leute die Crysis mit 15 Fps als flüssig bezeichnen.

cYa
 
cosmicparty schrieb:
für mich sind simulierte programme, genau wie son theoretischer futuremark einfach "bullshit", sorry.

was zählt ist die realität in games und da sieht es irgendwie anders aus.

oder sind alle, die sagen, sie hatten noch nie probs mit sli/crossfire dann blinde hühner? :D

Pock,Pock,Pock...

Ne jetzt im Ernst. :D
Wie man in meiner Signatur erkennen kann habe ich Crossfire und das mit den 2 kleinsten Karten der 4000er Serie.

Ich finde das ist schon ein extremer Hype der da wegen den µRucklern gemacht wird.
Besonderst lustig ist es ja zu lesen wie so manche Leute sich extrem in die µRuckler festbeisen können und meinen das Spiele plötzlich nichtmehr spielbar seien.
Und erst recht dann weil sie selber noch nie SLI oder CF in Aktion erlebt haben.

Und ich stimme da völlig zu das diese Simulation einfach keine Realität entspricht und somit weder ein Garant noch ein untermauerter Beweis für das Darstellen von µRucklern belegt.

Ich hatte vorher auch jahrelang eine einfache Single-Karte verwendet und kann beim besten Willen keinen Unterschied zu CF feststellen. Wenn man mir nicht gesagt hätte das CF µRuckler erzeugt dann hätte ich bis jetzt noch nie was davon mitgekriegt.
Aber sehen tu ich sie trotzdem nicht.

Der Grund dafür ist doch sonnenklar.
µRuckler werden erst ab Frames unterhab 30/Sek. erkennbar.
Aber wenn ein Spiel so dermasen einbricht das es unter 30 Frames kommt dann ist doch weitaus mehr schuld am Ruckeln als der Frameversatz durch Dual-GPU.
Sprich. Man kann keinen Unterschied feststellen ob das Ruckeln nun µRuckler oder Performence-Ruckler sind !

Ich weiß nur eins das ich seit CF nun alle Spiele in FullHD super flüssig spielen kann außer Crysis aber das wissen wir ja alle das man da seine Ansprüche etwas dämpfen muß.
 
Immer wieder die selbe Argumentation -.-

Können wir es für die Zukunft einfach einmal dabei belassen, dass es Leute gibt, die nunmal Microruckler auch über 30fps erkennen, dass es nicht nur weltfremde Kiddies sind, die noch nie ein Dual-GPU-Gespann in Action gesehen haben und dass es auch nicht Sinn und Zweck des Programms ist, allen potentiellen Käufern MultiGP schlecht zu machen.

Jeder kann es testen, jeder kann für sich entscheiden und es gibt auch Leute, die sich durch diese Programm in ihrer Entscheidung zu MultiGPU bestätigt fühlen.
D-Jam schrieb:
(...) hat mir das "spiel" die wahl doch wieder ein wenig erleichtert ... ich werde mir 100%tig ein CF Sys holen


@Pickebuh

Pickebuh schrieb:
µRuckler werden erst ab Frames unterhab 30/Sek. erkennbar.
Wenn du Microruckler erst unter 30fps erkennst, ist dass doch für dich voll OK und damit hast du auch die richtige Entscheidung getroffen, dir ein MultiGPU System zuzulegen.

Deshalb musst du aber noch lange nicht über das Programm oder die Leute, die die Ruckler auch bei 50fps sehen, herziehen. Wie gesagt, die Wahrnehmung ist da sehr verschieden.
 
also wenn das tool worst case zeigt, dann sind 2 gpu's für mich gut vorstellbar. ab ca. 35 fps empfinde ich es als nicht mehr flüssig. bei single ab 30 fps.

@ klamann , genauso sehe ich das auch! daher finde ch das tool wirklich eine sehr gute idee! super sache!

die 4870x2 / gtx 260 sli ist für mich viel näher gerückt ;)
 
Klamann schrieb:
Wenn du Microruckler erst unter 30fps erkennst, ist dass doch für dich voll OK und damit hast du auch die richtige Entscheidung getroffen, dir ein MultiGPU System zuzulegen.

Das Problem ist das ich sie nichtmal unter 30 FPS erkenne.
Ich bin mir nichtmal sicher ob ich überhaupt schon welche gesehen habe...

Ja man wird halt alt und kann mit den jungen Leuten nichtmehr mithalten...

Deshalb musst du aber noch lange nicht über das Programm oder die Leute, die die Ruckler auch bei 50fps sehen, herziehen. Wie gesagt, die Wahrnehmung ist da sehr verschieden.

Wo steht denn geschrieben das ich über das Programm herziehe ?

Es ist nunmal Fakt das dieses Programm keinerlei Beweißkraft besitzt.
Ich halte das Programm sogar für sehr stark Geschäftsschädigend und das kann sehr schnell großen Ärger geben.

Allein der Umstand das ich bei dem Programm schon bei 50 FPS (sowie auch andere Leute hier) diese simulierten µRuckler erkenne kann aber bei den Spielen bis jetzt keinerlei Paralellen zu ziehen vermag zeigt doch ganz deutlich das dieses Programm absolut realitätsfremd aggiert und den Leuten die es benutzen suggeriert das die Multi-GPU Karten nur Ruckelschrott auf dem Monitor zaubern können.

Schlußendlich ist es nur ein nettes Proggie hat aber mit der Wirklichkeit absolut NICHTS gemeinsam !
 
In der Wirklichkeit ruckelt es teils sogar stärker, weil sowas wie das Prerender-Limit und die CPU, die Daten ranbringen muss, nicht simuliert werden.

cYa
 
Pickebuh schrieb:
Es ist nunmal Fakt das dieses Programm keinerlei Beweißkraft besitzt.


Du hast scheinbar nichtmal begriffen wofür dieses Tool da ist.

Es soll den Leuten zeigen wie MR aussehen WENN sie da sind und nicht beweisen das sie da sind.


Die Beweisführung das sie existieren obliegt der Hand der Testschreiber, ich gebe hier lediglich die Möglichkeit eben diese Werte (z.b. die aus dem CB Test über die 4870x2) einstellen und ausprobieren zu können ohne ein solches System zu besitzen.


Ich halte das Programm sogar für sehr stark Geschäftsschädigend und das kann sehr schnell großen Ärger geben.

Von wem ?

Ati und Nvidia haben doch längst zugegeben das dieses Problem existiert.


Wenn du dir einen teuren Mercedes kaufst und es kommt eine Rückrufaktion weil ALLE Motorsteuergeräte einen Fehler haben, dann sagst du doch auch nicht :
"Ich hab bisher nix gemerkt, die lügen doch !"

Ein Problem tot zu reden, bei dem sogar der Hersteller erkannt hat das die Sache nicht nur existiert sondern wirklich ein Problem ist, zeugt nicht gerade von Objektivität.
 
@Pickebuh: schön für dich...trotzdem kannst du nur für dich sprechen.Ich bin gelernter Fotograf,
da sollte man ein geschultes Auge haben,dann nimmt man die Microruckler auch wahr.

Realsmasher,danke für deine klasse Arbeit,lass dich bitte nicht entmutigen.
 
Laß' dich nicht unterkriegen, Realsmasher. Unbequeme Aussagen treffen halt oft auf viel Gegenwind.
 
Realsmasher:

dein also ist falsch, denn es sind :

33-5-61-5-61-5-61

OK...jetzt versteh ich das. Dann sind aber deine 5ms Delay bei deinem Programm in Wirklichkeite 28ms Delay....und das passt zu dem Bild dass man stärkeres Ruckeln wahrnimmt als wenn der Delay kürzer ist.

Bei dir wird aus 33-33-33 dann also 5-61-5-61
Das sind für mich nach einfacher Logik 28ms Delay und nicht 5.

Wenden wir das wieder auf den Call of Juarez Test der CB an:

Dort haben wir im schnitt 30 FPS bei einer Single Karte und entsprechend 33-33-33
Bei der X2 dagegen: 48-12-48-12
Ebenfalls 30 im Schnitt....Der Delay ist dort also ca. 15-21 ms (was vermutlich nur ein Ablesefehler von dem graphen ist denn die MRs sind ja schon sehr konstant in ihrem Delay)

Ich würde das an deiner Stelle als Erklärung in das Programm aufnehmen wie sich bei dir der Delay berechnet...ich finde du hast da eine "inverse" Logik. Oder zumindest ne genauere Erklärung warum mit "weniger" delay mehr ruckeln zu beobachten ist...was eigentlich nicht sein kann. Am stärksten ruckeln auf X2 systemen tuts wenn der Delay hoch ist.
 
@Klamann

Ja, beide *.exe probiert, programm und rechner neu gestartet, auch die aelteren versionen des programms getestet...bild bleibt schwarz...
 
Tut mir ja leid TrippleT, aber einen bei mir nicht reproduzierbaren Fehler kann ich leider nicht beheben :(


Danke nochmal für die viel Unterstützung :)


@ Iscaran :

Dann sind aber deine 5ms Delay bei deinem Programm in Wirklichkeite 28ms Delay....und das passt zu dem Bild dass man stärkeres Ruckeln wahrnimmt als wenn der Delay kürzer ist.

Bei dir wird aus 33-33-33 dann also 5-61-5-61
Das sind für mich nach einfacher Logik 28ms Delay und nicht 5.

das Bild von GPU2 kommt 5ms nach dem Bild von gpu1.

Möglicherweise ist die Bezeichnung Delay nicht gut gewählt, aber genau diese werte gibt cb auch im Test an.


Dort haben wir im schnitt 30 FPS bei einer Single Karte und entsprechend 33-33-33
Bei der X2 dagegen: 48-12-48-12
Ebenfalls 30 im Schnitt....Der Delay ist dort also ca. 15-21 ms

Das Delay zwischen frame 1 und 2 liegt bei 12.



Warum gerade die kurze Abstand wichtig ist : weil er der Auslöser für alles ist.

Wäre der Abstand größer, dann würde der Abstand zwischen frame 2 und 3 kleiner ausfallen und somit die frames insgesamt gleichmäßiger.

Zudem kann man mit dem "delay" und den fps ganz easy die worst-case-fühlbaren fps ausrechnen :

wcfps = 1000/(((1000/fps)*2)-delay)

bsp für das COJ Szenario :

33,3fps
Delay 12ms

wcfps = 1000/(((1000/33,3)*2)-12) = 20.81fps



Ich hoffe so wird es etwas klarer.
 
Das Delay am 60Hz-Monitor liegt bei 16,66ms. Wann wird der Frame denn nun angezeigt, der 5ms nach dem vorherigen kommt?

Frame 1 = Zeit X
Frame 2 = Zeit X + 5ms, wird aber erst zu Zeit X + 16,66ms dargestellt (eine korrekt implementierte 3D-Engine dürfte so etwas gar nicht zulassen)

Da ist dann ein Versatz von 11,66ms, der für den Ruckeleffekt sorgt. Wenn der Frame gleich angezeigt werden würde, dann aber eine etwas größere Pause entstünde, würde man es nicht so stark sehen, da das menschliche Gehirn ohnehin nicht so viele Bilder pro Sekunde sinnvoll verarbeiten kann. Es fällt nur auf, weil die Szene von "vor 11,66ms" erst "jetzt" angezeigt wird. Das verfälscht den zeitlichen Ablauf der Szene.

Um die Ruckler zu vermeiden, müsste der Treiber wissen, wann GPU1 zu 50% mit der Berechnung des Frames fertig ist und dann den nächsten Frame an GPU2 schicken. Dann würde es nur noch zeitliche Verschiebungen geben, wenn sich die Komplexität der Szene stärker ändert und die Berechnung deutlich schneller bzw. langsamer vonstatten geht.

Solange das nicht gewährleistet ist, wird es immer diese Ruckeleffekte geben.

Interessant wäre noch zu erfahren, wie die µRuckler auf CRT-Monitoren bei z.B. 120Hz und höher aussehen. Dort dürfte es IMO nicht so stark auffallen. Ich habe leider keinen solchen CRT mehr hier, sonst würde ich es selbst testen.
 
Zuletzt bearbeitet:
Warum redet ihr eigentlich alle von 60Hz?

Mein TFT läuft mit Nvidia Treibern standartmäßig auf 75Hz....

Ist das jetzt gut oder schlecht?
 
kannst du mal erklären wie du die Frameszeit(Zeit bis zur ausgabe) errechnest (im Programm)?

Also Beispielhaft

Frame 1 - x ms
Frame 2 - x ms
Frame 3 - x ms

avg frames usw.
 
Sagt mal. Gab es das Problem auch schon zu Voodoo 2 Zeiten? Ist es da nur niemanden aufgefallen, oder.....?
 
@H4N5

Gab es nicht, da die Voodoo2 mit Scan Line Interleaving (SLI) arbeitete, d.h. beide Grafikkarten rechnen an einem Bild. Von daher sind Microruckler ausgeschlossen.
ATi und Nvidia haben sich ja für Alternate Frame Rendering (AFR) entschieden.
 
3DFX SLI = Scan-Line Interleave
Nvidia SLI = Scalable Link Interface

So wie ich das damals verstanden habe war es bei 3DFX so dass das halbe Bild von der einen Karte berechnet wurde und die andere Hälfte von der anderen.

Ich hatte damals ein SLI System und habe keine Mikroruckler festgestellt.
Ich weiss noch wie ich Unreal auf einmal in 1024x768 spielen konnte. Das war ne Augenweide. :)
 
Zurück
Oben