Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Microruckler für alle : Testprogramm für SingleGPU Nutzer
- Ersteller Realsmasher
- Erstellt am
Klamann
Lieutenant
- Registriert
- Nov. 2006
- Beiträge
- 967
schonmal das Programm neugestartet? DIe Vista Version probiert?TrippleT schrieb:XP x86 Geforce 8600...lauft nicht...bild bleibt schwarz...
War bei mir auch mal so... kein Programm ist perfekt ^^
P
Pickebuh
Gast
cosmicparty schrieb:für mich sind simulierte programme, genau wie son theoretischer futuremark einfach "bullshit", sorry.
was zählt ist die realität in games und da sieht es irgendwie anders aus.
oder sind alle, die sagen, sie hatten noch nie probs mit sli/crossfire dann blinde hühner?
Pock,Pock,Pock...
Ne jetzt im Ernst.
Wie man in meiner Signatur erkennen kann habe ich Crossfire und das mit den 2 kleinsten Karten der 4000er Serie.
Ich finde das ist schon ein extremer Hype der da wegen den µRucklern gemacht wird.
Besonderst lustig ist es ja zu lesen wie so manche Leute sich extrem in die µRuckler festbeisen können und meinen das Spiele plötzlich nichtmehr spielbar seien.
Und erst recht dann weil sie selber noch nie SLI oder CF in Aktion erlebt haben.
Und ich stimme da völlig zu das diese Simulation einfach keine Realität entspricht und somit weder ein Garant noch ein untermauerter Beweis für das Darstellen von µRucklern belegt.
Ich hatte vorher auch jahrelang eine einfache Single-Karte verwendet und kann beim besten Willen keinen Unterschied zu CF feststellen. Wenn man mir nicht gesagt hätte das CF µRuckler erzeugt dann hätte ich bis jetzt noch nie was davon mitgekriegt.
Aber sehen tu ich sie trotzdem nicht.
Der Grund dafür ist doch sonnenklar.
µRuckler werden erst ab Frames unterhab 30/Sek. erkennbar.
Aber wenn ein Spiel so dermasen einbricht das es unter 30 Frames kommt dann ist doch weitaus mehr schuld am Ruckeln als der Frameversatz durch Dual-GPU.
Sprich. Man kann keinen Unterschied feststellen ob das Ruckeln nun µRuckler oder Performence-Ruckler sind !
Ich weiß nur eins das ich seit CF nun alle Spiele in FullHD super flüssig spielen kann außer Crysis aber das wissen wir ja alle das man da seine Ansprüche etwas dämpfen muß.
Klamann
Lieutenant
- Registriert
- Nov. 2006
- Beiträge
- 967
Immer wieder die selbe Argumentation -.-
Können wir es für die Zukunft einfach einmal dabei belassen, dass es Leute gibt, die nunmal Microruckler auch über 30fps erkennen, dass es nicht nur weltfremde Kiddies sind, die noch nie ein Dual-GPU-Gespann in Action gesehen haben und dass es auch nicht Sinn und Zweck des Programms ist, allen potentiellen Käufern MultiGP schlecht zu machen.
Jeder kann es testen, jeder kann für sich entscheiden und es gibt auch Leute, die sich durch diese Programm in ihrer Entscheidung zu MultiGPU bestätigt fühlen.
@Pickebuh
Deshalb musst du aber noch lange nicht über das Programm oder die Leute, die die Ruckler auch bei 50fps sehen, herziehen. Wie gesagt, die Wahrnehmung ist da sehr verschieden.
Können wir es für die Zukunft einfach einmal dabei belassen, dass es Leute gibt, die nunmal Microruckler auch über 30fps erkennen, dass es nicht nur weltfremde Kiddies sind, die noch nie ein Dual-GPU-Gespann in Action gesehen haben und dass es auch nicht Sinn und Zweck des Programms ist, allen potentiellen Käufern MultiGP schlecht zu machen.
Jeder kann es testen, jeder kann für sich entscheiden und es gibt auch Leute, die sich durch diese Programm in ihrer Entscheidung zu MultiGPU bestätigt fühlen.
D-Jam schrieb:(...) hat mir das "spiel" die wahl doch wieder ein wenig erleichtert ... ich werde mir 100%tig ein CF Sys holen
@Pickebuh
Wenn du Microruckler erst unter 30fps erkennst, ist dass doch für dich voll OK und damit hast du auch die richtige Entscheidung getroffen, dir ein MultiGPU System zuzulegen.Pickebuh schrieb:µRuckler werden erst ab Frames unterhab 30/Sek. erkennbar.
Deshalb musst du aber noch lange nicht über das Programm oder die Leute, die die Ruckler auch bei 50fps sehen, herziehen. Wie gesagt, die Wahrnehmung ist da sehr verschieden.
-curuba-
Lt. Commander
- Registriert
- Mai 2008
- Beiträge
- 1.301
also wenn das tool worst case zeigt, dann sind 2 gpu's für mich gut vorstellbar. ab ca. 35 fps empfinde ich es als nicht mehr flüssig. bei single ab 30 fps.
@ klamann , genauso sehe ich das auch! daher finde ch das tool wirklich eine sehr gute idee! super sache!
die 4870x2 / gtx 260 sli ist für mich viel näher gerückt
@ klamann , genauso sehe ich das auch! daher finde ch das tool wirklich eine sehr gute idee! super sache!
die 4870x2 / gtx 260 sli ist für mich viel näher gerückt
P
Pickebuh
Gast
Klamann schrieb:Wenn du Microruckler erst unter 30fps erkennst, ist dass doch für dich voll OK und damit hast du auch die richtige Entscheidung getroffen, dir ein MultiGPU System zuzulegen.
Das Problem ist das ich sie nichtmal unter 30 FPS erkenne.
Ich bin mir nichtmal sicher ob ich überhaupt schon welche gesehen habe...
Ja man wird halt alt und kann mit den jungen Leuten nichtmehr mithalten...
Deshalb musst du aber noch lange nicht über das Programm oder die Leute, die die Ruckler auch bei 50fps sehen, herziehen. Wie gesagt, die Wahrnehmung ist da sehr verschieden.
Wo steht denn geschrieben das ich über das Programm herziehe ?
Es ist nunmal Fakt das dieses Programm keinerlei Beweißkraft besitzt.
Ich halte das Programm sogar für sehr stark Geschäftsschädigend und das kann sehr schnell großen Ärger geben.
Allein der Umstand das ich bei dem Programm schon bei 50 FPS (sowie auch andere Leute hier) diese simulierten µRuckler erkenne kann aber bei den Spielen bis jetzt keinerlei Paralellen zu ziehen vermag zeigt doch ganz deutlich das dieses Programm absolut realitätsfremd aggiert und den Leuten die es benutzen suggeriert das die Multi-GPU Karten nur Ruckelschrott auf dem Monitor zaubern können.
Schlußendlich ist es nur ein nettes Proggie hat aber mit der Wirklichkeit absolut NICHTS gemeinsam !
- Registriert
- Juli 2005
- Beiträge
- 4.046
Pickebuh schrieb:Es ist nunmal Fakt das dieses Programm keinerlei Beweißkraft besitzt.
Du hast scheinbar nichtmal begriffen wofür dieses Tool da ist.
Es soll den Leuten zeigen wie MR aussehen WENN sie da sind und nicht beweisen das sie da sind.
Die Beweisführung das sie existieren obliegt der Hand der Testschreiber, ich gebe hier lediglich die Möglichkeit eben diese Werte (z.b. die aus dem CB Test über die 4870x2) einstellen und ausprobieren zu können ohne ein solches System zu besitzen.
Ich halte das Programm sogar für sehr stark Geschäftsschädigend und das kann sehr schnell großen Ärger geben.
Von wem ?
Ati und Nvidia haben doch längst zugegeben das dieses Problem existiert.
Wenn du dir einen teuren Mercedes kaufst und es kommt eine Rückrufaktion weil ALLE Motorsteuergeräte einen Fehler haben, dann sagst du doch auch nicht :
"Ich hab bisher nix gemerkt, die lügen doch !"
Ein Problem tot zu reden, bei dem sogar der Hersteller erkannt hat das die Sache nicht nur existiert sondern wirklich ein Problem ist, zeugt nicht gerade von Objektivität.
SeriousToday
Ensign
- Registriert
- Dez. 2005
- Beiträge
- 165
@Pickebuh: schön für dich...trotzdem kannst du nur für dich sprechen.Ich bin gelernter Fotograf,
da sollte man ein geschultes Auge haben,dann nimmt man die Microruckler auch wahr.
Realsmasher,danke für deine klasse Arbeit,lass dich bitte nicht entmutigen.
da sollte man ein geschultes Auge haben,dann nimmt man die Microruckler auch wahr.
Realsmasher,danke für deine klasse Arbeit,lass dich bitte nicht entmutigen.
Realsmasher:
dein also ist falsch, denn es sind :
33-5-61-5-61-5-61
OK...jetzt versteh ich das. Dann sind aber deine 5ms Delay bei deinem Programm in Wirklichkeite 28ms Delay....und das passt zu dem Bild dass man stärkeres Ruckeln wahrnimmt als wenn der Delay kürzer ist.
Bei dir wird aus 33-33-33 dann also 5-61-5-61
Das sind für mich nach einfacher Logik 28ms Delay und nicht 5.
Wenden wir das wieder auf den Call of Juarez Test der CB an:
Dort haben wir im schnitt 30 FPS bei einer Single Karte und entsprechend 33-33-33
Bei der X2 dagegen: 48-12-48-12
Ebenfalls 30 im Schnitt....Der Delay ist dort also ca. 15-21 ms (was vermutlich nur ein Ablesefehler von dem graphen ist denn die MRs sind ja schon sehr konstant in ihrem Delay)
Ich würde das an deiner Stelle als Erklärung in das Programm aufnehmen wie sich bei dir der Delay berechnet...ich finde du hast da eine "inverse" Logik. Oder zumindest ne genauere Erklärung warum mit "weniger" delay mehr ruckeln zu beobachten ist...was eigentlich nicht sein kann. Am stärksten ruckeln auf X2 systemen tuts wenn der Delay hoch ist.
- Registriert
- Juli 2005
- Beiträge
- 4.046
Tut mir ja leid TrippleT, aber einen bei mir nicht reproduzierbaren Fehler kann ich leider nicht beheben
Danke nochmal für die viel Unterstützung
@ Iscaran :
das Bild von GPU2 kommt 5ms nach dem Bild von gpu1.
Möglicherweise ist die Bezeichnung Delay nicht gut gewählt, aber genau diese werte gibt cb auch im Test an.
Das Delay zwischen frame 1 und 2 liegt bei 12.
Warum gerade die kurze Abstand wichtig ist : weil er der Auslöser für alles ist.
Wäre der Abstand größer, dann würde der Abstand zwischen frame 2 und 3 kleiner ausfallen und somit die frames insgesamt gleichmäßiger.
Zudem kann man mit dem "delay" und den fps ganz easy die worst-case-fühlbaren fps ausrechnen :
wcfps = 1000/(((1000/fps)*2)-delay)
bsp für das COJ Szenario :
33,3fps
Delay 12ms
wcfps = 1000/(((1000/33,3)*2)-12) = 20.81fps
Ich hoffe so wird es etwas klarer.
Danke nochmal für die viel Unterstützung
@ Iscaran :
Dann sind aber deine 5ms Delay bei deinem Programm in Wirklichkeite 28ms Delay....und das passt zu dem Bild dass man stärkeres Ruckeln wahrnimmt als wenn der Delay kürzer ist.
Bei dir wird aus 33-33-33 dann also 5-61-5-61
Das sind für mich nach einfacher Logik 28ms Delay und nicht 5.
das Bild von GPU2 kommt 5ms nach dem Bild von gpu1.
Möglicherweise ist die Bezeichnung Delay nicht gut gewählt, aber genau diese werte gibt cb auch im Test an.
Dort haben wir im schnitt 30 FPS bei einer Single Karte und entsprechend 33-33-33
Bei der X2 dagegen: 48-12-48-12
Ebenfalls 30 im Schnitt....Der Delay ist dort also ca. 15-21 ms
Das Delay zwischen frame 1 und 2 liegt bei 12.
Warum gerade die kurze Abstand wichtig ist : weil er der Auslöser für alles ist.
Wäre der Abstand größer, dann würde der Abstand zwischen frame 2 und 3 kleiner ausfallen und somit die frames insgesamt gleichmäßiger.
Zudem kann man mit dem "delay" und den fps ganz easy die worst-case-fühlbaren fps ausrechnen :
wcfps = 1000/(((1000/fps)*2)-delay)
bsp für das COJ Szenario :
33,3fps
Delay 12ms
wcfps = 1000/(((1000/33,3)*2)-12) = 20.81fps
Ich hoffe so wird es etwas klarer.
Das Delay am 60Hz-Monitor liegt bei 16,66ms. Wann wird der Frame denn nun angezeigt, der 5ms nach dem vorherigen kommt?
Frame 1 = Zeit X
Frame 2 = Zeit X + 5ms, wird aber erst zu Zeit X + 16,66ms dargestellt (eine korrekt implementierte 3D-Engine dürfte so etwas gar nicht zulassen)
Da ist dann ein Versatz von 11,66ms, der für den Ruckeleffekt sorgt. Wenn der Frame gleich angezeigt werden würde, dann aber eine etwas größere Pause entstünde, würde man es nicht so stark sehen, da das menschliche Gehirn ohnehin nicht so viele Bilder pro Sekunde sinnvoll verarbeiten kann. Es fällt nur auf, weil die Szene von "vor 11,66ms" erst "jetzt" angezeigt wird. Das verfälscht den zeitlichen Ablauf der Szene.
Um die Ruckler zu vermeiden, müsste der Treiber wissen, wann GPU1 zu 50% mit der Berechnung des Frames fertig ist und dann den nächsten Frame an GPU2 schicken. Dann würde es nur noch zeitliche Verschiebungen geben, wenn sich die Komplexität der Szene stärker ändert und die Berechnung deutlich schneller bzw. langsamer vonstatten geht.
Solange das nicht gewährleistet ist, wird es immer diese Ruckeleffekte geben.
Interessant wäre noch zu erfahren, wie die µRuckler auf CRT-Monitoren bei z.B. 120Hz und höher aussehen. Dort dürfte es IMO nicht so stark auffallen. Ich habe leider keinen solchen CRT mehr hier, sonst würde ich es selbst testen.
Frame 1 = Zeit X
Frame 2 = Zeit X + 5ms, wird aber erst zu Zeit X + 16,66ms dargestellt (eine korrekt implementierte 3D-Engine dürfte so etwas gar nicht zulassen)
Da ist dann ein Versatz von 11,66ms, der für den Ruckeleffekt sorgt. Wenn der Frame gleich angezeigt werden würde, dann aber eine etwas größere Pause entstünde, würde man es nicht so stark sehen, da das menschliche Gehirn ohnehin nicht so viele Bilder pro Sekunde sinnvoll verarbeiten kann. Es fällt nur auf, weil die Szene von "vor 11,66ms" erst "jetzt" angezeigt wird. Das verfälscht den zeitlichen Ablauf der Szene.
Um die Ruckler zu vermeiden, müsste der Treiber wissen, wann GPU1 zu 50% mit der Berechnung des Frames fertig ist und dann den nächsten Frame an GPU2 schicken. Dann würde es nur noch zeitliche Verschiebungen geben, wenn sich die Komplexität der Szene stärker ändert und die Berechnung deutlich schneller bzw. langsamer vonstatten geht.
Solange das nicht gewährleistet ist, wird es immer diese Ruckeleffekte geben.
Interessant wäre noch zu erfahren, wie die µRuckler auf CRT-Monitoren bei z.B. 120Hz und höher aussehen. Dort dürfte es IMO nicht so stark auffallen. Ich habe leider keinen solchen CRT mehr hier, sonst würde ich es selbst testen.
Zuletzt bearbeitet:
Fairy Ultra
Commander
- Registriert
- Sep. 2005
- Beiträge
- 2.850
kannst du mal erklären wie du die Frameszeit(Zeit bis zur ausgabe) errechnest (im Programm)?
Also Beispielhaft
Frame 1 - x ms
Frame 2 - x ms
Frame 3 - x ms
avg frames usw.
Also Beispielhaft
Frame 1 - x ms
Frame 2 - x ms
Frame 3 - x ms
avg frames usw.
Klamann
Lieutenant
- Registriert
- Nov. 2006
- Beiträge
- 967
M
Muscular Beaver
Gast
3DFX SLI = Scan-Line Interleave
Nvidia SLI = Scalable Link Interface
So wie ich das damals verstanden habe war es bei 3DFX so dass das halbe Bild von der einen Karte berechnet wurde und die andere Hälfte von der anderen.
Ich hatte damals ein SLI System und habe keine Mikroruckler festgestellt.
Ich weiss noch wie ich Unreal auf einmal in 1024x768 spielen konnte. Das war ne Augenweide.
Nvidia SLI = Scalable Link Interface
So wie ich das damals verstanden habe war es bei 3DFX so dass das halbe Bild von der einen Karte berechnet wurde und die andere Hälfte von der anderen.
Ich hatte damals ein SLI System und habe keine Mikroruckler festgestellt.
Ich weiss noch wie ich Unreal auf einmal in 1024x768 spielen konnte. Das war ne Augenweide.