Microruckler für alle : Testprogramm für SingleGPU Nutzer

Von mir aus auch: Super Programm, das macht die Ruckler gut sichtbar. Erschreckend ist das schon teilweise.

Es ist hier zwar nicht direkt das Thema, aber wenn es bei mehr als einer GPU Mikroruckler gibt, gibt es die theoretisch eigentlich auch bei Multi CPUs - halt nur in anderer Form...?

Wie einige anderen auch schon hier schrieben, hab ich aus finanziellen Gründen nie auf eine Multi-GPU-Karte oder auf zwei Grafikkraten in einem Rechner gesetzt. Ich setze da lieber auf neue Single-GPU-Generationen und hohe Taktraten. Meine leicht übertaktete HD4870 hat mich noch nicht im Stich gelassen, zumal ich auch "nur" nen 1280x1024 TFT hab. Und bevor ein größerer Monitor bei mir drankommt, wird geschaut, wie sich die Grafikkarten entwickeln und was sie in höheren Auflösungen leisten ;)
 
Zuletzt bearbeitet:
Es ist hier zwar nicht direkt das Thema, aber wenn es bei mehr als einer GPU Mikroruckler gibt, gibt es die theoretisch eigentlich auch bei Multi CPUs - halt nur in anderer Form...?

selbst wenn es mal verrückte Entwickler geben sollte, welche die frames alternierend von den CPU-Kernen berechnen lassen ( :lol: ) wird man damit keine derartigen Ruckler haben.

Die dual-gpu ruckler entstehen dadurch das die cpu die "Vorarbeit" erledigt und viel schneller ist als die Grafikkarten.

Da aber kein anderer Chip für die cpu vorarbeitet kann das dort nicht passieren.

Einzige Ausnahme : unterschiedlich schnelle Prozessorkerne.
 
Interessant, habs gerade ausprobiert, habs erst garnicht richtig wahrgenommen aber nach 1-2 minuten kams durch, sah dann so aus wie bei CS wenn die leuts so wackeln und flackern ...

Also durchaus ziemlich schlecht wenn man µRuckler hat ...



insofern hoffe ich das es noch eine Zeitlang sehr starke Single GPU karten in ihrer Generation kommen :)


PS: thx für das tool :)
 
Ja, toll da wackelts. Aber ich habe bisher in keinem Game mit meiner 3870X2 Ruckler gehabt, die nicht aus Leistungsmangel entstehen (Crysis). :)

Von daher habe ich das Proggi wieder in dem Müll geworfen. Ist ähnlich wie bei den I-Net-Providern. Die hauseigenen Tools suggerieren volle Leistung der Leitung, während neutrale Tools da schon ein anderes Ergebnis liefern.
 
Ja, toll da wackelts.

Ich empfehle nicht mit der Hand während des Tests an den Bildschirm zu fassen wenn man zittrig ist.

In jedem Fall stellt sich mir aber die Frage warum du wegen dem Unsinn hier den Thread wieder ausgräbst.

Ist ähnlich wie bei den I-Net-Providern. Die hauseigenen Tools

Die Bezahlung von ati ..ehm nvidia...ehm wem eigentlich ?

naja wie auch immer, sie ist noch nicht angekommen, sende sie mir bitte nach !
 
Was dabei nicht berücksichtigt ist sind eben die aktuellen Treiber. Das macht das ganze irgendwie leicht unsinnig da es ein weitaus schlimmeres Bild zeigt als mittlerweile bei NVidia vorhanden ist.
 
Hat das jemand schon getestet? Dasses bei Nvidia soo viel besser läuft mit den Microrucklern?
 
ja hat cb :

https://www.computerbase.de/2009-01/test-nvidia-geforce-gtx-295/21/#abschnitt_mikroruckler_auf_der_gtx_295


kurz zusammengefasst :

coj : angezeigt 35, gefühlt ~30
crysis : angezeigt 30, gefühlt 23-25
stalker : angezeigt 32, gefühlt tw bis 28 runter, oft aber garkein Unterschied


zum release der 4870 x2 war das Problem zwar größer, aber verschwunden ist es noch lange nicht.

Natürlich bemerkt man das nicht sofort selbst. wenn man einfach so spielt ohne fps anzeige wird man kaum sagen können das z.b. 25fps sich deutlich schlechter spielen als 30.

Das ändert aber nix ander Tatsache das man weiterhin Leistung dadurch verliert.

Im übrigen lässt sich auch die derzeitige Situation problemlos mit meinem Tool einstellen.

für crysis auf einer gtx 295 wäre das etwa : zielfps 30, delay 20-25


Ich kann leider nichts dafür das manche sich das Programm nur 5 Sekunden ankucken, die Voreinstellung sehen und dann daraus schließen das dies mit der Realität nichts zu tun hat.


In Fakt kann mein Programm sogar eine dualgpu situation OHNE Mikroruckler simulieren.

Das macht natürlich keinen Sinn zu testen, aber es zeigt doch das man alle Möglichkeit offen hat.

Ist also nicht mein Fehler wenn manche es nicht schaffen es so einzustellen wie die derzeitige Situation ist, das Programm an sich lässt jede Situation offen.


Wenn also jemand sagt dieses Programm simuliert schlecht liegt es nur daran das derjenige es nicht so eingestellt hat wie er es haben will.

Man kann mich nicht dafür verantwortlich machen das die Standardsituation die bei der Veröffentlichung damals gepasst hat heute nicht mehr in dem Maße zutrifft und man selbst Hand anlegen und (oh gott !) mal nachdenken muss.
 
Mit einer GTX295 erreicht man aber in Crysis schnell fps raten die weit davon entfernt sind überhaupt zu MRs zu neigen. Moderne GKs erreichen eben sehr hohe fps als SLI gespann dann noch mehr also kann man mehr auf Qualität setzten ohne das es nennenswerte verluste gibt und man ist immernoch weit entfernt von der kritischen fps grenze...
 
das programm zeigt auch den "worst-case" wenn ich das damals richtig verstanden habe oder?
der dürfte so und in der dauer quasi nie auftreten.
aber sichtbar können die mr schon werden, auch wenn nicht dauerhaft so extrem.

mfg
 
das Programm zeigt jeden Fall den man einstellt.

Der standardfall der beim starten geladen wird entspricht etwa einer 4870x2 zum Releasezeitpunkt bei kritischen fps werten, aber wie gesagt muss man es ja nicht dabei belassen.


Mit einer GTX295 erreicht man aber in Crysis schnell fps raten die weit davon entfernt sind überhaupt zu MRs zu neigen

kommt wohl drauf an auf was man spielt.

bei einem mikrigen 19 zöller mag das der Fall sein, aber schon bei 1680*1050 ist man mit 4xAA unter 30fps im durchschnitt. (KLICK )

ich unterstelle aber mal das jemand der eine der derartige Karte kauft wohl eher einen 24er oder gar 30 zöller hat und dann sind wir auch ohne AA in dem Bereich.
 
Spiele in 1680x1050 mit 4xAA und liege bei rund 39fps im fröhlichen Schnee...sehe keine Ruckler...und das einzige Spiel bei dem es überhaupt so runter geht ist bei mir Crysis. Muss eh jeder für sich entscheiden....
 
und wie schon 20000000x gesagt... microruckler empfindet jeder anders... ich hatte die auch noch bei einigen spielen bei 50-60fps
 
Realsmasher, gute Arbeit, tolles tool.

Erst dachet ich: hää ist doch nix doch dann, als die die erst bemerkt hatte, dachte ich ich bekäm Augenkrebs^^.

Jedoch habe ich es paradoxerweise so empfunden, das es bei 23 FPS weniger als bei 30 rucklt, obwohl weit größere "Sprünge" drin waren, naja Empfindugnssache eben.

dickes Log von mir.
 
Finde das Tool auch genial, hab es mir eben (wieder) gezogen und nochmal ausprobiert weil ich auch noch nie ein SLI-Gespann hatte und man überall von den Mikrorucklern liest und mitbekommt. Jetzt hat man wenigstens eine Vorstellung davon. Danke! Lief übrigens auf Win7 RC perfekt.
 
Ist ein nettes Programm, allerdings kann es die Situation in einem Spiel gar nie akkurat wiedergeben.
Das liegt nicht am Programm, das macht sicher was es soll, nur hat man selten konstante Framerates in einem Spiel, bei dem es eine Rolle Spielt - zB Crysis.
Das läuft mal mit 50FPS, dann hat man einen kurzen Nachladeruckler oder eine heftige Szene, so fällt die Framerate schnell auf 23 FPS, zieht danach aber wieder an.
Kommt dazu, dass logischerweise die Verzögerung der zwei Frames nicht immer Konstant ist. Im Idealfall ist sie gleich Null - d.h. die Frames werden regelmässig ausgegeben. (Soll vorkommen ;) )

Es ist im Grunde ein und dasselbe Problem wie mit der Minimal, Average & Maximal FPS-Thematik.

Ich lese bei vielen Posts Kommentare wie: "Unspielbar! Würd' ich mir nie kaufen!" usw.
Man soll sich bei der Entscheidung eine SLI/CF-Konfiguration zu kaufen nicht alleine von dem Tool hier leiten lassen, aber es gibt sicher einen gewissen Ansatz, wie es im Notfall aussehen könnte..
 
ROOOOOOOOOOOOOOOFL

"...in die Analen des Forums....." :lol::lol::lol::lol:

(im allerwertesten dieses forums?)
herrlich :)

ich denke du meinst die "Annalen"

mfg
 
Man soll sich bei der Entscheidung eine SLI/CF-Konfiguration zu kaufen nicht alleine von dem Tool hier leiten lassen, aber es gibt sicher einen gewissen Ansatz, wie es im Notfall aussehen könnte..

Im Idealfall würde man sich Tests ankucken, die zu erwartende Framerate sowie den Frameabstand anhand der Frametimes die ermittelt wurden einstellen und hat die situation.

Leider werden Frametimes mittlerweile per Treiber gefälscht sodass dies schwierig wird :(
 
@ Realsmasher Wie darf ich das verstehen?
Fälschen ATI und Nvidia die Frametimes?
 
Zurück
Oben