@ Realsmasher: So wie ich dich verstehe, bedeutet dieses folgendes: alle Frames einer Sekunde werden mit der 3,3 Meter Änderung berechnet. Es ist unerheblich, ob die Frames in homogenen oder inhomogenen Zeitabständen kommen. Die Berechnung erfolgt z.B. durch Änderung der Ortskoordinaten der Polygonmodelle in Matrizenform über eine im voraus (!) kalkulierte Zeit bzw. Geschwindigkeit (CPU-Clock bzw. interner Timer). Der Programmierer bzw. die Gameengine gibt die Änderung der Ortskoordinaten an, die in einem festgelegten Zeitintervall vollendet sein sollte, sofern nicht ein Overwrite-Befehl kommt.
Ich dachte immer, dass die aktuellen Grafikkarten oder die neueren Gameengine so "intelligent" wären, Ortsveränderungen komform mit der vergangenen Echtzeit zu berechnen, d.h. wenn 66 ms bzw. 100 CPU-Clockzyklen vorbei sind adaptiv die Veränderung der Ortskoordinaten anzupassen.
Wenn man von deinem Beispiel 3,3 Meter pro Frame ausgeht, dann ist dieses also kein Mittelwert aller Frames , sondern der tatsächliche Wert?!
Wenn die Grafikkarte oder auch die Gameengine die Geschwindigkeit in gleichmäßigen Frameänderungen für 2 GPUs vorkalkuliert (wie?), dann sehe ich für die Mikroruckler kaum einen Workaround.
Mir erscheint das Prinzip der Vorkalkulierung suboptimal.
Ich wußte nicht, dass die heutigen Gameengines noch so weit entfernt vom Echtzeitrendering sind.