Da niemand von uns die gesamte Verzögerung ausrechnen kann, weil einfach die entsprechenden Daten fehlen, hier mal ein Beispiel wie es realistisch sein könnte:
- Lag zwischen Realisierung des Systems bzw. der Kamera, dass sich das Auge bewegt (30 - 50 ms?)
- Lag des OLED Displays, um die geforderten Daten am Display zu zeigen (21,3 - 40 ms) (21,3 ms ist der beste Wert, den ich bei einem OLED Display kenne)
- Lag für das gesamte Berechnen inkl. Scharfstellung des geforderten Bereiches. Ich glaube 5-10 ms dürften realistisch sein
In Summe ergibt das nach meiner Einschätzung vielleicht 56,3 - 100 ms, bis nach der Bewegung des Auges das Bild inkl. der jeweiligen scharf gestellten Stelle angezeigt wird.
Wie geschrieben, sind das alles grobe Schätzungen aus Erfahrungswerten die ich in allen Jahren angesammelt habe. Selbstverständlich kann die Technologie bis zur Markreife sich stark verbessern und die gesamte Verzögerung auf einen Bruchteil drücken.
Unter 30 ms ist es meiner Einschätzung nach aber sehr sehr unwahrscheinlich. Alleine weil die normalen InputLags von OLED Displays um die 30 ms und höher liegen und wie geschrieben, das schnellste mir bekannte Display mit OLED auf 21,3 ms kommt.
Mehr Geräte bedeutet eine höhere Berechnungszeit inkl. addierendem InputLag. Was mich sehr interessiert, ist der Lag der Kamera zwischen Aufnahme und fertiger Berechnung, welche als Paket an das Display gesendet werden kann. Mit diesen zwei Werten könnte man die tatsächliche Verzögerung berechnen.
Das schnellste Gerät, welches aus Kamera und einer Roboterhand besteht und beispielsweise einen Ball im Flug (beliebiger Winkel) fangen kann, hat einen Lag von unter 20 ms. Dieses Gerät ist aber nicht nur ein Prototyp, sondern kostet ein paar Millionen und wird, wenn ich mich korrekt erinnere, vom Militär finanziert. (wie so viele Innovationen in der Vergangenheit auch)