News Bidirektionale Mikrodisplays: VR-AR-Brille verfolgt per OLED-Displays auch die Augen

Morvan

Redakteur
Teammitglied
Registriert
Apr. 2014
Beiträge
1.203
Technisch sehr beeindruckend :D
Bis so was allerdings irgendwann mal marktreife erreicht, wird es leider wohl noch ewig dauern^^
 
Tracking ist nichts Neues. Das größte Problem war immer der Lag, welches das Tracking mühsam bis sinnlos machte.
​Rechnet man den InputLag des Displays hinzu und den InputLag der jeweiligen Anwendung, landet man plötzlich auf über 100 ms, was meiner Meinung nach unspielbar in Spielen ist und eine schlechte Erfahrung in allen anderen Anwendungen.

​Das schnellste mir bekannte OLED Display hat noch immer über 20 ms, was mehr als das Doppelte eines schnellen Displays ist.

Computerbase schrieb:
Ein OLED-Panel so groß wie das in der Oculus Rift aber mit der Pixeldichte dieses OLED-Mikrodisplays hätte fast die doppelte Pixelanzahl eines handelsüblichen UHD-Fernsehers.

​So groß wie eine Banane die so breit ist wie eine Zwiebel wenn die so rund wäre wie ein Apfel.
Wenn, hätte, könnte, würde.

​Warum nicht einfach die Pixeldichte und Diagonale des einen Produktes nennen und als Vergleich die Pixeldichte und Diagonale des anderen Produktes?
​In einer Tabelle kann man solche Daten sehr viel übersichtlicher und schneller schreiben.
 
Zumal der Emagin Z800 3D-Visor vor über 10 Jahren schon 800*600 bei 15-mm-OLED-Mikrobildschirmen hatte. In der Hinsicht ein alter Hut. Deswegen war er auch so teuer. (999 Dollar bzw. später 1799 Dollar, enorme Wertsteigerung ;) :D )
 
Zuletzt bearbeitet:
Sehr schön. Finde ich klasse das sich das hier ordentlich Grundlagenforschung betrieben wird. Wäre auch nciht das erste mal das da was bei rumkommt.
 
Pixeldichte schön und gut, dennoch sind es sehr wenig Pixel um feine Darstellungen zu ermöglichen.
 
Warum sollte der input lag ein Problem fürs tracken sein? Das Auge braucht ca 30ms um zu fokussieren, um einen realistischen depth of field Effekt zu erreichen sollte die Zeit ausreichen zum tracken.
 
Da niemand von uns die gesamte Verzögerung ausrechnen kann, weil einfach die entsprechenden Daten fehlen, hier mal ein Beispiel wie es realistisch sein könnte:
​- Lag zwischen Realisierung des Systems bzw. der Kamera, dass sich das Auge bewegt (30 - 50 ms?)
​- Lag des OLED Displays, um die geforderten Daten am Display zu zeigen (21,3 - 40 ms) (21,3 ms ist der beste Wert, den ich bei einem OLED Display kenne)
​- Lag für das gesamte Berechnen inkl. Scharfstellung des geforderten Bereiches. Ich glaube 5-10 ms dürften realistisch sein

​In Summe ergibt das nach meiner Einschätzung vielleicht 56,3 - 100 ms, bis nach der Bewegung des Auges das Bild inkl. der jeweiligen scharf gestellten Stelle angezeigt wird.
​Wie geschrieben, sind das alles grobe Schätzungen aus Erfahrungswerten die ich in allen Jahren angesammelt habe. Selbstverständlich kann die Technologie bis zur Markreife sich stark verbessern und die gesamte Verzögerung auf einen Bruchteil drücken.
​Unter 30 ms ist es meiner Einschätzung nach aber sehr sehr unwahrscheinlich. Alleine weil die normalen InputLags von OLED Displays um die 30 ms und höher liegen und wie geschrieben, das schnellste mir bekannte Display mit OLED auf 21,3 ms kommt.

​Mehr Geräte bedeutet eine höhere Berechnungszeit inkl. addierendem InputLag. Was mich sehr interessiert, ist der Lag der Kamera zwischen Aufnahme und fertiger Berechnung, welche als Paket an das Display gesendet werden kann. Mit diesen zwei Werten könnte man die tatsächliche Verzögerung berechnen.

​Das schnellste Gerät, welches aus Kamera und einer Roboterhand besteht und beispielsweise einen Ball im Flug (beliebiger Winkel) fangen kann, hat einen Lag von unter 20 ms. Dieses Gerät ist aber nicht nur ein Prototyp, sondern kostet ein paar Millionen und wird, wenn ich mich korrekt erinnere, vom Militär finanziert. (wie so viele Innovationen in der Vergangenheit auch)
 
Eine kurze Googlesuche zeigt, dass die Motion-to-photon Latency für die Oculus Rift im Bereich von 20 ms liegt. Das heißt, von Kopfbewegung bis Anzeige vergehen nur ca. 20ms. Ich sehe persönlich auf Anhieb nicht, warum die Zeit von Augenbewegung bis Anzeige deutlich länger sein sollte.
Schon das Oculus DK2, dass in diesem Bereich schlechter sein soll, erreicht laut diesem Paper unter 50 ms.
http://www.mdpi.com/1424-8220/17/5/1112
 
Highspeed Opi schrieb:
Da niemand von uns die gesamte Verzögerung ausrechnen kann, weil einfach die entsprechenden Daten fehlen, hier mal ein Beispiel wie es realistisch sein könnte:
​- Lag zwischen Realisierung des Systems bzw. der Kamera, dass sich das Auge bewegt (30 - 50 ms?)
​- Lag des OLED Displays, um die geforderten Daten am Display zu zeigen (21,3 - 40 ms) (21,3 ms ist der beste Wert, den ich bei einem OLED Display kenne)
​- Lag für das gesamte Berechnen inkl. Scharfstellung des geforderten Bereiches. Ich glaube 5-10 ms dürften realistisch sein

​In Summe ergibt das nach meiner Einschätzung vielleicht 56,3 - 100 ms, bis nach der Bewegung des Auges das Bild inkl. der jeweiligen scharf gestellten Stelle angezeigt wird.
​Wie geschrieben, sind das alles grobe Schätzungen aus Erfahrungswerten die ich in allen Jahren angesammelt habe. Selbstverständlich kann die Technologie bis zur Markreife sich stark verbessern und die gesamte Verzögerung auf einen Bruchteil drücken.
​Unter 30 ms ist es meiner Einschätzung nach aber sehr sehr unwahrscheinlich. Alleine weil die normalen InputLags von OLED Displays um die 30 ms und höher liegen und wie geschrieben, das schnellste mir bekannte Display mit OLED auf 21,3 ms kommt.

​Mehr Geräte bedeutet eine höhere Berechnungszeit inkl. addierendem InputLag. Was mich sehr interessiert, ist der Lag der Kamera zwischen Aufnahme und fertiger Berechnung, welche als Paket an das Display gesendet werden kann. Mit diesen zwei Werten könnte man die tatsächliche Verzögerung berechnen.

​Das schnellste Gerät, welches aus Kamera und einer Roboterhand besteht und beispielsweise einen Ball im Flug (beliebiger Winkel) fangen kann, hat einen Lag von unter 20 ms. Dieses Gerät ist aber nicht nur ein Prototyp, sondern kostet ein paar Millionen und wird, wenn ich mich korrekt erinnere, vom Militär finanziert. (wie so viele Innovationen in der Vergangenheit auch)

Dürften OLEDs nicht normalerweise vom reinen Farbwechsel her schneller sein als TN oder IPS Zellen ?
Demnach dürften OLEDs doch eigentlich schneller sein ohne zwischenberechnetem müll oder nicht ?
 
Die reine Reaktionszeit von OLED Panels ist vernachlässigbar gering... (<1ms)

Hier werden verschiedene Begriffe gepaart mit Halbwissen zusammen geworfen
 
Blaexe schrieb:
Die reine Reaktionszeit von OLED Panels ist vernachlässigbar gering... (<1ms)

Hier werden verschiedene Begriffe gepaart mit Halbwissen zusammen geworfen

Danke für die ehrliche Antwort.
Ich habe das halt auch nur so in Erinnerung und war mir nicht mehr ganz sicher.
Rein Physikalisch logisch betrachtet kann auch nur OLED schneller sein als Flüssigkristalle.
Halbwissen beherrscht die Foren halt ich verfluche das auch jeden Tag aufs Neue.

Demnach kommen die Inputlags nur von den Zwischenberechnungen oder "Bildverbesserungen"

Finde die möglichkeit jedenfalls sehr interessant das Display auch gleichzeitig als Kamerasensor zu nutzen.
Versteh nur noch nicht ganz wie das funktionieren soll.
(Bi- Direktional ist klar aber die Zellen können ja nicht gleichzeitig als Display genutzt werden und ein Fotopunkt aufnehmen.
 
Zuletzt bearbeitet:
Jedes Pixel besteht aus vier Subpixeln, RGBW und einer Photodiode.
 
Respekt an die Frauenhofer :schluck:
Dann steht dem, was wir schon permanent aus Iron Man kennen ja nichts mehr im Weg.
Naja, vielleicht die kosten und Massentauglichkeit. Freu mich schon drauf.

Zum OLED:
Die Reaktionszeit liegt idR unter 1 µs und damit eine ganze Größenordnung unter den üblichen ms der aktuellen Panels.
Um so wichtiger ist es flackern mit guter Ansteuerung zu vermeide.
Gerade bei niedriger Helligkeit wird zumindest bei LCDs oft PWM geregel, was unglaublich störend sein kann.
Das die Leuchtkraft einzelner Zellen nachlässt ist noch ein Problem.

DAS große Problem, was lag Verursacht, sind die Hersteller selbst.
Die Platinen und die Logik der Hersteller -so richtig langsam wird es mit zwischengespeicherten Bildern- ist schuld.
Meiner Meinung nach ist LG ein Vorreiter (zumindest bei den Gaming Geräten)
Leider hat prad.de (meine Referenz für Bildschirm Tests) noch keine OLED Monitore getestet, nur TV Geräte.
Bei Computermonitoren werden immer Reaktionsverhalten und Inputlag untersucht. :cool_alt:

Offtopic:
Wer eine Kaufempfehlung von mir für einen sensationell eingestellten Monitor haben möchte:
(Keine PWM Regelung, 144Hz, und eine Reaktionszeit von 1,4ms + 2ms Inputlag)
http://www.prad.de/new/monitore/test/2014/test-lg-24gm77-b-teil8.html

Beim kauf nicht vergessen den ComputerBase Link zu benutzen ;)
 
Zurück
Oben