Microsoft zeigt Multi-Touch-Display für Notebooks
Touchscreens scheinen derzeit für viele Firmen das Patentrezept für das Interface der Zukunft zu sein. Neben diversen Mobiltelefonen, Navigationsgeräten und PDAs, die bereits länger per Berührung gesteuert werden können, werden nun Entwicklungen vorgestellt, die die Steuerung mit mehreren Fingern ermöglichen.
Microsoft demonstrierte einen ersten eigenen Ansatz für Multi-Touch-Displays bereits Ende Mai in Form eines schlicht „Surface“ genannten 30-Zoll-Monitors, der auf einen Tisch montiert wurde und die Steuerung über mehrere Finger gleichzeitig verarbeiten konnte. Das Microsoft-Rezept ist dabei nicht neu, stellte doch bereits letztes Jahr Jeff Hann auf der TED seine Vision eines hochaufgelösten Multi-Touch-Displays vor und gestikulierte in einer ähnlichen Weise, wie Microsoft es sich für das Surface wünscht. Auch Apples iPhone ist begrenzt Multi-Touch-fähig und erlaubt die Steuerung mit zwei Fingern. Microsofts versteht Surface daher als erstes marktreifes Multi-Touch-Display, dass die Steuerung eines PCs intuitiver gestalten soll und so eine ähnliche Revolution einleitet wie es die Maus in den frühen 80er-Jahren tat. Dass Surface jedoch vorerst nicht für den Endverbraucher gedacht ist, zeigt nicht nur die zuerst begrenzte Einführung des Produktes, die auf Hotels, Restaurants und Casinos beschränkt wird. Die enorme Größe des Tisches sowie der angepeilte Preis von bis zu 10.000 US-Dollar stehen einer Einführung auf dem Massenmarkt ebenso im Wege.
Wesentlich günstiger und zudem mehr als nur berührungssensitiv könnte eine andere, ebenfalls derzeit von Microsoft entwickelte Art von Multi-Touch-Displays sein. So loten derzeit Forscher von Microsoft in Cambridge die Möglichkeiten eines Touchscreens aus, der nicht nur mit jeder Art von Berührung umgehen kann sondern auch auf Infrarotgeräte wie Fernbedienungen reagiert. Bei dem Prototyp handelt es sich zudem um ein handelsübliches Notebook, das um ein paar Sensoren erweitert wurde und somit nicht nur demonstriert, dass bereits bestehende Technik kompatibel mit dem neuen Ansatz ist, sondern auch, dass dem Endverbraucher ein günstiges und multifunktionales Produkt ins Haus stehen könnte. So demonstriert Steve Hodges anhand des beschriebenen Prototyps, wie mehrere Finger erfasst und zur Steuerung von Bildern oder Anwendungen interpretiert werden können. Die Fingerkuppen werden dabei von Infrarotsensoren erfasst, die hinter dem eigentlichen Bildschirm des Notebook montiert wurden und durch diesen durch Infrarotsignale aussenden. Werden diese, beispielsweise durch eine Hand, reflektiert, können die Sensoren dies als Berührung erkennen und entsprechend in der Software umsetzen.
Der gezeigte Prototyp wurde bisher nur mit einem kleinen Feld von Infrarotsensoren ausgestattet, weshalb bisher nicht bildschirmweit mit den Fingern interagiert werden konnte. Auch sind die Sensoren bisher zu dick, um sie unauffällig in einen Flachbildschirm, speziell einen besonders dünnen bei Notebooks, integrieren zu können. Die Vorteile gegenüber anderen Lösungen liegen aber auf der Hand: Mit den Infrarotsensoren kann quasi jedes Objekt, dass sich dem Display nähert, erfasst werden. Das Display ist also nicht auf die Berührung durch die Haut angewiesen, wie es bei vergleichbaren Entwicklungen noch der Fall ist. Zudem bieten die Infrarotsensoren die wohl leichteste Möglichkeit, den PC auch per Fernbedienung zu steuern. Ein Notebook oder einen PC per Fernbedienung zu kontrollieren ist zwar nichts neues, diese Möglichkeit aber per se durch das Vorhandensein eines Touchscreens zu erhalten ist hingegen durchaus als angenehmer Nebeneffekt aufzufassen. Zudem stellen die Sensoren einen sehr günstigen Einstieg in die Welt der Multi-Touch-Displays dar. Marktreif ist diese Entwicklung jedoch noch nicht, Microsoft steckte bisher auch keinen Zeitrahmen für eine eventuelle Einführung in Endkundengeräte.