Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsProject Alloy: Intel kombiniert VR-Brille mit RealSense-Kameratechnik
In seiner Keynote zur Eröffnung des IDF 2016 hat Intel-CEO Brian Krzanich in San Francisco das Project Alloy enthüllt. Die 2017 als Open Plattform erscheinende VR-Brille nutzt Techniken der eigenen RealSense-Kamera. Als Merged-Reality-Lösung ist diese zudem komplett kabellos.
Kabellos und mit 2 eigenen Kameras sind schon tolle Dinge machbar, ich sach nur P0RN. Wobei ich selbst bei seriösen Spielen nicht gänzlich auf interaktive Eingabemöglichkeiten verzichten will.
ich kann das nur gut heißen und wünschen, wenn es wirklich ohne einschränkungen für alle verfügbar wird.
diese permanenten alleingänge, wie nvidia sie vollführt kotzen einen regelrecht an.
jeder hersteller hat bald seinen eigenen mist, den man aber gerne nutze will.
das bedeutet, ich müsste mindestens 5+ verschiedene PC-Konfigurationen zu hause haben, um alles nutzen zu können? sowas kann doch der konsument nicht wollen.
unterstützen tut er es, weil meist nicht clever genug und vom marketing geblendet....schade....
ich hoffe jedenfalls, das es hier nicht so schlimm wird.
Artikel-Update: In einem zweiten VR-Vortrag am Dienstagnachmittag hat Intel zumindest ein Detail zum Project Alloy preisgegeben. Angetrieben wird das Modell von einem Core-Prozessor der sechsten Generation, Codename Skylake.
[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
Nein.
Hast du schon mal deine Finger in die Nähe eines starken Permanentmagneten gehalten? Da merkst du nämlich gar nichts. Reiner Magnetismus ist die denkbar ungeeigneteste Form um dem Körper haptisches Feedback zu geben.
Es gibt im wesentlichen 2 Ansätze die aus technischer Sicht sinn ergeben.
1) ein Anzug (oder vll auch erstmal nur Handschuhe mit kleinen Motoren) der eben bei virtuellem Kontakt mit Feedback reagiert.
2) Ein brain computer Interface.
Ersteres ist technisch derzeit umsetzbar, wäre aber sehr teuer wenn das Feedback präzise und authentisch sein soll und an letzterem wird noch immer Grundlagenforschung betrieben und nicht invasive Systeme sind weit davon entfernt uns geziehlt haptisches Feedback an bestimmten Körperteilen vorzutäuschen.
Noch einige Jahre(Jahrzehnte) Geduld und dann können wir vielleicht in eine Art Matrix abtauchen.
On topic: interessant wäre zu wissen, wie viel Power man in so ein Gerät packen kann sodass es 1. nicht zu warm wird und 2. der Akku länger als 2 Stunden hält und 3. nicht zu schwer wird.
@Hydox: also bevor ich so nen Techniker an mein "Stammhirn" lasse, würde ich eher verkapselte nano-neodymmagnete unter die Haut spritzen und dann mit elektromagnetismus stimmulieren lassen für den "feedback".
Bei beiden Ansätzen hat man das Problem, dass sie keinen Widerstand generieren können.
Eine Kombination aus RealSense und einem Vive-Controller ist imho auf absehbare Zeit die beste Lösung (oder Kompromiss).
Ansonsten bleibt uns wohl nur noch das warten auf die Matrix
@Ontopic
Wieso nimmt man nicht einfach 802.11ad zur übertragung der Daten? Scheint ja bei den Wireless Docking Stations von Dell zu klappen. Die 6th-Generation Core CPU wird nicht die Leistung haben um irgendetwas beeindruckendes zu berechnen und wird dennoch einiges an Akku benötigen.
Och, mit Consumer EEGs und geeigneten Machine Learning Algorithmen lässt sich schon ein rudimentäres BCI umsetzen. Shooter sind damit natürlich nicht möglich, eher Fische hoch und runter dirigieren in einem Sidescroller .