VR-Meilensteine

Sensorama (1960er)

Während philosophische Gedanken-Konzepte zum Thema einer virtuellen Welt weiter in die Vergangenheit reichen, lässt sich das erste VR-Gerät, das für die Öffentlichkeit zugängig war, auf die 1960er Jahre zurückführen. Das “Sensorama” von Morton Heilig lässt sich als eine Kabine beschreiben, in der der Zuschauer auf einem beweglichen Stuhl Platz nimmt und anschließend die multisensorielle Erfahrung einer Motorradfahrt durch New York erlebt. Dabei wurden vier unserer fünf Sinne mit einbezogen, sodass neben der audiovisuellen Simulation auch entsprechende Vibrationen und Körperbewegungen über den Stuhl an den Zuschauer übertragen wurden und Wind und Geruch zur Immersion beitrugen.

Exoskelett (ab 1965)

Ein Exoskelett ist eine äußere (von Altgriechisch: exo = außen) mechanische Stützstruktur, die natürliche Bewegungen des Menschen verstärken oder übernehmen kann. In Bereichen körperlich schwerer Arbeiten (z.B. Baugewerbe) helfen Exoskelette beim Tragen von Lasten. Sie wirken Kapazitäten schonend und minimieren Verletzungsrisiken, z.B. durch einen sicheren Stand. Im Rehabilitationsbereich von älteren, verunfallten oder körperlich eingeschränkten Menschen unterstützen Exoskelette die Patienten im Wieder-Erlernen von Gehfähigkeiten. Sie verhindern ungewolltes Fallen und aktivieren Muskeln und Motorik der Betroffenen. In der Unterhaltungsbranche sind Exoskelette die physischen Kommunikatoren - sie lassen in Virtuellen Welten Gesehenes spürbar werden oder verleihen Filmenhelden wie „Iron Man“, Superkräfte. Im Jahr 1965 entwickelte die US Amerikanische Firma General Electric den Hardiman, ein erstes modernes Exoskelett, das es möglich machen sollte, Gewichte von ca 700kg zu tragen. Im Deutschen Forschungszentrum für Künstliche Intelligenz in Bremen, in Japan und in den USA wird verstärkt an Exoskeletten geforscht.Gesteuert werden Exoskelette meistens durch minimale Impulse, mittlerweile sogar durch Gedanken des Trägers. Diese werden von einem Steuerungs-Computer erkannt und in die angestrebte Bewegung übersetzt. Seltener löst das Betätigen von Knöpfen oder Hebeln die gewünschte Funktion aus.

Datenhandschuh (1980er)

Der in den späten 80er Jahren von Thomas G. Zimmermann und Jaron Lanier entwickelte DataGloveTM gilt als erster Datenhandschuh, der es ermöglichte, Bewegungen der Hand in den virtuellen Raum zu übertragen und Berührungen mit haptischem Feedback zu versehen. Der aus Baumwolle bestehende Handschuh wurde mit Kabeln und Sensoren bestückt, die die Beugung der einzelnen Finger sowie deren Position erfassten. Über den Datenhandschuh wurden reale Bewegungen verfolgt und in Form einer virtuellen Hand, die auf dem angeschlossenen Bildschirm erschien, visuell repräsentiert. Zusätzlich wurden Piezokeramik-Sensoren, welche durch das Einwirken von z.B. Druck elektrische Ladungen erzeugen, unterhalb jedes einzelnen Fingers angebracht. Durch das Beugen der Finger wurde im Moment des Berührens eines virtuellen Objektes haptisches Feedback über die Sensoren des Handschuhs an die Fingerspitzen weitergegeben. Die User*innen spürten ein brummendes bzw. kribbelndes Gefühl.

Kissenger (2012)

Mit der Absicht Liebende, die durch weite Distanzen voneinander entfernt sind, dabei zu unterstützen, trotz der physiologischen Entfernung intime Momente auszutauschen, erfand 2012 ein Robotik-Professor aus Singapur den so genannten “Kissenger”. Das Gadget wird über eine App mit dem Smartphone verbunden und ist mit Bewegungs sensibler Elektronik ausgestattet, die es ermöglicht virtuell Küsse auszutauschen. Der Nutzer küsst eine weiche Silikonoberfläche unter der sich Hochpräzisionskraftsensoren befinde, welche die dynamischen Kräfte an verschiedenen Teilen der Lippen während des Kusses messen. Diese Daten werden an die Silikonlippen des Partners übertragen, sodass dieser die Kräfte ebenfalls spürt. Das Produkt wurde an der National University Singapore und der Keio University of Japan seitdem weiterentwickelt.

AxonSuit (2016)

Ziel der Entwickler*innen dieses mit diversen Sensoren und kleinen Motoren ausgestatteten Anzuges ist es, die Virtuelle Realität am ganzen Körper, also von Kopf bis Fuß, spüren zu können. Dabei werden verschiedene Texturen, wie z.B. Bodenbeschaffenheiten, sowie Temperaturen der Umgebung oder einzelner Objekte über den Anzug an die Spielenden vermittelt. Der Anzug besteht aus leichtem Stoff und umfasst eine Jacke, eine Hose, Handschuhe und Stiefel. Die in das Innere des Anzuges eingearbeiteten kleinen Pixel geben entsprechend der VR-Experience Wärme oder taktiles Feedback an den Körper weiter. Zusätzlich können sich die Nutzer*innen auf der “AxonStation”, einem speziell designten Exoskelett, das Kräfte aus der VR auf den Körper überträgt und komplette Bewegungsfreiheit simulieren soll, einklinken.

iTurk (2017)

Im Jahr 2017 stellte das Hasso Plattner Institut eine neue revolutionäre Einbindung passiver Gegenstände als aktive Elemente für die VR-Experience vor. Bei iTurk handelt es sich um eine VR-Anwendung, bei der Objekte, wie z.B. ein im Raum hängendes Pendel, in verschiedenen Settings verschiedene Funktionen einnehmen und durch reale Bewegungen manipuliert werden können. Berührt ein Spieler/eine Spielerin das Pendel in der Realität und bringt es zum Schwingen, wird diese Bewegung erfasst und in die virtuelle Welt übersetzt, dann sieht die Person z.B. eine von der Decke baumelnde Lampe, die angestoßen und in Bewegung gebracht wird. Das Besondere stellt dabei also nicht nur das haptische Feedback dar, welches sich durch die real anfassbaren Gegenstände ergibt, sondern auch, dass diese Gegenstände bearbeitet (geöffnet, repositioniert, hingelegt, angestoßen usw.) werden können sowie unterschiedliche Möglichkeiten innerhalb eines Durchgangs eröffnen. So ist etwa das Pendel zunächst eine Lampe und im nächsten “Raum” ein Droide, den es mit beherzten Schlägen abzuschmettern gilt. Mit iTurk soll die Virtualität noch lebendiger gemacht und die Immersion verstärkt werden.

Haptic Gloves von HaptX (2017)

Bei den Haptic Gloves von HaptX (zuvor AxonVR) handelt es sich um eine weitere Entwicklung von sog. “Wearables”, die das Gefühl eines realistischen Berührungsfeedbacks für die VR ermöglichen sollen. HaptX verspricht dabei über den Daten-Handschuh Textur, Größe, Form, Dichte und Temperatur digitaler Objekte fühlen zu können. Indem mehrere hochpräzise Stellantriebe in das smarte, auf Silikonbasis gefertigte, Textil des Handschuhs verarbeitet wurden, können diese mittels Druck Feedback an die User*innen geben. Werden also virtuelle Objekte berührt, drückt der Handschuh an den entsprechenden Stellen gegen die Haut der Benutzer*innen. Dabei wird auf das Zusammenspiel der Stellantriebe mit sog. mikrofluiden Luftkanäle gesetzt. Eine zusätzliche Schicht feiner Mikrokanäle ist für die Empfindung von Temperatur zuständig. Während der Anwendung wird zudem mittels magnetischen Bewegungs-Trackings und Hand-Simulationssoftware ein sehr präzises Modell der realen Hand in der Virtualität erschaffen.


Quellen:

 

- https://www.androidpit.de/geschichte-der-virtuellen-realitaet

- Samani, Hooman Aghaebrahimi; Persani, Rahul und weitere; : Kissenger: Design of a Kiss Transmission Device. UK, 2012.

- Thomas G. Zimmerman, Jaron Lanier, Chuck Blanchard, Steve Bryson and Young Harvill: A hand gesture interface device. Proceedings of CHI/GI, 1995.

- https://www.ke-next.de/news/feel-it-virtuelle-realitaet-zum-anfassen-364.html - https://www.producthunt.com/posts/axon-suit

- https://www.roadtovr.com/axonvr-making-haptic-exoskeleton-suit-bring-body-mind-vr/

- https://hpi.de/baudisch/projects/iturk.html- https://haptx.com/press/