Bestimmung des Blickwinkels durch Bewegungsklassifikation
Neue, zeitlich und räumlich entfernte Welten lassen sich durch Virtual-Reality-Anwendungen erfahren. Dabei erfassen verschiedene Sensoren, die in VR-Brillen integriert sind, die Kopf- und Körperbewegungen im Raum. Die derzeit verwendete kostengünstige Inertialsensorik schätzt die Kopforientierung eines Nutzers relativ zu einem Start- oder einem Ankerpunkt im Raum. Über einen einzelnen Sensor kann der tatsächliche Blickwinkel nicht fehlerfrei ermittelt werden. Daher ist eine Kombination der absoluten Position und einer relativen Orientierung durch die Sensorik am Kopf wichtig. Die erfassten Rohdaten werden gefiltert und dienen für die weitere Merkmalsextraktion. Über diese ordnet ein Algorithmus mit maschinellen Lernverfahren ein, wie Bewegungen von Kopf zu Körper gerichtet sind. Diese Art der Bewegungsklassifikation vermeidet Lokalisierungsfehler durch Früherkennung und Korrektur von großen Abweichungen im Vergleich zum erwartbaren Ergebnis.
Diese automatische, intelligente und auf Daten basierende Relation der Körper- zu Kopfbewegungen und die errechnete Bewegungstrajektorie überführen wir dann in eine korrekte Blickrichtung. Dabei wird die Bewertung der Ausrichtung der Körperteile laufend wiederholt und verbessert. Der Algorithmus lernt, sich vorausschauend an aufeinanderfolgende Bewegungen anzupassen, sodass die korrekte Blickrichtung und ein für den Nutzer angenehm zu betrachtendes Bild in die VR-Brille eingespeist werden kann.