Höhere Qualität dank vieler Sensoren
Das Fraunhofer IIS bietet die Gefühlserkennung als Dienstleistung an. Zum einen für Forschungsteams, die an wissenschaftlichen Fragestellungen arbeiten, selbst aber nicht über eine solche Vielfalt an Sensoren verfügen. Zum zweiten Firmen, die neue Produkte wie zum Beispiel Systeme zur Zustandsüberwachung von Fahrenden entwickeln. Die Marktforschung wiederum will testen, wie Probandinnen und Probanden auf Produkte reagieren – etwa ein Waschmittel mit neuem Duft. Jaspar Pahl und das Team setzen auf viele verschiedene Sensoren, weil das die Schwächen eines einzelnen ausgleicht. »Kameras sind empfindlich gegenüber Gegenlicht, EKGs können durch die Abstrahlung von elektrischen Geräten gestört werden. Setzt man mehrere Sensoren ein, wird die Analyse durch die KI zuverlässiger, störungsfreier und besser.« Für die Versuche wurde am Institut in den vergangenen Jahren die »ExpoBox« entwickelt – ein kleiner Raum, in dem Probandinnen und Probanden mit der ganzen Fülle an Sensoren vermessen werden können. Hier können Hersteller auch testen, welcher Sensor später im Alltag praktikabel und zugleich zuverlässig ist. Um den Stresslevel von Autofahrenden zu messen, könnte es zum Beispiel sinnvoller sein, einen Pulsmesser im Lenkrad zu montieren, als eine Kamera, die durch die Sonne oder die Scheinwerfer anderer Autos irritiert wird.
Unbekannte Zusammenhänge entdecken
Für die Analyse der Sensordaten haben die Expertinnen und Experten am Fraunhofer IIS in den vergangenen Jahren selbstlernende Algorithmen entwickelt. Diese sind in der Lage, aus der Vielfalt der Informationen, bestimmte Muster herauszulesen, die auf den Gefühlszustand der Probandinnen und Probanden schließen lassen. »Ein Mensch wäre niemals in der Lage, in so einer Datenmenge Zusammenhänge zu erkennen«, sagt Jaspar Pahl. Für ihn ist die Analyse von Emotionen eines der wichtigsten künftigen Werkzeuge für die Zusammenarbeit von Mensch und Maschine, weil sich damit ungeheuer viel machen lasse, wenn man die Technik erst einmal eingeführt habe. Eine Kamera im Auto zum Beispiel könne erkennen, ob die Person am Lenkrad müde sei – zusätzlich aber auch, ob sie schwitze oder gestresst sei. Künftig soll es sogar möglich sein, dass die Maschine anhand des Zustands des Menschen voraussieht, was zu tun ist – bevor die Nutzenden einen Befehl geben müssen, sagt Jaspar Pahl.