Wie Maschinen Emotionen erspüren

6. August 2024 | Sensoren und Künstliche Intelligenz analysieren automatisiert menschliche Gefühle

Es gibt Tage, da läuft es einfach nicht. Zahllose E-Mails sind abzuarbeiten. Hinzu kommen Telefonkonferenzen, und dann gibt es vielleicht noch Streit im Büro. Wenn man dann abends ins Auto steigt, fährt die Anspannung mit. Man fährt forscher, ist unaufmerksam – und schon kracht es. Hilfreich wären in solchen Momenten Assistenzsysteme, die den Zustand des Fahrers oder der Fahrerin erkennen – eine Kamera, die die Anspannung im Gesicht wahrnimmt, die gerötete Haut oder den Schweiß auf der Stirn; oder ein Sensor im Lenkrad, der den hohen Pulsschlag erspürt. Das Auto könnte dann automatisch auf ein Beruhigungsprogramm umschalten und die Klimaanlage auf Wohlfühltemperatur bringen oder beruhigende Musik abspielen.

Diese Szene ist keine Zukunftsmusik. Das Fraunhofer IIS beschäftigt sich intensiv damit, die Emotionen und die Stimmung von Personen mithilfe von Sensoren zu analysieren – nicht nur für intelligente Fahrerassistenzsysteme, die Stress erkennen, sondern zum Beispiel auch, um festzustellen, wie Menschen auf ein bestimmtes Produkt reagieren. Die Forschenden sind inzwischen sogar in der Lage, in Gesichtern Schmerzen zu erkennen – etwa bei dementen Personen, die nicht mehr mitteilen können, wie es ihnen geht. Die Rede ist von EmotionAI, der Verknüpfung von Sensoren, die Körperdaten erfassen und von Künstlicher Intelligenz (KI), die aus diesen Daten den Gemütszustand einer Person herausliest. »Unsere Arbeit ist besonders, weil wir die Informationen vieler verschiedener Sensoren miteinander verknüpfen«, sagt der EmotionAI-Experte Jaspar Pahl – etwa das EKG, das den Puls misst, Kameras, die das Gesicht der Probandinnen und Probanden beobachten oder sogar die Elektrogastrographie, die von außen die Darmaktivität misst. Denn auch die kann ein Maß für Anspannung sein.

In einem kleinen, abgegrenzten Raum sind verschiedenste Sensoren verbaut, um Probandinnen und Probanden zu vermessen.
© Fraunhofer IIS/Paul Pulkert
In der Expobox können Probandinnen und Probanden mit verschiedenen Sensoren vermessen werden.

Höhere Qualität dank vieler Sensoren


Das Fraunhofer IIS bietet die Gefühlserkennung als Dienstleistung an. Zum einen für Forschungsteams, die an wissenschaftlichen Fragestellungen arbeiten, selbst aber nicht über eine solche Vielfalt an Sensoren verfügen. Zum zweiten Firmen, die neue Produkte wie zum Beispiel Systeme zur Zustandsüberwachung von Fahrenden entwickeln. Die Marktforschung wiederum will testen, wie Probandinnen und Probanden auf Produkte reagieren – etwa ein Waschmittel mit neuem Duft. Jaspar Pahl und das Team setzen auf viele verschiedene Sensoren, weil das die Schwächen eines einzelnen ausgleicht. »Kameras sind empfindlich gegenüber Gegenlicht, EKGs können durch die Abstrahlung von elektrischen Geräten gestört werden. Setzt man mehrere Sensoren ein, wird die Analyse durch die KI zuverlässiger, störungsfreier und besser.« Für die Versuche wurde am Institut in den vergangenen Jahren die »ExpoBox« entwickelt – ein kleiner Raum, in dem Probandinnen und Probanden mit der ganzen Fülle an Sensoren vermessen werden können. Hier können Hersteller auch testen, welcher Sensor später im Alltag praktikabel und zugleich zuverlässig ist. Um den Stresslevel von Autofahrenden zu messen, könnte es zum Beispiel sinnvoller sein, einen Pulsmesser im Lenkrad zu montieren, als eine Kamera, die durch die Sonne oder die Scheinwerfer anderer Autos irritiert wird.

Unbekannte Zusammenhänge entdecken


Für die Analyse der Sensordaten haben die Expertinnen und Experten am Fraunhofer IIS in den vergangenen Jahren selbstlernende Algorithmen entwickelt. Diese sind in der Lage, aus der Vielfalt der Informationen, bestimmte Muster herauszulesen, die auf den Gefühlszustand der Probandinnen und Probanden schließen lassen. »Ein Mensch wäre niemals in der Lage, in so einer Datenmenge Zusammenhänge zu erkennen«, sagt Jaspar Pahl. Für ihn ist die Analyse von Emotionen eines der wichtigsten künftigen Werkzeuge für die Zusammenarbeit von Mensch und Maschine, weil sich damit ungeheuer viel machen lasse, wenn man die Technik erst einmal eingeführt habe. Eine Kamera im Auto zum Beispiel könne erkennen, ob die Person am Lenkrad müde sei – zusätzlich aber auch, ob sie schwitze oder gestresst sei. Künftig soll es sogar möglich sein, dass die Maschine anhand des Zustands des Menschen voraussieht, was zu tun ist – bevor die Nutzenden einen Befehl geben müssen, sagt Jaspar Pahl. 

Das könnte Sie auch interessieren

 

Bereich Smart Sensing and Electronics / 2.8.2024

EmotionAI: Multimodale Emotionsanalyse

 

Serie: Künstliche Intelligenz

 

Serie / 2.5.2024

ATKI: Von sprechenden Pumpen und zusammenarbeitenden Robotern

 

Smart Sensing and Electronics

Kontakt

Sie haben Fragen, Kommentare oder Anmerkungen zum Fraunhofer IIS Magazin?

Schreiben Sie uns eine E-Mail.

Immer informiert

Der Newsletter zum Magazin

Abonnieren Sie den Newsletter des Fraunhofer IIS Magazins und erhalten Sie alle neuen Themen kompakt per Mail.

Startseite

Zurück zur Startseite des Fraunhofer IIS Magazins