KI-basiertes Affective Computing, auch bekannt als Emotion AI, beschäftigt sich mit der Erkennung von Emotionen und Affekten anhand der Analyse von Gesichtern in Kamerabildern. Kombiniert man diese optische Emotionserkennung (Software SHORE®) mit der funktionellen Magnetresonanztomographie (engl. functional magnetic resonance imaging, kurz fMRI), eine Technologie mit der die Gehirnaktivitäten zeit- und ortsaufgelöst dargestellt werden können, erhält man deutlich bessere und genauere Ergebnisse zur Vorhersage emotionsgesteuerter Entscheidungen von Patienten und über deren Emotionszustand. Die auf diese Weise gewonnenen Emotionsparameter spielen sowohl im psychologischen, soziologischen als auch im medizinischen Kontext eine wichtige Rolle.
Ziel des Projektes MRI-Bioface ist es, durch die Kombination der beiden Technologien eine herstellerunabhängige Komplettlösung zur simultanen Erfassung von Emotionen (Kamera), Vitalparameter (Puls) und Gehirnaktivitäten (fMRI) auf Basis verschiedener Stimuli (z.B. optisch, akustisch, …) zu entwickeln. Ein besonderes Augenmerk liegt dabei auf der multimodalen Erfassung der Daten und deren Korrelation und Abgleich mit den induzierten Stimuli.