Die Projektgruppe Erklärbare KI ist eine Kooperation zwischen der Universität Bamberg und dem Fraunhofer IIS. Sie forscht an Möglichkeiten zu erklärbarem Maschinellen Lernen. Zu welchem Zweck wurde die Gruppe eingerichtet? Und welchen Nutzen können ihre Forschungsergebnisse haben?
Prof. Schmid: Unter erklärbarer KI versteht man Methoden, welche die Entscheidungen von KI-Systemen transparent und nachvollziehbar machen. Das betrifft insbesondere Systeme, die auf maschinellem Lernen basieren. Komplexe neuronale Netze sind auch für die Entwickler selbst intransparent und daher schwer nachvollziehbar.
Aktuell wird umfangreich an Ansätzen geforscht, bei denen nach dem Eingeben der Daten hervorgehoben und visualisiert wird, welche Aspekte ein neuronales Netz hauptsächlich herangezogen hat, um zu seiner Entscheidung zu kommen.
Ein Beispiel hierzu wäre etwa eine medizinische Bildaufnahme und die darauffolgende medizinische Diagnose. Ein Entwickler kann durch Visualisierungen erkennen, ob das gelernte Modell korrekt berechnet oder überangepasst ist, zum Beispiel, weil ein wichtiges Merkmal mit einem unwichtigen wie der Hintergrundfarbe korreliert. Anwender – im Beispiel Mediziner – benötigen dagegen eher auf die Diagnose selbst bezogene Erklärungen, die man oft am besten sprachlich ausdrücken kann.
Im erwähnten medizinischen Beispiel könnte die Diagnoseentscheidung bezogen auf bestimmte eingegebene Eigenschaften erläutert werden. Beispielsweise, dass eine bestimmte Tumorart klassifiziert wurde anhand der Größe und Lage des erkrankten Gewebes.
Dominik Seuß: Wir arbeiten zum Beispiel derzeit an der Erkennung von Schmerz. Für diesen Use Case existieren nur wenige Daten, weshalb neuronale Netzwerke teilweise fehlerhafte Korrelationen in den Daten finden, bzw. im schlimmsten Fall einfach die Trainingsdaten »auswendig« lernen.
Wir nutzen daher Visualisierungstechniken, also Techniken wie z.B. Layerwise Relevance Propagation o.ä., die uns zeigen, welche Bereiche des Eingangsbilds den stärksten Einfluss auf die Entscheidung des Netzwerks hatten. Darauf aufbauend können wir im nächsten Schritt Vorwissen von Experten aus der Psychologie in die Modellierung der Netzwerke miteinbeziehen. Dies kann bspw. durch die gezielte Restriktion im Lernprozess erfolgen, also indem man verhindert, dass physiologisch nicht mögliche Zusammenhänge gelernt werden. So kann man auch in Situationen, in denen wenig Daten zur Verfügung stehen, robuste Modelle erhalten.
Prof. Schmid: Natürlich ist Erklärbarkeit nicht nur im Bereich der medizinischen Diagnostik relevant, sondern in allen Bereichen, in denen Entscheidungen ernsthafte Konsequenzen haben können – etwa im Kontext der Steuerung von Produktionsprozessen oder im Bereich der Mobilität und des autonomen Fahrens.