Künstliche Intelligenz ist kaum zu toppen – etwa wenn es darum geht, große Mengen an Bilddaten zu klassifizieren oder einen Vielzahl an Zeitreihen zu analysieren. Doch wartet sie auch mit Herausforderungen auf: So basieren viele Anwendungen auf Blackbox-Modellen, es ist für den Menschen also nicht nachvollziehbar, wie ein KI-System zu seinen Entscheidungen kommt. Wie stellt man dennoch sicher, dass die Entscheidungen der Künstlichen Intelligenz vertrauenswürdig sind? Die Antwort liegt in fünf Aspekten: Transparenz, Verantwortlichkeit, Privatheit, Gerechtigkeit und Zuverlässigkeit.
Der Schwerpunkt der Forschungsarbeit liegt neben Gerechtigkeit und Zuverlässigkeit vor allem auf dem Aspekt der Transparenz: Das Team der Projektgruppe Comprehensible Artificial Intelligence (CAI) entwickelt Ansätze, mit denen sich die Entscheidungen solcher Blackbox-Systeme in eine Whitebox überführen lassen und somit verstehbar werden – und zwar für ein breites Anwendungsspektrum. Wo beispielsweise liegt die Entscheidungsgrenze, an der die Künstliche Intelligenz ein Werkstück als Ausschuss klassifiziert? In puncto Gerechtigkeit entwickeln die Forschenden in CAI u. a. Methoden, die zu einer gerechten Datenbasis führen, bei der etwa Frauen, Kinder oder Menschen dunkler Hautfarbe integriert werden. Zuverlässigkeit erreicht das Team insbesondere durch sogenannte hybride oder neuro-symbolische Ansätze: Indem Wissen in den Lernprozess integriert wird, lassen sich bestimmte Entscheidungsfehler vermeiden.
Am 23. Mai 2022 besuchten Staatsministerin Melanie Huml MdL sowie weitere Vertreterinnen und Vertreter aus Politik, Industrie und Wirtschaft den Tag der offenen Tür an der Universität Bamberg und informierten sich über aktuelle Ergebnisse der Projektgruppe.