Zwei Personen bewerben sich bei einem Unternehmen. Beide sind gleich alt und gebildet. Einer der beiden ist ein Mann, die andere ist eine Frau. Blickt man auf das genaue Profil, weist die Frau bessere Qualifikationen für die Stelle auf. Klarer Fall also, oder? Nicht zwangsläufig, denn häufig wird leider nach wie vor bevorzugt der Mann eingestellt. »Wir Menschen unterliegen ganz natürlich Stereotypen und Vorurteilen«, weiß Dr. Stefan Kamin. Der Wissenschaftler des Fraunhofer IIS ist Koordinator der Kompetenzsäule »Human AI« im ADA Lovelace Center for Analytics, Data and Applications und beschäftigt sich intensiv mit vertrauenswürdiger KI. Denn es ist mitnichten so, dass Algorithmen stets eine vorurteilsfreie Entscheidung treffen: Vor einigen Jahren war etwa Amazon in die Schlagzeilen geraten, weil eine zur Bewerberauswahl genutzte KI systematisch Frauen benachteiligt hatte.
Fälle wie diese zeigen, warum es vertrauenswürdige Künstliche Intelligenz braucht. Stefan Kamin ist davon überzeugt, dass es künftig nur noch KI-Innovationen geben kann, wenn die Gesellschaft den Algorithmen vertraut. Auch die Gesetzgebung beschäftigt sich seit einiger Zeit mit dem Thema. Der AI Act der EU gibt eine grobe Definition vor: Vertrauenswürdige KI muss robust, ressourcenschonend, transparent und möglichst objektiv sein. Sie muss die Privatsphäre der Nutzenden schützen, darf niemanden diskriminieren. Damit vertrauenswürdige KI Realität werden kann, braucht es aber jede Menge Arbeit. »Wir sind die Vermittler zwischen der Technik und den Menschen«, sagt Kamin. Die Vermittlungsarbeit fängt bei verschiedenen Fragestellungen rund um KI an: Welche Hemmnisse und welche Bedürfnisse bestehen in der Bevölkerung? Was bedeutet der Nutzen von KI für Bildung, Wirtschaft, Pflege, Einzelhandel und Co.?