Leinen los für vertrauenswürdige KI

15. August 2024 | Das Fraunhofer IIS forscht in der Kompetenzsäule Human AI des ADA Lovelace Centers an vertrauenswürdiger KI

Künstliche Intelligenz unterstützt Ärztinnen und Ärzte bei der zielgenauen Diagnostik oder hilft dank Ressourcenoptimierung beim Klimaschutz. Dennoch kommt sie auch mit Risiken daher, die in der Entwicklung mitbedacht werden müssen. Das Fraunhofer IIS forscht in der Kompetenzsäule Human AI des ADA Lovelace Centers an vertrauenswürdiger KI. Das zugehörige Exponat ist nun sogar auf der MS Wissenschaft und im KI-Showroom des Fraunhofer IIS im Augustinerhof in Nürnberg zu sehen.

 

Zwei Personen bewerben sich bei einem Unternehmen. Beide sind gleich alt und gebildet. Einer der beiden ist ein Mann, die andere ist eine Frau. Blickt man auf das genaue Profil, weist die Frau bessere Qualifikationen für die Stelle auf. Klarer Fall also, oder? Nicht zwangsläufig, denn häufig wird leider nach wie vor bevorzugt der Mann eingestellt. »Wir Menschen unterliegen ganz natürlich Stereotypen und Vorurteilen«, weiß Dr. Stefan Kamin. Der Wissenschaftler des Fraunhofer IIS ist Koordinator der Kompetenzsäule »Human AI« im ADA Lovelace Center for Analytics, Data and Applications und beschäftigt sich intensiv mit vertrauenswürdiger KI. Denn es ist mitnichten so, dass Algorithmen stets eine vorurteilsfreie Entscheidung treffen: Vor einigen Jahren war etwa Amazon in die Schlagzeilen geraten, weil eine zur Bewerberauswahl genutzte KI systematisch Frauen benachteiligt hatte.

Fälle wie diese zeigen, warum es vertrauenswürdige Künstliche Intelligenz braucht. Stefan Kamin ist davon überzeugt, dass es künftig nur noch KI-Innovationen geben kann, wenn die Gesellschaft den Algorithmen vertraut. Auch die Gesetzgebung beschäftigt sich seit einiger Zeit mit dem Thema. Der AI Act der EU gibt eine grobe Definition vor: Vertrauenswürdige KI muss robust, ressourcenschonend, transparent und möglichst objektiv sein. Sie muss die Privatsphäre der Nutzenden schützen, darf niemanden diskriminieren. Damit vertrauenswürdige KI Realität werden kann, braucht es aber jede Menge Arbeit. »Wir sind die Vermittler zwischen der Technik und den Menschen«, sagt Kamin. Die Vermittlungsarbeit fängt bei verschiedenen Fragestellungen rund um KI an: Welche Hemmnisse und welche Bedürfnisse bestehen in der Bevölkerung? Was bedeutet der Nutzen von KI für Bildung, Wirtschaft, Pflege, Einzelhandel und Co.?

Video: »Who’s deciding here?«

Datenschutz und Datenverarbeitung

Wir setzen zum Einbinden von Videos den Anbieter YouTube ein. Wie die meisten Websites verwendet YouTube Cookies, um Informationen über die Besucher ihrer Internetseite zu sammeln. Wenn Sie das Video starten, könnte dies Datenverarbeitungsvorgänge auslösen. Darauf haben wir keinen Einfluss. Weitere Informationen über Datenschutz bei YouTube finden Sie in deren Datenschutzerklärung unter: https://policies.google.com/privacy

Mensch und Technologie zusammen denken


Mit diesen Fragen möchte das Fraunhofer IIS eine Lücke schließen: In der Kompetenzsäule Human AI wird nicht nur die technische Ebene betrachtet, sondern explizit der Mensch mit in den Prozess einbezogen. Kommen ein Industriepartner oder ein Forschungsprojekt auf das Team zu, starten die Forschenden ihre »Übersetzungsarbeit«. Zentral sind die richtigen Daten. Eine KI kann nur so vorurteilsfrei sein wie die Daten, auf denen sie aufbaut. „Das ist eine riesige Herausforderung“, weiß Kamin. Man müsse objektive Trainingsdaten verwenden, die die Vielfalt und Variabilität der Menschen abbilden. »Wir müssen zuerst viel Wissen über die jeweilige Zielgruppe unseres Projekts generieren«, so Kamin. Dazu nutzt das Institut sowohl repräsentative Befragungsdaten als auch kleinere Fokusgruppen.

Wo die Grenzen und Möglichkeiten des Einsatzes von KI liegen, zeigt ein Exponat, das neben dem KI-Showroom des Fraunhofer IIS im Augustinerhof in Nürnberg auch auf dem Museums- und Forschungsschiff MS Wissenschaft zu sehen ist. »Who’s deciding here?« heißt das Spiel, mit dem die Grenzen und Möglichkeiten des Einsatzes von Künstlicher Intelligenz dargestellt werden. Das Exponat stellt etwa die Frage, wen die KI im Falle der zwei Bewerbungen auswählen würde. Die Antwort: Sie entscheidet sich aktuell noch für den Mann, dort sollte also noch nicht auf die KI vertraut werden. Bei einer anderen Frage möchte das Exponat wissen, ob eine KI eine Lungenentzündung zuverlässig erkennen könnte. Die Antwort hier hingegen: Ja.

© Julian Hörndlein
„Who’s deciding here?“ zeigt spielerisch die Notwendigkeit von vertrauenswürdiger KI.

Vertrauenswürdige KI als absolute Notwendigkeit


Wer mitspielt, der begreift sofort die Notwendigkeit vertrauenswürdiger KI. Schließlich geht es bei der Gesundheit oder dem Job um sehr persönliche Lebensbereiche mit höchster Priorität. Human AI-Koordinator Stefan Kamin ist deshalb davon überzeugt, dass es weiterer Forschung rund um das Themenfeld bedarf. Spielerische Ansätze können eine passende Möglichkeit sein, um in der Bevölkerung sowohl Vorbehalte abzubauen als auch ein realistisches Bild zu zeichnen.

Beitrag von Julian Hörndlein, Freier Journalist und PR-Texter

Das könnte Sie auch interessieren

 

Serie: Künstliche Intelligenz

 

Serie: Künstliche Intelligenz / 6.8.2024

»Wir werden alle generative KI anwenden«

 

Digital. Nachhaltig. Fraunhofer IIS. / 8.5.2024

Ressourcenschonende KI: Nachhaltig von Anfang an

 

Die Geschichte von Ada Lovelace als Podcast

 

Serie / 2.5.2024

ATKI: Von sprechenden Pumpen und zusammenarbeitenden Robotern

Kontakt

Sie haben Fragen, Kommentare oder Anmerkungen zum Fraunhofer IIS Magazin?

Schreiben Sie uns eine E-Mail.

Immer informiert

Der Newsletter zum Magazin

Abonnieren Sie den Newsletter des Fraunhofer IIS Magazins und erhalten Sie alle neuen Themen kompakt per Mail.

Startseite

Zurück zur Startseite des Fraunhofer IIS Magazins