Für die Benutzung sollte man also am besten selbst Fachwissen mitbringen und die Ergebnisse kritisch betrachten?
Volker Bruns: Genau. Aus diesem Grund kann ich beispielsweise verstehen, dass sich Lehrer Sorgen machen, wenn Schüler, die vielleicht keine Lust auf Hausaufgaben haben, denken, dass da etwas Plausibles rauskommt. Gleichzeitig fehlt ihnen aber vielleicht die Kompetenz, die Ergebnisse an den richtigen Punkten zu hinterfragen.
Diese Reflexion braucht es auch in der Forschung: Fast alle Forschungsprojekte heutzutage sind interdisziplinär, gerade bei uns in der Medizintechnik. Wir sind letztlich Informatiker und arbeiten viel mit Ärzten zusammen. Vor Kurzem haben wir beispielsweise einen Antrag geschrieben, da ging es um Hirntumore. Da mir hier das Fachwissen fehlt und ich die Zeit der Mediziner nicht überstrapazieren wollte, habe ich mich vor dem nächsten Gespräch zu dem Thema etwas aufschlauen wollen. Dafür konnte ich wieder ChatGPT nutzen. Aber auf dieser Basis dann auch direkt Teile des Antrags zu schreiben wäre definitiv nicht in Frage gekommen. Wie soll man erkennen, ob die Antworten richtig sind, oder etwas Wichtiges weggelassen wird? Da vertraue ich dann doch lieber auf die Expertise unserer klinischen Partner.
Am Ende muss man aber auch festhalten: Gerade in der Forschung haben wir viele reflektierte Menschen, die mit einer gesunden Skepsis durchs Leben gehen und wenig Gefahr laufen, so einer KI allzu sehr zu vertrauen. Vor diesem Hintergrund könnte ich mir vorstellen, dass sich ChatGPT in der Wissenschaft wirklich zu einem hilfreichen Tool entwickelt, weil die Nutzer in der Regel gut ausgebildet sind und von Natur aus den Charakter haben, Dinge zu hinterfragen.