Neue, leistungsfähige KI-Systeme wie ChatGPT werden gerade heiß diskutiert: Welchen Einfluss werden Sie auf Beruf und Alltag haben? Im Interview erklärt Anne Lauscher, was die KI-Revolution für die Wissenschaft bedeutet und vor welchen Herausforderungen wir stehen.
„KI wird unsere Gesellschaft transformieren“
Frau Lauscher, der Chatbot ChatGPT des US-Unternehmens OpenAI ist seit Ende letzten Jahres in aller Munde. Was macht das Programm besonders?
Aus meiner Sicht als Forscherin im Bereich Natural Language Processing ist das Programm erstmal nicht besonders. ChatGPT ist das Resultat einer jahrelangen Entwicklung, die Stück für Stück und Schritt für Schritt erfolgt ist. Die KI basiert auf Large Language Models, großen künstlichen neuronalen Netzwerken, die auf großen Mengen von Textdaten, wie zum Beispiel der gesamten englischen Wikipedia, trainiert wurden. Diese wurden zum ersten Mal Ende 2018 präsentiert und haben damals schon einen großen Entwicklungsschritt hinsichtlich der Performance von KI gebracht. Das Neue an ChatGPT ist zum einen, dass die Qualität nach und nach so gestiegen ist, dass es tatsächlich sehr flüssige Antworten gibt. Und zum anderen, dass das Grundprinzip des Trainings dieser Sprachmodelle mit einer weiteren Art des Trainings basierend auf menschlichem Feedback kombiniert wurde. Somit werden bessere Antworten bevorzugt durch das Modell generiert. Das führt dazu, dass die Antworten sprachlich sehr gut sind und gleichzeitig sehr gut an menschliche Präferenzen angepasst sind. Auch die Kompetenzen sind sehr weitreichend. Ich glaube aber, das Besondere, was nun zu diesem Hype geführt hat, war, dass dieses System der breiten Masse zugänglich gemacht wurde.
Sehen Sie Einsatzbereiche von ChatGPT und ähnlichen Systemen im akademischen Bereich?
Ja, absolut. Erstmal muss man sagen: Im akademischen Bereich kann ChatGPT somit vor allem erste Hilfestellungen leisten: Die KI kann mir Textbausteine erzeugen, mich inspirieren und mir verschiedene Ideen liefern. Sie kann auch Texte auf Basis von Stichworten formulieren und somit helfen, Schreibblockaden zu lösen oder erste Ideen zu finden. Schlussendlich unterstützt mich die KI bei der Lösung von Problemen, sodass ich nicht bei Null anfangen muss.
Aber die KI hat auch sehr viele Schwächen: Wir brauchen einen kritischen Blick, um genau zu überprüfen, ob der Output stimmt und angemessen ist. Ich als Wissenschaftlerin bin ja bereits Expertin in meinem Feld und kann kritisch beurteilen, was die KI mir ausgibt. ChatGPT kann ich jedoch auf keinen Fall zur Literaturrecherche einsetzen, weil die Daten, auf denen es trainiert wurde, nur bis Ende 2021 reichen und somit veraltet sind (und sich die KI-Welt so schnell bewegt). Auch Student*innen können sich zum Beispiel für eine initiale Recherche zu einem Thema, für das sie ja üblicherweise noch keine Expert*innen sind, Ideen suchen oder Nachfragen stellen. Ganze Hausarbeiten schreiben zu lassen ist aber noch schwierig – vor allem, wenn man noch nicht bewerten kann, ob der Output angemessen ist.
Müssen Nutzer*innen von ChatGPT oder ähnlichen Systemen die Wirkweisen des Systems verstehen? Also das, was hinter dieser schönen Fassade passiert?
Das ist das Charmante und Gefährliche bei den Systemen: Dadurch, dass ChatGPT mit natürlichsprachigem Input funktioniert und mir auf eine ganz normale Frage eine Antwort gibt, habe ich vielleicht den Eindruck, dass ich das nicht verstehen muss, weil ich es ja auch so benutzen kann. Dennoch brauchen wir eine gewisse KI-Literacy. Ich muss schon zumindest den grundlegenden Aufbau der KI nachvollziehen, um die Schwächen zu verstehen und den Output kritisch bewerten zu können. Dafür brauchen wir eben KI-Kompetenz an verschiedenen Stellen. Ich finde, das sollte schon in der Schule anfangen. Aber auch die Hochschullehre muss nach und nach entsprechend angepasst werden. Das ist der zentrale Punkt: Verstehen, wie die Systeme funktionieren – zumindest grob. Die Kompetenz zu den Themen, zu denen ich die Systeme als Werkzeuge einsetzen möchte, brauche ich natürlich trotzdem.
Aber ich möchte auch umgekehrt sagen, dass es eine bi- oder multi-direktionale Interdisziplinarität geben muss. Wir brauchen zum Beispiel Ethik in jedem Computer Science Curriculum, um die Student*innen früh für solche gesellschaftlich relevanten Fragestellungen zu sensibilisieren. Und wir brauchen KI-Kurse in anderen Fächern außerhalb der Computer Science, damit auch dort eine Reflexion stattfindet.
Sie haben zu Stereotypen und Vorurteilen in Pre-Trained Language Models geforscht. Mit welchen ethischen Problemen müssen wir heute bei der Verwendung von KI-Systemen rechnen?
Es kann aber auch ein allokationsbezogener Schaden durch solche Stereotypen entstehen. Das heißt, dass eine KI Entscheidungen trifft, die Individuen, die zu bereits marginalisierten Gruppen gehören, weniger Ressourcen zuweisen. Da gab es zum Beispiel 2018 einer KI-basierten Recruiting Engine eines großen Unternehmens, die Frauen eine entsprechende Gruppe von Jobs nicht zugetraut hat.
Gibt es Ansätze, diese Probleme zu lösen?
Der erste Punkt, den wir dazu klären müssen, ist auch gesamtgesellschaftlich: Was wollen wir eigentlich? Wir haben in den letzten Jahren große Fortschritte gemacht, um diese stereotypischen Verzerrungen zu messen und zu verringern. Vor allen Dingen sehe ich die Fortschritte darin, dass die Problematik allgemein akzeptiert ist, mehr als noch vor einigen Jahren. Aber das Problem ist nicht gelöst, was auch daran liegt, dass die Frage nach den Regularien nicht gelöst ist. Welche Aussagen einer KI sollen korrigiert werden? Was sind Stereotypen, die uns wichtig sind? Welche Individuen und marginalisierten Gruppen müssen wir schützen? Und wie werden die Mechanismen, auf die man sich einigt, implementiert?
ChatGPT wurde bereits in manchen Papers als Co-Autor angeführt. Wer trägt die Verantwortung für die generierten Inhalte? Werden wir das öfter sehen?
Was erwartet uns im Bereich KI in den nächsten Jahren?
KI ist, global betrachtet, eines der größten Forschungsfelder mit sehr viel Industriebeteiligung. Was die technischen Entwicklungen angeht, wird es auf jeden Fall immer bessere und umfangreichere Systeme geben. Wir werden immer mehr Modalitäten, das heißt geschriebene und gesprochene Sprache sowie statische und bewegte Bilder, auf denen unsere Kommunikation basiert, in KI-Systeme integrieren.
Daran grenzt auch die Frage des “Embodiments”: Mit der Zeit werden wir gewisse, vielleicht auch humanoide, Formen haben, in denen uns KI-Systeme begegnen. Das finde ich spannend, weil so neue Modalitäten möglich sind, mit denen diese Systeme die Welt erfahren, wie zum Beispiel Tastsinn.
KI wird auf jeden Fall unsere Gesellschaft transformieren. Allen voran die Art und Weise, wie wir arbeiten. Es wird wahrscheinlich Verschiebungen geben: Wir werden viele Aufgaben einfach von KI-Systemen übernehmen lassen. Zum Beispiel, wie vorhin gesagt, kann ich mir erste Ansätze holen, meine Schreibblockaden vielleicht überwinden, Texte verbessern lassen – sofern ich mir sicher bin, dass die Informationen darin stimmen. Dann brauche ich mich nicht eine Stunde hinsetzen und über jedes Wort nachdenken. Tätigkeiten und Arbeiten, die ”higher-level Tasks” sind, wie zum Beispiel das Treffen strategischer Entscheidungen, werden dann entsprechend wichtiger für uns – beziehungsweise haben wir dann mehr Zeit für sie.