Wie wir über künstliche Intelligenz sprechen, prägt die Wahrnehmung und das Wissen über diese Technologie. Ein Gespräch mit der Linguistin Nina Kalwa über die Erforschung des KI-Diskurses, Blackboxes und täuschende (Sprach-)Bilder.
Humanoide Roboter und Dystopien: Bilder von KI
Frau Kalwa, wie beeinflusst die Art und Weise, wie wir über künstliche Intelligenz sprechen, unsere Wahrnehmung und das Wissen über diese Technologie?
Die Art und Weise, wie wir über Künstliche Intelligenz sprechen, beeinflusst unser Wissen sehr stark. Alles, was wir als Gesellschaft über KI wissen, haben wir etwa in Zeitungsartikel, vielleicht auch wissenschaftlichen Artikeln oder Blogposts gelesen. Meiner Forschung liegt ein konstruktivistischer Grundgedanke zugrunde. Das meint, dass die Art und Weise, wie wir über künstliche Intelligenz sprechen, das gesellschaftliche Wissen über künstliche Intelligenz in starker Weise formt. Künstliche Intelligenz ist also das, als was es im Diskurs erscheint, und zwar sowohl in wissenschaftlichen als auch nicht-wissenschaftlichen Debatten. Wenn künstliche Intelligenz zum Beispiel immer wieder mit negativ-konnotierten Ausdrücken wie Kontrollverlust vorkommt, dann erhält der Ausdruck KI schließlich auch selbst negative Bedeutung.
Was bedeutet konstruktivistischer Ansatz?
Es gibt verschiedene konstruktivistische Ansätze in den Sozialwissenschaften oder der Philosophie. Der linguistische Konstruktivismus geht davon aus, dass Sprache und auch andere Zeichen unser Denken formen. Wir gehen davon aus, dass Sprache das, was wir wissen, nicht nur abbildet, sondern gesellschaftliches Wissen auch aktiv formt.
Dazu zählen beispielsweise Bilder. Wenn wir in öffentlichen Debatten mit Texten in Kontakt kommen, sind diese eigentlich immer bebildert. Und darüber wird auch Wissen über künstliche Intelligenz konstituiert. Auch die Darstellung von künstlicher Intelligenz in Filmen ist ganz wesentlich beteiligt daran.
Wie wird künstliche Intelligenz dargestellt?
Die Bilder zu Pressetexten sind oft sehr ähnlich. Häufig sieht man Bilder eines weißen Roboters oder eine Roboterhand. Manchmal liegt in dieser Roboterhand ein Apfel, um den Gegensatz zwischen Natur und Technik darzustellen oder als Anspielung auf die Schöpfung. Eine tolle Seite und ein toller Twitteraccount ist „Not My Robot“. Der Account twittert regelmäßig Bilder von KI, bei denen man das sehr schön sieht und sich fragt: Warum wird ein Text, in dem es um einen Algorithmus geht, mit einem menschenähnlichen Roboter bebildert? Diese Bilder kehren immer wieder und haben natürlich auch Auswirkungen auf die gesellschaftliche Vorstellung von künstlicher Intelligenz. So einen Account könnte man auch über Sprachbilder machen, um sich bewusst zu machen, wie bestimmte Narrative und Topoi immer wieder auftauchen. Und dann könnte man sich fragen, wie man KI eigentlich besser beschreiben und darstellen könnte. Ein gutes Beispiel für Bilder ist „Better Images of AI“. Allerdings geht es mir in meiner persönlichen Forschung nicht darum, Handlungsanweisungen zu geben, wie man besser über KI sprechen kann, sondern ich interessiere mich für den Ist-Zustand, für Muster im Reden und Schreiben über KI.
Welches Bild wird im medialen Diskurs über künstliche Intelligenz vermittelt?
Im medialen Diskurs wird oft ein negatives Bild von KI entwickelt. Künstliche Intelligenz schafft es oft in öffentliche Debatten, wenn sie beispielsweise diskriminierend agiert. Es gibt immer wieder Berichte von sexistisch oder rassistisch agierenden KI. Dabei wird dann der Kontrollverlust betont, dem der Mensch dadurch ausgesetzt ist.
Bedeutet das im Umkehrschluss auch, dass wir künstlicher Intelligenz im Diskurs auch negative menschliche Eigenschaften zuschreiben, obwohl es sich lediglich um Algorithmen handelt?
Ja, ich denke, das kommt auch stark aus den Filmen, in denen KI als Roboter in menschlicher Gestalt, wie in Ex Machina, oder beispielsweise als menschliche Stimme, wie in Her, auftritt. In Filmen ist eine KI oft eine menschenähnliche Gestalt, der aber ganz viele positiv konnotierte menschliche Eigenschaften fehlt. Sie kann beispielsweise kein Mitgefühl empfinden oder nicht wirklich lieben. Und diese Zuschreibungen finden sich zwar nicht in allen, aber vielen journalistischen Texten, wenn beispielsweise ein Bedrohungsszenario eröffnet wird, wie KI terminatormäßig die Menschheit auslöscht.
Wie erforschen Sie den Diskurs zu künstlicher Intelligenz und welche Formate und Medieninhalte schauen Sie sich dafür an?
Wie gehen Sie methodisch vor, wenn Sie diese Art der Diskurse untersuchen?
Wir arbeiten computergestützt, um große Textmengen zu untersuchen. Dabei gucken wir uns beispielsweise an, in welchem unmittelbaren sprachlichen Umfeld künstliche Intelligenz vorkommt. Ganz banal gesagt: Was steht links von KI, was steht rechts davon, welche Verben kommen in diesem Zusammenhang vor? Häufig wirkt es aufgrund der Wahl der Verben so, dass die KI das Agens ist, also derjenige, der handelt, und der Mensch ihr machtlos gegenübersteht: KI steuert, kontrolliert, beherrscht. Wir machen aber auch detaillierte Textanalysen – quasi semantische Tiefenbohrungen –, bei denen wir uns Texte ganz intensiv angucken. Wir untersuchen die Metaphern und schauen, welche bestimmten Vorstellungen von KI „zwischen den Zeilen“ sprachlich und kommunikativ erzeugt werden.
Gibt es schon erste Ergebnisse?
Wir haben noch keine konkreten Ergebnisse, aber eine erste Vermutung. Es wird immer schnell gesagt, dass in Pressediskursen in einer ganz bestimmten Weise über KI geredet wird. Natürlich lässt sich das nicht pauschal sagen, aber in vielen journalistischen Texten werden bestimmte dystopische Vorstellungen von KI aus Filmen übernommen, die dann wiederum ein gewisses Bedrohungsszenario kreieren. Wir gehen davon aus, dass das teilweise selbst aus der Wissenschaft kommt. Denn die bereits durchgeführten filmwissenschaftlichen Analysen zeigen, dass die Darstellung von KI in Filmen wieder zurückwirkt in die Wissenschaft. Roboter werden oft so gebaut, wie sie in Filmen aussehen. Auch in wissenschaftlichen Diskursen gibt es schon bestimmte Muster des Redens über KI, die wir zumindest mal kritisch hinterfragen sollten.
Better Images of AI
Künstliche Intelligenz wird meist mit ausgestreckten Roboterhänden, leuchtenden Gehirnen oder Figuren aus Science-Fiction-Filmen bebildert. Die Gefahr solcher gängigen Tropen: Sie können bei Betrachter*innen unrealistische Erwartungen wecken, Angst schüren oder maschinelle Intelligenz mit menschlicher Intelligenz gleichsetzen. Um Missverständnissen und einem falschen Bild von KI in der Öffentlichkeit vorzubeugen, will das Projekt „Better Images of AI“ KI besser visuell repräsentieren. Auf der Website gibt es eine kleine Auswahl passender Fotos, aktuelle Forschungsliteratur zum Thema sowie eine Checkliste für die Bildauswahl. Die Twitter-Biografie verspricht eine „glowing brain and shiny robot free zone“. Hinter dem Projekt stecken BBC Research & Development, die gemeinnützige Organisation „We and AI“ und das interdisziplinäre Forschungsinstitut Leverhulme Centre for the Future of Intelligence.
In Filmen wie Terminator gewinnt häufig ein humanoider Roboter die Kontrolle über die Menschen. Diese Bedrohungsszenarien sind ein beliebter Topos, der in journalistischen Texte übernommen wird. Dann wird darin beispielsweise gefragt, ob wir bald Terminator-mäßig ausgelöscht werden, weil die KI die Weltherrschaft übernimmt.
Inwiefern unterscheidet sich die Kommunikation über KI außerhalb der Wissenschaften vom innerwissenschaftlichen Diskurs?
Das lässt sich am Beispiel der Blackbox-Metapher erklären, die in den verschiedenen Diskursen häufig vorkommt, aber nicht einheitlich verwendet wird. In der Kybernetik und Systemtheorie geht man bei einer Blackbox einfach von einem Phänomen aus, dass eine Input-Output-Beziehung beschreibt und bei der der Kern intransparent ist. Die Wissenschaftler*innen interessieren sich für diese Zusammenhänge und das, was in der sogenannten Blackbox passiert, können sie vielleicht nicht verstehen. Die Metapher der Blackbox ist dabei erst mal nicht negativ besetzt. Es gibt aber durchaus wissenschaftliche Diskurse, bei denen diese Blackbox-Metapher negativ besetzt ist. Der Terminus explainable AI zielt ja beispielsweise darauf ab, die Introspektion von Blackbox-Systemen zu ermöglichen. In diesen Diskussionen ist Blackbox auch oft negativ konnotiert: Die Blackbox soll überwunden werden.
In der Wissenschaftskommunikation arbeitet man auch häufig mit Analogien, Metaphern und Bildern. Wie sollte man richtig über KI kommunizieren und das Thema bebildern?
Der linguistische Konstruktivismus stellt uns dabei vor eine gewisse Herausforderung, weil wir ja nicht nicht konstruieren können. Was sich Journalist*innen und Wissenschaftskommunikator*innen bewusst machen sollten, ist diese konstitutive Kraft der Sprache. Wir werden immer eine bestimmte Wirklichkeit mit Sprache und anderen Zeichen schaffen und dabei immer die Möglichkeit der Konstitution anderer Wirklichkeiten ausschließen. Da gibt es keinen Weg raus. Die Wissenschaftskommunikation muss sich deshalb fragen: Welches Bild konstruiere ich mit dem Text, mit diesem Bild? Und was ist eigentlich das, was transportiert werden soll?
*Das Department von Annette Leßmöllmann am Karlsruher Institut für Technologie (KIT) ist einer der drei Träger des Portals Wissenschaftskommunikation.de.