Blau leuchtende Gehirne, Roboter in Denkerpose, allwissende Assistent*innen. So sieht „KI“ in der Öffentlichkeit aus. Die Realität ist komplizierter – und viel spannender.
Das Problem mit der Intelligenz
Zwischen dem, was in der KI-Forschung passiert, und dem, was in der Öffentlichkeit ankommt, klafft eine große Lücke. Dem bin ich als Journalist-in-Residence im Cyber Valley und am Center for Rhetorical Science Communication Research on Artificial Intelligence (RHET AI) Tübingen nachgegangen. Ich habe mit Forschenden darüber gesprochen, warum Wissenschaft und Medien anscheinend immer wieder aneinander vorbeireden.
Warum Künstliche Intelligenz meistens der falsche Begriff ist
Der Begriff „Künstliche Intelligenz“ ist zwar im öffentlichen Bewusstsein verankert, existiert aber als Forschungsgegenstand nicht. Das zeigen meine Interviews und eine Online-Umfrage, die ich mit 59 Forschenden im Rahmen der Residence durchgeführt habe. Die meisten Wissenschaftler*innen lehnen den Begriff ab. Trotzdem ist die Fachsprache voll von Konzepten, die stark an die menschliche Biologie erinnern. Maschinelles Lernen, Computer Vision, Neuronales Netz oder Chain-of-Thought sind Begriffe, die leicht missverstanden werden können.
Wenn Expert*innen mit Journalist*innen sprechen, nutzen sie meist diese Fachsprache. Journalist*innen wiederum greifen sie in Überschriften und Metaphern auf, um die Inhalte mit alltäglichen Themen in Verbindung zu bringen. Das führt zu Missverständnissen.
Und während die Forschung über andere Fragen diskutiert, bedienen die Schlagzeilen weiterhin missverständliche Narrative wie „Kollege KI – Wie verändert Künstliche Intelligenz die Arbeitswelt?“ Große Techunternehmen spielen dabei ebenfalls eine zentrale Rolle1. Sie nennen Sprachmodelle hilfreiche Assistent*innen statt statistischer Textvorhersage. Wahrscheinlichkeiten werden zu denkenden Systemen umgedeutet, automatisierte Berechnungen zu intelligenten Entscheidungen. Worte, die Erwartungen steuern.
Die Tendenz, Maschinen zu vermenschlichen
Der Impuls zu vermenschlichen ist tief in uns verankert2. Ein Computer, der „nachdenkt“, eine Katze, die „verliebt“ den Nachbarn anstarrt – solche Zuschreibungen geschehen automatisch. Das sei kein Fehler, sondern Teil unserer Natur, erklärt mir ein Wissenschaftler, mit dem ich im Rahmen meiner Umfrage spreche. Dieser Mechanismus beeinflusst die Art und Weise, wie wir über KI-Systeme denken, und könnte erklären, warum die menschliche Kognition häufig als Modell für Erklärungen verwendet wird.
Was Forscher*innen über die Kommunikation sagen
Forschende in meiner Umfrage bewerten die mediale Berichterstattung kritisch: „[‘Künstliche Intelligenz’] wird als intelligent dargestellt, obwohl sie es nicht ist. Sie wird als ‘unvermeidlich’ dargestellt, obwohl das Marketing ist, nicht Realität. Und sie wird als Wissensquelle dargestellt, obwohl sie das nicht sein kann“, schreibt ein Teilnehmer.
In einer Rangliste der häufigsten Fehler in der Berichterstattung5 wurden das Weglassen von Einschränkungen, übermäßige Verallgemeinerungen und übertriebene Behauptungen am häufigsten ausgewählt.
Klicken Sie auf den unteren Button, um den Inhalt von datawrapper.dwcdn.net zu laden.
Aber auch Mensch-KI-Vergleiche sorgen für Irritationen: Gut ein Drittel der Befragten findet sie unangemessen.
Kritik an bekannten Metaphern
In der Umfrage bewertet die Mehrheit der Befragten (66 Prozent) die Vermenschlichung von „künstlicher Intelligenz“ negativ.
Die Metapher „Mensch“ sehen einige trotzdem als eine notwendige Vereinfachung. Komplexe Themen ließen sich oft besser mit etablierten Begriffen erklären.
Andere widersprechen: „Es wäre besser, lernende Maschinen stärker als Maschinen zu präsentieren.“ Der Vergleich zwischen Mensch und KI sei oberflächlich und lenke vom eigentlichen Inhalt ab. Er unterstelle fälschlicherweise, dass die inneren Mechanismen von KI-Systemen denen des menschlichen Denkens ähnelten.
„KI ist ein Werkzeug“ ist eine andere populäre Metapher. Sie wird überwiegend positiv von den Forschenden bewertet (58 Prozent), doch auch hier gibt es kritische Stimmen. Manche warnen, dass das sprachliche Bild verbirgt, wie viel Handlungsfähigkeit die sogenannten Tools tatsächlich haben. „Warten diese ‘Werkzeuge’ wirklich nur passiv auf Anweisungen?“, bemerkt jemand in einer Antwort. Die Vorliebe vieler Forscher*innen für die Werkzeug-Metapher könnte auch damit zusammenhängen, dass diese Erklärung ihnen Kontrolle und Handlungsfähigkeit verleiht.
Gemischte Reaktionen gibt es zur weit verbreiteten Black-Box-Metapher. Für einige beschreibt sie treffend, dass Prozesse in KI-Systemen oft schwer nachzuvollziehen sind. Andere halten sie für überbewertet. Die Prominenz der Metapher lege nahe, dass Intransparenz das zentrale Problem der KI-Forschung sei, obwohl es auch andere wichtige Bereiche gebe.

Nina Kalwa, wissenschaftliche Mitarbeiterin am RHET AI Center, erklärt: Ursprünglich sei der Black Box Begriff im computerwissenschaftlichen Diskurs durchaus neutral bis positiv konnotiert gewesen6. Im öffentlichen Raum habe er jedoch eine negative Färbung bekommen und aus dieser Wahrnehmung seien auch die Forderungen nach „Erklärbarkeit“ entstanden.
Metaphern sind Mittel der Verständigung
Trotz aller Kritik sind Metaphern ein zentrales Mittel in der Kommunikation. Sie stellen Zusammenhänge her, vermitteln Emotionen und prägen unsere Sicht auf die Welt – im Positiven wie im Negativen. Der Philosoph Hans Blumenberg betonte, dass sie für das menschliche Denken und Handeln ebenso wichtig sind wie präzise Definitionen7. George Lakoff und Mark Johnson zeigten in Metaphors We Live By, dass Metaphern nicht nur unsere Sprache formen, sondern auch unser grundlegendes Weltverständnis.
Gerade in der Wissenschaftskommunikation ist es deshalb entscheidend, sich den Einfluss sprachlicher Bilder bewusst zu machen. Nina Kalwa betont, dass Sprache nie neutral ist:
„Wir werden immer eine bestimmte Wirklichkeit mit Sprache und anderen Zeichen schaffen und dabei immer die Möglichkeit der Konstitution anderer Wirklichkeiten ausschließen. Da gibt es keinen Weg raus. Die Wissenschaftskommunikation muss sich deshalb fragen: Welches Bild konstruiere ich mit dem Text, mit diesem Bild? Und was ist eigentlich das, was transportiert werden soll?“
Rhetorische Brücken
Es gibt Bemühungen, neue Metaphern zu prägen. Eine besonders oft zitierte stammt von dem Schriftsteller Ted Chiang: „ChatGPT ist ein unscharfes JPEG des Webs“8. Chiang verwendet sie, um zu erklären, wie Informationen aus Datenmengen komprimiert werden, ohne dass Programme wie ChatGPT den Text wirklich verstehen. Er setzt die Metapher gezielt ein, um eine differenzierte Sicht auf Sprachmodelle zu vermitteln.
In meiner Umfrage habe ich die Forschenden ebenfalls gebeten, neue Metaphern zur Erklärung von Sprachmodellen vorzuschlagen. Hier sind drei Antworten, die unterschiedliche Aspekte hervorheben, und mal mehr, mal weniger kritisch sind. Welche Erklärung gefällt Ihnen am besten – A, B oder C?
A
Ein Sprachmodell ist ein sehr großer, ungewöhnlicher Würfel, auf dessen Seiten Wörter stehen. Manche Seiten sind größer als andere, sodass bestimmte Wörter häufiger gewürfelt werden als andere. Das „Ungewöhnliche“ daran ist, dass sich die Größen der Seiten nach jedem Wurf verändern. Das Training eines Sprachmodells besteht letztendlich darin, die Größen dieser Seiten anzupassen.
B
Ein Sprachmodell ist eine Knetmasse. Indem du dem Modell Daten zeigst, formst du sie. Mit guten Daten entsteht etwas Nützliches – ein Schlüssel, ein Werkzeug, ein Griff. Mit schlechten Daten bekommst du nur einen formlosen Klumpen oder, schlimmer noch, etwas, das nützlich aussieht, aber sofort zerbricht, wenn man es benutzt.
C
Ein Sprachmodell ist ein Fleischwolf für Wurstherstellung: Das Ergebnis mag dir gefallen, aber du willst lieber nicht wissen, wie es entstanden ist.
Ideen für bessere Erklärungsansätze
Die Forschung auf dem Gebiet des maschinellen Lernens ist dynamisch und entwickelt sich ständig weiter. Der „stochastische Papagei“, der in einem einflussreichen Paper zur Kritik großer Sprachmodelle herangezogen wurde12, ist heute vielleicht ein treffendes Bild, könnte aber morgen schon veraltet wirken.
Ein positiver Nebeneffekt dieser ständigen Auseinandersetzung mit Erklärungsansätzen ist, dass sie dazu anregen kann, tiefer in die Materie einzusteigen, populäre Narrative zu überprüfen und vielleicht eine präzisere Sprache zu entwickeln. Es ist ebenfalls denkbar, dass sich neue Metaphern auf die Visualisierung von „Künstlicher Intelligenz“ auswirken und frische Bilder jenseits der Darstellungen von fliegenden blauen Gehirnen13 und weißen Robotern hervorbringen.
Das Journalist-in-Residence Programm
Die Recherche wurde im Rahmen einer Journalist-in-Residence (JIR) durchgeführt. Ziel war es, unterschiedliche Perspektiven von Expert*innen zu sammeln, um ein besseres Verständnis für die Herausforderungen in der Kommunikation über KI zu entwickeln. Das JIR-Programm wird vom Zentrum für Rhetorische Wissenschaftskommunikation zur Künstlichen Intelligenz (RHET AI) und Cyber Valley organisiert und von der Volkswagen Stiftung gefördert.
Ein wissenschaftliches Institut an der Georgetown University hat den Begriff „künstliche Intelligenz“ inzwischen ganz aus seinem Vokabular gestrichen14. Statt ein Tabu zu schaffen, wolle man damit „intellektuelle Disziplin“ fördern. Eine gute Übung für den nächsten Text über „KI“.