Lernende Algorithmen sind nicht nur ein Thema für die Berichterstattung, sie können Journalist*innen auch bei der Arbeit unterstützen. Wie man zu Algorithmen recherchiert, über sie schreibt und welche KI-Tools im Datenjournalismus eingesetzt werden, erklärt die Professorin für Digitalen Journalismus Christina Elmer.
„Künstliche Intelligenz wird noch immer stark als Schlagwort benutzt“
Frau Elmer, worin sehen Sie die Aufgabe des Journalismus, wenn über lernende Algorithmen und künstliche Intelligenz kommuniziert wird?
Der Journalismus sollte sich als Ort der öffentlichen Debatte verstehen. Ein wichtiges Kommunikationsziel wäre aus meiner Sicht, eine gut informierte Mündigkeit bei Leser*innen zu erzeugen. Dazu muss der Journalismus einerseits Hintergrundwissen und aktuelle Entwicklungen vermitteln, um den Diskurs überhaupt zu ermöglichen und zu fördern. Andererseits muss er auch das Handwerkszeug liefern, um kritisch hinterfragen zu können, wie Algorithmen eingesetzt werden: Nützen sie der Gesellschaft, werden unsere Werte vertreten oder gibt es diskriminierende Verzerrungen? Lernende Algorithmen haben einen großen Einfluss auf unseren Alltag und darauf, wie digitale Öffentlichkeiten zustande kommen und interagieren. Die Zivilgesellschaft sollte in der Lage sein, Verantwortlichkeiten für sich klären und auch die eigenen Rechte wahrnehmen zu können. Ein wichtiger Punkt ist auch, differenzierter über Künstliche Intelligenz zu kommunizieren.
Wie gelingt es, differenzierter zu kommunizieren?
Künstliche Intelligenz wird noch immer stark als Schlagwort benutzt. Wir brauchen mehr Begriffe, um beschreiben zu können, was eine KI macht, worauf sie optimiert ist, mit welchen Daten sie gelernt hat und welche Fehlerwahrscheinlichkeiten sie hat. In den seltensten Fällen wird das klar beschrieben. Dazu brauchen wir Begriffe, die allgemeinverständlich sind und haftenbleiben. Wir sprechen bei Computerprogrammen auch nicht von Algorithmen, sondern beispielsweise von Textverarbeitungssoftware. Diese verständlichen Begriffsebenen fehlen aus meiner Sicht noch vielfach für KI-Tools.
Könnten Sie Beispiele nennen, wie man solche Tools besser bezeichnen könnte?
Wir sollten sie entsprechend ihrer Funktion als Transkriptions-, Übersetzungs- oder Empfehlungssysteme bezeichnen. Oder als Filtersysteme, wenn beispielsweise ein Newsfeed algorithmisch gefiltert wird. Dabei ist es auch wichtig zu unterscheiden, ob es ein Algorithmus oder gleich ein lernender Algorithmus ist, der auch einen gewissen Teil des Weges selbstständig gehen kann, ohne dass wir diesen vorher festlegen.
Entspricht der Journalismus aktuell diesen Ansprüchen?
Im Moment ist es sehr schwer, mit dem Tempo der technologischen Entwicklungen mitzuhalten. Das merkt man auch im Journalismus. Es gibt aber viele gute Beispiele, die zeigen, wie es gelingen kann. So wurden im Bereich des Datenjournalismus im Algorithmic Accountability Reporting Methoden und Strategien entwickelt, um KI-Systeme zu hinterfragen und kundig über sie zu berichten. Zuletzt gab es einige große Recherchen von der Tagesschau, dem Wall Street Journal, dem Spiegel oder dem Bayerischen Rundfunk zum TikTok-Algorithmus. Sie zeigen, wie man mit ganz unterschiedlichen Herangehensweisen Hintergrundwissen über einen Algorithmus schaffen kann, der proprietär und kaum zugänglich ist.
Die TikTok-Recherchen
Das Wall Street Journal (WSJ) deckte 2021 auf, wie TikTok innerhalb kürzester Zeit Inhalte auf die Interessen der Nutzer*innen zuschneidet. Für die Datenrecherche legte das WSJ 100 Bots mit jeweils einer IP-Adresse an und ordnete ihnen Alter, Geschlecht und bestimmte Interessen zu. Die Bots sahen sich basierend auf Hashtags, die zu diesen Interessen passten, bestimmte Videos an. Die Journalist*innen konnten mit ihrer Recherche zeigen, wie die Videoplattform Interessenprofile der Nutzer*innen basierend auf deren Verweildauer bei einzelnen Videos generierte und die „For You“-Seite individuell auf ihr Verhalten anpasste. Anfangs enthielt diese noch Mainstreamvideos mit hoher Reichweite. Innerhalb von durchschnittlich zwei Stunden schlug der Empfehlungsalgorithmus fast ausschließlich personalisierte Inhalte vor und drängte die Nutzer*innen in Nischen. Auch der Spiegel zeigte in einer Recherche zum TikTok-Empfehlungsalgorithmus, wie schnell dieser die Interessen der Nutzer*innen erkennt. Dass der Algorithmus dazu führen kann, Falschinformationen eine große Reichweite zu verschaffen, obwohl das Netzwerk das Verbreiten von Desinformationen in den eigenen Richtlinien untersagt, haben Recherchen des Bayerischen Rundfunks und Kontraste belegt.
Kürzlich zeigte eine Recherche von NDR, WDR und tagesschau, dass ein Wortfilter bestimmte Äußerungen auf dem sozialen Netzwerk unterdrückte. Von 100 getesteten Wörtern oder Wortkombinationen führten 19 zu einem Shadow-Ban – also dazu, dass Kommentare, die ein solches Wort enthielten, ausgeblendet wurden ohne es zu kennzeichnen. Dazu zählten neben „Sex“ und „Porno“ auch Begriffe wie „queer“, „schwul“, „heterosexuell“, der Name der chinesischen Tennisspielerin „Peng Shuai“ sowie die Worte „Auschwitz“ und „Nationalsozialismus“.
Tatsächlich wäre eine Einbeziehung verschiedener Akteur*innen in dieses Themenfeld wichtig. Aus meiner Erfahrung aus dem Cyber-Valley-Residence-Programm vom letzten Jahr kann ich sagen, dass bereits viel darüber nachgedacht wird, wie die Kommunikation über Künstliche Intelligenz mit der Gesellschaft laufen kann. In Wissenschaft und Forschung gibt es außerdem bereits eine große Aufmerksamkeit dafür, wie wichtig es ist, Werte wie Fairness in die Programmierung lernender Algorithmen einzubeziehen. Dabei stellt sich direkt die Frage, was fair in diesem Fall bedeutet: Wer soll mit wem gleichbehandelt werden? Und unter welchen Umständen? Dazu gibt es bereits verschiedene Konzepte, aber wir brauchen einen gesellschaftlichen Diskurs, welche Werte wir wie operationalisieren wollen. Den können wir nur führen, wenn dafür eine Bühne bereitet wird und die Literacy vorhanden ist. Da sehe ich bisher noch eine große Lücke.
Was verstehen Sie unter „Werte operationalisieren“?
Damit meine ich, dass wir Werte, die wir in unserer Gesellschaft hochhalten und schützen möchten, einem Algorithmus beibringen müssen, beispielsweise Minderheiten zu schützen. Das kann etwa wichtig sein, wenn Auskunfteien die Kreditwürdigkeit von Personen automatisiert bewerten. Hier haben wir in einer Recherche mit den Datenteams von BR und Spiegel zum Algorithmus der Schufa gesehen, dass junge Männer tendenziell benachteiligt sind, ebenso wie Personen, die häufig umgezogen sind. Möchte man also zum Beispiel Menschen mit Migrationshintergrund vor einer Diskriminierung durch solche Systeme schützen, müsste man diesen beibringen, hier andere Maßstäbe anzulegen – und diese dann auch sehr klar definieren. Denn was „Gleichbehandlung von Gruppen“ konkret bedeutet, kann ich bei Algorithmen nicht als Worte darstellen, sondern ich muss es für ihn in eine mathematische Formel übersetzen. Ich muss ihm sagen: In diesem Fall, mach dies, und in jenem Fall, tu das.
Sie sprachen davon, dem Thema Künstliche Intelligenz eine Bühne zu bereiten. Worin sehen Sie dabei die Rollen von Wissenschaftler*innen und Journalist*innen bei der Kommunikation?
Die Informatikerin Katharina Zweig sagte kürzlich in einem Interview mit journalist, dass vielen Journalist*innen das nötige Wissen fehle, um über KI zu berichten, weswegen sie bisher noch Wissenschaftler*innen in der Verantwortung sehe. Was sagen Sie dazu?
Da hat sie tatsächlich einen Punkt, hier haben wir in der journalistischen Ausbildung noch viel Luft nach oben. Genau deshalb gibt es auch einen Datenjournalismus-Schwerpunkt im Studiengang Wissenschaftsjournalismus bei uns an der Technischen Universität Dortmund, um diese Fähigkeiten zu stärken. Insofern sehe ich das momentan ebenfalls noch als gemeinsame Aufgabe von Journalismus und Wissenschaft.
Welche Fähigkeiten braucht es im Journalismus, um mit KI-Tools umgehen zu können?
Der Datenjournalismus hat sich glücklicherweise schon in vielen Redaktionen etabliert. Dennoch sehe ich gerade im KI-Bereich noch großen Handlungsbedarf. Die Tools, die man braucht, sind häufig sehr spezifisch. Das habe ich auch in der Redaktion beim Spiegel gemerkt: Ich kann nicht einfach einen Empfehlungsalgorithmus von der Stange nehmen, der dann auf journalistische Inhalte passt. In kaum einen Medienhaus gibt es Teams, die mit dieser Technik autark arbeiten können. Sie sollten in der Lage sein, auch eigene Werkzeuge entwickeln, auf ihre Arbeit zuschneiden und mit eigenen Daten füttern zu können. Nur so könnten sie nach außen vertreten, warum man welches Tool einsetzt und welche Zielfunktionen und Werte dahinterstecken.
Sie sprechen es gerade an: Künstliche Intelligenz oder lernende Algorithmen sind nicht nur ein Thema, über das der Journalismus berichtet. Solche Werkzeuge werden auch eingesetzt, um ihn zu unterstützen. Welche Tools finden dabei Anwendung?
Das betrifft verschiedene Bereiche der journalistischen Inhalteproduktion und -vermittlung. Bei der Recherche werden immer mehr algorithmische oder KI-Tools eingesetzt, um Archive oder Datenbanken zugänglich zu machen. Sie können helfen, große Dokumentenmengen wie bei Leaks zu durchsuchen oder neue Ansätze für die Recherche zu finden. Automatisierte Assistenzsysteme können Trends beobachten oder Berichte zu Neuigkeiten zu bestimmten Themen zusammenstellen. Die Informationsmengen sind häufig nicht händisch zu erschließen. Mit Algorithmen lässt sich das strukturiert tun.
Das klingt eher danach, als würden KI-Systeme Journalist*innen unterstützen, aber nicht eigenständig Journalismus machen. Was ist mit Roboterjournalismus?
Zum jetzigen Zeitpunkt muss man KI als Assistenzsystem verstehen. Der ganze Bereich des Roboterjournalismus läuft in den meisten Fällen gar nicht mit KI-Unterstützung, sondern mit Texten, die nach klaren und vorab definierten Regeln algorithmisch aufgebaut werden. Diese Regeln kann man sich wie Schablonen vorstellen, die von Redakteur*innen vorab geschrieben werden.
Schreiben KI-Systeme also auch in Zukunft keine autarken Texte?
Natürlich ist das möglich, aber aus meiner Sicht werden es auch in Zukunft noch Menschen sein, die hinter dem Journalismus stehen, ihn gestalten und steuern. Sie können eine Fragestellung erarbeiten, die auch mit anderen Menschen resoniert, und empathisch an Menschen herantreten. Sie sind diejenigen, die Szenen so beschreiben, dass ich mich als Rezipientin angesprochen fühle. In alledem liegen unsere Stärken als Menschen, die wir weiterhin ausspielen können. Theoretisch kann man natürlich auch einer Maschine bestimmte Formen von Kreativität beibringen und etwa als Anregung für neue Recherchefragen und Ideen nutzen. Aber ich bezweifle, dass Journalist*innen auf diesem Weg auch stimmige Inhalte produzieren können. Durch KI können wir uns aber von vielen repetitiven Aufgaben befreien und den Journalismus besser vorbereiten für die zukünftigen digitalen Öffentlichkeiten und die Anforderungen, die sich daraus ergeben.