Foto: pvproductions

Wir müssen darüber reden, wie wir über Künstliche Intelligenz berichten.

Ein Jahr nach dem Hype um DALL-E und ChatGPT steht der Journalismus immer noch vor der Frage, wie eine gute Berichterstattung aussehen sollte. Der Journalist Marcus Anhäuser stellt im Gastbeitrag Kriterien als Recherchehilfe für den Redaktionsalltag vor.

Es ist rund ein Jahr her, dass die Firma OpenAI erst ihren Bildgenerator DALL-E im September 2022 und dann ihren Textgenerator ChatGPT der breiten Öffentlichkeit verfügbar machte. Es brach ein Sturm der Begeisterung (und Warnungen) los angesichts der Möglichkeiten und der Qualität der Endprodukte. Es folgte ein Hype um Künstliche Intelligenz (KI) und Maschinelles Lernen wie man ihn wohl nur alle paar Jahrzehnte erlebt. 

Im Journalismus begann man auszutesten, welche Möglichkeiten die neuen Applikationen bieten. Ein Magazin mit Kochrezepten erschien, vollständig mit der Unterstützung von KI erstellt, und es gab auch die erste Entlassung einer Chefredakteurin, weil ihr Magazin ein Interview mit Michael Schumacher durch ChatGPT halluzinieren ließ. 

Zunehmend machen sich Redaktionen Gedanken darüber, wie sie die neue Technologie für den Journalismus nutzen können. Inzwischen vergeht kaum ein Tag, an dem nicht irgendjemand in Seminaren, Workshops oder auch Newslettern die neuesten Tricks, Kniffe und Prompts – also die beschreibenden Befehle für die Ausführung der KI – für den journalistischen Arbeitstag vorstellt. Erste Redaktionssysteme haben die KI gleich mit eingebaut, um Redakteur*innen die lästige Suchmaschinen-Optimierung abzunehmen oder drei Varianten desselben Teasers für einen Artikel zu erstellen. Einige Medien präsentieren KI-Anwendungen in ihren Publikationen wie etwa bei der ZEIT, wo man Antworten auf Fragen bekommt, die sich auf das Archiv der Zeitung stützen. 

Wie aber sollen wir darüber berichten?

Künstliches neuronales Netz (KNN)

Modelle des maschinellen Lernens, die durch Aspekte des menschlichen Gehirns motiviert wurden. Sie bestehen aus in Software realisierten Schichten von Knoten, die als künstliche Neuronen bezeichnet werden. Die einzelnen Verbindungen zwischen den Neuronen haben eine numerische Gewichtung, die während des Trainingsprozesses angepasst wird, so dass die Ergebnisse immer besser werden. Von Schicht zu Schicht entstehen dabei immer abstraktere Repräsentationen der Eingabe, so dass bei einer sehr hohen Anzahl von Schichten (Deep Learning) sehr komplexe Muster abgebildet und erkannt werden können. (Quelle: Wissenschaftsjahr 2019)

Wenn die Auswirkungen so tiefgreifend in die Gesellschaft reichen, dass viele von einer Revolution sprechen, dann muss sich der Journalismus schleunigst rüsten, um die vorhergesagte Flut an Anwendungen und Einsatzbereichen mit kritischen Berichten zu begleiten.

Bei all der Begeisterung für die Technologie und dem Diskutieren über Chancen und Risiken für Gesellschaft und Journalismus kommt ein Aspekt bisher ein wenig zu kurz, der aber den Kern der journalistischen Arbeit betrifft. Wie sollten Journalist*innen (und auch Kommunikator*innen) über Anwendungen, die auf Künstlicher Intelligenz und Maschinellem Lernen basieren, berichten? Was braucht es, um Rezipient*innen angemessen und mit einem kritischen Blick über die neuesten Entwicklungen zu informieren? Welche Fragen müssen sie stellen, um sich reflektiert mit KI auseinanderzusetzen?

Tatsächlich gibt es bisher nur vereinzelte Beiträge, die Journalist*innen eine Hilfestellung geben, auch wenn es KI-Berichterstattung nicht erst seit dem November 2022 gibt. Die Technologie entsteht seit den fünfziger Jahren und erlebte einen letzten großen technologischen Aufschwung ab 2012 mit dem Aufkommen der Kombination von „künstlichen neuronalen Netzen“ und „Deep Learning“, die letztlich auch die Grundlage für die Text- und Bildgeneratoren wie ChatGPT und Midjourney sind.

Deep Learning

Methode des maschinellen Lernens in künstlichen neuronalen Netzen. Diese umfassen mehrere Schichten – typischerweise eine Eingabe- und Ausgabeschicht sowie mehr als eine „versteckte“ dazwischenliegende Schicht. Die einzelnen Schichten bestehen aus einer Vielzahl künstlicher Neuronen, die miteinander verbunden sind und auf Eingaben von Neuronen aus der jeweils vorherigen Schicht reagieren. In der ersten Schicht wird etwa ein Muster erkannt, in der zweiten Schicht ein Muster von Mustern und so weiter. Je komplexer das Netz (gemessen an der Anzahl der Schichten von Neuronen, der Verbindungen zwischen Neuronen sowie der Neuronen pro Schicht), desto höher ist der mögliche Abstraktionsgrad – und desto komplexere Sachverhalte können verarbeitet werden. Angewendet wird Deep Learning bei der Bild-, Sprach- und Objekterkennung sowie dem verstärkenden Lernen. (Quelle: Wissenschaftsjahr 2019)

„Rechenschaft für Rechenverfahren”

Es hat immer schon kritische Berichterstattung über KI und Maschinelles Lernen gegeben, vor allem im Technikjournalismus. 2014 prägte der Techjournalist und Journalismus-Forscher Nicholas Diakopoulos den Begriff „Algorithmic Accountability Reporting“, den der deutsche Datenjournalist Lorentz Matzat als „Rechenschaft für Rechenverfahren“ übersetzt. Damit verbunden sind meist aufwändige, investigative Recherchen, die sich ganz in die Tiefe des Codes und der Algorithmen begeben, um Fehlentwicklungen und Missstände beim Einsatz solcher Anwendungen in der Gesellschaft aufzudecken.

„Es hat immer schon kritische Berichterstattung über KI und Maschinelles Lernen gegeben, vor allem im Technikjournalismus.“ Marcus Anhäuser
Basierend auf diesem Ansatz gibt es einige wenige Ratgeber für diese besondere Form des kritischen Journalismus. Das „AI + Automation Lab“ des Bayerischen Rundfunks hat etwa ein anschauliches Whitepaper zu dieser „Black Box-Berichterstattung“ veröffentlicht. 

Die UNESCO präsentierte kürzlich ein Handbuch für Lehrkräfte zum Thema „Reporting on Artificial Intelligence“, weil sie eine klare Notwendigkeit sieht: „60 Prozent der Technews ist dominiert von Industrieprodukten. Die Hauptgruppe an Quellen sind Personen, die mit der Wirtschaft verbunden sind (30%).“

Doch diese Form des tiefschürfenden KI-Journalismus gibt es viel zu selten, beklagt der Algorithmus- und Datenjournalist Nicolaus Kaiser-Bril in seinem empfehlenswerten Newsletter Algorithm-Watch. Er stellte als Beispiel eine Recherche von Wired und Lighthouse Reports vor, über ein Bewertungssystem für Sozialhilfeempfänger, dass diese diskriminierte: „Das System ging zum Beispiel per se von einem großen Betrugsrisiko aus, wenn eine Frau Kinder hat und nicht fließend Niederländisch spricht.“ Die Autor*innen stiegen für ihre Recherche sogar in den Quell-Code der Applikation ein.

Wir brauchen eine Lösung für das Tagesgeschäft

Doch für das Tagesgeschäft des schnellen Nachrichtenjournalismus oder die Drei-Tage-Story im Lokaljournalismus sind diese Formen der Berichterstattung nicht zu stemmen. Der Aufwand ist immens, Journalist*innen müssen sich ausführlich mit der Technologie befassen und spezialisieren. 

Hinzu kommt: Ähnlich wie beim Bericht über wissenschaftliche Studien finden sich KI-Anwendungen in unterschiedlichsten Bereichen des Lebens und der Gesellschaft und damit auch in vielen verschiedenen Ressorts wieder: Medizin, Wirtschaft, Soziales, Politik, Sport und mehr. Wer in diesen Bereichen über KI-Anwendungen berichten will, hat kaum die Möglichkeit, sich die Kenntnisse eines spezialisierten Techjournalisten anzueignen. 

„Wer in diesen Bereichen über KI-Anwendungen berichten will, hat kaum die Möglichkeit, sich die Kenntnisse eines spezialisierten Techjournalisten anzueignen.“ Marcus Anhäuser
Trotzdem sollte es – genau wie für Artikel über wissenschaftliche Studien – ein grundlegendes Handwerkszeug geben, das es auch weniger spezialisierten Berichterstatter*innen ermöglicht, die richtigen Fragen zu stellen. Sonst droht, was schon bei wissenschaftlich-medizinischen Studien immer wieder geschieht: Der Hinweis „basiert auf einer KI“ wird zur bloßen Phrase für schlechten Journalismus. So passiert es schon mit „wie eine neue Studie belegt“ tagtäglich in den Medien. Ein hohler Hinweis, dass das Berichtete auf soliden Füßen stehe, ohne jede Einordnung zur Aussagekraft der Studie oder ihrer Einbettung in die restliche Studienlandschaft.

Kriterien als Recherchehilfe

Für den täglichen Nachrichtenjournalismus und die Regionalberichterstattung haben wir vom Medien-Doktor-Team am Lehrstuhl für Wissenschaftsjournalismus der TU Dortmund in den letzten 13 Jahren Kriteriensets für verschiedene Themenfelder entwickelt, mit denen man die Qualität eines Beitrags über Gesundheits-, Umwelt- oder Ernährungsthemen beurteilen kann. Die Sammlung an veröffentlichten Gutachten beinhaltet hunderte Beispiele für guten und schlechten Journalismus. 

Die Kriteriensets haben wir bereits als Hilfestellung für das oft hektische Tagesgeschäft empfohlen, weil sie auch nicht-spezialisierten Journalist*innen helfen, die wichtigen Punkte einer Medizin-Geschichte abzuklopfen oder die richtigen Fragen bei Umweltthemen zu stellen. 

„Die Aufgabe von Journalist*innen wird es sein, solche Faktoren zu kennen oder zumindest zu wissen, dass es sie gibt.“ Marcus Anhäuser
Auch für die KI-Berichterstattung heißt das: Ausgehend von allgemeinjournalistischen Kernkriterien wird es spezifische Kriterien geben, die eine Geschichte auf KI-typische Fragen überprüfen. Zu diesen gehören Parameter wie Fairness, Garantien, Robustheit oder Unsicherheit. Es sind Faktoren, die eine Künstliche Intelligenz erklärbar machen sollen, soweit dies zumindest möglich ist. Journalist*innen könnten dann etwa nachfragen, ob die zugrundeliegenden Daten für eine Software zur Auswahl von neuen Mitarbeiter*innen fair sind, weil sie Faktoren wie Alter, Geschlecht oder Hautfarbe nicht berücksichtigen. Ebenso könnte man die Robustheit einer Applikation hinterfragen, die nur auf Testläufen unter idealisierten Laborbedingungen beruht nicht aber auf Daten aus der echten Welt. Neben diesen Aspekten, die Entscheidungen und Ergebnisse nachvollziehbar machen, zählen aber auch Parameter wie der Schutz der persönlichen Daten dazu, wenn es etwa um medizinische Anwendungen geht. Die Aufgabe von Journalist*innen wird es sein, solche Faktoren zu kennen oder zumindest zu wissen, dass es sie gibt. Nur dann können sie Anwendungen aus der Industrie überprüfen oder Entwickler*innen danach fragen, ob diese Faktoren berücksichtigt werden. Etwa, um Verzerrung in den Ergebnissen zu vermeiden oder private Daten hinreichend zu schützen. Nur so wird KI nachvollziehbar.

Auch für die Wissenschaftskommunikation wichtig

„Jede Pressemitteilung einer Forschungseinrichtung oder Firma über KI-Anwendungen kann von einem solchen Kriterien- und Fragenset profitieren.“ Marcus Anhäuser
Und das Ganze soll nicht auf den Journalismus beschränkt sein. Jede Pressemitteilung einer Forschungseinrichtung oder Firma über KI-Anwendungen kann von einem solchen Kriterien- und Fragenset profitieren. Im Medien-Doktor-Projekt PR-Watch hat sich gezeigt wie gut das im Bereich Medizin und Umwelt funktioniert. Fast alle Kriterien, die für journalistische Beiträge entwickelt wurden, lassen sich auch auf Pressemitteilungen anwenden.  Die Medien-Doktor-Kriterien waren daher auch eine Basis für die Checkliste der „Leitlinien für gute Wissenschaft-PR“ des Siggener Kreises, der 2019 auch ein Impulspaper und eine Checkliste zur KI in der Wissenschaftskommunikation veröffentlicht hat.

Sich auch auf die Wissenschafts-PR zu konzentrieren ist wichtig, weil aus der Forschung bekannt ist, dass informativere Pressemitteilungen zu besseren journalistischen Artikeln führen. Zugleich bekommen alle anderen Leser*innen dieser Pressemitteilungen die Informationen über Künstliche Intelligenz und Maschinelles Lernen, die sie benötigen.

Damit sollte es auch im Tagesgeschäft von Journalismus und Wissenschafts-PR gelingen, die Black Box der Künstlichen Intelligenz zumindest ein wenig zu erhellen.

Projekt Scientist in Residence

In einer Kooperation zwischen dem Lehrstuhl Wissenschaftsjournalismus und dem Referat Hochschulkommunikation der TU Dortmund entwickeln wir Qualitätskriterien für eine gute Berichterstattung über KI-Themen (sowohl für den Journalismus als auch die institutionelle Wissenschaftskommunikation). Wir analysieren, wo es im täglichen Arbeiten der Pressestelle konkrete Möglichkeiten gibt, diese zu implementieren, da es bisher nur selten gelingt, Empfehlungen aus Leitlinien in den täglichen Workflow zu integrieren.
Im Rahmen des Scientist in Residence-Projektes haben wir zudem mit der Pressestelle und KI-Forscher*innen der TU Dortmund eine Serie mit kurzen Erklärvideos zu wichtigen Parametern entwickelt, die helfen können, KI-Anwendungen nachvollziehbarer und damit vertrauenswürdig zu machen. Die Videos erscheinen sukzessive auf dieser Webseite.


Zum Weiterlesen

Die redaktionelle Verantwortung für diesen Beitrag lag bei Anna Henschel. Gastbeiträge spiegeln nicht zwangsläufig die Meinung unserer Redaktion wider.

Weiterlesen

18. September 2023 von

Is generative AI biased?

While the development of ChatGPT continues to evolve rapidly, there is an equal rise in headlines declaring that AI perpetuates racial and sexist stereotypes. Kaiping Chen and her team investigated how GPT-3 fared in conversations on controversial science topics as well as other social issues. In our interview, she shares their discoveries.
Mehr

9. August 2023 von

„Generative KI ist ein Gamechanger“

Was bedeutet die rasante Entwicklung im Bereich der generativen Künstlichen Intelligenz (KI) für die Wissenschaftskommunikation? Mike S. Schäfer hat sich in einem kürzlich erschienen Essay mit dieser Frage auseinandergesetzt und erklärt im Interview, was auf das Feld zukommt.
Mehr

21. Juni 2023 von

„Dystopien tragen einen Moment von Hoffnung und Positivität in sich“

„Warum überwiegen in Filmen zu künstlicher Intelligenz dystopische Zukunftsbilder?“ Das fragte eine Schülerin im Livechat-Format „I’m a Scientist“* in der Themenrunde „KI im Film“. Adressiert wurde die Frage an Josefine Honke, Medien- und Kulturwissenschaftlerin und Doktorandin am Fachbereich Literaturwissenschaften der Exzellenzuniversität Konstanz. Im Interview erklärt sie, welche Chancen dystopische Erzählungen bergen.
Mehr

11. Mai 2023 von

„Wir haben Angst, die falschen Fragen zu stellen“

Wie sollte über ChatGPT informiert werden? Brauchen wir neue Konzepte der Urheberschaft? Welche Entwicklungen sind in Zukunft zu erwarten? Solche Fragen standen im Mittelpunkt der virtuellen Diskussionsrunde des Munich Science Communication Lab zum Thema ChatGPT in der Wissenschaftskommunikation.
Mehr

7. Juli 2023 von , Gastbeitrag

Was die Bevölkerung über KI denkt

Die Entwicklungen im Bereich der Künstlichen Intelligenz sind so rasant, dass die Datenlage hinterherhinkt. Das will der Meinungsmonitor KI ändern. Sandra Kero und Matthias Begenat erläutern, wie viel Technikpessimismus existiert und wie sie die Ergebnisse in die öffentliche Debatte einbringen.
Mehr