Bei der SciCAR („Where Science Meets Computer-Assisted Reporting“) diskutierten Forschende und Journalist*innen, wie KI-Themen besser in die Gesellschaft integriert werden können. Ein Panel kritisierte vorrangig die mangelnde Qualität der Berichterstattung.
Kommunizieren wir an der KI-Forschung vorbei?
Ulrike Köppen ist genervt. „KI ist entweder die Zerstörung der Menschheit oder der magische Feenstaub, der alles lösen wird.“ So empfindet die Leiterin des BR AI + Automation Lab die Berichterstattung über Künstliche Intelligenz in großen Teilen. In Dortmund treffen sich Journalist*innen, Wissenschaftler*innen und Kommunikator*innen bei der siebten SciCAR-Konferenz um über computergestützte Berichterstattung zu diskutieren. Organisiert wird die SciCAR von Netzwerk Recherche, der TU Dortmund, den Wissenschaftsjournalisten (WPK) und dem Science Media Center Germany (SMC).
Das Panel „Relevanz von KI für Öffentlichkeit, Wissenschaft und Journalismus“ mit Ulrike Köppen geht der Frage nach, ob und wie wichtige Forschungsthemen der KI in der gesellschaftlichen Debatte aufgegriffen werden. Der Status Quo der Kommunikation, so sind sich alle Panelist*innen einig, reiche von „furchtbar“ bis „peinlich“. Oft werde schwarz-weiß berichtet. Oder, so Holger Hoos, Humboldt-Professor für Künstliche Intelligenz an der RWTH Aachen, es werde bewusst in grellen Farben gemalt. Dem entgegen stehe das „bescheidene und skeptische Naturell“ von Wissenschaftler*innen, die lieber in vielen Grauschattierungen über KI sprechen würden. „Spitzenforschung im Bereich der KI wird heutzutage zunehmend nicht mehr an öffentlich betriebenen Einrichtungen durchgeführt, sondern in Privatunternehmen, deren Ziel ist, Schlagzeilen zu generieren“, so Hoos.
Vermenschlichung von KI
Besonders kritisiert wird ein Artikel in der New York Times, der beschreibt, wie sich eine KI (angeblich) in einen Menschen verliebt. Die Vermenschlichung der KI sei ein verständlicher Impuls, sagt Hoos, „weil sie das abstrakte Konzept greifbar macht und unsere Ängste, Sorgen und Hoffnungen anspricht“. Katharina Morik, emeritierte Professorin für KI an der TU Dortmund, sagt: „Die Vorstellung, dass eine KI ein Wesen ist, ist missverständlich und führt zu unnötigen Debatten. Informatik ist die Kunst der Abstraktion und KI automatisiert Prozesse.“ Eva Wolfangel, freie Journalistin, entgegnet, dass das Thema aber nicht so einfach sei. Relevante Fragen dürften „nicht tabuisiert werden“.
Aus dem Publikum kommt eine Frage zum sinkenden Niveau der Berichterstattung. Es würden immer mehr schlechte Artikel veröffentlicht. Der Moderator der Runde, Bastian Zimmermann (SMC), weist darauf hin, dass nicht alle Journalist*innen Expert*innen für KI sein können. Allerdings wäre es empfehlenswert, aktiv auf KI-Expert*innen zuzugehen, die durchaus bereit wären, in den Dialog zu treten. Dies bestätigt auch Holger Hoos. Medienarbeit sei für Wissenschaftler*innen lohnend, er habe damit noch nie eine schlechte Erfahrung gemacht.
Die Benefits eines KI-gestützten Journalismus
Wolfangel sieht ChatGPT als eine Art des Empowerments für Journalist*innen. Sie erinnert sich an ein Textmining-Projekt, eine mehrjährige Kooperation zwischen Wissenschaftler*innen und Journalist*innen. Dies könne eine Journalist*in in Zukunft mit Unterstützung von KI selbst machen. Auch die investigative Recherche könne von ChatGPT profitieren: Google Dorks, geheime Dokumente, die mit speziellen Codes über die Google-Suchanfrage gefunden werden können, ließen sich auch in schlichter Alltagssprache mit ChatGPT extrahieren. Auch Köppen hält es für wichtig, generative KI zu nutzen. Der Journalismus befinde sich seit Jahren in einer multiplen Krise: „Es ist wichtig, dass wir jede Hilfe in Anspruch nehmen, die wir bekommen können“, sagt sie. Sie und ihr Team dächten derzeit über einen Journalism-Tech-Hub nach, der die Technik für Journalist*innen besser nutzbar machen soll.
Als gelungenes Beispiel für den Einsatz von KI nennt Morik die Zusammenarbeit zwischen dem Lamarr-Institut am Fraunhofer IAIS und dem WDR. Mit Hilfe des Audio Mining Systems seien Journalist*innen in der Lage, Informationen aus alten Sendungen schnell zu identifizieren – und die automatische Verschriftlichung von Sprache funktioniere bereits perfekt. KI im Journalismus habe daher großes Potenzial bei der Transkription und Produktionsunterstützung.
Vernachlässigte Themen
Bei aller Begeisterung über die Annäherung von Wissenschaft und Journalismus bemängeln die Forschenden auf dem Podium, dass einige wichtige Themen in der gesellschaftlichen Debatte über KI nicht vorkommen. Holger Hoos nennt als Beispiel die automatische Hardwareverifikation: „Jeder Mikroprozessor in jeder Smartwatch ist mit automatischen Beweisverfahren durchleuchtet worden, damit die Hardware so funktioniert, dass man ihr vertrauen kann.“ Auch Katharina Morik möchte den Fokus auf die wenig diskutierte Handlungsfähigkeit von ChatGPT legen. Sie findet es faszinierend, dass man mit Hilfe des Modells ein Experiment entwerfen und dann die Ergebnisse testen kann.
Die rasante Entwicklung der generativen KI stellt die Forschenden aber auch vor Probleme. Hoos gibt offen zu: „Es gibt neue Entwicklungen, die wir Wissenschaftler*innen teilweise selbst nicht vollständig verstehen.“ Besonders problematisch wird es, wenn versucht wird, starke künstliche Intelligenz zu generieren. Wollen wir wirklich eine „AGI“ (Artificial Generalized Intelligence), die nicht nur unsere Stärken, sondern auch unsere menschlichen Grenzen und Schwächen imitiert? Nein, sagt Hoos. Morik betont, dass die Forschung an den großen Modellen wichtig sei, um sie besser zu verstehen und sicherer zu machen. Es sei die Aufgabe der Wissenschaftler*innen, diese weißen Flecken auf der Landkarte genauer zu untersuchen.
Das Problem mit der Erklärbarkeit
Ein Thema, das alle Panelist*innen beschäftigt, ist die Frage nach der Regulierung von KI. Von Gesetzgeber*innen gäbe es den Impuls, „man müsse nun alles verbieten, weil es ja ‘böse’ ist“. Das sei ein Problem, wenn die europäische Forschung wettbewerbsfähig bleiben wolle, so Morik, Regulierung müsse differenziert sein und könne zum Beispiel Wasserzeichen, Datentransparenz, Zertifizierungen und Tests umfassen. Auch Hoos hält Regulierungen für sinnvoll und notwendig. Seine Sorge sei, dass bei KI mehr über Risiken und Nebenwirkungen als über die dringend notwendigen Chancen gesprochen werde.
Eva Wolfangel berichtet von ihrer Recherche zur Erklärbarkeit: „Hier gibt es große Missverständnisse zwischen Wissenschaft und Politik“. In den europäischen Regelungen zur generativen KI sei wegen des besonders hohen Risikos die Erklärbarkeit der Modelle festgeschrieben. Dies könne aber nicht von der Wissenschaft gelöst werden. So glaube die Politik, dass sie Erklärbarkeit bekomme. In Wirklichkeit bekomme man aber ein Werkzeug, „das sich die Unternehmen so zurechtbiegen können, dass die Erklärung passt“.
Wirtschaftliche Abhängigkeit
Die Rolle der Unternehmen beschäftigt auch Ulrike Köppen. Verschiedene Algorithmen, die das AI + Automation Lab einsetzt, stammen von amerikanischen Privatunternehmen. Beispielsweise müssen große Medienhäuser typischerweise eine Vielzahl von Nutzer*innenkommentaren filtern, intelligent beantworten und Debatten moderieren. Dafür, so Köppen, würden häufig proprietäre Algorithmen eingesetzt. Je besser die Algorithmen mit neuen Daten trainiert würden, desto abhängiger werde man. Auch Hoos warnt: „Jedes Unternehmen, das jetzt ChatGPT einsetzt, riskiert eine wirtschaftliche Abhängigkeit von den Entscheidungen der nächsten US-Regierung“. Der Ausweg aus der technologischen Abhängigkeit sei eine stärkere Finanzierung auf europäischer Ebene, nur auf dieser, so Hoos, könne man wirklich wettbewerbsfähig sein. Das bestätigt auch Morik: „Wir brauchen europäische Großrechenanlagen, europäische ‘pre-trained models’“.
Die Wissenschaftskommunikation als Vermittlerin
Obwohl das Panel eine wirtschaftliche Distanz zu den USA anmahnt, wird die Kommunikation amerikanischer Institute und Universitäten über KI als positives Beispiel genannt. Trotz der Annäherung von Forschung und Journalismus, etwa durch das SMC, fehlen in Deutschland an vielen Stellen Brücken. Eva Wolfangel beobachtet, dass die Schere zwischen denen, die von generativer KI profitieren und denen, die dies nicht können, weil ihnen die Grundlagen und Informationen fehlen, immer weiter auseinander geht. Dadurch würden Ungleichheiten noch verstärkt. Als Beispiel nennt sie Prompts – also die Anweisungen an ChatGPT, relevante und nützliche Texte zu generieren. Einige könnten das sehr gut, aber die große Mehrheit würde noch nicht von einem effektiven Prompting profitieren.
Die Türen der Kommunikation stünden zwar weit offen, so Hoos. Die Vermittlung durch Wissenschaftskommunikation und Wissenschafts-PR könne jedoch einen wesentlich effizienteren Austausch zwischen Forschung und Medien ermöglichen. Aus dem Publikum meldet sich abschließend eine Wissenschaftskommunikatorin zu Wort. Sie sagt, es sei bei weitem nicht so blumig, wie es auf dem Panel geklungen habe. Wissenschaft und Journalismus zusammenzubringen sei nicht so einfach, wie es sich anhöre. Es sei bisweilen harte Arbeit, Journalist*innen zu erreichen und für KI-Themen zu interessieren.