Foto: freepik

Kommunizieren wir an der KI-Forschung vorbei?

Bei der SciCAR („Where Science Meets Computer-Assisted Reporting“) diskutierten Forschende und Journalist*innen, wie KI-Themen besser in die Gesellschaft integriert werden können. Ein Panel kritisierte vorrangig die mangelnde Qualität der Berichterstattung. 

Ulrike Köppen ist genervt. „KI ist entweder die Zerstörung der Menschheit oder der magische Feenstaub, der alles lösen wird.“ So empfindet die Leiterin des BR AI + Automation Lab die Berichterstattung über Künstliche Intelligenz in großen Teilen. In Dortmund treffen sich Journalist*innen, Wissenschaftler*innen und Kommunikator*innen bei der siebten SciCAR-Konferenz um über computergestützte Berichterstattung zu diskutieren. Organisiert wird die SciCAR von Netzwerk Recherche, der TU Dortmund, den Wissenschaftsjournalisten (WPK) und dem Science Media Center Germany (SMC).

„KI ist entweder die Zerstörung der Menschheit oder der magische Feenstaub, der alles lösen wird.“ Ulrike Köppen

Das Panel „Relevanz von KI für Öffentlichkeit, Wissenschaft und Journalismus“ mit Ulrike Köppen geht der Frage nach, ob und wie wichtige Forschungsthemen der KI in der gesellschaftlichen Debatte aufgegriffen werden. Der Status Quo der Kommunikation, so sind sich alle Panelist*innen einig, reiche von „furchtbar“ bis „peinlich“. Oft werde schwarz-weiß berichtet. Oder, so Holger Hoos, Humboldt-Professor für Künstliche Intelligenz an der RWTH Aachen, es werde bewusst in grellen Farben gemalt. Dem entgegen stehe das „bescheidene und skeptische Naturell“ von Wissenschaftler*innen, die lieber in vielen Grauschattierungen über KI sprechen würden. „Spitzenforschung im Bereich der KI wird heutzutage zunehmend nicht mehr an öffentlich betriebenen Einrichtungen durchgeführt, sondern in Privatunternehmen, deren Ziel ist, Schlagzeilen zu generieren“, so Hoos.

Vermenschlichung von KI

Besonders kritisiert wird ein Artikel in der New York Times, der beschreibt, wie sich eine KI (angeblich) in einen Menschen verliebt. Die Vermenschlichung der KI sei ein verständlicher Impuls, sagt Hoos, „weil sie das abstrakte Konzept greifbar macht und unsere Ängste, Sorgen und Hoffnungen anspricht“. Katharina Morik, emeritierte Professorin für KI an der TU Dortmund, sagt: „Die Vorstellung, dass eine KI ein Wesen ist, ist missverständlich und führt zu unnötigen Debatten. Informatik ist die Kunst der Abstraktion und KI automatisiert Prozesse.“ Eva Wolfangel, freie Journalistin, entgegnet, dass das Thema aber nicht so einfach sei. Relevante Fragen dürften „nicht tabuisiert werden“.

„Die Vorstellung, dass eine KI ein Wesen ist, ist missverständlich und führt zu unnötigen Debatten. Informatik ist die Kunst der Abstraktion und KI automatisiert Prozesse.“ Katharina Morik

Aus dem Publikum kommt eine Frage zum sinkenden Niveau der Berichterstattung. Es würden immer mehr schlechte Artikel veröffentlicht. Der Moderator der Runde, Bastian Zimmermann (SMC), weist darauf hin, dass nicht alle Journalist*innen Expert*innen für KI sein können. Allerdings wäre es empfehlenswert, aktiv auf KI-Expert*innen zuzugehen, die durchaus bereit wären, in den Dialog zu treten. Dies bestätigt auch Holger Hoos. Medienarbeit sei für Wissenschaftler*innen lohnend, er habe damit noch nie eine schlechte Erfahrung gemacht.

Die Benefits eines KI-gestützten Journalismus

Wolfangel sieht ChatGPT als eine Art des Empowerments für Journalist*innen. Sie erinnert sich an ein Textmining-Projekt, eine mehrjährige Kooperation zwischen Wissenschaftler*innen und Journalist*innen. Dies könne eine Journalist*in in Zukunft mit Unterstützung von KI selbst machen. Auch die investigative Recherche könne von ChatGPT profitieren: Google Dorks, geheime Dokumente, die mit speziellen Codes über die Google-Suchanfrage gefunden werden können, ließen sich auch in schlichter Alltagssprache mit ChatGPT extrahieren. Auch Köppen hält es für wichtig, generative KI zu nutzen. Der Journalismus befinde sich seit Jahren in einer multiplen Krise: „Es ist wichtig, dass wir jede Hilfe in Anspruch nehmen, die wir bekommen können“, sagt sie. Sie und ihr Team dächten derzeit über einen Journalism-Tech-Hub nach, der die Technik für Journalist*innen besser nutzbar machen soll.

Als gelungenes Beispiel für den Einsatz von KI nennt Morik die Zusammenarbeit zwischen dem Lamarr-Institut am Fraunhofer IAIS und dem WDR. Mit Hilfe des Audio Mining Systems seien Journalist*innen in der Lage, Informationen aus alten Sendungen schnell zu identifizieren – und die automatische Verschriftlichung von Sprache funktioniere bereits perfekt. KI im Journalismus habe daher großes Potenzial bei der Transkription und Produktionsunterstützung.

Die Gesprächsteilnehmer*innen Holger Hoos, Katharina Morik, Ulrike Köppen, Bastian Zimmermann und Eva Wolfangel (von links nach rechts) beim Panel „Relevanz von KI für Öffentlichkeit, Wissenschaft und Journalismus“ auf der SciCar 2023. Foto: Franziska Senkel

Vernachlässigte Themen

Bei aller Begeisterung über die Annäherung von Wissenschaft und Journalismus bemängeln die Forschenden auf dem Podium, dass einige wichtige Themen in der gesellschaftlichen Debatte über KI nicht vorkommen. Holger Hoos nennt als Beispiel die automatische Hardwareverifikation: „Jeder Mikroprozessor in jeder Smartwatch ist mit automatischen Beweisverfahren durchleuchtet worden, damit die Hardware so funktioniert, dass man ihr vertrauen kann.“ Auch Katharina Morik möchte den Fokus auf die wenig diskutierte Handlungsfähigkeit von ChatGPT legen. Sie findet es faszinierend, dass man mit Hilfe des Modells ein Experiment entwerfen und dann die Ergebnisse testen kann.

„Es gibt neue Entwicklungen, die wir Wissenschaftler*innen teilweise selbst nicht vollständig verstehen.“ Holger Hoos

Die rasante Entwicklung der generativen KI stellt die Forschenden aber auch vor Probleme. Hoos gibt offen zu: „Es gibt neue Entwicklungen, die wir Wissenschaftler*innen teilweise selbst nicht vollständig verstehen.“ Besonders problematisch wird es, wenn versucht wird, starke künstliche Intelligenz zu generieren. Wollen wir wirklich eine „AGI“ (Artificial Generalized Intelligence), die nicht nur unsere Stärken, sondern auch unsere menschlichen Grenzen und Schwächen imitiert? Nein, sagt Hoos. Morik betont, dass die Forschung an den großen Modellen wichtig sei, um sie besser zu verstehen und sicherer zu machen. Es sei die Aufgabe der Wissenschaftler*innen, diese weißen Flecken auf der Landkarte genauer zu untersuchen.

Das Problem mit der Erklärbarkeit

Ein Thema, das alle Panelist*innen beschäftigt, ist die Frage nach der Regulierung von KI. Von Gesetzgeber*innen gäbe es den Impuls, „man müsse nun alles verbieten, weil es ja ‘böse’ ist“. Das sei ein Problem, wenn die europäische Forschung wettbewerbsfähig bleiben wolle, so Morik, Regulierung müsse differenziert sein und könne zum Beispiel Wasserzeichen, Datentransparenz, Zertifizierungen und Tests umfassen. Auch Hoos hält Regulierungen für sinnvoll und notwendig. Seine Sorge sei, dass bei KI mehr über Risiken und Nebenwirkungen als über die dringend notwendigen Chancen gesprochen werde.

„Hier gibt es große Missverständnisse zwischen Wissenschaft und Politik.“ Eva Wolfangel

Eva Wolfangel berichtet von ihrer Recherche zur Erklärbarkeit: „Hier gibt es große Missverständnisse zwischen Wissenschaft und Politik“. In den europäischen Regelungen zur generativen KI sei wegen des besonders hohen Risikos die Erklärbarkeit der Modelle festgeschrieben. Dies könne aber nicht von der Wissenschaft gelöst werden. So glaube die Politik, dass sie Erklärbarkeit bekomme. In Wirklichkeit bekomme man aber ein Werkzeug, „das sich die Unternehmen so zurechtbiegen können, dass die Erklärung passt“. 

Wirtschaftliche Abhängigkeit

Die Rolle der Unternehmen beschäftigt auch Ulrike Köppen. Verschiedene Algorithmen, die das AI + Automation Lab einsetzt, stammen von amerikanischen Privatunternehmen. Beispielsweise müssen große Medienhäuser typischerweise eine Vielzahl von Nutzer*innenkommentaren filtern, intelligent beantworten und Debatten moderieren. Dafür, so Köppen, würden häufig proprietäre Algorithmen eingesetzt. Je besser die Algorithmen mit neuen Daten trainiert würden, desto abhängiger werde man. Auch Hoos warnt: „Jedes Unternehmen, das jetzt ChatGPT einsetzt, riskiert eine wirtschaftliche Abhängigkeit von den Entscheidungen der nächsten US-Regierung“. Der Ausweg aus der technologischen Abhängigkeit sei eine stärkere Finanzierung auf europäischer Ebene, nur auf dieser, so Hoos, könne man wirklich wettbewerbsfähig sein. Das bestätigt auch Morik: „Wir brauchen europäische Großrechenanlagen, europäische ‘pre-trained models’“.

Die Wissenschaftskommunikation als Vermittlerin

Obwohl das Panel eine wirtschaftliche Distanz zu den USA anmahnt, wird die Kommunikation amerikanischer Institute und Universitäten über KI als positives Beispiel genannt. Trotz der Annäherung von Forschung und Journalismus, etwa durch das SMC, fehlen in Deutschland an vielen Stellen Brücken. Eva Wolfangel beobachtet, dass die Schere zwischen denen, die von generativer KI profitieren  und denen, die dies nicht können, weil ihnen die Grundlagen und Informationen fehlen, immer weiter auseinander geht. Dadurch würden Ungleichheiten noch verstärkt. Als Beispiel nennt sie Prompts – also die Anweisungen an ChatGPT, relevante und nützliche Texte zu generieren. Einige könnten das sehr gut, aber die große Mehrheit würde noch nicht von einem effektiven Prompting profitieren.

Die Türen der Kommunikation stünden zwar weit offen, so Hoos. Die Vermittlung durch Wissenschaftskommunikation und Wissenschafts-PR könne jedoch einen wesentlich effizienteren Austausch zwischen Forschung und Medien ermöglichen. Aus dem Publikum meldet sich abschließend eine Wissenschaftskommunikatorin zu Wort. Sie sagt, es sei bei weitem nicht so blumig, wie es auf dem Panel geklungen habe. Wissenschaft und Journalismus zusammenzubringen sei nicht so einfach, wie es sich anhöre. Es sei bisweilen harte Arbeit, Journalist*innen zu erreichen und für KI-Themen zu interessieren.

Weiterlesen

9. August 2023 von

„Generative KI ist ein Gamechanger“

Was bedeutet die rasante Entwicklung im Bereich der generativen Künstlichen Intelligenz (KI) für die Wissenschaftskommunikation? Mike S. Schäfer hat sich in einem kürzlich erschienen Essay mit dieser Frage auseinandergesetzt und erklärt im Interview, was auf das Feld zukommt.
Mehr

23. Oktober 2023 von Gastbeitrag

Tipps aus der Rhetorik, um KI-Tools effektiver zu nutzen

Sollten wir KI-Tools wie ChatGPT für die Wissenschaftskommunikation nutzen? Unbedingt, meint unser Gastautor Markus Gottschling. Aber: Ein reflektierter Einsatz und ein rhetorisches Grundverständnis seien hilfreich.
Mehr

2. Juni 2022 von Tipp

Eine Lernplattform zum Thema KI

Eine KI-kompetente Gesellschaft formen – das ist das Ziel der Lernplattform KI-Campus. Zahlreiche Kurse, Podcasts und Videos bieten Einsteiger*innen und Fortgeschrittenen viel Hintergrundwissen und Anwendungstipps für Kommunikation und Lehre über KI.  
Mehr

7. Juli 2023 von , Gastbeitrag

Was die Bevölkerung über KI denkt

Die Entwicklungen im Bereich der Künstlichen Intelligenz sind so rasant, dass die Datenlage hinterherhinkt. Das will der Meinungsmonitor KI ändern. Sandra Kero und Matthias Begenat erläutern, wie viel Technikpessimismus existiert und wie sie die Ergebnisse in die öffentliche Debatte einbringen.
Mehr

21. März 2023 von

„KI wird unsere Gesellschaft transformieren“

Neue, leistungsfähige KI-Systeme wie ChatGPT werden gerade heiß diskutiert: Welchen Einfluss werden Sie auf Beruf und Alltag haben? Im Interview erklärt Anne Lauscher, was die KI-Revolution für die Wissenschaft bedeutet und vor welchen Herausforderungen wir stehen.
Mehr