Sollten wir KI-Tools wie ChatGPT für die Wissenschaftskommunikation nutzen? Unbedingt, meint unser Gastautor Markus Gottschling. Aber: Ein reflektierter Einsatz und ein rhetorisches Grundverständnis seien hilfreich.
Tipps aus der Rhetorik, um KI-Tools effektiver zu nutzen
Generative Künstliche Intelligenz (KI) hat das Potenzial, die Wissenschaftskommunikation grundlegend zu verändern. Mit der Fähigkeit, Inhalte basierend auf existierendem Material zu produzieren, öffnen Large Language Models (LLMs) wie ChatGPT oder Bard Türen zu bisher unerreichter Zugänglichkeit, stellen aber gleichzeitig Anwender*innen vor neue Herausforderungen in Bezug auf Verantwortung und Kontextualisierung. Von der Konzeption guter Prompts bis hin zur kritischen Überprüfung und Anpassung der Ergebnisse sind sowohl technisches als auch menschliches Urteilsvermögen unerlässlich. In diesem Zusammenhang kann die Rhetorik eine zentrale Rolle für Potenziale, Werkzeuge und Grenzen des Einsatzes generativer KI in der Wissenschaftskommunikation einnehmen. Ein Plädoyer für eine reflektierte Nutzung.[1]
Generative KI schafft radikale Zugänglichkeit
Im Grunde nutzt generative KI zwar ähnliche Mechanismen wie etablierte Methoden Maschinellen Lernens, der entscheidende Unterschied liegt jedoch in ihrer radikalen Zugänglichkeit – und ihre ‚Killerfunktion‘ ist der Chat. Die Fähigkeit, Fragen zu beantworten und erfolgreiche kommunikative Anschlüsse herzustellen, wirkt auf uns wenn nicht magisch, so doch mindestens ‚menschlich‘: Auch wenn der Output allein durch ein auf statistischen Berechnungen miteinander verschaltetes künstliches neuronales Netz zustande kommt, so sind generative KI-Systeme in der Lage, mit uns Nutzer*innen zu kommunizieren und Texte – ebenso wie Bilder und potenziell auch Videos oder Musik – individuell auf unsere Wünsche anzupassen. Generative KI könnte es unnötig machen, sich jahrelang Spezialwissen etwa in den Bereichen Textkompetenz, Fremdsprachen, aber auch Fotografie oder Design zu erarbeiten. Die tatsächliche Nutzung ist allerdings noch häufig ernüchternd. Für diesen Abschnitt eine Überschrift zu finden, die nicht sensationsheischend eine „revolutionäre Zukunft“ herbeischreibt, die „Fluch oder Segen“ darstellt, war trotz mehrerer Versuche weder Bard, noch Bing, noch ChatGPT möglich.
Um generative KI im Bereich der Wissenschaftskommunikation souverän und nachhaltig zu nutzen, müssen wir unsere bisherigen wie neuen Praktiken reflektieren, schließlich hat ihre Einführung auch in Wissenschaft und Wissenschaftskommunikation sofort zu neuen Nutzungsweisen geführt. Weil die Frage danach, ob generative KI genutzt wird, also bereits eindeutig beantwortet ist, muss sich die Wissenschaftskommunikation die Anschlussfrage stellen, welche „Rules for Tools“ produktive Richtlinien für die Arbeit mit generativer KI bieten können.
Generative KI als kommunikative Imitationsmaschine
Bietet generative KI eine Abkürzung, eine technologische Lösung für kommunikative Problemstellungen? Für die Wissenschaftskommunikation wäre ein Tool, das imstande ist, komplexe wissenschaftliche Texte zusammenzufassen und umzuschreiben, Kommunikationskonzepte anhand von Schlagworten zu entwickeln, Zielgruppenanalysen zu betreiben oder Recherchen zu erleichtern von unschätzbarem Wert. Allerdings sind LLMs notorische ‚Bullshitter‘; dieser vom Philosophen Harry G. Frankfurt entliehene Begriff meint, dass die Outputs von LLMs zwar durchaus korrekt sein können, der Bezug zur Wahrheit aber höchstens korrelativ ist. Aus einer großen Menge von Beispielen wird neues Material statistisch extrapoliert, neue Texte und Bilder entstehen als wahrscheinliche Remixe und Nachahmungen des Vorhandenen. Die Leichtigkeit, mit der Inhalte produziert werden können, führt dazu, dass wir uns mit generativer KI als Kommunikationsmittel auseinandersetzen müssen. Es ist wichtig zu erklären, inwiefern KI-generierte Text nur inhaltslose Plappereien und Bilder statistisch gerendert sind. KI ist nun da und wird bleiben, daher müssen wir unsere kritische Lektürekompetenz ausweiten, wie der KI-Kommunikationsforscher David Gunkel betont.
When #AI generated content makes text plentiful, cheap, and virtually inexhaustible, the most important and valuable skill that remains for us is critical READING. Only literary theory can save us now. pic.twitter.com/CC1UFOqHcj
— David J. Gunkel (@David_Gunkel) August 3, 2023
Gute Prompts liefern Kontext mit
So nutzt generative KI das rhetorische Prinzip der zielgerichteten Nachahmung erfolgreicher Redner*innen: „Es kann ja keinen Zweifel darüber geben, daß ein großer Teil der Kunst auf Nachahmung beruht“, schreibt schon der im antiken Rom lehrende Rhetoriklehrer Quintilian in seiner Ausbildung des Redners. Er betont jedoch, dass Nachahmung allein nicht ausreicht, „schon weil es einen trägen Geist verrät, sich mit dem zufriedenzugeben, was andere gefunden haben“. Diesen trägen Geist wird zwangsläufig auch wiederfinden, wer mit generativer KI arbeitet: Besonders gut gelingen Chatbots und Bildgeneratoren Imitationen ‚im Stil von‘ künstlerischen Berühmtheiten – wenn auch die Inhalte überall dort verflachen, wo die Informationen im Trainingsdatensatz spärlicher werden. Im Bereich der Wissenschaft muss man besonders vorsichtig sein, wo nicht auf Englisch oder in digitalisierten Journals, dafür aber in kleinen Fächern oder zu Nischenthemen geforscht und publiziert wird. Will ich beispielsweise zum Thema CRISPR-Cas9 kommunizieren, so werde ich mit generativer KI inhaltlich sehr viel erfolgreicher arbeiten können als zu Lothar Bornscheuers rhetorischer Topiktheorie von 1976.
Dabei wäre es gerade Bornscheuer, der Wissenschaftskommunikator*innen in Bezug auf die Nutzung von generativer KI sehr weiterhelfen könnte: Lässt sich doch mit ihm begreifen, dass es sich bei den Outputs von generativer KI um „Topoi“ handelt – um Argumentversatzstücke und Allgemeinplätze, die zwar immer gültig sind, die aber stets für die konkrete Kommunikationssituation aktualisiert werden müssen. Um die Allgemeinplätze für eine spezifische Situation zu aktualisieren, stellen kompetente KI-Nutzer*innen solche Kontexte durch ihre Prompts her: Aus welcher Position wird gesprochen? Welche Zielgruppe soll angesprochen werden – welche Interessen und Motive haben die Angesprochenen? Welches Kommunikationsformat oder Medium soll bedient werden? Und welche Widerstände könnten sich daraus ergeben? Prompts mit Kontexten zu versehen, kann helfen, einen Dialog zwischen Mensch und Maschine als Feedbackschleife aufzubauen. Ergebnisse solcher Feedbackschleifen lassen sich in Promptsammlungen und Tipps zum akademischen Schreiben mit KI erkennen. Am RHET AI Center haben wir darum auch eine Tool-Testreihe gestartet, um Chancen und Grenzen von generativer KI für die Wissenschaftskommunikation zu prüfen.
Eher Zukunftsmusik, aber eine potenziell äußerst vielversprechende Anwendung von generativer KI scheint für den Bereich der Wissenschaftskommunikation die Möglichkeit, Zielgruppenanalysen und -ansprachen zu verfeinern. Prompts sind dabei nicht nur als Aufgabenstellungen denkbar – „Schreib für Senioren in ländlichen Regionen“ –, vielmehr wird daran geforscht, die imitativen Qualitäten der Systeme so zu gestalten, dass sich voll geformte „generative Agenten“erstellen lassen, die dann befragt, studiert und potenziell auch wissenschaftskommunikativ angesprochen werden können.
Schreiben und Schreibenlassen / Lektorieren und Lektorierenlassen
Zu wissen, dass und wie generative KI Kommunikation nachahmt, bedeutet auch zu erkennen, dass es eben nicht nur die Prompts sind, die zu einem besseren Ergebnis führen. Nachdem Texte niedergeschrieben sind, wartet im besten Fall ja noch ein Lektorat, das sie besser macht. In diesem Zusammenspiel kann generative KI
Heute lässt sich die Produktionsweise auch umstellen: Mittels Prompt wird der Chatbot zur erfahrenen Textlektorin, die unermüdlich Argumentationen analysiert, Hinweise zur Überarbeitung gibt, Formulierungsvorschläge macht oder gleich den ganzen Text umschreiben soll. Und das gilt natürlich nicht nur für eigene Texte: Textauszüge, Abstracts und Listicles kann generative KI aus jedem beliebigen, auch fachwissenschaftlichen Text erstellen – unter Kenntnis spezifischer Voraussetzungen. Denn gerade Wissenschaftskommunikation stellt einen Spezialfall dar, der aus mehreren Gründen Autor*innen zu besonderer Sorgfalt bewegen sollte: Erstens bestimmt das Kontextfenster des jeweiligen LLMs, wie viele Informationen das System übernimmt, um Text zu produzieren: Der hier vorliegende Text könnte von ChatGPT im normalen Modus wohl nicht in Gänze zur Analyse verarbeitet werden. Fachartikel, Essays und ganz Bücher müssten dann Abschnitt für Abschnitt vorgelegt werden – wobei die Gefahr steigt, dass übergreifende Kontexte verlorengehen. Abhilfe verspricht zwar das Modell Claude 2 des Herstellers Anthropic, das ein Kontextfenster von 200.000 Tokens besitzt – zur Publikationszeit aber in Deutschland nicht frei zugänglich war.
Zweitens ist es die stochastische Natur von LLMs, die eine im weitesten Sinne wissenschaftliche oder wissenschaftskommunikative Nutzung problematisieren. Ein System, das sich nicht auf Wahrheit beziehen kann und darum eben auch kein Konzept von Evidenz oder Faktentreue hat, kann nicht von sich aus Wissenschaftskommunikation betreiben – schon gar nicht in einem irgendwie automatisierten System, das Forschungsergebnisse für spezifische Medien in Content verwandelt, etwa in Pressemitteilungen, Tweets oder Instagram-Stories.
Verantwortlich ist am Ende immer der Mensch
Es ist darum nicht verwunderlich, dass Universitäten und Forschungseinrichtungen Schwierigkeiten haben, ihre Regelwerke und Leitlinien guter wissenschaftlicher Praxis mit generativer KI in Einklang zu bringen. Wissenschaftliches Wissen ist gleichzeitig immer vorläufig und davon bedroht, überholt zu werden, andererseits ist Vertrauen in die Wissenschaft zu der zentralen Leitwährung für die Kommunikation geworden; Bullshitter mit Hang zum Remix vergangenen Wissens sollten dort eigentlich nicht so gern gesehen sein. Welche Probleme veröffentlichte KI-generierte Bilder und Texte machen können, zeigt sich immer wieder, auch an Beispielen aus der Wissenschaft. Hinzu kommen Probleme wie „Bias“, der grundsätzlich in KI steckt, die zweifelhaften Ideologien der Techunternehmer, „Prompt Injection“, mit der sich kommunikative Schutzvorkehrungen und Feinabstimmungen von LLMs aushebeln lassen oder die Möglichkeit, mithilfe automatisierter Texterstellung politische oder wissenschaftliche Diskurse mit synthetischen KI-Texten zu überfluten und so Vertrauen in Kommunikation zu erschüttern. Am Ende sind immer Menschen für die Kommunikation verantwortlich, auch wenn generative KI darin steckt. Wer über die Nutzung von generativer KI vergisst, die Kontrolle zu wahren und dennoch mit seinem Namen autorisiert, muss folgerichtig mit ernsthaften Konsequenzen rechnen.
Aus rhetorischer Warte kann darum festgehalten werden: Technische Tools werden auch weiterhin keine Lösung für kommunikative Problemstellungen darstellen – selbst wenn irgendwann eine funktionierende Prüfsoftware für KI-Texte zur Verfügung stehen sollte. Um vor diesem Hintergrund KI Kompetenz zu erlangen, ist inhaltliches – und das bedeutet: menschliches – Urteilsvermögen auch weiter von höchster Bedeutung. Darüber Bescheid zu wissen, wie generative KI-Systeme operieren, ist ein erster wichtiger Schritt. Sie selbst auszuprobieren und ihren Nutzen zu erfahren, ein zweiter. Der dritte entscheidende Schritt kommt dagegen altmodischer daher: Auch weiterhin werden wir lernen müssen, wie Texte funktionieren. Wie sie konstruiert werden müssen, um zu wirken. Gerade wenn es sich um wissenschaftliche und wissenschaftskommunikative Texte handelt, ist es von höchster Bedeutung, Urteilsvermögen darüber zu besitzen, ob das, was generative KI imitativ produziert oder lektoriert hat, auch wirklich in Inhalt und Stil stimmig ist. Und darum guten Gewissens und mit voller Verantwortung in die Öffentlichkeit kommuniziert werden kann. Auch diese Einsicht stammt bereits von Quintilian – wir sollten sie in der Ausbildung zu KI-kompetenten Wissenschaftskommunikator*innen weiter beherzigen.
[1] Ein (wahrscheinlich erwartbarer) Disclaimer: Dass dieser Text unter Zuhilfenahme von generativer KI geschrieben und verbessert wurde, mag bei diesem Thema kaum überraschen; Tools wie ChatGPT, DeepL Write und Bard haben im Co-Writing-Prozess dazu beigetragen, Sätze zu formulieren, Sinnzusammenhänge zu verbessern, Längen zu streichen. Dass hier am Ende allerdings kein einziger Satz steht, der allein von generativer KI produziert wurde, mag andeuten, was die entscheidenden Kriterien für das Zusammenspiel von Mensch und Maschine sind. Um sie soll es in diesem Text gehen.
[2] Kathrin Passig: Vielleicht ist das neu und erfreulich. Technik. Literatur. Kritik. Graz/Wien 2019, S. 67
Die redaktionelle Verantwortung für diesen Beitrag lag bei Sabrina Schröder. Gastbeiträge spiegeln nicht zwangsläufig die Meinung unserer Redaktion wider.