Wie verändert künstliche Intelligenz die Arbeit von Wissenschaftskommunikator*innen? KI-Beauftragter Hendrik Schneider kennt die Antwort aus seinem Alltag in der Öffentlichkeitsarbeit. Im Interview gibt er Tipps, wie Kommunikationsabteilungen sich KI-Tools zu Nutze machen können.
„Nutzt die Tools, aber nutzt sie kritisch“
Sie haben innerhalb der Leibniz-Gemeinschaft eine Arbeitsgruppe für die Nutzung von KI in der Wissenschaftskommunikation gegründet. Warum ist Ihnen das Thema so wichtig?
Es gibt einen enormen Bedarf an Wissenschaftskommunikation und gleichzeitig sind die Abteilungen für Öffentlichkeitsarbeit an den Einrichtungen oft unterbesetzt. Künstliche Intelligenz kann Kommunikator*innen unterstützen. Presseabteilungen können Arbeitsabläufe effizienter gestalten oder automatisieren.
Außerdem glaube ich, dass wir den Kampf um Fakten in der Gesellschaft verlieren werden, wenn wir diese KI-Tools in der Wissenschaftskommunikation nicht einsetzen. Was sind Fakten, was sind Fake News und wer bespielt am erfolgreichsten den medialen Raum? Ich bin der Meinung, dass die wissenschaftliche Stimme bei diesen Fragen schon heute ins Hintertreffen gerät. Deshalb müssen wir uns mit den Möglichkeiten und Risiken von KI auseinandersetzen, diese Tools nutzbar machen, um im medialen Wettlauf mithalten zu können.
Sie nutzen verschiedene KI-Anwendungen für mehrere Aufgaben der Presse- und Öffentlichkeitsarbeit. Welche Arbeitsschritte kann künstliche Intelligenz aktuell sinnvoll unterstützen?
KI ist bereits jetzt ein guter kreativer Input. Wann immer man ein Brainstorming macht, kann man die KI als eine Stimme unter vielen mit an den Tisch holen. Das reicht von einem coolen, peppigen Namen für ein neues Forschungsprojekt bis hin zu einzelnen Texten, die für die Medien erstellt werden.
Und dann sehe ich in den letzten Jahren einen riesigen Qualitätssprung bei der redaktionellen Unterstützung. Sehr gut funktionieren einfache Texte wie Websitebeiträge, Veranstaltungszusammenfassungen, oder Social-Media-Posts. Da ist KI sehr effizient und sehr gut. Für Social Media kann das Programm nicht nur einen Beitrag erstellen, sondern gleich noch geeignete Emojis heraussuchen, relevante Hashtags recherchieren und Vorschläge machen, welche reichweitenstarken Kanäle man verlinken kann.
Die Schwierigkeit steigt mit der Komplexität der Textsorte. Bei Reportagen oder Texten mit Storytelling-Ansatz wird es beispielsweise für die KI schwieriger, die Anforderungen zu erfüllen.
Um die KIs zu verbessern, haben Sie die Tools selbst trainiert. Warum haben Sie das gemacht?
Vor einem halben Jahr musste ich die Texte von ChatGPT noch komplett umschreiben. Heute sind wir in der Öffentlichkeitsarbeit an einem Punkt angekommen, wo wir Pressemitteilungen aus ChatGPT zu 90 Prozent übernehmen können. Das liegt aber nicht daran, dass die KI an sich besser geworden ist, sondern daran, dass ich das Programm noch nicht so gut trainiert hatte.
Das ist möglich, wenn man sich für die Bezahlmodelle der KIs entscheidet. Bei ChatGPT gibt es ab der Pro-Variante die Möglichkeit, eigene kleine Algorithmen zu programmieren und so mit bestimmten Regeln genau vorzugeben, in welche Richtung sich ein Text entwickeln soll.
Zum Beispiel braucht eine KI immer einen Kontext und man sollte ihr auch eine Rolle zuweisen. So kann man im Vorfeld beeinflussen, in welche Richtung die Ergebnisse gehen. Ich kann Nuancen einbringen, kann klare Zielstellungen geben und Einschränkungen definieren. Zum Beispiel, dass bestimmte Wörter nicht benutzt werden dürfen, oder dass auf eine bestimmte Art und Weise gegendert werden soll. Je intensiver ich das mache und je mehr Erfahrung ich sammle, desto besser werden die Ergebnisse, die ich mit der KI erhalte.
Tipp von Hendrik Schneider:
KI-Tools wie ChatGPT antworten auf dieselbe Frage je nach zugewiesener Rolle unterschiedlich. Mit den Rollenzuweisungen „Du bist langjähriger Mitarbeiter einer Pressestelle an der Universität“ oder „Du bist seit zehn Jahren Lehrer an einer Grundschule“ wird das Tool für dieselbe Aufgabe unterschiedliche Ergebnisse liefern.
Aus ethischer Sicht ist zu bedenken, dass die KI nicht denkt. Sie rechnet nur und hat keinen normativen Kompass. Und das Wissen, mit dem die Programme trainiert wurden, ist voller Fehler und Ungerechtigkeiten. Wenn ich mit den Tools arbeite, muss ich wissen, dass ich möglicherweise diskriminierende Stereotype reproduziere.
Die rechtlichen Fallstricke sind eigentlich nichts Neues. Alles, was wir mit der Datenschutzgrundverordnung in unseren Einrichtungen an Regeln etabliert haben, gilt natürlich auch für den Umgang mit KI. Wir laden keine personenbezogenen Daten oder Geschäftsgeheimnisse in die Programme hoch und wir stellen sicher, dass wir keine Urheberrechte verletzen. Bei Fotos sind wir als Kommunikator*innen schon lange sensibilisiert, den oder die Fotograf*in anzugeben, das Einverständnis der abgebildeten Person einzuholen, all diese Dinge. Genauso gehen wir mit KI-Bildern um – bei dem Input, den wir hochladen und bei dem, was uns die KI ausgibt. Wenn ich mir ein Bild generieren lasse und feststelle, dass es verblüffend nach etwas Bekanntem aussieht, kann ich es nicht verwenden.
Zudem muss ich immer genau prüfen, ob ich wissenschaftliche Inhalte überhaupt von einer KI verarbeiten lassen darf. Die großen wissenschaftlichen Verlage regeln in ihren Lizenzvereinbarungen ganz explizit, ob die dort veröffentlichten Paper von einer KI analysiert werden dürfen oder nicht. Da kann ich den Tipp geben, dass Paper mit einer Creative Commons Lizenz in der Regel von KIs verarbeitet werden dürfen. Es gibt auch da nochmal Unterschiede, deshalb muss man hier sehr sensibel sein und sollte sich lieber einmal mehr rückversichern und in die Lizenzvereinbarungen der Verlage schauen.
Wie kann man diesen Fallstricken begegnen?
Grundsätzlich sage ich immer: Bitte gebt für KI Geld aus. Auch bei kostenlosen Varianten gibt es immer einen Gegenwert – meistens landen die Daten irgendwo, wo man sie nicht haben will. Bei der kostenpflichtigen Variante gibt es die Möglichkeit, die Trainingsdaten auszuschalten. Das heißt, dass die Daten nicht gespeichert werden, um das Modell zu verbessern. Die Daten gehören dir und das ist es, was wir aus Datenschutz- und Sicherheitsperspektive haben wollen.
Deswegen empfehle ich als Allrounder ChatGPT in der Pro-Variante, Adobe Firefly für Bilder und als Übersetzungstool rate ich zu DeepL, ebenfalls unbedingt in der Pro-Variante.
Wenn wir die Arbeit immer weiter automatisieren und am Ende nur noch Stichwörter brauchen, um daraus Bilder, Texte und Social-Media-Posts zu erstellen – was bleibt noch für menschliche Kommunikator*innen zu tun?
Mit dem freiwerdenden Potenzial werden sich unsere Aufgaben verlagern. Wir Kommunikator*innen werden weniger Content produzieren, sondern zunehmend eine koordinierende Rolle haben, als Qualitätsmanagement. Und wir werden dafür da sein, zu schauen, wo unsere Inhalte anschlussfähig sind. Also wo findet eine politische Debatte statt? Was sind die aktuellen gesellschaftlichen Kontroversen? Und wann ist der richtige Zeitpunkt, mein Thema dort einzubringen? Das kann eine KI nicht leisten.
Was würden Sie der Wissenschaftskommunikation bezüglich KI-Nutzung mit auf den Weg geben?
Ich möchte mit meinen Tipps keine Euphorie verbreiten, aber darauf hinweisen, dass die Technologie jetzt da ist und wir achtsam mit ihr umgehen müssen. KI wird uns sehr viel Zeit sparen und die müssen wir sinnvoll nutzen. Es darf nicht die Erwartungshaltung entstehen, dass ich jetzt statt zwei einfach zehn Pressemitteilungen am Tag schreibe. Wir brauchen die Ressourcen, um immer wieder um unsere öffentliche Wahrnehmung zu kämpfen. Und die wichtigste Regel ist: Alles, was die KI produziert, muss durch eine fachkundige Person überprüft werden. Insgesamt ist mein Appell an alle, die mit KI arbeiten: Nutzt die Tools, aber nutzt sie kritisch.