Das Wisskomm-Update gibt alle 14 Tage einen Überblick über aktuelle Themen, Debatten und Trends. Außerdem finden Sie hier aktuelle Termine und Forschungsergebnisse zur Wissenschaftskommunikation.
Wie sich die „Werte“ von ChatGPT ändern
Was gibt’s Neues?
„Stand up for Science“: Proteste in den USA
Über die Angriffe auf die Wissenschaft in den USA haben wir bereits berichtet. Nun regt sich Widerstand. Am 7. März fanden in den USA und weltweit Proteste unter dem Motto „Stand up for Science“ statt. Die Hauptkundgebung war in Washington, an den Protestmärschen nahmen laut Deutschlandfunk Forschende, Ärzt*innen und Patient*innen teil, um für Wissenschaftsfreiheit zu demonstrieren. Auch in Österreich, Frankreich und Schweden gab es Proteste, in Deutschland bisher nicht.
Frauentag: Keine Angst vor KI-Tools
Am 8. März war Frauentag. Im Bundesministerium für Bildung und Forschung* wurde bereits am 7. März mit der Veranstaltung „Gender Gap in der Künstlichen Intelligenz“ die Gelegenheit genutzt, mit Expert*innen über die „Technologie von morgen“ und die „Probleme von gestern“ zu diskutieren. Tina Klüwer, Leiterin des Forschungsbereichs Technologische Souveränität und Innovation, warnte davor, dass Sprachmodelle wie ChatGPT lange Zeit auf einem liberalen Wertegerüst beruhten, das jüngste Modell jedoch eine konservative Kehrtwende vollzogen habe. Die Keynote-Speakerin Kenza Ait Si Abbou wies darauf hin, dass anwendungsorientierte Doppelstudiengänge wie „Social Computing“ für viele Studentinnen interessant seien. Diese wurden auch von Lucie Flek, Professorin für Data Science, angesprochen: Man solle ohne Angst mit KI-Tools experimentieren. Denn auch bei der Anwendung von Sprachmodellen gäbe es bereits Geschlechterunterschiede, die Frauen letztlich benachteiligen würden.
Das Kernproblem von KI in der Kommunikation
240 Teilnehmer*innen nahmen im Februar am digitalen Treffpunkt Wissenschaftskommunikation teil, um sich über KI in der Kommunikation auszutauschen. In ihrem Impulsvortrag betonte Christina Elmer, Professorin für Datenjournalismus, dass die genutzten Modelle idealerweise mit den Werten der Wissenschaftskommunikation übereinstimmen sollten. Das Kernproblem sei jedoch, dass die individuellen und gesellschaftlichen Werte oft nicht klar genug seien: „Wenn wir ein System nach unseren Werten ausrichten wollen, müssen wir sie klar benennen und operationalisieren.“ Einen weiteren Impuls gaben Volker Stollorz und Meik Bittkowski vom Science Media Center (SMC). Das SMC setze Large Language Modelle (LLM) ein, um wissenschaftliche Veröffentlichungen zu verfolgen, Information zu filtern und ihre Relevanz zu bewerten. Die zur Verfügung stehenden Tools, so waren sich die Expert*innen einig, sollten zielgerichtet und wertebasiert eingesetzt werden.
Regeln für manipulierte Bilder
KI-Tools können eine Chance für die visuelle Wissenschaftskommunikation sein, sagte die Kommunikationsdesignerin Gesine Born kürzlich in einem Interview. Doch es gibt auch Kritiker*innen. Bedenken äußert die Fotografin Felice Frankel in einem Essay. Drei Punkte seien dringend zu diskutieren: der Unterschied zwischen Illustration und Dokumentation, ethische Fragen und das mangelnde visuelle Verständnis der Forschenden. Generierte Bilder könnten die dokumentarische Fotografie in der Wissenschaft nicht ersetzen, höchstens illustrieren, argumentiert die Fotografin. Ethische Fragen zur Anerkennung der Quellen und zum Datenschutz seien ungeklärt, Standards zur Kennzeichnung noch nicht etabliert. Wenn Bilder mit KI erzeugt wurden, sollten sie klar als solche gekennzeichnet werden, auch in den Metadaten. Das Modell, einschließlich der Version, und die Prompts sollten genannt werden. Wenn Bilder in den Prompts verwendet wurden, sollten diese ebenfalls beigefügt werden, so Frankel.
Unstatistik des Monats: Gedankenlesende KI
Mit der „Unstatistik des Monats“ hinterfragt ein Team um den Psychologen Gerd Gigerenzer falsch interpretierte Zahlen. Dieses Mal kritisieren sie Tech-Journalist*innen, die über Metas Deep-Learning-Architektur berichteten, sie könne bereits „Gedanken lesen“. Das Unstatistik-Team stellt richtig: „Im Schnitt konnte die KI nicht – wie die Schlagzeilen suggerieren – 80 Prozent, sondern lediglich 68 Prozent der mittels MEG empfangenen Signale richtig vorhersagen; bei Verwendung von EEG waren es lediglich 33 Prozent.“ Von einer 80-prozentigen Genauigkeit bei der Aufzeichnung von Gehirnaktivitäten sei das Tool noch weit entfernt. Die Autor*innen wünschen sich, dass Journalist*innen wissenschaftliche Studien dieser Art genauer lesen und interpretieren.
Und die Forschung?
Was passiert, wenn Klimawissenschaftler*innen Alarm schlagen? Christel W. van Eck von der Amsterdam School of Communication Research und Toni G. L. A. van der Meer von der University of Amsterdam haben in einem Experiment mit fast 900 US-Amerikaner*innen die Effekte von Gefühlsäußerungen und persönlichen Geschichten untersucht. Die Ergebnisse deuten darauf hin, dass die Glaubwürdigkeit der Klimaforscher*innen nicht wesentlich gemindert wird. Dabei ist jedoch wichtig, dass die Botschaft frei von Widersprüchen ist: Geschichten und Gefühle müssen zusammenpassen, damit Glaubwürdigkeit und Engagement für den Klimaschutz erhöht werden.
Wie Framing wirkt: Risa Palm und Justin T. Kingsland von der Georgia State University haben mit Toby Bolsen von der University of Central Florida untersucht, wie sich Artikel über „Künstliche Intelligenz“ auf die Einstellungen von US-Amerikaner*innen auswirkt. Positive Berichterstattung führte dazu, dass die Befragten mit größerer Wahrscheinlichkeit fanden, dass sich die Technologie positiv auf Arbeitsplätze, Sicherheit, Bildung, Gesundheitsversorgung und Lebensqualität auswirke. Wer Artikel über die Risiken gelesen hatte, vertrat eher einen kritischen Standpunkt. Die Ergebnisse machen laut der Autor*innen deutlich, dass die Art und Weise, wie wir über KI-gestützte Technologien sprechen, die Einstellungen von Menschen beeinflussen.
Termine
📆 19. März 2025 | PCST Member forum: Supporting inclusive and participatory science communication in the face of challenges | Mehr
📆 21. März 2025 | Brilliant Poetry competition: The International Year of Quantum Science & Technology | Mehr
📆 26. März 2025 | Digitaler Lunchtalk der Transfer Unit**: Wie kann die Wissenschaftskommunikation mit Desinformation umgehen? | Mehr
📆 24. bis 27. April 2025 | Spring School – Forschung trifft Kommunikation (Halle) | Mehr
📆 3. bis 5. September 2025 | Humboldt-School: „Nachhaltigkeit und ihre Kommunikation. Strategien zwischen Wissenschaft und Politik“ (Dortmund) | Mehr
📆 4. bis 6. Dezember 2025 | Tagung: Sharing Perspectives on AI (Heilbronn) | Mehr
Social Media: 10-Punkte-Plan der MPG
Der Präsident der Max-Planck-Gesellschaft, Patrick Cramer, hat auf LinkedIn den 10-Punkte-Plan der MPG an die neue Bundesregierung geteilt. Punkt 10: „Diskurs & Wissenschaftskommunikation schützen, insbesondere in den sozialen Medien“.
Klicken Sie auf den unteren Button, um den Inhalt von www.linkedin.com zu laden.
Hörtipp: Wissenschaftsjournalismus vs. Wisskomm?
Der Wissenschaftsjournalismus muss besser werden – das fordert der Wissenschaftsjournalist Kai Kupferschmidt. Er kritisiert: „Diese verschwimmende Trennlinie zwischen Wissenschaftskommunikation auf der einen Seite, also letztlich parteiischer Kommunikation, und der unabhängigen wissenschaftsjournalistischen Perspektive, das ist tatsächlich ein riesiges Problem.“ Im Deutschlandfunk Nova Hörsaal-Vortrag teilt er einige Ideen, wie es aus seiner Sicht besser laufen könnte.
Jobs
🔉 Pressesprecher*in (w/m/d) | Hochschule Landshut Hochschule für angewandte Wissenschaften (Bewerbungsschluss: 15. März 2025)
Weitere Stellenangebote finden Sie in unserer Jobbörse – exklusiv für Stellen aus der Wissenschaftskommunikation. Hochschulen, Forschungsinstitutionen, Stiftungen und Co können ihre Stellenangebote direkt an Besucher*innen unseres Portals richten.
Videotipp: Wie man zu Wissenschaftsverweiger*innen durchdringt
In dem Webinar der American Chemical Society (ACS) teilen Expert*innen Strategien, wie man die Kluft zwischen wissenschaftlichem Konsens und öffentlicher Wahrnehmung überbrücken kann.
