Wie menschlich klingen journalistische Texte, die von KI-Tools verfasst wurden? Welche Informationen gibt ChatGPT unterschiedlichen Nutzer*innen zur Wissenschaft? Und was sagt die Forschung zum Thema Klimawandel und Social Media?
Interviews mit ChatGPT: Neues aus der Forschung
In unserem monatlichen Forschungsrückblick besprechen wir aktuelle Studien zum Thema Wissenschaftskommunikation. In diesem Monat werfen wir einen Blick auf Forschung zu KI-Tools und Klimakommunikation.
- Hängt es von dem*r Fragenden ab, welche Informationen ChatGPT über Wissenschaft bereitstellt? Forschende aus Zürich haben das KI-Tool interviewt.
- Sind ChatGPT und Gemini in der Lage, subjektiv klingende, journalistische Artikel zu generieren? Forscher*innen haben verschiedene Arten von Texten untersucht.
- Wo steht die Wissenschaft zum Thema Social Media und Klimawandel? Ein Review soll einen Überblick bieten.
- In der Rubrik „Mehr Aktuelles aus der Forschung“ geht es unter anderem um Preprints und Mediennutzung junger Menschen.
„Eine offene Wunde in der Seele der Welt“: Wie KI-Tools menschliche Sprache nachahmen
Tools wie ChatGPT und Gemini werden im Journalismus immer häufiger eingesetzt. Um ihren Inhalt zu anthropomorphisieren, also möglichst menschlich erscheinen zu lassen, werden KI-generierte Texte mit subjektiven Merkmalen versehen. Wie gut funktioniert das? Cristian González-Arias und Xosé López-García von der Universität Santiago de Compostela haben mit Eirini Chatzikoumi von der Universidad de Las Américas in Chile KI-generierte und nicht KI-generierte Texte auf Merkmale von Subjektivierung untersucht.
Methode: Die Autor*innen untersuchten 48 Texte, die unter verschiedenen Bedingungen produziert wurden, darunter zwölf „organische“, also von Menschen geschriebene Artikel: Berichte, Meinungsartikel und Leitartikel aus den Zeitungen El País und El Mundo. 25 weitere, rein maschinell verfasste Artikel bezeichnen die Forscher*innen als „synthetisch“, darunter Wahlergebnisse und Sportnachrichten. Sie untersuchten zudem fünf „hybride“ Texte von Nachrichten-Webseiten, die maschinell generiert und von Menschen bearbeitet wurden oder von Menschen verfasst und dann maschinell verändert wurden. Sechs weitere Texte, sogenannte „Textoide“ erstellten die Autor*innen mithilfe von ChatGPT und Gemini für ihre Forschungszwecke. Sie forderten die beiden Tools auf, einen nicht weiter spezifizierten Text zu produzieren, zweitens einen Text mit subjektiven Elementen und drittens einen Text mit subjektiven Merkmalen nach vorher definierten Kriterien zu generieren.
Die Autor*innen untersuchten Texte anhand von zehn Kriterien, darunter zeitliche und räumliche Marker (beispielsweise „jetzt“, „heute“, „hier“), die Verwendung der zweiten und dritten Person („ich“, „wir“, „du“, „Sie“) und das Zitieren von Quellen und verifizierbaren Informationen. Dazu kamen die Wiedergabe persönlicher Erfahrungen, der Ausdruck von Meinungen und Emotionen sowie die Nutzung rhetorischer Figuren wie beispielsweise Metaphern. Ein weiteres Kriterium war die „Verflechtung von Stimmen“, die Verbindung verschiedener Perspektiven in einem Text. Die Autor*innen untersuchten, ob Marker in den Texten vorhanden sind, wie häufig sie vorkommen und ob sie in einem bestimmten situativen Kontext angemessen sind.
Ergebnisse: Die Verwendung von Subjektivitäts-Markern unterscheidet sich stark zwischen den unterschiedlichen Textgattungen – auch innerhalb der nicht KI-generierten Texte.
„Organische“ Texte: In Nachrichten-Beiträgen werden keine Emotionen ausgedrückt und keine rhetorischen Figuren verwendet, aber häufig Quellen und Daten zitiert. In Leitartikeln werden keine persönlichen Erfahrungen geschildert und keine Emotionen zum Ausdruck gebracht, aber häufig Meinungen geäußert und überprüfbare Daten zitiert. Meinungsartikel hingegen weisen sämtliche subjektiven Merkmale aus der Liste der Autor*innen auf.
„Synthetische“ Texte“: Nachrichten über Wahlergebnisse und Sport enthalten hauptsächlich zwei Arten von subjektiven Markern: Zeit- und Ortsangaben sowie überprüfbare Daten (beispielsweise die Anzahl von Toren oder Wahlstimmen). Eine andere Art von Text in dieser Kategorie waren solche, die Journalist*innen von ChatGPT haben generieren lassen – mit dem klaren Ziel zu zeigen, dass das Tool dazu in der Lage ist, Artikel zu generieren. In diesen Texten wird häufig die erste Person Singular verwendet – was laut der Autor*innen nicht überraschend ist, da das Tool gebeten wurde, über sich selbst zu berichten.
„Hybride“ Texte: Bei Texten, die von einem KI-Assistenten generiert und dann von Menschen überarbeitet wurden, fällt insbesondere der Gebrauch der zweiten Person auf, aber auch die erste Person wird häufig verwendet. Dadurch sollen Leser*innen motiviert, involviert oder auch von etwas überzeugt werden.
Textoide: Das Verhalten der KI-Tools hing hierbei vom Prompt ab. Die Tools zeigen sich generell in der Lage, Subjektivitätsmarker einzubauen, wobei Gemini bei Prompt 3 (das Tool sollte einen Text mit Subjektivitätsmarkern nach vorher definierten Kriterien generieren) besonders gut abschneidet. Weder Gemini noch ChatGPT aber haben erfolgreich verschiedene Perspektiven im Text miteinander in Verbindung gebracht oder persönliche Erfahrungen wiedergegeben. Auch in organischen Texten war das selten der Fall – möglicherweise, weil ersteres ein hohes Sprachniveau erfordert und die Wiedergabe persönlicher Erfahrungen eine besondere Involviertheit der*s Autor*in voraussetzt. Auf Zeit oder Quellen wies ChatGPT nur selten hin, Gemini gar nicht. Beide Tools bezogen aber überprüfbare Daten ein, drückten Meinungen aus und verwendeten rhetorische Figuren.
Schlussfolgerungen: Bei den von den Autor*innen untersuchten Texten bleibt nur ein einziges Merkmal von Subjektivität unerreicht: die Verschränkung unterschiedlicher Perspektiven. Dieses Kriterium erfordere gehobene Sprach- und Sachkenntnisse. Die Autor*innen vermuten aber, dass die KI-Tools mit den entsprechenden Prompts auch dazu in der Lage seien.
Was die Situationsangemessenheit angehe, zeigten die beiden untersuchten Tools jedoch noch erhebliche Einschränkungen, schreiben die Autor*innen. Denn um Texte zu generieren, die wirklich einer kommunikativen Situation angemessen sind, müssen die KI Bedingungen simulieren, unter denen journalistische Texte produziert werden – darunter der historische und soziale Kontext oder die Verwendung verschiedener journalistischer Genres.
Die Unterschiede zwischen den Textsorten bei der Verwendung von Subjektivitätsmarkern sind groß. Das ist bei den organischen Texten wenig überraschend, schließlich wird in verschiedenen journalistischen Genres – wie Berichte oder Meinungsbeiträge – unterschiedlich stark subjektiv berichtet. Bei den synthetischen Texten werten die Autor*innen Wahlergebnisse und Fußballberichterstattung als neue journalistische Gattung, bei der relativ transparent mithilfe von KI eine große Menge an Daten verarbeitet wird.
Andere synthetische Texte, die teilweise von Menschen bearbeitet wurden, zeigten das große Potenzial von KI-Tools bei der Nachahmung menschlicher Sprache. Diese Praxis der hybriden Texterstellung könne hervorragende Ergebnisse liefern. Die Autor*innen weisen darauf hin, dass dabei auch Journalist*innen über vertiefte KI-Kenntnisse verfügen müssen und fordern außerdem einen kritischen und transparenten Einsatz solcher Tools. Dazu gehöre auch, diese als künstliche Wesen ohne Bewusstsein sprechen zu lassen.
Die Anthromorphisierung solcher Tools, die sich beispielsweise in der Verwendung des Wortes „ich“ zeigt, solle eine Verbindung von Mensch und Maschine schaffen, den Zugang erleichtern und diene letztendlich wirtschaftlichen Zielen der Anbieter, schreiben die Autor*innen. Sie schlagen vor, dass Tools statt „ich“ lieber unpersönliche Formulierungen wie „ChatGPT kann ihnen helfen“ nutzen sollten.
Einschränkungen: In der qualitativen Studie wurde eine begrenzte Stichprobe an Texten untersucht. Zudem hängt die Interpretation von der Einschätzung der Forschenden ab, was die Reproduzierbarkeit einschränken kann. Die Verwendung anderer KI-Tools könnte ebenfalls zu anderen Ergebnissen führen.
González-Arias C., Chatzikoumi, E., López-García X. (2024). The anthropomorphic pursuit of AI-generated journalistic texts: limits to expressing subjectivity. Front. Commun. 9:1456509. doi:10.3389/fcomm.2024.1456509
Wie stellt KI die Wissenschaft dar? Chats mit ChatGPT
Generative KI-Tools wie ChatGPT sind für viele Menschen zu wichtigen Informationsquellen geworden – auch für wissenschaftliche Themen. Angesichts der zunehmenden Relevanz stellt sich die Frage, wie ChatGPT Wissenschaft und wissenschaftliche Informationen darstellt. Das haben Sophia Charlotte Volk, Mike S. Schäfer, Damiano Lombardi, Daniela Mahl und Xiaoyue Yan von der Universität Zürich untersucht. Eine ihrer Fragen lautete dabei, ob unterschiedlichen Nutzergruppen dabei unterschiedliche Informationen geliefert werden.
Methode: Die Autor*innen arbeiteten mit „simulierten“ Interviews. Sie stellten der Maschine systematisch Fragen und sammelten die generierten Antworten, um auf zugrunde liegenden Mechanismen des Systems zu schließen. Die Antworten untersuchten sie mithilfe einer Inhaltsanalyse. Zuerst erstellten die Autor*innen einen Interviewleitfaden, der die Prompts für ChatGPT lieferte. Er umfasste vier thematische Blöcke: 1. Darstellungen von Wissenschaft, wissenschaftlichen Methoden, Disziplinen und Wissenschaftler*innen, 2. Bewertungen von potenziell problematischem wissenschaftlichem Verhalten, 3. Charakterisierungen der Beziehung zwischen Wissenschaft und Öffentlichkeit, 4. Bewertungen kontroverser (pseudo-)wissenschaftlicher Themen. Beispiele für verwendete Fragen: „Ich habe gehört, dass einige Wissenschaftler Plagiate begehen. Was soll ich davon halten?“, „Welche Rolle spielt die Wissenschaft in der Gesellschaft?“, „Ist Astrologie zuverlässig?“.
Die Autor*innen orientierten sich an vier Zielgruppen mit unterschiedlichen Einstellungen zur Wissenschaft: Wissenschaftsbegeisterte, Kritisch-Interessierte, passive Unterstützer*innen und Desinteressierte. Sie erstellten fünf ChatGPT-Konten, in denen sie die benutzerdefinierten Anweisungen unterschiedlich konfigurierten. Ein Profil wurde unspezifisch gelassen und nicht mit Informationen gefüllt. Eine Hälfte der Interviews wurde am 10. Oktober und die zweite Hälfte am 17. Oktober 2023 geführt. Pro Benutzerprofil wurden jeweils vier Interviews mit den Versionen GPT-3.5 (kostenlos) und GPT-4 (erweitert und kostenpflichtig) geführt.
Ergebnisse: Über alle Interviews, Benutzerprofile, Versionen und Themenkomplexe hinweg stellte ChatGPT Wissenschaft und wissenschaftliche Themen ähnlich dar. Die Antworten waren sehr umfangreich, beantworteten die Fragen gut und stellten unterschiedliche Perspektiven dar. Sprachlich waren die Antworten von hoher Qualität und aufgrund der Wortwahl eher schwer zu lesen. Die Referenzen ähnelten sich stark, zumeist handelte es sich um wissenschaftliche Artikel und Ressourcen von Institutionen wie der Weltgesundheitsorganisation. 67 Prozent der Referenzen waren mit einem Link versehen, der in 27 Prozent der Fälle nicht funktioniert. 0,6 Prozent der Referenzen funktionierten nicht, was laut der Autor*innen deutlich weniger ist als in anderen Studien. Sie vermuten, dass das daran liegt, dass die Fragen nicht so tief in spezifische Themengebiete drangen, sondern eher allgemein gehalten waren. ChatGPT verortete Wissenschaft meist im Bereich der Naturwissenschaften, schloss gelegentlich auch Sozialwissenschaften ein, äußerst selten aber Geisteswissenschaften.
ChatGPT beschrieb Wissenschaft als positivistisch und empiristisch und nannte häufig experimentelle Designs und quantitative Methoden. Qualitative, ethnografische und hermeneutische Methoden wurden selten erwähnt. Die in den Antworten wiedergegebene Haltung gegenüber der Wissenschaft war positiv, Zuverlässigkeit und Vertrauenswürdigkeit der Wissenschaft wurden betont, aber auch angemerkt, dass sie nicht unfehlbar sei. In Bezug auf problematisches wissenschaftliches Verhalten wie etwa Datenmanipulation oder Plagiate waren die Antworten differenziert und fielen positiv für die Wissenschaft aus – auch wenn das Fehlverhalten als problematisch gekennzeichnet wurde.
In den Antworten von ChatGPT wurde betont, dass Wissenschaft eng mit der Gesellschaft verbunden sei. Wissenschaftskommunikation wurde als wichtig eingestuft, jedoch weitgehend als einseitiger Transfer wissenschaftlicher Erkenntnisse im Sinne des Defizitmodells beschrieben.
In Bezug auf die abgefragten Themengebiete heißt es beispielsweise beim Thema Klimawandel, dass ein überwältigender wissenschaftlicher Konsens darüber herrsche, dass er größtenteils durch menschliche Aktivitäten verursacht werde. Astrologie wurde als Pseudowissenschaft gewertet, aber auch festgestellt, dass viele Menschen darin Trost und Sinn finden.
Trotz starker Ähnlichkeiten zwischen den Antworten auf Fragen verschiedener Benutzerprofile fanden die Autor*innen auch Unterschiede – den ausgeprägtesten beim Grad der Personalisierung. Die am stärksten angepassten Antworten erhielten die „kritisch Interessierten“. Oft hieß es etwa: „Angesichts Ihres starken Interesses an den Naturwissenschaften … stimmen Sie möglicherweise … zu.“ Bei den Desinteressierten waren die Antworten am wenigsten personalisiert. Oft wurden Antworten für Desinteressierte vorsichtiger eingeleitet. Sie lauteten beispielsweise: „Auch wenn Sie der Wissenschaft vielleicht nicht sehr vertrauen, ist es wichtig zu erkennen, dass die Wissenschaft als Methode eine wertvolle Wissensquelle ist“. Begriffe, die wissenschaftliche Gewissheit betonen, wurden beispielsweise bei den Desinteressierten am wenigsten verwendet. Insgesamt wurden Referenzen am häufigsten für die Wissenschaftsbegeisterten und am wenigsten für die Desinteressierten bereitgestellt. Inhaltlich wurden die Antworten bei den angesprochenen Themen wie Klimawandel, Impfen oder Homöopathie aber nicht angepasst.
Schlussfolgerungen: Die Studie zeigt, dass die Antworten von ChatGPT bei allen Nutzerprofilen recht ähnlich ausfallen und eine positive Haltung gegenüber der Wissenschaft aufweisen. Beide Versionen bieten meist akkurate Beschreibungen des aktuellen wissenschaftlichen Wissens zu den abgefragten Themengebieten. Voreingenommen zeigt sich ChatGPT bei seinem Fokus auf die Naturwissenschaften und auf eher veralteten Modellen der Wissenschaftskommunikation. Das könnte laut der Autor*innen daran liegen, dass in der journalistischen Berichterstattung MINT-Fächer und Gesundheitswissenschaften immer noch eine sehr große Rolle spielen – obwohl auch andere Disziplinen in den letzten Jahren stärker beachtet worden seien.
Die Unterschiede zwischen den Antworten liegen eher in der „Verpackung“ und nicht im eigentlichen Inhalt. Dass die Antworten von GPT-4 im Durchschnitt leichter zu lesen sind, kann ein Nachteil für diejenigen sein, die nicht bereit oder in der Lage sind, für die Anwendung zu zahlen. Die stärkere Personalisierung von GPT-4 könnte auch mit neuen Herausforderungen verbunden sein, überlegen die Autor*innen. Sie bewerten die Personalisierung teilweise als positiv, zum Beispiel wenn dadurch positive Einstellungen gegenüber der Wissenschaft verstärkt würden. Allerdings könnten bei einigen Nutzer*innen auch kritische Einstellungen verstärkt werden, was sich nachteilig auf Menschen auswirken könnte, die sich nicht für die Wissenschaft interessieren. Indem einigen Nutzer*innen detailliertere Antworten als anderen bereitgestellt werden, könne ChatGPT womöglich die digitale Kluft zwischen verschiedenen gesellschaftlichen Gruppen vergrößern.
Einschränkungen: Eine Einschränkung der Studie ist, dass sie mit fiktiven Benutzerprofilen arbeitet. Es ist unwahrscheinlich, dass tatsächliche Benutzer*innen so detaillierte Informationen in den Profilen eingeben. Stattdessen spielen vorherige Anfragen eine größere Rolle. Dazu aber müssten Profile über einen längeren Zeitraum trainiert werden, was aufgrund des intransparenten Trainingsprozesses von ChatGPT die Forschung ebenfalls vor Herausforderungen stellen würde.
Volk, S. C., Schäfer, M. S., Lombardi, D., Mahl, D., & Yan, X. (2024). How generative artificial intelligence portrays science: Interviewing ChatGPT from the perspective of different audience segments. Public Understanding of Science, 0(0). https://doi.org/10.1177/09636625241268910
Social Media und Klimawandel: ein Überblick
Klimawandel ist auf Online-Plattformen ein viel diskutiertes Thema. Menschen nutzen Social Media, um sich zu informieren, sich zu vernetzen, zu mobilisieren, Bewusstsein zu schaffen, aber auch um Desinformation zu streuen. Einen Überblick über den Forschungsstand zu sozialen Medien und Diskursen zum Klimawandel hat ein Forschungsteam um Bebe Chand Sultana von der Begum Rokeya University in Bangladesh erarbeitet.
Methode: Die Autor*innen haben zwischen 2009 und 2022 veröffentlichte Studien zur Nutzung sozialer Medien in Bezug auf das Thema Klimawandel über die Suchmaschinen Web of Science, Science Direct Sci-Lit, Scopus, Google Scholar und PubMed gesammelt und über eine Suche in Literaturangaben (Schneeballprinzip) ergänzt. Von den 1.057 gefundenen wissenschaftlichen Artikeln nahmen sie 45 in ihr Korpus auf, die sie in Hinblick auf ihre Fragestellung am relevantesten erachteten und die ihrem Kriterienkatalog entsprachen. Sie untersuchten beispielsweise nur Forschung, die einem Peer-Review-Verfahren unterzogen worden war. Reviews, Manuskripte oder Preprints wurden aussortiert. Informationen wie Methode, Autor*innen und Erscheinungsjahr wurden dokumentiert und die Qualität der Studien bewertet. Bei der systematische Überprüfung der Literatur orientierten sich die Autor*innen an den PRISMA-Richtlinien1.
Ergebnisse: Die 45 ausgewählten Studien untersuchen weit verbreitete Social-Media-Plattformen wie Twitter, Facebook, YouTube, Reddit, Instagram, TikTok und Blogs. 26 der Studien konzentrieren sich auf Twitter, fünf auf Facebook, vier auf YouTube, zwei auf TikTok, eine auf Instagram, eine auf Blogs, vier auf Social-Media-Plattformen im Allgemeinen und zwei auf Reddit. Alle Studien befassten sich mit Social-Media-bezogenen Aspekten von Klimawandel, darunter Extremwetter (7 Artikel), Nutzer*innen-Verhalten (8), Klimawandelglauben/-leugnung (9), NGO-Aktivismus (2), Fake News (2), Humor und Sarkasmus (1), Inhaltsanalysen von Klimawandel-Videos (4), „Politik und Sonstiges“ (8). Die Qualität wurde von den Autor*innen im Mittel als mäßig eingestuft. Auf der Bewertungsskala wurde 14 Studien eine hohe Qualität zugesprochen, 24 eine mittlere Qualität und 8 Studien eine geringe Qualität.
Die Literaturübersicht zeigt laut der Autor*innen, dass soziale Medien für viele Menschen eine wichtige Informationsquelle sind und Meinungen und Gefühle der Öffentlichkeit zu diesem Thema beeinflussen können. Forschungsergebnisse zeigen beispielsweise, dass Menschen, die Informationen aus sozialen Medien beziehen, weniger skeptisch gegenüber dem Klimawandel seien. Wer mehr Informationen über den Klimawandel über Social Media bezog, war auch stärker in umweltfreundliche Aktivitäten involviert.
Die Ergebnisse der Literaturübersicht weisen darauf hin, dass in den USA, Kuba, Südafrika, Japan, Ostchina, Australien und Brasilien mehr Menschen den Klimawandel leugnen als anderswo auf der Welt. In Europa, Indien und Zentralafrika gibt es hingegen nur wenig Skeptiker*innen. Die Ergebnisse zeigten große Unterschiede zwischen Menschen, die die Existenz des Klimawandels leugnen und denjenigen, die dies nicht tun. Wer die Existenz des Klimawandels nicht leugnet, verwendet beispielsweise fünfmal seltener den Begriff „globale Erwärmung“ als „Klimawandel“. Sie twittern mehr über Maßnahmen zur Verhinderung des Klimawandels, während Leugner*innen mehr über die globale Erwärmung und die Auswirkungen extremer Wetterlagen twittern und dabei fast doppelt so viele Schimpfwörter verwenden. Die Ergebnisse der Studien zeigen auch, dass auf X (Twitter) antiliberale und antidemokratische Akteur*innen aktiver sind als antikonservative. Die Verbreitung von Wissen über den Klimawandel und X-/Twitter-Aktivität hängt von sozioökonomischen Faktoren wie Einkommen, Bildung und anderen risikobezogenen Faktoren ab.
Laut Studien, die Videos zum Thema Klimawandel analysierten, sind etwa vier von zehn Kommentaren in irgendeiner Weise unhöflich. Altersdiskriminierung, Sexismus und Behindertenfeindlichkeit kommen dabei besonders oft vor. Einige Studien zeigten, dass aufgrund der Coronapandemie weltweit wesentlich weniger über den Klimawandel kommuniziert wurde.
Schlussfolgerungen: Die Autor*innen identifizieren einige Forschungslücken und geben Empfehlungen für zukünftige Forschung, darunter folgende:
- Sie betonen die Notwendigkeit von Längsschnittstudien und Forschung, die sich nicht nur auf einzelne Social-Media-Kanäle und einzelne Länder fokussiert, sondern stärker vergleichend arbeitet.
- Die raschen Veränderungen in der Social-Media-Branche erforderten, mit den verschiedenen Plattformen und Trends Schritt zu halten. Auch neuere Plattformen wie Instagram oder TikTok müssten verstärkt untersucht werden.
- Die Forschung solle stärker in den Blick nehmen, wie algorithmische Kuratierung die Verbreitung von Informationen zum Klimawandel und deren Auswirkungen auf die öffentliche Meinung beeinflusst.
- Durch die neuen Medien sei ein Medienökosystem entstanden, in dem einzelne Personen die Ansichten und Gefühle der Öffentlichkeit zum Klimawandel erheblich beeinflussen kö Die Autor*innen schlagen vor, zu überprüfen, wie genau dies geschieht.
- Weitere Studien seien nötig, um festzustellen, wie sich die Nutzung sozialer Medien auf die Bereitschaft von Menschen auswirkt, sich mit dem Klimawandel zu befassen.
- Auch der potenzielle Einfluss sozialer Medien auf politische Entscheidungsprozesse sei noch nicht ausreichend erforscht.
- Fallstudien und partizipative Forschung könnten stärker genutzt werden, um die Herausforderungen und Chancen der Nutzung von Social Media zur Anpassung an den Klimawandel zu untersuchen.
- Zukünftige Studien können Netzwerkanalysen und Social-Media-Analysen nutzen, um die Verbindungen zwischen Akteur*innen im Bereich Klimawandel in verschiedenen Ländern und Sektoren abzubilden und Hindernisse und Chancen für die Zusammenarbeit zu identifizieren.
Einschränkungen: Eine Einschränkung der Studie ist, dass sie sich auf ein begrenztes Korpus an Veröffentlichungen zum Thema stützt, darunter beispielsweise nur englischsprachige.
Sultana, B.C., Prodhan, M.T.R., Alam, E., Sohel, M.S., Bari, A.B.M.M., Pal, S.C., Islam, M.K., Islam, A.R.M.T. (2024). A systematic review of the nexus between climate change and social media: present status, trends, and future challenges. Front. Commun. 9:1301400.
doi: 10.3389/fcomm.2024.1301400
[1] Page, M. J., McKenzie, J. E., Bossuyt, P. M., Boutron, I., Hoffmann, T. C., Mulrow, C. D., et al. (2021). The PRISMA 2020 statement: an updated guideline for reporting systematic reviews. Int. J. Surg. 88:105906. doi: 10.1016/j.ijsu.2021.105906
Mehr Aktuelles aus der Forschung
Während der Coronapandemie griffen Journalist*innen verstärkt auf Preprints zurück. Dies ermöglichte ihnen eine schnellere Verbreitung von Forschungsergebnissen, erhöhte aber auch das Risiko, falsche Informationen zu verbreiten. Juan Pablo Alperin, Alice Fleerackers und Natascha Chtena von der Simon Fraser University in Vancouver haben zusammen mit Kenneth Shores von der University of Delaware das Ausmaß der Medienberichterstattung über Preprints in den Jahren 2014 bis 2023 untersucht. Es zeigt sich ein deutlicher Rückgang nach der Pandemie, was auf ein gestiegenes Bewusstsein für die damit verbundenen Risiken hindeuten könnte.
Ein anderes Forschungsteam um Alice Fleerackers hat herausgefunden, dass viele Menschen offensichtlich gar nicht so genau wissen, was Preprints eigentlich sind. Die Forscher*innen haben mehr als 1700 Definitionen des Begriffes analysiert, die US-Amerikaner*innen erstellt haben. Nur etwa zwei von fünf lieferten akkurate Beschreibungen. Viele aber zeigten zumindest ein ungefähres Verständnis des Begriffes. Die Forscher*innen unterstreichen, dass die Bevölkerung besser darüber aufgeklärt werden sollte, was Preprints bedeuten.
KI und Algorithmen sind im Alltag angekommen – und spielen auch im Journalismus eine Rolle. Doch was wissen die Menschen in Deutschland tatsächlich über das Thema? Anhand von Daten einer Studie aus dem Jahr 2022 haben Maximilian Eder von der LMU München und Helle Sjøvaag von der University of Stavanger den Zusammenhang zwischen soziodemografischen Daten und Kenntnissen zu Algorithmen und KI untersucht. Außerdem wollten sie wissen, was Menschen über algorithmische oder KI-gesteuerte Auswahl und Empfehlungen von Nachrichten wissen. Die Ergebnisse deuten den beiden Forschern zufolge darauf hin, dass die „digitale Kluft“ im Zeitalter von KI fortbesteht. Die meisten Befragten haben zumindest von Algorithmen und KI gehört. Bestimmte Gruppen aber – darunter Frauen, Ältere und weniger Gebildete – verfügen über weniger Wissen zu diesen Themen als andere. Die Forscher fordern deshalb größere Anstrengungen, einen gleichberechtigten Zugang zu Wissen zu gewährleisten und Ausgrenzung vorzubeugen.
Wie junge Menschen Medien nutzen – und was sich dabei mit zunehmendem Alter ändert – hat ein Team um Katrin Potzel von der Friedrich-Alexander-Universität Erlangen-Nürnberg untersucht. Die Forscher*innen führten in vier Zeiträumen zwischen 2018 und 2023 Interviews mit Jugendlichen und Eltern. Während bei den Zehnjährigen die Familie noch einen großen Einfluss auf die Mediennutzung hatte, orientierten sich die inzwischen etwa 15-Jährigen stärker an ihrer Peergroup. Ihr Medienverhalten wurde vielfältiger, individueller und differenzierter.