Je mehr Follower*innen, desto mehr Einfluss: In der Verbreitung von Desinformationen spielen die Accounts von Prominenten eine große Rolle. Welche Mechanismen dahinterstecken, soll nun bei einem Projekt des Hans-Bredow-Instituts erforscht werden. Philipp Kessling spricht über Fragestellungen, Ziele und Herausforderungen des Forschungsvorhabens.
Forschung zu Prominenten in Desinformationskampagnen
Sie untersuchen die Rolle von Prominenten in Desinformationskampagnen. Warum konzentrieren Sie sich auf diesen Personenkreis?
Wir konzentrieren uns aus zwei Gründen auf Prominente: Zum einen haben wir seit Beginn der Coronapandemie und im Verlauf des Jahres 2020 gesehen, dass ein gewisser Personenkreis an Prominenten über alternative digitale Kanäle an Relevanz gewonnen hat. Wir haben einige Beispiele gefunden, in denen auf Demos Falschbehauptungen aufgestellt wurden – dass zum Beispiel eine Frau in Folge von Polizeigewalt auf dem Weg in Krankhaus gestorben sei. Das wurde über Messenger-Dienste wie Telegram verbreitet und hat dann eine solche Dynamik entwickelt, dass sich die Polizei zu einer Gegendarstellung veranlasst fühlte. Dazu wurde eine Agenturmeldung herausgegeben, die wiederum von verschiedenen Qualitätsmedien aufgegriffen wurde. Wir hatten also eine Kettenreaktion: ein Prominenter hat irgendetwas behauptet – und nachher stand in den großen Medien, dass es nicht so war – dieses Beispiel von vielen zeigt, welche Dynamik von Falschbehauptungen durch Prominente erreichen können.
Zum zweiten sind Personen der Öffentlichkeit leichter zu beforschen, weil man davon ausgehen kann, dass die Informationen, die eine solche Person postet, auch für die Öffentlichkeit bestimmt sind, wir also laxere ethische und datenschutzrechtliche Auflagen haben.
Was sind das für Prominente, die im Mittelpunkt Ihrer Forschung stehen?
Das sind beispielsweise Coronaleugner*innen, Masken- und Impfverweiger*innen. In diesem Bereich gibt es Leute, die vorher schon prominent waren und sich dann aus irgendwelchen Gründen radikalisiert haben und in den sogenannten digitalen Untergrund gegangen sind. Zum anderen sehen wir auch, dass es Leute gibt, die erst im Zuge ihres Engagements Bekanntheit erlangt haben. Es gibt einen ganzen Pool an Leuten, der für uns interessant ist.
Desinformation gibt es nicht nur zu Covid-19. Betrachten Sie auch andere Themenbereiche?
In den letzten zwei Jahren ist das Thema Covid-19 sehr in den Vordergrund gerückt, aber es gibt auch andere Bereiche, in denen Desinformationen lanciert werden und die für uns interessant sind, zum Beispiel der Klimawandel oder die Flüchtlingskrisen in Osteuropa. Insofern werden wir erstmal keinen thematischen Schwerpunkt setzen, sondern von den Akteur*innen, die dieses Informationsökosystem bilden, ausgehen und fragen: Worüber sprechen die eigentlich?
Das heißt, sie gehen von bestimmten Personen aus und untersuchen dann, wo sie Informationen verbreiten?
Genau. Wir schauen zuerst: Welche Prominenten haben wir, auf welchen Plattformen sind sie vertreten? Von dort aus schauen wir, wie sich die Inhalte zwischen den einzelnen Plattformen verteilen.
Was ist das Ziel des Forschungsvorhabens?
Das Globalziel unseres Vorhabens ist die Entwicklung eines Modells, mit dem wir Zustände des Informationsökosystems voraussagen können, zum Beispiel wenn einzelne Desinformationen von bestimmten Akteur*innen lanciert werden. Wie sehr verbreiten sich diese Informationen im Netzwerk? Dafür haben wir einen Ansatz gewählt, dieses Informationsökosystem über Mehrebenennetzwerke zu modellieren. Das heißt, wir haben pro Plattform eine Ebene, auf der Akteur*innen miteinander interagieren. Über diese verschiedenen Ebenen können wir dann Interaktionen zwischen den Plattformen observieren und im Nachgang auch modellieren. Zusätzlich wollen wir uns die Inhalte anschauen und in die Modellierung einbeziehen. Wobei wir dabei natürlich die Schwierigkeit haben, dass die Inhalte multimedial sind. Es gibt nicht nur Texte, sondern auch Bilder, Sprachnachrichten und Videos, die wir dann in ein gemeinsames Datenformat überführen müssen.
Welche Art von Kanälen gucken Sie sich an?
Wir führen ihre Daten aus unterschiedlichen sozialen Netzwerken zusammen und beobachten Informationsflüsse. Das ist etwas, was man sehr vorsichtig machen muss, um die Privatsphäre einzelner zu schützen. Aber dadurch, dass diese Personen schon in der Öffentlichkeit stehen, haben wir da weniger ethische Bedenken.
Wie finden Sie die Prominenten, deren Aktivitäten Sie untersuchen wollen?
Das ist eine Frage, die uns derzeit sehr umtreibt. Zum einen haben wir am Bredow-Institut eine Datenbank öffentlicher Sprecher*innen. Darin sind politische Parteien, Stiftungen, aber auch Personen des öffentlichen Lebens wie die Kandidierenden der letzten Bundestagswahl und deren Social-Media-Accounts hinterlegt. Diese Datenbank wollen wir jetzt durch die entsprechenden Prominenten erweitern, die für unsere Erhebung interessant sind. Methodisch könnten wir so vorgehen, dass wir auf Telegram schauen, wie die öffentlich einsehbaren Kanäle sich gegenseitig zitieren und verlinken. Dazu haben wir und einige Journalist*innen schon einige Vorarbeiten geleistet, um diesen Teil des Informationsökosystems ein bisschen zu kartieren.
Wer steckt hinter dem Projekt?
Ich arbeite am Leibniz-Institut für Medienforschung, dem Hans-Bredow-Institut in Hamburg. Wir sind mit dem Media Research Methods Lab in der Computational Communication Science beheimatet. Bei uns im Team sind Leute, die sich auf Netzwerkanalyse spezialisiert haben, genauso wie solche, die sich auf Machine Learning und Natural Language Processing spezialisiert haben.
Dritter Partner ist das Institute for Strategic Dialogue gGmbH in Berlin. Das ist eine Organisation, die in den sozialen und digitalen Medien Extremist*innen beobachtet und Aufklärungsarbeit leistet. Dort soll in unserem Projekt ein Echtzeit-Monitoring betrieben werden. Auf diese Weise können wir dann auf vorhergesehene und unvorhergesehene Ereignisse reagieren. Ein vorhergesehenes Ereignis wäre zum Beispiel die Bundestagswahl, ein unvorhergesehenes ein Attentat wie in Halle, das zu einer extremen Resonanz in den sozialen Medien geführt hat. Bei derartigen Ereignissen muss man sehr schnell ins Monitoring einsteigen, um Desinformation sichtbar machen zu können.
Wer sich auf welchen Plattformen äußert, kann sich schnell ändern. Es gibt regelrechte Wanderungsbewegungen. Warum?
Das ist der Deplatforming-Effekt, bedingt durch den Ausschluss von Personen und Gruppen von Plattformen. Der Effekt kommt dadurch zustande, dass die großen Plattformen wie Facebook, Instagram und Twitter in den letzten zwei Jahren durch verschiedene Ereignisse wie
Was verstehen Sie unter Desinformation – und wie erkennen Sie diese?
Die gängige Definition von Desinformation lautet: Falschinformation mit einer Intention, diese bewusst in Umlauf zu bringen – sei es beispielsweise aus Profitgier oder um jemanden zu schädigen. Das ist etwas, was man schwer aus den Daten herauslesen kann. Deshalb werden wir verstärkt auf Hintergrundrecherchen zu den einzelnen Akteur*innen setzen, die dann bei unserem Projektpartner, der HAW, laufen. Darüber hoffen wir mehr über den Intentionsaspekt zu erfahren. Erstmal werden wir wahrscheinlich von reinen Falschinformationen ausgehen und die Intention als zusätzliche Variable haben.
Sie stehen mit dem Projekt noch am Anfang. Wie geht es weiter?
Es ist zeitlich auf drei Jahre angelegt. Nach einer etwa sechsmonatigen Planungsphase werden wir in einem Pretest gehen, um dann über 18 Monate eine Langzeitbeobachtung anzuschließen. Was wir dann an technischer Infrastruktur aufsetzen müssen, betrifft die Beobachtung vieler Plattformen und ziemlich vieler Akteur*innen.
Wie funktioniert es praktisch, als Forscher*in an Daten zu kommen?
Man braucht für diese technischen Zugänge immer einen Account auf der Plattform und auch einen Entwicklerzugang, um zu den Programmierschnittstellen zu gelangen. Um ein konkretes Beispiel zu nennen: Bei Twitter wurde mittlerweile eine gute Infrastruktur für Forscher*innen eingerichtet. Da kann man mit einem persönlichen Account, der einen als Forscher*in identifiziert, hingehen und mit einer Projektskizze anfragen. Dann bekommt man einen Zugriff, der etwas höher privilegiert ist als der eines*r kommerziellen Nutzer*in. Wir haben auf Twitter auch Zugriff auf das Archiv, also auf alle nicht gelöschten Tweets. Bei Telegram ist es insofern ähnlich, dass man über seine Telefonnummer einen Zugang zu einer API erstellen kann, um dann in Kanälen und Gruppen mitlesen zu können. Wobei wir uns dort nur auf den öffentlichen Teil fokussieren. Das hat den ethischen Hintergrund, dass wir nicht rechtfertigen können, in private Gruppen anderer Leute hineinzugehen und dort mitzulesen.