Wie hat sich der Diskurs im Internet in den letzten Jahren verändert? Dazu forscht Kommunikationswissenschaftlerin Lena Frischlich. Im Interview spricht sie über Informationsunordnung, wie Moderation zu demokratischer Resilienz beitragen kann und warum Wissenschaftskommunikation und Journalismus in digitalen Räumen präsent sein sollten.
Raushalten ist keine Option
Frau Frischlich, Sie beschäftigen sich in Ihrer Arbeit unter anderem mit Diskursräumen im Internet. Wie hat sich der Diskurs aus Ihrer Sicht in den letzten Jahren verändert?
Was man grundsätzlich sagen kann, ist, dass sich der Wandel von Medienumgebungen, der immer schon jede technologische Innovation begleitet hat, noch mal rapider geworden ist. Guckt man sich die Entwicklungen der letzten 20 Jahre an, dann hat sich hier viele verändert. Der Siegeszug von Google, die Erfindung des Smartphones und die Entwicklung von Sozialen Netzwerken haben verändert, wie wir uns miteinander vernetzen, wie oft wir uns vernetzen, wie wir uns informieren und worüber wir reden. Das bietet einerseits ganz viele tolle Optionen. Gleichzeitig ergeben sich auch Gelegenheitsstrukturen für Inhalte, die nicht dem entsprechen, wie idealer politischer und gesellschaftlicher Diskurs aussehen sollte.
Welche positiven und negativen Folgen sehen Sie da konkret?
Das Internet ermöglicht es Menschen, sich miteinander zu verbinden und es ermöglicht Menschen die Teilnahme an der Gesellschaft, denen es früher nicht so leicht möglich war, weil sie beispielsweise aus dem ländlichen Raum waren und damit schlicht nicht nah genug dran waren an den Entscheidungsprozessen. Gleichzeitig wird das Ideal einer deliberativen Demokratie im Online-Diskurs nicht immer getroffen. Hasserfüllte Diskurse und die Verbreitung von Informationen, die nicht faktisch korrekt sind und aus den unterschiedlichsten Gründen verbreitet werden, sind hier zwei der ganz großen Themen, mit denen wir uns beschäftigen. Claire Wardle von First Draft beschriebt die Veränderungen, die wir dabei erleben als Informationsunordnung und ich finde, dass es dieser Begriff sehr gut erfasst. Wir leben in einer Welt, in der wir sehr viel Zugang zu Informationen haben, aber gleichzeitig auch viel häufiger entscheiden müssen, wie wir diese Informationen bewerten. Das war vielleicht früher ein bisschen leichter.
Kann man sagen, wie gut Menschen mit dieser Informationsunordnung zurechtkommen?
Immer wieder taucht im Zusammenhang der neuen Kommunikationsumwelt der Begriff der „Kommunikationsblase“ auf. Ist das wirklich ein neues Phänomen?
Wäre es im Sinne eines besseren Austauschs nicht sinnvoll für den Journalismus, sich aus bestimmten Kommunikationssphären auch rauszuhalten?
Gibt es Kanäle, die besonders anfällig für Desinformationen und Verschwörungsmythen sind?
Es gibt nur wenige Studien, die Plattformen miteinander vergleichen. Wir arbeiten derzeit an einer Studie, die vermutlich im Januar erscheint, in der wir uns angeschaut haben, wer Hate Speech verbreitet und wo. Die Ergebnisse zeigen, dass Soziale Medien hier schon eine große Rolle spielen, insbesondere Plattformen, die einen Ruf für Hate Speech haben. Wenn ich schlechte Laune habe und schimpfen möchte, dann gehe ich in der realen Welt eher zum Stammtisch oder in die Kneipe und nicht in die Bibliothek und so ähnlich ist es auch im Netz. Derzeit wird beispielsweise viel über Parler diskutiert, eine Free Speech Alternative aus den USA, die explizit sagt, dass bei ihnen gar nichts moderiert wird und alles stehen bleiben darf. Solche Anbieter springen also in die Lücke, die sich auftut, weil andere Plattformen inzwischen klare Regeln gegen Hate Speech haben. Man muss allerdings sagen, dass die Reichweiten dieser Plattformen derzeit noch gering sind.
Der Anteil der hasserfüllten Inhalte dominiert also nicht?
Hat sich durch die Corona-Pandemie im Diskurs etwas verändert?
Dennoch muss man sagen, dass gerade die Leute, die Fakten im Internet überprüfen, also Factchecker, relativ einheitlich sagen, dass die Lage sich verschärft hat und einzelne Fälle sich weltweit verbreiten. Das liegt zum einen daran, dass die Menschen mehr Zeit hatten und zum anderen, dass wir ein Ereignis haben, was Menschen auf der ganzen Welt direkt betrifft. Das haben wir sehr selten. Selbst 9/11 – eines der einschneidenden Erlebnisse meiner Jugend – hat mich nicht direkt und unmittelbar selbst betroffen. Das ist jetzt anders. Jede und jeder von uns hat einen konkret persönlichen Bezug dazu. Ein persönliches Bedürfnis nach Information, Sicherheit und Austausch. Das sind Situationen, in denen eine Vielzahl von Erklärungen und Haltungen auftaucht.
Sie forschen unter anderem zum Thema demokratische Resilienz. Wie kann man diese denn ausbilden?
Es gibt verschiedene Stellschrauben, an denen man ansetzen kann. Zum einen muss man das große Ganze im Blick behalten. Sehr viel Desinformation, Hate Speech und Ahnliches gibt es nicht erst, seitdem es das Internet gibt. Es sind oft Jahrhunderte alte Machtungleichheiten, Angst vor Fremdem, religiöse Vorurteile, die da verbreitet werden. Stellt man sich also die Frage, in welcher Gesellschaft wir leben möchte, dann greift eine Beschränkung auf das Netz zu kurz. Wenn wir das Internet also morgen abschaffen, werden die Probleme nicht weggehen. Trotzdem kann man auf Ebene der Plattformen und der Betreiber einiges tun und da ist Moderation ein großer Faktor. Mit Moderation meine ich nicht nur das Löschen strafrechtlich relevanter Inhalte, sondern eine Moderation auf Augenhöhe mit Wertschätzung des Publikums. Da gibt es klare Belege, dass solche Dinge dazu führen, dass der Diskurs konstruktiver gestaltet wird.
Muss man die Plattformen dazu letztendlich zwingen?
Wir versuchen derzeit im regulatorischen Bereich vielfach Plattformen dazu zu bringen, Inhalte zu löschen. Gleichzeitig sind wir aber nicht sehr präzise darin zu sagen, welche Inhalte genau gelöscht werden sollen. Gerade bei internationalen Plattformkonzernen bin ich mir daher nicht sicher, ob das, was in Deutschland als inzivil oder als Hass gilt, auch in anderen Ländern als Grenzüberschreitung definiert wird. Da brauchen wir eine stärkere Verständigung über Werte und Normen innerhalb der Gesellschaft. Die Verantwortung darf da nicht allein bei den Plattformen liegen. Dabei geht es natürlich nicht um strafrechtliche Inhalte, da gibt es bestehende Gesetze, sondern um die Grauzonen und da brauchen wir einen stärkeren Diskurs darüber. Das Internet ermöglicht es aber mehr Menschen, an dieser Debatte aktiv teilzunehmen, was ja das schöne an einer Demokratie ist.
Es gibt ja bereits erste Bemühungen der Plattformen, aktiv zu werden. Wie bewerten Sie diese?
Die Forschungslage, ob diese Maßnahmen einen Effekt haben, ist noch unklar. Gerade die Frage der Label, also der Kennzeichnung von Inhalten als irreführend, ist nicht so einfach zu bewerten, weil es viele Einflussfaktoren gibt. Die erste Frage ist, ob wir dem Label vertrauen. Die Zweite ist dann, ob das Label dazu führt, dass Fakten, die noch nicht gecheckt wurden und daher kein Label haben, dann vielleicht automatisch als vertrauenswürdiger wahrgenommen werden. Und die dritte Frage ist, wie wir damit umgehen, dass Menschen sehr gut darin sind, ihre Aufmerksamkeit an Dingen vorbeigleiten zu lassen. Der Mensch ist sehr gut darin, Dinge wie etwa Werbung nicht wahrzunehmen und dazu könnte es auch bei den Labeln kommen. Deshalb muss es zusätzlich noch andere Maßnahmen gehen.
Was würden Sie sich denn Wünschen, damit der Diskurs positiver abläuft?
Gleichzeitig wünsche ich mir eine leichtere Zugänglichkeit zu Informationen, die wirklich hilfreich sind im Alltag. Häufig ist es so, dass qualitativ hochwertige Informationen hinter Bezahlschranken versteckt sind. Damit ist es schwieriger, an diese Informationen heranzukommen. Wir müssen uns hier fragen, welche Formen von Wissen, wir wie zugänglich machen wollen. Damit meine ich nicht, dass Journalismus umsonst sein sollte, nur weil Falschinformationen oft kein Geld kosten sind, aber es ist eben eine entscheidende Frage, wer dafür zahlt.