Wie beeinflussen Algorithmen unseren Informationskonsum im Netz? Die exakten Abläufe hinter dem Aufbau von Social-Media-Feeds und Co bleiben der Wissenschaft zumeist verschlossen. Cornelia Sindermann will sich dem Thema deshalb in einer Studie mit einem neuen methodischen Ansatz nähern und vor allem auch die Rolle des Menschen in dieser Interaktion untersuchen.
Filter-Blackbox soziale Medien
Frau Sindermann, Sie führen gerade eine große Onlineumfrage unter dem Titel „Gesellschaftliche und politische Einstellungen im Wahljahr 2021“ durch, für die Sie auch noch Teilnehmende suchen. Worum geht es dabei genau?
In der Studie schauen wir uns an, ob und inwieweit der Medienkonsum Meinungen von Menschen beeinflussen könnte. Dabei liegt ein Augenmerk auf dem potenziellen Einfluss von Inhaltsvorschlägen. Diese Vorschläge bekommt man im Internet in sozialen Medien, aber auch auf sogenannten News Aggregators oder Portalen wie Netflix und Spotify. Im Prinzip findet auf diesen Plattformen eine individuelle Vorfilterung von Informationen für jede*n Nutzer*in statt. Die Filterung wird dabei durch Algorithmen gesteuert. Diese Algorithmen werden gespeist mit Informationen über das Nutzungsverhalten aller Nutzer*innen im Netz. Das sind Daten dazu, auf welchen Webseiten man unterwegs ist, mit wem man befreundet ist oder Kontakt hat, welche Bilder man anschaut, was man einkauft und so fort. Da wird alles Mögliche über uns gesammelt. Aus diesen Daten entstehen dann wiederum individuelle Profile über alle Nutzer*innen. Aus diesen Profilen können Algorithmen lernen, was jedem*r Nutzer*in potenziell gefällt. Und genau das wird uns dann gezeigt: Das können Filme auf Netflix, Lieder auf Spotify, aber eben auch bestimmte Nachrichten und Informationen sein, beispielsweise auf sozialen Medien oder bei News Aggregators. Eine solche Filterung kann man durchaus kritisch sehen, wenn es zum Beispiel um politische Nachrichten geht.
Was ist problematisch an diesen Vorschlägen, wenn es um Informationen geht?
Das Problem ist, dass man durch diese Algorithmen in eine immer einseitigere Informationsumwelt geraten kann und dass das Ansichten, zum Beispiel in Bezug auf Politik, beeinflussen kann. Menschen werden durch Algorithmen im schlimmsten Fall gezwungen, sich im Netz, etwa in sozialen Medien, sehr einseitig zu informieren. Das kann problematisch sein: Studien1 zeigen, dass sich Meinungen extremisieren können, wenn man mit anderen Menschen zusammen ist, die die gleichen Ansichten haben oder man sich insgesamt in einer Umgebung befinden, in der man nur Informationen bekommt, die den eigenen Ansichten entsprechen. Das wird zum einen dadurch erklärt, dass der Mensch dazu tendiert, mit populären Ansichten der Gruppe übereinzustimmen, um selbst die Zustimmung von anderen Gruppenmitgliedern zu erhalten. Darüber hinaus stellt sich manch eine*r gerne in den Vordergrund, indem er*sie noch extremere Meinungen vertritt. Das hat dann wieder Einfluss auf die Meinungen in der Gruppe und es kommt zu einer Verstärkung dieses Effekts. Zuletzt ist die Bandbreite der Argumente in einer homogenen Gruppe natürlich von vornherein eingeschränkt. Durch die fehlende Auseinandersetzung mit anderen Positionen kommt es weiterhin zu einer geringeren Toleranz bezüglich anderer Ansichten.
Was bedeutet dieses von Algorithmen gesteuerte Informationsumfeld für die persönliche Entscheidungsfindung?
Dazu gibt es nur begrenzt Studien, die das umfassend beschreiben. Bleiben wir also beim Beispiel sozialer Medien. Diese werden – übertrieben gesagt – oft als größtes Übel dargestellt, wenn es um diese algorithmische Filterung geht. Das liegt zum Beispiel daran, dass soziale Medien gerade von jüngeren Menschen viel und manchmal sogar ausschließlich genutzt werden, um sich über Nachrichten zu informieren. Damit stellen sie ein wichtiges Medium für die Informiertheit vieler Bürger*innen dar. Zudem darf man eins auf keinen Fall vergessen: Menschen sind wahnsinnig gut darin, selbstständig Informationen zu filtern. Das beginnt schon damit, welche Zeitungen oder Radiosender man auswählt.
Die sozialen Medien sind also eine Filter-Blackbox?
Genau. Seit etwa 2016 gibt zum Beispiel Facebook quasi keine Daten mehr an Wissenschaftler*innen heraus und auch viele andere Plattformen arbeiten kaum mit uns zusammen. Außerdem gibt keine Plattform Informationen zu ihren Algorithmen selbst heraus, weil das ganz klar Geschäftsgeheimnisse sind. Das führt vor allem dazu, dass wir aus wissenschaftlicher Sicht kaum Aussagen darüber treffen können, welche Auswirkungen die Filterung auf bestimmten Plattformen für die Informationsbeschaffung der Nutzer*innen wirklich hat und wie dies wiederum mit der Meinungsbildung zusammenhängt.
Was bedeutet das aus Sicht von Kommunikator*innen für deren Strategien in sozialen Medien?
Spannend fand ich die Debatte um den Start der Tagesschau auf Tiktok. Da wurde unter anderem kritisiert, dass das doch kein Kanal für diese Redaktion sei. Diese hat wiederum argumentiert, dass die Plattform sehr beliebt ist, dort aber klassische Nachrichtenjournale noch kaum präsent sind. Ich halte das durchaus für einen sinnvollen Ansatz: Wenn sich Redaktionen oder auch gesellschaftliche Institutionen aus den sozialen Medien zurückziehen, wird die Informationssituation dort nicht besser, sondern erhalten im Gegenteil Kanäle und Personen mit ganz anderen Agenden noch mehr Aufmerksamkeit.
Was weiß man denn über das Informationsverhalten der Nutzer*innen in sozialen Medien?
Was bedeuten diese Mechanismen für die persönliche Entscheidungsfindung?
Das betrifft aber auch Menschen, die dem Thema Impfen grundsätzlich eher positiv gegenüberstehen. Diese Gruppe erhält auf die gleiche Weise durch Filterungsprozesse eher positive Informationen über die Corona-Impfung und/oder kann durch andere Personen und deren Meinungen beeinflusst werden. Darum ist es grundsätzlich empfehlenswert, sich eben nicht nur über soziale Medien zu informieren, sondern sich insgesamt möglichst breit über wichtige Themen zu informieren.
Wo setzen Sie mit Ihrer Studie genau an, um diese Effekte weiter zu untersuchen?
Das Modell der Filterblase ist nicht unumstritten. Wie definieren Sie den Begriff für Ihre Forschung?
Wie gehen Sie methodisch vor?
Wir führen eine recht umfangreiche Onlineumfrage durch, in der die Teilnehmenden Informationen zu ihrer Persönlichkeit und ihren demographischen Variablen sowie zu ihren politischen Ansichten preisgeben sollen. Gleichzeitig fragen wir auch nach ihrem Vertrauen in verschiedene Medien, ihrem Nachrichtenkonsum und wie häufig sie sich auf verschiedenen Plattformen mit unterschiedlichen Ansichten auseinandersetzen oder konfrontiert sehen. Wer will kann uns außerdem noch den eigenen Twitter-Account nennen, damit wir auch objektiv Daten, zumindest zum Nachrichtenkonsum über Twitter, erfassen können.
Was sind Ihre nächsten Schritte?
Die Onlinebefragung läuft noch mindestens den Februar über und da hoffen wir natürlich auf möglichst viele Teilnehmer*innen, um eine robuste Datenlage zu erhalten. Wer möchte kann auch die E-Mail-Adresse hinterlassen und wir schicken bis nach der Bundestagswahl monatlich einen weiteren Link zu einer kurzen Umfrage, um die Entwicklung der Entscheidungsfindung bezüglich der Wahl zu erfassen. So haben wir am Ende hoffentlich einen Längsschnitt, mit dem wir wirklich Aussagen über Kausalitäten treffen können – also etwa: Hatte die Meinung eher einen Einfluss auf den Medienkonsum oder hat hingegen der Medienkonsum die Meinung beeinflusst? Wie ist hier die Wechselwirkung? Das möchten wir herausfinden.