Soziale Medien: Radikalisiert Youtube-Algorithmus die Nutzer?
Youtube schlägt neue Videos vor, wenn eins angeschaut wurde. Gelangen Nutzer so auch zu extremistischen Inhalten? Was eine aktuelle Studie dazu sagt.
Soziale Netzwerke stehen seit Jahren im Ruf, ihre Nutzer zu radikalisieren und die Gesellschaft zu spalten. Die Algorithmen, mit denen sie Videos oder Nachrichten vorschlagen, sollen die Nutzer zunehmend, aber unmerklich an extreme Inhalte heranführen.
In der Wissenschaft wird dies als Rabbit-Hole-Effekt bezeichnet und ist an das Kinderbuch Alice im Wunderland" angelehnt. Dort folgt die Protagonistin einem weißen Kaninchen und gelangt durch dessen Bau in eine andere Welt. In ähnlicher Weise, so der Verdacht, könnten soziale Netzwerke aus normalen Bürgern politische Extremisten machen.
Seit Jahren untersuchen Wissenschaftler den Algorithmus der Videoplattform Youtube, der den Nutzern neue Videos vorschlägt. Sie fragten sich, ob es sich dabei um eine Radikalisierungsmaschine handelt.
In den vergangenen Jahren tendierten Forscher bereits dazu, diese Frage zu verneinen – ein schlüssiger Beweis fehlte jedoch. Eine aktuelle Studie, die in der Fachzeitschrift Science Advances veröffentlicht wurde, scheint diesen nun erbracht zu haben.
Die Studienautoren werteten die Browserdaten ihrer Probanden von Juli bis Dezember 2020 aus. Dabei stellten sie fest, dass nur eine kleine Gruppe Videos von Youtube-Kanälen ansah, die als alternativ oder extremistisch eingestuft wurden. Und bei dieser Gruppe handelte es sich um Personen, die bereits eine höhere Neigung zu Sexismus und Rassismus aufwiesen.
Der überwiegende Teil der Nutzer hat sich also noch nie solche Videos angesehen. Nur 15,4 Prozent hätten sich in den sechs Monaten mindestens ein Video auf alternativen Kanälen angesehen. Ebenfalls nur 6,1 Prozent sahen in diesem Zeitraum mindestens ein Video auf einem extremistischen Kanal.
Wer einen solchen alternativen Kanal abonniert hatte, sah sich solche Videos im Schnitt 62,2 Minuten pro Woche an. Bei den Nutzern ohne Abonnement waren es nur 0,2 Minuten. Wer einen extremistischen Kanal abonniert hatte, sah sich im Schnitt 14,6 Minuten entsprechende Videos an. Nutzer ohne Abonnement verweilten nur 0,04 Minuten.
Die Forscher untersuchten auch, wie die Nutzer zu den einzelnen Videos gekommen sind. Die meisten kamen von anderen YouTube-Videos. Personen, die von als "Mainstream" eingestuften sozialen Medien kamen, landeten eher auf alternativen Kanälen, Nutzer von "alternativen" sozialen Medien häufiger auf extremistischen Kanälen.
Empfehlungen auf YouTube-Videos erreichten jedoch nur selten Personen, die sich zuvor nicht mit Videos aus diesen Bereichen beschäftigt hatten: Nur drei Prozent der Testpersonen folgten in den untersuchten Monaten einem Link zu einem Video eines als alternativ oder extremistisch eingestuften Kanals, ohne vorher einen anderen alternativen oder extremistischen Kanal abonniert zu haben.
Josephine Schmitt vom Center for Advanced Internet Studies (CAIS) in Bochum, sieht einen Teil der Rabbit-Hole-Forschung damit als erwiesen an. Es besteht ihrer Ansicht nach die Möglichkeit, dass Nutzer zu extremen Inhalten geleitet werden – auch wenn es sich nur um einen Bruchteil aller Nutzer handelt.
Die Bedeutung der Algorithmen dürfe aber auch nicht überbewertet werden, so Schmitt. Sie sagte weiter:
Zuweilen wird die Bedeutung von Algorithmen und sozialen Medien im Rahmen von Radikalisierungsprozessen überschätzt, indem auf eine differenzierte Darstellung wissenschaftlicher Befunde verzichtet wird. Diese sind nämlich bei eingehender Betrachtung selten so eindeutig, wie es die öffentliche Debatte manchmal suggeriert. Viel wichtiger scheinen im Rahmen von Radikalisierungsprozessen persönliche Beziehungen zu sein.
Fabian Prochazka, Professor für Kommunikationswissenschaft an der Universität Erfurt, sieht in der Studie hingegen einen weiteren Sargnagel für die These, dass Algorithmen die Nutzer radikaler machen. "Nicht die Algorithmen ziehen Menschen zu extremen Inhalten im Netz, sondern extremistisch eingestellte Menschen suchen sich selbst solche Inhalte." Plattformen wie Youtube seien aber das ideale Ökosystem, um sich mit solchen Inhalten zu versorgen.
Die Frage ist, ob sich die Ergebnisse der Studie verallgemeinern lassen. Sabrina Heike Kessler, Kommunikationswissenschaftlerin an der Universität Zürich, hat da ihre Zweifel. Da die Probanden aus den USA stammten, seien die Ergebnisse nur für die US-Bevölkerung verallgemeinerbar. Zu berücksichtigen sei, dass es "kulturelle und strukturelle Variationen in der Nutzung von Youtube zwischen Ländern und Mediensystemen" gebe.
Insofern gibt es weiteren Forschungsbedarf zu den Algorithmen von sozialen Netzwerken. Auch wenn nur wenige Nutzer sich extremistische Inhalte anschauen, sollte man sie nicht vernachlässigen. Im Experiment schauten sich nur sechs Prozent solche Videos an.
Aber sechs Prozent von allen Nutzern ist dennoch eine beachtliche Menge, erklärte Curd Knüpfer, Professor für Politikwissenschaften an der Freien Universität Berlin. Und oft seien solche Minderheiten politisch aktiver und engagierter als der Durchschnitt. Deshalb müsse die Gesellschaft auch weiterhin erörtern, ob "wilde Verschwörungstheorien oder menschenfeindliche Inhalte" öffentlich zugänglich sein sollten.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.