Jeder filtert für sich allein

Warum die Filterblase eine Mär ist - erklärt von Facebook-Forschern

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Welches Ergebnis Google bei einer Suchanfrage ausgibt, hängt nicht nur vom Stichwort ab: Wenn der Nutzer einverstanden ist, versucht der Dienst, anhand der persönlichen Historie möglichst relevante Fundstellen aufzulisten. Welche Artikel, Fotos oder Videos einem Facebook-Nutzer angezeigt werden, bestimmen ebenso schlaue Algorithmen. Sie bewerten unter anderem, worauf Freunde des Users geklickt haben und womit er selbst regelmäßig interagiert.

Das Ergebnis, befürchten Kritiker, könnte eine Filterblase sein - ein Begriff, der wesentlich auf den US-Autor Eli Pariser zurückgeht. 2011 beschrieb er in seinem Buch "The Filter Bubble" die Gefahr, dass Algorithmen den Menschen im Netz entmündigen könnten.

Lesen wir in Zukunft nur noch, was nach Meinung der Maschinen zu unserer eigenen Auffassung passt? Nicht weniger verstörend ist die Vorstellung einer "Echokammer": Könnten die intransparenten Algorithmen dazu führen, dass wir nur noch Informationen zu sehen bekommen, die unserer eigenen Meinung zustimmen?

Ganz ohne Hilfe der Maschinen

Die Schreckensvision scheint in der Wirklichkeit noch nicht angekommen - oder ist vielleicht auch dank der weltweiten Aufmerksamkeit für Parisers Buch vermieden worden. Tatsächlich, das zeigt eine Forschungsarbeit im renommierten Wissenschaftsmagazin Science, konstruieren sich die meisten Menschen jedweder Ideologie ihre eigene Filterblase selbst, ganz ohne Hilfe der Maschinen.

Die Autoren des Artikels, Eytan Bakshy, Jodi Seth und William Nevius (alle drei bei Facebook angestellt), haben anhand anonymisierter Daten untersucht, wie rund zehn Millionen Facebook-Nutzer in den USA mit über soziale Medien (aka Facebook) geteilten Nachrichten interagieren.

Dazu klassifizierten sie zunächst Nutzer (anhand öffentlicher Daten in deren Profilen) und geteilte Nachrichten (nach ihrer Quelle) als entweder liberal oder konservativ. Interessante erste Feststellung: Beide Nutzergruppen teilten auch Artikel mit gegensätzlichem Profil - liberale Nutzer jedoch deutlich seltener als konservative. Zudem sind liberale Nutzer seltener mit Freunden gegenteiliger Meinung verbunden.

Was ein Facebook-Nutzer in seinem Newsstream lesen kann, hängt allerdings nicht nur davon ab, was seine Freunde mit ihm teilen. Algorithmen versuchen, Relevanz und Gewohnheiten zu beurteilen - etwa danach, wie oft ein Nutzer die geteilte Website schon besucht hat. Dies hat auf den Anteil dem eigenen Weltbild widersprechender Nachrichten im Stream überraschend wenig Einfluss: Bei den Konservativen verringerte sich der Anteil um 5 Prozent, bei den Liberalen um 8 Prozent.

Was ein Facebook-Nutzer am Ende wirklich davon liest, entscheidet allerdings erst der Mausklick oder Fingertipp auf die Headline. Und hier sind die Ergebnisse eindeutig: Nur jeder sechste Konservative und sogar nur jeder 17. Liberale klickten demnach auf eine Nachricht aus der falschen Ecke. Nicht die Algorithmen, sondern die bewusste Entscheidung des Menschen führen zum Entstehen eines Filterblasen- oder Echokammer-Effekts. Der Algorithmus, der verhindert, dass wir von widersprüchlichen Informationen beeinflusst werden, sitzt in unserem eigenen Kopf, nicht im Computer.

Die Erhaltungskraft von Gerüchten

Wie sehr der Mensch sich selbst vor gegenteiligen Meinungen schützt, hatten zuletzt deutsche Forscher in PNAS vorgeführt (Prinzip "Stille Post" oder warum Diskussionen mit Impfgegnern sinnlos sind). Durch den Prozess der Informationsweitergabe in sozialen Netzwerken verändert sich, wie die Wissenschaftler bemerkten, die Risikowahrnehmung der Teilnehmer - und zwar mit der Tendenz, den zur eigenen Meinung passenden Aspekt einer Botschaft zu verstärken und gegenteilige Informationen zu ignorieren.

Im British Journal of Political Science zeigt der MIT-Professor Adam Berinsky diesen Effekt nun speziell für Gerüchte. Der Forscher befragte Wähler, ob sie einem bestimmten, die US-Gesundheitspolitik betreffenden Gerücht Glauben schenken.

Danach präsentierte er den Probanden Erklärungen, die das Gerücht als falsch entlarvten, und die angeblich entweder von den US-Republikanern oder den Demokraten verfasst worden waren. Tatsächlich glaubte anschließend ein signifikant geringerer Teil der Befragten, dass die Falschinformation wahr sei.

Gleichzeitig jedoch hatte sich auch die Zustimmungsrate zu dem Gerücht erhöht (der Anteil unentschiedener Probanden war deutlich gesunken). Interessant dabei: die angeblich "republikanische" Richtigstellung wirkte deutlich stärker als die "demokratische" - und zwar in beide Richtungen.

Allein die zur Korrektur nötige Wiederholung eines Gerüchts, so Berinsky, sei offenbar geeignet, die Meinungen der Menschen darüber in die eine oder andere Richtung zu verstärken. Der gut gemeinte Versuch, Aufklärung zu betreiben, ist wohl auch deshalb meist zum Scheitern verurteilt.