Der braune Algorithmus

Eine Studie von der Universität Hamburg zeigt, wie sich die Funktionsweise von sozialen Netzwerken auf rechtsextreme Organisationen und ihre digitale Propaganda auswirkt

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Die Funktionsweise von sozialen Medien begünstigt rechtsextreme Akteure und Organisationen. Dementsprechend stellt der digitale Rechtsextremismus offene Gesellschaften vor neue Herausforderungen, wie zwei Wissenschaftler vom Institut für Friedensforschung und Sicherheitspolitik an der Universität Hamburg herausgearbeitet haben. Dort forscht man seit März 2017 zu Radikalisierungsprozessen im virtuellen Raum.

Die Analyse (URL wurde korrigiert) von Maik Fielitz und Holger Marcks zeigt, wie die extreme Rechte ihre Dynamik in den Sozialen Medien weniger aus einer klassischen Parteistruktur, sondern aus einer digitalen Hate Culture entwickelt. Eine Kombination aus Hate Culture und Algorithmen bewirkt, dass rechtsextreme Organisationen im Netz nicht einmal besonders geschickt vorgehen müssen, um erfolgreich zu sein.

Von rechtsextremen Akteuren wurde das Internet von Anfang an als Möglichkeit genutzt, um ihre politischen Positionen zu verbreiten. In Foren und Communities bietet sich ihnen eine willkommene Möglichkeit, um mit ihrer Propaganda die breite Öffentlichkeit zu erreichen. Die verwendeten Strategien reichen von der absichtlichen Verstärkung diffuser Ängste über die gezielte Verbreitung manipulativer Falschinformationen bis hin zur Illusion einer gesellschaftlichen Mehrheit durch den Einsatz von Bots und Fake-Accounts.

In der Hamburger Studie werden neben der AfD auch das Netzwerk Reconquista Germanica und die Identitäre Bewegung als Akteure genannt, bei denen entsprechende Techniken beobachtet wurden. So ist die Facebook-Seite der AfD in Darmstadt im Februar 2019 damit aufgefallen, dass sie sich in fingierten Kommentaren für ihre "wirklich guten und mutigen Beiträge" selbst gelobt hat. Offensichtlich wurde vorher vergessen, das Profil zu wechseln und einen Fake-Account für den Kommentar zu verwenden. Die Identitäre Bewegung wiederum ermutigt ihre Aktivisten, in Onlinediskussionen Streit zu provozieren und ihre Gegenüber mit zahllosen Kommentaren und Memes zu konfrontieren. So kann eine relativ kleine Anzahl sehr aktiver Accounts eine immense Außenwirkung entwickeln und damit die öffentliche Wahrnehmung verzerren.

Techniken des Mikromanagements

Der technische Rahmen beeinflusst auch den internen Aufbau von rechten Organisationen und Parteien. Der Rechtsextremismus habe sich zum Teil an die Digitalisierung angepasst, zum Teil habe die Digitalisierung den Rechtsextremismus verändert, meint dazu Holger Marcks. "Wir haben es beim digitalen Faschismus mit einer neuen Dynamik zu tun, die nicht mehr einem klaren organisatorischen Zentrum zugeordnet werden kann, wie das früher bei rechtsextremen Bewegungen der Fall war", beschreibt der Sozialwissenschaftler die Entwicklung der vergangenen Jahre.

Natürlich gebe es auch im digitalen Rechtsextremismus weiterhin zentrale Führungspersonen und auch Parteistrukturen, die auf diesen Prozess einwirken. "Deren Aufgabe ist es weniger, eine organisierte Masse zu dirigieren, als die richtigen emotionalen Knöpfe in den sozialen Medien zu drücken, damit unbedarfte User rechtsextreme Inhalte reproduzieren und unbewusst Teil der faschistischen Dynamik werden." Die Führungspersonen von Parteien wie der AfD und Organisationen wie der Identitären Bewegung koordinieren dementsprechend nicht mehr den Prozess in der Breite. Vielmehr wirken sie durch Techniken des Mikromanagements auf gesellschaftliche Debatten ein und lenken sie damit nach rechts.

Wechselwirkung aus manipulativen Kommunikationstechniken und Algorithmen

Gerade der fließende Übergang von politischen Aktivisten und anderen Diskussionsteilnehmern erhöht das Mobilisierungspotential. Online verschwimmen die Grenzen zwischen politischer Meinungsäußerung und Propaganda, wodurch die Hemmschwelle für die aktive Beteiligung an rechtsextremer Politik sinkt.

Die demokratische und offene Zivilgesellschaft hat einer solchen Wechselwirkung aus manipulativen Kommunikationstechniken und Algorithmen wenig entgegenzusetzen, um das Machtgefälle im digitalen Raum auszugleichen. Schon seit einigen Jahren gibt es Projekte wie debate//de:hate von der Amadeu Antonio Stiftung oder das No Hate Speech Movement, die sich darum bemühen, eine demokratische Debattenkultur im Internet zu stärken.

Die Wirksamkeit von derlei "Digital Streetwork" lässt sich empirisch jedoch nur schwer nachweisen, die Experten von der Universität Hamburg befürchten sogar, dass sie zuweilen kontraproduktiv wirken könnte. Gegenrede führe nicht selten dazu, dass sich rechtsextreme Akteure in ihren Positionen gestärkt fühlen und sie sich gegen liberale Argumente weiter immunisieren. Außerdem nutzten diese Akteure den Widerspruch, um ihre emotionalisierenden Inhalte anbringen zu können. Dementsprechend empfiehlt Holger Marcks, stärker die strukturellen Bedingungen in den Blick zu nehmen, unter denen der Rechtsextremismus in den digitalen Sphären gedeiht.

Auf der Suche nach neuen Räumen

Schon länger wird Technikunternehmen wie Facebook und Twitter vorgeworfen, zu wenig gegen rechte Hetze in ihren Reihen zu unternehmen. Prominentes Beispiel dafür ist der Künstler und Satiriker Shahak Shapira, der im Sommer 2017 etwa 300 Hassbotschaften vor die Zentrale von Twitter Deutschland sprühte, die der Konzern vorher trotz einer Meldung Shapiras nicht gelöscht hat.

Seit dem rassistischen Terroranschlag in Christchurch (Neuseeland) am 15. März 2019, der vom Täter live auf Facebook übertragen wurde, und einem darauf folgenden Gipfeltreffen in Paris wollen Internetkonzerne jedoch aktiver gegen extremistische Inhalte vorgehen. In einer gemeinsamen Erklärung verpflichten sich neun Internetkonzerne, unter anderem Facebook, YouTube und Twitter, aber auch Microsoft, Amazon und Google dazu, "transparente und zielgerichtete Maßnahmen zu ergreifen, um das Hochladen von terroristischen und gewalttätigen extremistischen Inhalten zu vermeiden".

Hinsichtlich der Zusammenarbeit mit Sicherheitsbehörden verweist eine Sprecherin von Facebook auf ein eigenes Team, das weitestgehend aus ehemaligen Mitarbeitern von Strafverfolgungsbehörden besteht: "Aufgabe dieses Teams ist es, Anfragen von Strafverfolgungsbehörden zu beantworten. Mitarbeiter der Strafverfolgungsbehörden können das Online-Anfragesystem nutzen, um Anfragen 24/7 einzureichen, nachzuverfolgen und zu bearbeiten." Auch der Prozentsatz von Verstößen gegen die Gemeinschaftsstandards, die von Facebook selbst entdeckt wurden, stieg laut einem Community Standards Enforcement Report des Unternehmens von 24 % im letzten Quartal 2017 über 51,5 % im dritten Quartal 2018 auf 65,4 % im ersten Quartal 2019 an.

Reicht Filtern und Löschen?

Seitdem die großen Netzwerke begonnen haben, ihre Community Standards konsequenter durchzusetzen, sind digitale Rechtsextremisten auf der Suche nach neuen Rückzugsräumen. In der rechten Szene wird es immer populärer, sich Alternativen zu den gängigen sozialen Medien aufzubauen.

Ein Beispiel dafür ist die Plattform ThinkSpot, die von Jordan Peterson gegründet wurde. Der kanadische Psychologieprofessor ist ein wichtiger Vordenker der US-amerikanischen Alt-Right-Bewegung, er selbst sieht sich als Kämpfer gegen politische Korrektheit. Dementsprechend wirbt ThinkSpot, das sich aktuell noch in der Testphase befindet, explizit damit, frei von Zensur zu sein.

Dieses Versprechen teilt ThinkSpot mit ähnlichen Projekten in Deutschland wie der Videoplattform frei³ oder einer "Plattform für patriotische Videos ohne Zensur" auf russischen Servern, die der PEGIDA-Aktivist Lutz Bachmann vor wenigen Tagen angekündigt hat. Die Nutzer empfinden derlei Netzwerke wohl als einen digitalen Raum, in dem sie ungestört ihre Hetze miteinander teilen können. Es ist zu befürchten, dass sie sich dort weiter radikalisieren werden. Aufgabe des Staates und der Zivilgesellschaft wird es sein, diese Entwicklung im Blick zu behalten und regulierend einzugreifen.

Die bisher gängigen Maßnahmen zielen alle darauf ab, den Content der Sozialen Netzwerke zu filtern und problematische Inhalte zu entfernen. Dabei macht die Hamburger Studie deutlich, dass in der Auseinandersetzung mit rechtsextremistischer Propaganda im Internet weitere Instrumente notwendig sind, um das bestehende Machtgefälle auszugleichen.

Die Vertreter einer offenen Gesellschaft können nicht auf die gleichen manipulativen Techniken zurückgreifen wie rechtsextreme Akteure, ohne sich dabei selbst unglaubwürdig zu machen. Um eine Ausbreitung menschenfeindlicher Positionen zu verhindern, müssten Gesellschaft und Politik beschränkend auf jene Strukturen im Internet einwirken, die intolerante Positionen begünstigen.

Schon in den letzten Jahren wurden intensive Debatten um die Frage von staatlichen Regulierungen des Internets geführt. Beispiel hierfür sind die Demonstrationen gegen die umstrittene Reform des Urheberrechts, die im März von der Europäischen Union beschlossen wurde, oder die Auseinandersetzung um eine Klarnamenpflicht in den Sozialen Medien. Im Spannungsfeld von individuellen Freiheiten im Internet und einem effektiveren Vorgehen gegen rechtsextreme Inhalte, könnten vergleichbare Diskussionen erneut zunehmen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Inhalt geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.