zurück zum Artikel

Wann ist ein Bann gerechtfertigt?

Deplatforming und eine Charta der digitalen Redefreiheit (Teil 2 und Schluss)

Die im ersten Teil [1] erwähnten Beispiele belegen, dass die rechtliche Grauzone bereits heute unter verschiedenen Szenarien dazu einlädt, eine digitale Totalzensur einzurichten.

Im Falle des Attentäter-Videos und MAGA-Coups haben die Internet-Provider ohne rechtlichen Zwang Maßnahmen ergriffen, die vermutlich auf Basis bestehenden Rechts ohnehin von einem Richter angeordnet worden wären. Die Gefahr eines Nachahmer-Effekts beim Terroranschlag kann als gewichtiges Argument angeführt werden, im Falle des Attentäters von Christchurch eine so harte Maßnahme zu ergreifen. Im Falle der jüngsten Maßnahmen gegen die Rädelsführer und Fußsoldaten des MAGA-Sturms auf das Kapitol könnte man ebenfalls die öffentliche Sicherheit als Grund anführen.

Aber der vorauseilende Gehorsam macht viele Netzaktivisten nervös. Es ist heute kein absurder Gedanke, dass die nächste Regierung oder der nächste CEO eines großen Tech-Unternehmens autoritäre Tendenzen hat. Die digitale Zensur könnte dann schnell zu einem Mittel des Machterhalts werden, der an das chinesische Modell [2] erinnert. Selbst in rechtsstaatlichen Strukturen haben Maßnahmen, welche in die Grundrechte der Bürger eingreifen, eine Tendenz schleichend ausgeweitet zu werden (siehe das Beispiel der Telefonüberwachung [3]).

Manche Kritiker könnten vermuten, dass heute Terror-Propaganda unterbunden wird, morgen politisch Andersdenkende marginalisiert (und in der Tat ist das aktuell der Vorwurf vieler US-Republikaner, der unter dem Hashtag #liberalbias Echo findet), dann Banns und Blockaden aufgrund von Urheberrechtsverstößen vorgenommen werden (siehe die Gema) oder zur Unterdrückung regierungskritische Stimmen (man denke an die Querdenker-Bewegung - und auch hier gibt es erste Beispiele [4], wie ein solcher Block begründet werden könnte).

Megaphon oder Flüsterpost: die Bedeutung der algorithmischen Reichweite

Doch das reine Vorhandensein einer bestimmten Botschaft oder eines bestimmten Akteurs auf einem Netzwerk ist nicht die einzig relevante Frage. Es geht auch um die Amplifizierung der Botschaften. Dabei spielen zwei Faktoren eine Rolle:

  1. Das Angebot des Netzwerkes, also die Frage, wie bereitwillig es Posts anbietet.
  2. Die Möglichkeit des einfachen und kostenfreien Zugriffs.

Wie oben erwähnt, könnte sich jeder von Twitter Verbannte ein eigenes digitales Angebot aufbauen, müsste aber die Kosten dafür selbst tragen. Wer also eine Twitter-Alternative kreiert, muss den Anwendern möglicherweise eine Nutzungsgebühr abverlangen. Gleichzeitig ist es nicht trivial, ein gut funktionierendes, auf Bedienerfreundlichkeit ausgelegtes Netzwerk zu schaffen.

Wenn sich die Anhänger des US-Präsidenten also über den Twitter-Bann ihres Idols beschweren, dann beklagen sie in erster Linie, dass sie seine Botschaften nicht mehr mit der gleichen Bequemlichkeit empfangen können. Denn über offizielle Kanäle und klassische Medien (oft und gerade auch politisch nahestehende wie OANN) ist er weiterhin deutlich zu hören.

Doch es ist vor allem das Angebot der Netzwerke, der Sozial-, Politik- und Medienwissenschaftlern Kopfzerbrechen bereitet. Viele Entwicklungen der letzten Jahre, welche die Polarisierung innerhalb der Gesellschaft befeuern - vom Aufstieg der Impfgegner-Bewegung und anderer Verschwörungstheorien über die zunehmende Gewaltbereitschaft - können auf den Einfluss der sozialen Medien zurückgeführt werden. Immer öfter heißt es bei der Aufarbeitung von Anschlägen und Attentaten, der Täter habe sich selbst im Internet radikalisiert [5].

Doch Untersuchungen zeigen: es ist keinerseits nur der freie Wille des Einzelnen, der eine Radikalisierung herbeiführt. Die Algorithmen der Plattformen spielen eine erhebliche Rolle [6]. Sie sind darauf ausgelegt, den Nutzer anzuregen, um so seinen weiteren Konsum von Inhalten zu sichern. Dabei wirken die gleichen Auslöser, die dem Menschen in der prähistorischen Vergangenheit gut gedient haben.

Einer davon ist die Angst. Nichts erregt so sehr wie die Befürchtung von Unheil, und nichts motiviert so stark dazu, aktiv zu werden, wie die Notwendigkeit, Schaden abzuwenden. Ebenso effektiv sind die Wut und die Empörung. Verschwörungstheorien [7] sprechen diese drei emotionalen Spielarten in perfekter Weise an: sie stiften Verunsicherung und schildern eine schwer zu fassende Bedrohung, motivieren so dazu, Erklärungen zu suchen und liefern diese gleich mit - meist gekoppelt mit einem Aufruf zur Empörung und konkreten Vorschlägen, den Missstand zu beheben.

Attila Hildmanns Fieberträume [8] satanischer Kulte im Pergamon-Museum und die "Stop the Steal"-Bewegung in den USA haben den gleichen Motor: eine Verschwörungstheorie, die komplexe Zusammenhänge in einfach zu verstehende Konzepte packt und den Anhängern das Gefühl der Handlungsfähigkeit gibt.

Es versteht sich von selbst, dass dieses Rezept von Angst und Ermächtigung einen nicht zu überbietenden Anstoß zum Konsum der entsprechenden sozial medialen Inhalte gibt. Facebook, Twitter et al. profitieren davon direkt und unmittelbar. Lange Zeit haben ihre Algorithmen die Eskalation der Verschwörungstheorien befördert [9], indem sie Nutzern nach einem Video, einem Post gleich den nächsten, ähnlichen empfahlen.

Eine junge Mutter, die sich über die anstehenden Impfungen ihres Kindes informieren wollte, wurde erst mit den aufmerksamkeitsstarken Videos der Anti-Vaxxer konfrontiert, und dann in Folge mit einer Verschwörungstheorie nach der anderen. So kommt es, dass sich etwa in der Querdenker-Bewegung Menschen höchst unterschiedlicher Ideologien wiederfinden. Viele von ihnen wurden über die Vorschlags-Algorithmen zusammen gebracht und radikalisiert [10].

Viele Akteure haben sich diese Mechanik zunutze gemacht. So verfolgt der Propaganda-Kanal RT offenbar eine Taktik, " ...Videos von Tsunamis, Meteoriteneinschlägen in Gebäuden, Haifischattacken, Unfällen in Freizeitparks... [11]" einzusetzen, um Reichweite über algorithmische Empfehlungen zu generieren. Mit Erfolg - über 7 Milliarden gesehener Videos sind eine Reichweite, welche die herkömmlicher Medien übertrifft.

Die "Big Five" der Tech-Branche haben diese Problematik inzwischen erkennt. Facebook gibt zu, dass rund zwei Drittel aller neuen Teilnehmer extremer Facebook-Gruppen [12] durch seinen Vorschlags-Algorithmus dorthin gelangt sind. Youtube schätzt, dass 70 Prozent [13] aller Videos auf eine Empfehlung hin aufgerufen werden. Google reagiert inzwischen schnell [14] auf Hinweise, wenn die (von den Suchen der Anwender getriebenen) Vorschläge bei seiner Suchmaschine eine gefährliche Wendung nehmen, und greift manuell ein.

Blocken, Bannen und Deplatforming ist nicht genug

Doch diese Maßnahmen, ähnlich wie die Löschung von Accounts und Gruppen als Reaktion auf die Ausschreitungen in Washington, sind nur eine kosmetische Maßnahme. Das Grundproblem liegt darin, dass der zentrale Mechanismus, welcher der Radikalisierung und Verbreitung von Desinformation in den sozialen Medien zugrunde liegt, untrennbar mit ihrem Geschäftsmodell verbunden ist.

Sie leben von der Aufmerksamkeit, die der Anwender den Inhalten schenkt, und haben ihr Produkt darauf ausgerichtet, möglichst effektiv dessen emotionalen Trigger anzustoßen, um ihn bei der Stange zu halten.

Je mehr Inhalte er konsumiert, desto mehr Geld verdienen die Big Five über Anzeigen und mit dem Verkauf seiner Daten. Dazu verwenden Facebook et al. algorithmische Auswahlprozesse, welche die größte Stimulierung des Nutzers auslösen sollen: Angst, Empörung auf der einen Seite, und Trotz und das Gefühl der Handlungsfähigkeit angesichts komplexer Probleme auf der anderen Seite. Die Folgen sind unvermeidlich: Radikalisierung und Polarisierung.

Der Autor und Geschäftsmann Roger McNamee bringt diese Entwicklung auf den Punkt1 [15]:

Die Internetplattformen sind so groß, dass ihre Fehler die Demokratie, die öffentliche Gesundheit und die öffentliche Sicherheit [...] untergraben können. [...] Sie haben ihren eigenen Profiten und Vorrechten Vorrang vor der Demokratie, der öffentlichen Gesundheit und Sicherheit der Menschen [...] eingeräumt. [...] [und] die Entwicklung eines räuberischen Ökosystems gefördert, bei dem Plattformen, Nutzer und Politiker gleichermaßen am Betrug beteiligt sind.

Es mag richtig gewesen sein, die Verbreitung des Christchurch-Videos selbst mit extremen Maßnahmen zu verhindern, um Leben zu retten. Ähnliches könnte man auch von den Blockaden der QAnon- und Maga-Anhänger in Folge der Unruhen in den USA behaupten. Doch es behebt das Problem nicht. Die sozialen Netzwerke müssten dazu ihr fundamentales Geschäftsmodell aufgeben, um die Entwicklung zu stoppen.

Die Anwender und ihre gewählten Vertreter in den Regierungen müssen ihrerseits eine Charta der digitalen Redefreiheit einfordern, welche die Rechte der Nutzer gegenüber den Netzwerken definiert.

Die Charta der digitalen Redefreiheit

Wie könnte eine Charta der digitalen Redefreiheit aussehen? Sie muss zum einen die Macht der vorherrschenden sozialen Netzwerke einschränken, zum zweiten die monolithische Bündelung von Plattform, Prüf- und Schiedsstelle bei den Anbietern aufbrechen und schließlich den Nutzer in die Lage versetzen, Wissen über die Inhalte zu erlangen, die ihm angeboten werden, und darauf Einfluss zu nehmen, welche Prozesse hierbei zur Anwendung kommen. Folgende Maßnahmen könnten dazu beitragen:

  1. Rechenschaft: Die sozialen Netzwerke geben sich verpflichtende Regeln zum Schutz vor Gewalt und Hass einerseits und zum Einspruch gegen unrechtmäßige Blockade andererseits. Sie unterwerfen sich einer Prüfung durch Dritte zur Klärung von Streitfragen zur Einhaltung. Sie richten effektive, anwenderfreundliche Prozesse dazu ein.
  2. Infrastruktur: Auch die Anbieter von technischer Infrastruktur wie Hosting, DNS-Providern oder Netzwerken verpflichten sich zu Regeln im Sinne von 1.
  3. Validierung: Soziale Netzwerke lassen Inhalte ab einer bestimmten Reichweite von unabhängigen Stellen prüfen. Fake News, Hass oder Gewalt werden gekennzeichnet oder gelöscht.
  4. Algorithmische Transparenz: Soziale Netzwerke legen jedem Anwender offen, wieso ihm bestimmte Inhalte vorgeschlagen werden.
  5. Empowerment: Soziale Netzwerke ermöglichen es jedem Anwender, die Verwendung von Algorithmen für Vorschläge zuzulassen, granular zu regeln oder zu unterbinden.
  6. Vielfalt: Der Staat garantiert den Pluralismus in den sozialen Medien und bei systemrelevanten Diensten entweder durch die Verhinderung einer marktbeherrschenden Position oder durch die Etablierung öffentlich-rechtlicher Alternativen.
  7. Netzneutralität: kein Element der Infrastruktur darf die Daten bestimmter Dienste, Inhalte oder Anbieter bevorzugen.

Die Umsetzung dieser Schritte sollte sowohl den Vorwürfen politisch motivierter Zensur begegnen als auch dem Grundproblem der Radikalisierung und Polarisierung. Kurzfristig kann so sichergestellt werden, dass die sozialen Medien nicht politisch instrumentiert werden, mittelfristig kann es dazu beitragen, die drohende Spaltung der Gesellschaft abzuwenden.

Ähnlich wie andere disruptiven Technologien haben die frühen Jahre der sozialen Medien rasantes Wachstum, ungeahnte Vorteile und unvorhersehbare Probleme mit sich gebracht. Es ist an der Zeit - und das Beispiel der USA zeigt, dass es sogar höchste Zeit ist - dass wir dem Paradigmenwechsel in der gesellschaftlichen Kommunikation begegnen, den diese Veränderung mit sich bringt.


URL dieses Artikels:
https://www.heise.de/-5029826

Links in diesem Artikel:
[1] https://www.heise.de/tp/features/Deplatforming-und-eine-Charta-der-digitalen-Redefreiheit-5029828.html
[2] https://www.heise.de/tp/features/Orwell-laesst-gruessen-China-vor-dem-Nationalen-Volkskongress-4326212.html
[3] https://netzpolitik.org/2018/bka-dokument-polizeibehoerden-wollen-staatstrojaner-vor-allem-gegen-drogen-einsetzen/
[4] https://www.reuters.com/article/us-health-coronavirus-facebook/facebook-bans-false-claims-about-covid-19-vaccines-idUSKBN28D202
[5] https://www.google.com/search?client=firefox-b-d&ei=-LkBYPrFNMKwkwXF3qSACw&q=%22selbst+im+internet+radikalisiert%22&oq=%22selbst+im+internet+radikalisiert%22&gs_lcp=CgZwc3ktYWIQA1CUN1iETWDRUGgAcAF4AIABcYgBvAGSAQMxLjGYAQCgAQGqAQdnd3Mtd2l6wAEB&sclient=psy-ab&ved=0ahUKEwj6oda_pZ7uAhVC2KQKHUUvCbAQ4dUDCAw&uact=5
[6] https://www.zdnet.com/article/ex-youtube-engineer-extreme-content-no-its-algorithms-that-radicalize-people/
[7] https://www.lr-online.de/nachrichten/brandenburg/ein-wissenschaftler-erklaert-so-funktionieren-verschwoerungstheorien-46722144.html
[8] https://www.berliner-zeitung.de/kultur-vergnuegen/attila-hildmann-pergamonmuseum-beherbergt-thron-des-satans-zerstoerung-museumsinsel-berlin-li.112933?pid=true
[9] https://www.nytimes.com/2018/03/10/opinion/sunday/youtube-politics-radical.html
[10] https://techcrunch.com/2020/01/28/study-of-youtube-comments-finds-evidence-of-radicalization-effect/?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAAHoHSznBAUOOxJVG2zsuimVxyGz4Uy1lQXyxdI1tK4BbGgok4SSlC9O3PO--8o9LMRDbuWPOcEKxT8CSS_cCJxzcJEvM3k282ISpkA0haiRBOhnrbrE2f_wRZl7hfdtdykcA9pmQaK1kCzqeRcARU2q9a0iZ7aZZTKzBoR81_C40
[11] https://www.wired.com/story/free-speech-is-not-the-same-as-free-reach/
[12] https://www.wired.com/story/opinion-platforms-must-pay-for-their-role-in-the-insurrection/
[13] https://www.cnet.com/news/youtube-ces-2018-neal-mohan/
[14] https://threadreaderapp.com/thread/1349141032504594437.html
[15] https://www.heise.de/tp/features/Wann-ist-ein-Bann-gerechtfertigt-5029826.html?view=fussnoten#f_1