Twitter und die Meinungsfreiheit

Das Unternehmen sieht sich selbst als Bastion der freien Rede, setzt aber, auch unter politischem Druck, zunehmend auf intransparente Bewertungen und Sperrungen

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Twitters gesellschaftliche Rolle geht schon lange über seine technische Funktion als Kurznachrichtendienst hinaus. Mehr als 300 Millionen Menschen nutzen die Plattform, darunter fast jeder, der in der Politik oder sonst in der Öffentlichkeit eine Rolle spielt. Die Meinungsbildung findet heute zu einem maßgeblichen Teil auf Twitter statt, und das global. Um so wichtiger ist die Frage, wie Inhalte dort gefiltert werden.

Das Unternehmen selbst befindet sich mehrheitlich im Besitz von teils billionenschweren Großinvestoren wie der Vanguard Group, Morgan Stanley und BlackRock, und machte bis 2017 kontinuierlich Verluste. Diese summierten sich von 2010 bis 2017 auf mehr als 2 Milliarden Dollar. Kein Grund für die Eigentümer, die Aktie abzustoßen - im Gegenteil. Man unterstützte mit langem Atem die Etablierung des Monopolisten, der mittlerweile nun auch ordentliche Gewinne abwirft (2018 über 1 Milliarde Dollar).

Bei Twitter geschäftlich einzusteigen bedeutete auch ein strategisches Investment in den Marktplatz der öffentlichen Meinung - und der ist hochpolitisch. Im Juli 2018 berief Twitter den 65-jährigen US-Politiker Robert Zoellick in den Vorstand. Zoellick, vormals Weltbankpräsident, ist ein einflussreicher Neocon-Hardliner aus dem engen Kreis um Ex-Außenminister James Baker und George W. Bush. Mehrfach war er in führender Funktion für Goldman Sachs tätig, ebenjene Bank, die 2013 den Börsengang von Twitter lanciert hatte.

Wie widersprüchlich das Unternehmen an der Schnittstelle von globalem Kapitalismus und Geopolitik agiert, macht eine Stellungnahme des Twitter-Mitgründers und Chefs Jack Dorsey deutlich, der am 5. September 2018 bei einer Anhörung vor dem US-Kongress einerseits behauptete, Twitter lasse sich in seinen Entscheidungen "nicht von politischen Ideologien" leiten, den Parlamentariern aber zugleich ausführlich schilderte, wie gründlich die Firma gegen "feindlichen ausländischen Missbrauch" der Plattform vorgehe, und zwar insbesondere aus Russland und dem Iran. Andere Länder nannte Dorsey nicht.

Bei einer Anhörung vor dem Geheimdienstausschuss des US-Senats am gleichen Tag erklärte er, Twitter teile die Sorgen der Politiker angesichts "bösartiger ausländischer Anstrengungen, die Menschen in den USA und überall in der Welt zu manipulieren und zu entzweien". Er erwähnte, dass es dem russischen Sender RT nun verboten sei, auf Twitter bezahlte Werbung zu schalten - die bisher erhaltenen Werbeeinnahmen habe man unter anderem an den Atlantic Council gespendet.

Präzendenzfall Alex Jones

Nach der Anhörung, in der der Twitter-Chef, neben der ebenfalls vorgeladenen Facebook-Chefin Sheryl Sandberg, viel Kritik einstecken musste, fiel der Kurs der Twitter-Aktie binnen Stunden um 6 Prozent, was allein den Großaktionär Dorsey etwa 30 Millionen Dollar seines Privatvermögens kostete.

Wichtiger aber: Twitter wurde mit dieser Anhörung mehr oder weniger offen politisch angezählt. Gewünscht war, soviel wurde klar, eine harte Linie des Unternehmens gegenüber "Feinden".

Schon am nächsten Tag gab Twitter bekannt, das Nutzerkonto des kritischen Journalisten Alex Jones (mit knapp 900.000 Followern) zu sperren - nachdem dieser einen Monat zuvor bereits erst von Apple, dann von Facebook und Youtube abgeschaltet worden war und damit den Kontakt zu mehreren Millionen Followern und Abonnenten verlor. Die Konzerne begründeten die kollektive und dauerhafte Stummschaltung von Jones mit Hassrede und Gewaltverherrlichung.

In diesem zeitlichen Kontext keinen politischen Druck zu erkennen, fiel schwer, nicht zuletzt da Jones sich vor allem als lautstarker, oft schriller Kritiker einflussreicher Eliten hervorgetan hatte. In den Medien wurde die Sperrung mit Schlagworten wie "Rechtspopulist" und "Verschwörungstheoretiker" eingeordnet, nach dem Motto: Hier trifft es den Richtigen. In einem deutschen Leserkommentar hieß es zustimmend:

Ich habe den Eindruck, dass man in den USA erwacht ist, zu einem Bewusstsein, dass das gesamte Land durch Trump und sein Unterstützerumfeld und deren antisoziales, amoralisches wie totalitäres Gehabe tatsächlich immer mehr in Gefahr gerät, zu einem antidemokratischen Staat zu werden. (…) Insofern haben hier Unternehmen, die Verbreitungs-Plattformen anbieten eine demokratieschützende Aufgabe, also etwas, das weit über deren Regeln hinaus geht.

Andere hingegen warnten: "Wer etwas gegen reaktionäre Brüllaffen hat, kann die Sperrung von Jones zwar begrüßen, macht es sich damit aber auch ein wenig zu einfach."

Die tatsächliche Brisanz dieses Präzendenzfalles - mehrere marktbeherrschende Konzerne schließen sich zusammen, um eine störende Stimme auszuschalten - wurde selten thematisiert. Das Narrativ des "Demokratieschutzes" überwog. Dorsey hatte es so formuliert: "Twitters Hauptziel besteht in der Förderung einer gesunden öffentlichen Debatte durch den Schutz des demokratischen Prozesses."

"Reichweite begrenzen"

Bereits 2015 war bekannt geworden, dass Twitter bestimmte, teilweise politisch brisante Tweets in ihrer Sichtbarkeit reduzierte. Nachdem das amerikanische Wissenschaftsmagazin Motherboard darüber berichtet hatte, verweigerte Twitter zunächst einen Kommentar, deutete aber später an, es habe sich um einen technischen Fehler gehandelt.

Naheliegend schien ein Zusammenhang zu einem damaligen Update der Firmenrichtlinien, wozu Twitter öffentlich erklärt hatte, man teste die Erkennung "missbräuchlicher Tweets" und versuche, deren "Reichweite zu begrenzen".

Erreicht werden solche Ziele durch den Einsatz intransparenter Algorithmen und weitgehend automatisierter Abläufe. Dorsey gab auf Nachfrage indirekt zu, dass die Twitter-Programmierer selbst Schwierigkeiten hätten, nachzuvollziehen, weshalb Algorithmen bestimmte Entscheidungen träfen. Dies sei mitunter "ziemlich beängstigend", die Forschung dazu stünde noch "am Anfang".

Fakt ist: Nicht jeder, der zum Gegenstand dieser anonym wirkenden "intelligenten" Prozesse wird, kann sich wehren, geschweige denn seine Stimme öffentlich erheben und seine Ausfilterung oder gar Abschaltung überhaupt bekannt machen. Das automatisierte Aussortieren geschieht größtenteils im Stillen.

Der Fall "WeCo14"

So erlebte es auch Twitter-Nutzer WeCo14, ein Familienvater und Geschäftsmann aus Süddeutschland, der mir persönlich bekannt ist. WeCo14 nimmt seit einigen Jahren an politischen Debatten auf Twitter teil und vertritt dort sachlich seine Positionen: kritisch gegenüber den Leitmedien und der Nato. Mehr als 1.000 Twitter-Nutzer folgen ihm.

Am 11. April, dem Tag von Julian Assanges Festnahme in London, verbreitete er etwa 30 Tweets, die sich kritisch mit diesem Ereignis auseinandersetzten. Unmittelbar darauf wurde sein Twitter-Konto gesperrt. Ein Algorithmus kam zum Ergebnis, WeCo14 sei ein Bot und forderte ihn auf, ein Captcha zu lösen, was er tat. Das reichte Twitter aber nicht. Zusätzlich verlangte das Unternehmen die Herausgabe seiner Telefonnummer. Dazu war der Nutzer, der seine Anonymität nicht gefährden wollte, jedoch nicht bereit. In einem kafkaesken Prozess wurde er im Zuge seines Einspruchsversuches immer wieder auf das gleiche Formular zurückgeführt - und blieb letztlich gesperrt.

Als ich davon erfuhr, versuchte ich, einige Fragen an Twitter zu senden. Doch schon die reine Kontaktaufnahme zum Unternehmen gestaltet sich intransparent. Auf der Webseite ist kein Pressekontakt angegeben, einzige Kommunikationsmöglichkeit ist der allgemeine Twitter-Support. Nachdem ich dort (auf deutsch) anfragte, erhielt ich zwei Tage später in englischer Sprache Antwort aus Dublin, Twitters europäischem Hauptquartier. Amy Rose Harte, "Senior Policy Communications Manager" des Unternehmens für Europa, den Nahen Osten und Afrika, teilte mir unter Verweis auf die Twitter-Regeln mit, dass von "Violators", also von Regelbrechern, tatsächlich eine Telefonnummer oder Emailadresse abgefragt werden könne.

Nur: Twitter hatte dem Nutzer ja gar keinen Regelbruch vorgeworfen. Konfrontiert mit diesem Widerspruch antwortete die Sprecherin, sie könne den speziellen Fall nicht kommentieren, da ihr die Hintergrunddetails fehlen würden, wolle die Angelegenheit aber an die zuständige Abteilung weiterleiten. Nachdem ich eine Woche später erneut nachfragte, änderte sich die Argumentation: Nun hieß es, man kommentiere generell keine Einzelfälle. Nebenbei und durch die Blume wurde dennoch eine Erklärung präsentiert: Die Twitter-Regeln verböten Spam, definiert als "aggressive Aktivität, die versucht, Twitter zu manipulieren oder zu stören".

Meine konkrete Nachfrage, ob man dem gesperrten Nutzer tatsächlich Spamming vorwerfe, blieb unbeantwortet. Offenbar wollte man sich nicht festlegen. WeCo14 blieb gesperrt, was hochproblematisch erschien angesichts seiner Tweets, die zwar engagierte, aber sachliche und legitime politische Meinungsäußerungen enthielten. Erst am 28. April, also nach über zwei Wochen, wurde die Sperre aufgehoben - kommentarlos und ohne jede Erklärung oder gar Entschuldigung an den Nutzer, der nun erst seinen Followern und der Öffentlichkeit erklären konnte, was überhaupt vorgefallen war.

Man darf davon ausgehen, dass es sich hier nicht um einen Einzelfall handelt. Fragen ließe sich, ob ohne Presseanfrage überhaupt etwas passiert wäre, und der Algorithmus - ob nun mit oder ohne politische Absicht - eine kritische Stimme dann nicht einfach diskret und dauerhaft zum Schweigen gebracht hätte.

In der Firmenstatistik wäre der Fall wohl zu den zahlreichen Bots addiert worden, die das Unternehmen "zum Nutzen aller" abschaltet. 2018 teilte Twitter mit, die hauseigenen Algorithmen würden pro Monat bis zu 10 Millionen Nutzerkonten als Bots oder Spammer "erkennen", ein Anstieg gegenüber dem Vorjahr um über 200 Prozent.

"Gesunde Gespräche" und "böse Akteure"

Die Twitter-Regeln selbst sind dabei in hohem Maße widersprüchlich. So heißt es auf der Unternehmenswebseite: "Wir lassen es nicht zu, dass du auf Twitter eingeschüchtert, belästigt oder zum Schweigen gebracht wirst." Es sei denn, so müsste man wohl ergänzen, der Algorithmus selbst bringt den Nutzer zum Schweigen.

Fragwürdig erscheinen die Logik und auch das Vokabular, mit denen Twitter das Erwünschte vom Unerwünschten zu trennen versucht. In einer Mitteilung der Firma ist die Rede von "gesunden Gesprächen" ("healthy conversation") und Verhaltensweisen, die "das Gespräch verzerren" ("distort the conversation"). Man überlege, wie man "vorbeugend störende Verhaltensweisen angehen" könne ("proactively address disruptive behaviors"), welche zwar "nicht unsere Regeln verletzen", aber "die Gesundheit des Gespräches negativ beeinflussen".

Das klingt wachsweich und bietet weiten Spielraum für Einschränkungen der freien Rede. Denn was genau gilt als "störend" und "verzerrend"? Wer überhaupt fühlt sich "gestört" und wer will den "unverzerrten Normalzustand" eines Gespräches definieren? Der Eindruck entsteht, dass Twitter mit solchen vagen Formulierungen dem politischen Druck nachgibt, missliebige Ansichten "herunterregeln" zu können. Das Unternehmen selbst spricht offen davon, Nutzer mit "bösen Absichten" ("bad-faith actors"), die "das Gespräch spalten oder manipulieren wollen", im Ranking herabzustufen. Ob die Firma jemanden als böswillig ansieht, definiert sie nach eigener Aussage unter anderem daran, wem der fragliche Nutzer auf Twitter folgt und wessen Botschaften er teilt.

Das Unternehmen macht sich damit das fragwürdige Prinzip der Kontaktschuld zu eigen. Bei der Kongressanhörung im September 2018 erläuterte Dorsey Twitters Konzept "gesunder Gespräche" näher. Die Firma verwende dafür vier Kriterien: Gesund sei eine Unterhaltung, wenn beide Seiten über das Gleiche redeten, wenn wesentliche Fakten gemeinsam als wahr akzeptiert würden, wenn man sich der anderen Seite gegenüber aufgeschlossen verhalte und wenn verschiedene Blickwinkel zur Sprache kämen.

Das mag für sich genommen schlüssig klingen. Problematisch erscheint jedoch der grundlegende Ansatz, die Sprache der Nutzer überhaupt zu bewerten und aus dieser Bewertung dann eine Verringerung ihrer Sichtbarkeit abzuleiten. Niemand käme auf die Idee, dieses Konzept auf die Medien selbst und deren Sichtbarkeit anzuwenden und etwa eine Fernsehtalkshow, in der aneinander vorbeigeredet oder nur ein bestimmter Blickwinkel präsentiert wird, in ihrer Sendereichweite zu reduzieren. Im Internet aber soll genau das offenbar zur neuen Normalität werden. Letztlich ist es genau dieser Paradigmenwechsel, nicht mehr nur rechtlich Illegales unterbinden zu wollen, sondern "Störendes", "Ungesundes" und "Böses" weniger sichtbar zu machen, der die Tür zur Zensur weit öffnet.