Geschlossene Leserforen bei Spiegel Online

Seite 3: Google will "giftige" Forenbeiträge markieren

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

SPON kündigte auf Nachfrage unterdessen an, zukünftig wieder mehr Leserforen zulassen zu wollen:

Zum einen haben wir uns vorgenommen, einfach wieder verstärkt darauf zu achten, das Forum zu aktivieren. Wir wollen das Thema auch technisch unterfüttern und Software testen, die uns beim Screenen und Sortieren der Forumspostings hilft, so dass wir hoffentlich die Menge der geschalteten Foren wieder erhöhen können, weil wir die aus unserer Sicht nicht sendefähigen Posts schneller finden.

SPON

Der Ansatz läuft mehr oder weniger auf das maschinelle Ausfiltern unerwünschter Worte hinaus. Google hat ein entsprechendes Programm schon entwickelt, welches nun angeblich "das Gift aus Kommentarspalten saugen" soll, wie aktuell berichtet wird. Bei der New York Times ist es bereits im Einsatz, auch andere Medien sollen es kostenlos nutzen dürfen. Google testet diese Software namens "Perspective" zur Zeit. Auf der Produkt-Webseite kann jeder Internetnutzer zur Probe eigene Kommentare eingeben und sich deren "Giftigkeit" anzeigen lassen. So hofft man, den Algorithmus noch zu verfeinern. Versuchsweise habe ich einige Sätze eingegeben. Die Ergebnisse:

I think this is honest. (Ich denke, das ist ehrlich.) - 2% toxic

I think this is dishonest. (Ich denke, das ist unehrlich.) - 23% toxic

The government does a good job. (Die Regierung arbeitet gut.) - 3% toxic

The government seems corrupt. (Die Regierung erscheint korrupt.) - 38% toxic

The government is more corrupt than ever. (Die Regierung ist korrupter als je zuvor.) - 54% toxic

Klar scheint: Negative Äußerungen werden tendenziell als "giftig" eingeschätzt - ein hochproblematischer Ansatz. Zudem ist die vermeintliche "Künstliche Intelligenz" der Software bislang nicht wirklich intelligent, wie folgendes Eingabeergebnis zeigt:

The argument of the president seems ridiculous. (Das Argument des Präsidenten wirkt lächerlich.) - 37% toxic

The argument of the president is far from ridiculous. (Das Argument des Präsidenten ist bei weitem nicht lächerlich.) - 48% toxic

Zensur, so heißt es immer wieder, gibt es in den Medien nicht, da ja nur ein Staat zensieren könne, was - zumindest in Deutschland oder den USA - nicht der Fall sei. Was aber, wenn viele große Medienhäuser einen gemeinsamen Algorithmus, etwa von Google, zum Ausfiltern von Beiträgen verwenden? Was, wenn sie ganz ähnliche Kriterien benutzen, wenn das Unerwünschte überall gleich definiert wird, die Definition aber über geltendes Recht hinausgeht?

Ist das dann bloß deshalb keine Zensur, weil Google ein privates Unternehmen ist und keine Regierungsbehörde? Setzt der Zensurbegriff nicht eigentlich viel tiefer an, nämlich bei der Verfügungsgewalt der Mächtigen - welche nicht zwingend staatliche Akteure sein müssen?

Google und die Geopolitik

Erwähnenswert sind in dieser Hinsicht einige personelle Überschneidungen zwischen Google und der US-Regierung. So wurde Google-Chef Eric Schmidt im März 2016 vom US-Verteidigungsminister zum Vorsitzenden eines Pentagon-Beraterkreises ernannt. Und Jared Cohen, ein enger Vertrauter von Schmidt und Chef von Googles Ideenschmiede "Jigsaw", welche das neue "Leserforen-Entgiftungs"-Programm gerade entwickelt, arbeitete von 2006 bis 2010 im Planungsstab des US-Außenministeriums, erst unter Condoleezza Rice, dann unter Hillary Clinton.

In ihren Memoiren lobte Rice ihn persönlich dafür, "Social Media in unseren diplomatischen Werkzeugkasten integriert" zu haben, was sich Jahre später bei den Demokratiebewegungen im Mittleren Osten "wunderbar ausgezahlt" habe.

Julian Assange berichtete schon vor einiger Zeit in einem lesenswerten Text von einem persönlichen Treffen mit Schmidt und Cohen, sowie deren mehr oder weniger verdeckt aktiver Rolle in der US-Geopolitik.

Wenn in einem solchen Milieu, wo Konzern- und Regierungsinteressen auf intransparente Weise verschmelzen, Werkzeuge entwickelt werden, die den freien Informationsfluss durch zentral gesteuerte Algorithmen lenken und einschränken, dann geht es nicht mehr bloß um eine bessere, freundlichere Debattenkultur.

Solange außerdem keiner der handelnden Akteure - Google, Facebook, Correctiv, SPON etc. - klar definieren kann, was "Hate Speech", "Fake News" und "Verschwörungstheorie" sein sollen und was nicht - also welche objektiven Kriterien man eigentlich anlegt -, solange dienen diese Begriffe mehr der Verschleierung als der Aufklärung. Solches "Framing" und "Branding" sind bekannte Mittel der politischen PR. Mit Journalismus haben sie so wenig zu tun wie mit demokratischer Willensbildung.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.