Geschlossene Leserforen bei Spiegel Online
Seite 3: Google will "giftige" Forenbeiträge markieren
- Geschlossene Leserforen bei Spiegel Online
- "Hate Speech" als Vorwand?
- Google will "giftige" Forenbeiträge markieren
- Auf einer Seite lesen
SPON kündigte auf Nachfrage unterdessen an, zukünftig wieder mehr Leserforen zulassen zu wollen:
Zum einen haben wir uns vorgenommen, einfach wieder verstärkt darauf zu achten, das Forum zu aktivieren. Wir wollen das Thema auch technisch unterfüttern und Software testen, die uns beim Screenen und Sortieren der Forumspostings hilft, so dass wir hoffentlich die Menge der geschalteten Foren wieder erhöhen können, weil wir die aus unserer Sicht nicht sendefähigen Posts schneller finden.
SPON
Der Ansatz läuft mehr oder weniger auf das maschinelle Ausfiltern unerwünschter Worte hinaus. Google hat ein entsprechendes Programm schon entwickelt, welches nun angeblich "das Gift aus Kommentarspalten saugen" soll, wie aktuell berichtet wird. Bei der New York Times ist es bereits im Einsatz, auch andere Medien sollen es kostenlos nutzen dürfen. Google testet diese Software namens "Perspective" zur Zeit. Auf der Produkt-Webseite kann jeder Internetnutzer zur Probe eigene Kommentare eingeben und sich deren "Giftigkeit" anzeigen lassen. So hofft man, den Algorithmus noch zu verfeinern. Versuchsweise habe ich einige Sätze eingegeben. Die Ergebnisse:
I think this is honest. (Ich denke, das ist ehrlich.) - 2% toxic
I think this is dishonest. (Ich denke, das ist unehrlich.) - 23% toxic
The government does a good job. (Die Regierung arbeitet gut.) - 3% toxic
The government seems corrupt. (Die Regierung erscheint korrupt.) - 38% toxic
The government is more corrupt than ever. (Die Regierung ist korrupter als je zuvor.) - 54% toxic
Klar scheint: Negative Äußerungen werden tendenziell als "giftig" eingeschätzt - ein hochproblematischer Ansatz. Zudem ist die vermeintliche "Künstliche Intelligenz" der Software bislang nicht wirklich intelligent, wie folgendes Eingabeergebnis zeigt:
The argument of the president seems ridiculous. (Das Argument des Präsidenten wirkt lächerlich.) - 37% toxic
The argument of the president is far from ridiculous. (Das Argument des Präsidenten ist bei weitem nicht lächerlich.) - 48% toxic
Zensur, so heißt es immer wieder, gibt es in den Medien nicht, da ja nur ein Staat zensieren könne, was - zumindest in Deutschland oder den USA - nicht der Fall sei. Was aber, wenn viele große Medienhäuser einen gemeinsamen Algorithmus, etwa von Google, zum Ausfiltern von Beiträgen verwenden? Was, wenn sie ganz ähnliche Kriterien benutzen, wenn das Unerwünschte überall gleich definiert wird, die Definition aber über geltendes Recht hinausgeht?
Ist das dann bloß deshalb keine Zensur, weil Google ein privates Unternehmen ist und keine Regierungsbehörde? Setzt der Zensurbegriff nicht eigentlich viel tiefer an, nämlich bei der Verfügungsgewalt der Mächtigen - welche nicht zwingend staatliche Akteure sein müssen?
Google und die Geopolitik
Erwähnenswert sind in dieser Hinsicht einige personelle Überschneidungen zwischen Google und der US-Regierung. So wurde Google-Chef Eric Schmidt im März 2016 vom US-Verteidigungsminister zum Vorsitzenden eines Pentagon-Beraterkreises ernannt. Und Jared Cohen, ein enger Vertrauter von Schmidt und Chef von Googles Ideenschmiede "Jigsaw", welche das neue "Leserforen-Entgiftungs"-Programm gerade entwickelt, arbeitete von 2006 bis 2010 im Planungsstab des US-Außenministeriums, erst unter Condoleezza Rice, dann unter Hillary Clinton.
In ihren Memoiren lobte Rice ihn persönlich dafür, "Social Media in unseren diplomatischen Werkzeugkasten integriert" zu haben, was sich Jahre später bei den Demokratiebewegungen im Mittleren Osten "wunderbar ausgezahlt" habe.
Julian Assange berichtete schon vor einiger Zeit in einem lesenswerten Text von einem persönlichen Treffen mit Schmidt und Cohen, sowie deren mehr oder weniger verdeckt aktiver Rolle in der US-Geopolitik.
Wenn in einem solchen Milieu, wo Konzern- und Regierungsinteressen auf intransparente Weise verschmelzen, Werkzeuge entwickelt werden, die den freien Informationsfluss durch zentral gesteuerte Algorithmen lenken und einschränken, dann geht es nicht mehr bloß um eine bessere, freundlichere Debattenkultur.
Solange außerdem keiner der handelnden Akteure - Google, Facebook, Correctiv, SPON etc. - klar definieren kann, was "Hate Speech", "Fake News" und "Verschwörungstheorie" sein sollen und was nicht - also welche objektiven Kriterien man eigentlich anlegt -, solange dienen diese Begriffe mehr der Verschleierung als der Aufklärung. Solches "Framing" und "Branding" sind bekannte Mittel der politischen PR. Mit Journalismus haben sie so wenig zu tun wie mit demokratischer Willensbildung.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.