Lässt sich Sexismus in sozialen Medien automatisch erkennen?
Sexismus zählt zu den Problemen sozialer Medien und die Moderation hat ihr liebe Not, derartige Entgleisungen zielsicher zu erkennen und zu entfernen. Ein Tool will hier Hilfestellung geben
Sexismus, also die Vorstellung, dass eines der Geschlechter anderen von Natur aus überlegen sei, und die daraus abgeleitete Diskriminierung, Unterdrückung, Zurücksetzung, Benachteiligung von Menschen, besonders von Frauen, aufgrund ihres Geschlechts ist ein weitreichendes gesellschaftliches Problem.
Es hat in den letzten Jahren mit dem Aufkommen der sozialen Medien nicht nur stark zugenommen, sondern wurde durch die erleichterte Verbreitung auch in der Öffentlichkeit verstärkt sichtbar. Sie stellt die Moderation öffentlich zugänglicher Medien vor enorme Herausforderungen, wenn man den Urhebern sexistischer Äußerungen keine Plattform zur Verbreitung ihrer Ansichten bieten will.
"Männer und Frauen sind gleichberechtigt." So lautet Artikel 3, Absatz 2 des Grundgesetzes. Er wurde 1994 noch ergänzt um den Satz, dass es die Aufgabe des Staates sei, an dieser Gleichberechtigung mitzuwirken. Seit Frauen Gleichheit einfordern, gibt es mehr oder weniger organisierte Widerstände dagegen. Die aktuellen gesellschaftlichen Veränderungen, seien sie technischer, sozioökonomischer oder politischer Natur verstärkten ein Aufbrechen traditioneller Strukturen, Werte und Bindungen.
Die ermöglichte einerseits vorher nicht vorhandene Freiheiten, es löste andererseits auch Ängste bei denen aus, die sich vor dem Verlust lange Zeit gültiger Privilegien fürchteten. Der Widerstand gegen Emanzipationsbewegungen läuft unter verschiedenen Begriffen: Frauenfeindlichkeit, Misogynie, Sexismus, Antifeminismus und Antigenderismus.
Sexismus in der digitalen Kommunikation
Sexismus und seine Auswirkungen haben weitreichende Konsequenzen für die Gesellschaft. Dabei werden insbesondere Frauen, die im Licht der Öffentlichkeit stehen, vor große Herausforderungen gestellt, wie beispielsweise die Studie "Sexism, harassment and violence against women in parliaments in Europe" zeigt. Soziale Medien treten hier als Beschleuniger auf und senken die Hemmschwellen für verbale Übergriffe, nicht zuletzt, weil sich die Urheber durch die vermeintliche Anonymität im Netz unangreifbar fühlen.
Die FH St. Pölten und das AIT Austrian Institute of Technology haben im Rahmen des internationalen EXIST-Wettbewerbs (sEXism Identification in Social neTworks) eine Methode entwickelt, welche die automatische Erkennung von sexistischen Äußerungen ermöglicht. Bei dem Wettbewerb hatte man unter 31 internationalen Teams den dritten Platz belegt. Das Tool basiert auf Methoden der künstlichen Intelligenz und nutzt Natural Language Processing (NLP) sowie Machine Learning, um Beiträge auf sozialen Medien semantisch zu untersuchen und zu klassifizieren.
Ein zentrales Ziel unserer Forschung ist es, stets einen sinnvollen Beitrag zu leisten, um Probleme in unserer Gesellschaft zu lösen. Eine automatisierte Erkennung von sexistischen Äußerungen kann dazu beitragen, den Diskurs in den Sozialen Medien zu verbessern, Problembewusstsein zu stärken und Maßnahmen gegen diskriminierende Inhalte zu setzen.
Matthias Zeppelzauer, Leiter der Forschungsgruppe Media Computing am Institut für Creative\Media/Technologies der FH St. Pölten
Klassifizierung sexistischer Äußerungen
Als besonders herausfordernd bei der automatischen Erkennung von sexistischen Inhalten stellte sich die Unterscheidung zwischen verschiedenen Kategorien von sexistischen Äußerungen und der Identifikation von ironischen oder sarkastischen Statements dar. Die Datenbasis für die benötigte Klassifizierung lieferte der EXIST-Wettbewerb, der Teilnehmern Postings auf den Plattformen "Twitter" und "Gab" zur Verfügung stellte.
Dabei wurde nicht nur zwischen sexistischen und nicht-sexistischen Inhalten unterschieden, sondern auch eine konsequente Kategorisierung sexistischer Inhalte vorgeschlagen. Die Postings, welche in englischer und spanischer Sprache vorlagen, wurden basierend auf deren Inhalt kategorisiert und in folgende Typen eingeteilt, die es automatisch zu unterscheiden galt: Ideologie und Ungleichheit, Stereotype und Herrschaft, Objektifizierung, sexuelle Gewalt, Misogynie sowie nicht-sexuelle Gewalt.
Alexander Schindler, Leiter des NLP-Teams auf Seite des AIT stellt in diesem Zusammenhang fest: "Wichtig bei der Erkennung sexistischer Inhalte ist, dass wir nicht nur offensichtliche Formen von Sexismus automatisch identifizieren können, sondern auch subtile Formen und Anspielungen, die auf den ersten Blick übersehen werden könnten".
Grundsätzlich handelt es sich bei dem Tool um ein weitgehend automatisiertes Instrument, dessen Anwendung jedoch in der Verantwortung eines Moderators liegen sollte. Seine Grenzen erreichen solche Werkzeuge in Fällen wie dem Stierkampf-Festival in der spanischen Stadt Gijón. Die Macher hatten eine seltsame Lust an Provokation bewiesen, als sie einen der Kampfstiere, die im Zusammenhang mit dem Stierkampf getötet wurden, "Feminist" nannten.