Algorithmen gefährden den demokratischen Konsens
Die Demokratien des Westens sind in der Krise. Die Gesellschaft polarisiert sich zunehmend. Soziale Medien verstärken mit ihren Algorithmen die Spaltung.
Die westlichen Demokratien stecken in einer Krise. Seit rund zehn Jahren nimmt die Polarisierung in der Gesellschaft zu. Die Folgen lassen sich in den Wahlergebnissen verfolgen: In vielen Parlamenten sind mittlerweile die extremen Flügel so stark, dass eine Mehrheitsbildung kaum mehr möglich ist – siehe Frankreich oder einige ostdeutsche Bundesländer.
Die Schäden der Polarisierung gehen jedoch weit über die Koalitionsbildung hinaus; sie stellt die Grundprinzipien der Demokratie infrage. Polarisierung verhindert die Konsensfindung, untergräbt den Respekt vor demokratischen Normen und der Überparteilichkeit der Justiz. Sie verschärft Intoleranz und Diskriminierung, schwächt das gesellschaftliche Vertrauen und erhöht die Gewaltbereitschaft.
Die Unterstützung für die Demokratie nimmt ab. So hat in der jüngsten Leipziger Autoritarismus-Studie die Zustimmung zum Wert „Demokratie als Idee“ 2024 den niedrigsten Stand seit fast 20 Jahren erreicht.
Die Polarisierung ist inzwischen auf einem Niveau angekommen, das den Bestand der Demokratie gefährdet.
Ursachenforschung: Worin liegen die Erfolge extremer Politik begründet?
Gerade für das Wahlergebnis der letzten US-Wahl existieren verschiedene Erklärungsansätze: waren die Demokraten zu links, oder nicht links genug? Es herrscht allgemeines Kopfkratzen.
Doch eine bessere Erklärung liegt in der Polarisierung der US-Gesellschaft, die durch das vorherrschende Zwei-Parteien-System begünstigt wird. Forschungen zeigen, dass der politische Diskurs sich in den vergangenen Jahren emotionalisiert und radikalisiert hat, weg von wirtschaftlichen Themen und hin zu solchen, die „Identity Politics“ betreffen, also die Anliegen einzelner Gruppen innerhalb der Gesellschaft. Wahlsieger Trump bediente diese Emotionalisierung meisterhaft.
Diesen Themen ist eines gemeinsam: sie eignen sich in besonderem Maße zur Personalisierung, Stigmatisierung und Dramatisierung. Viel einfacher als etwa für ein abstraktes Thema wie die Steuerpolitik können hier stereotype Feindbilder kreiert werden.
In allen diesen Fällen ist mittlerweile eine Dehumanisierung erreicht: Man denke an den Hohn nach dem Mord an UnitedHealthcare CEO Brian Thompson oder die Galgen für die Ampel bei den Bauern-Demos.
Wer befördert die Polarisierung, wem nutzt sie, wer ist betroffen?
Es lässt sich aktuell ein wesentlicher Treiber der Polarisierung identifizieren: die russische Desinformations- und Zwietrachtspropaganda. Sie hat seit den 2010er Jahren das Ziel, die westlichen Demokratien zu spalten, zu schwächen und schlussendlich wehrlos gegen die hegemonistischen Ansprüche Russlands zu machen.
Hendrik Sittig, Leiter des Medienprogramms der Konrad-Adenauer-Stiftung Südosteuropa, brachte die Strategie auf den Punkt:
Russland scheut kein Geld für die Verbreitung falscher Informationen, die alte Konflikte entfachen und neue schaffen.
Interne Quellen des russischen Propaganda-Apparates belegen diese Strategie. So ist das Ziel, die gesellschaftliche Situation zu destabilisieren. Dabei wird jedes Thema bedient, das die Spaltung der westlichen Demokratien verstärkt: Migration, Klimawandel, Nato-Kritik sowie Gender- und Gesundheitspolitik.
Prominente Opfer dieser Kampagnen finden sich zuhauf: die Autorin J.K. Rowling (Genderpolitik) oder der Sänger Meat Loaf (Gesundheitspolitik) nutzen oder haben ihre Bekanntheit dazu genutzt, Narrative der russischen Propaganda zu verbreiten.
Es gibt viele intelligente Menschen mit guter Bildung und sogar wissenschaftlichen Titeln, die auch anfällig für Fehlinformationen sind. Und das nicht nur in Verbindung mit Russland.
Hendrik Sittig
Was tun, um die Demokratie zu schützen?
Die Demokratien ringen bislang noch um passende Antworten. Nachdem TV-Sender wie RT aus den westlichen Netzen verbannt sind, richtet sich das Augenmerk auf die sozialen Medien.
Jüngst haben verschiedene Regierungen sich dabei auf TikTok eingeschossen: aus den USA soll die Plattform völlig verbannt werden, in Australien wurde ein Gesetz verabschiedet, das ihre Nutzung erst ab 16 Jahren erlaubt, und im Fall der rumänischen Wahlmanipulation hat das EU-Parlament in einer aktuellen Sitzung über Konsequenzen diskutiert.
Mit dem Digital Services Act hatte die EU bereits 2022 ein Gesetz erlassen, das Desinformation entgegenwirken soll. Allerdings zeigte sich bereits im Fall X/Twitter, dass die neue Regelung nur begrenzt effektiv ist: Musks Plattform ist zu klein, um betroffen zu sein.
Social Media und Suchtverhalten
Ein Exkurs zur Wirkung von sozialen Medien: immer wieder werden sie (oder, in Erweiterung, das Smartphone) in Verbindung mit suchtähnlichem Verhalten gebracht. Die Theorie lautet, dass die sozialen Medien grundlegende Mechanismen unseres Gehirns (Belohnungsmechanismen für soziale Interaktion und Neuigkeiten) ausnutzen. Spielsucht funktioniert etwa auf die gleiche Weise.
Die Plattformen maximieren den Effekt, indem sie in einer Feedbackschleife dem Nutzer gezielt und personalisiert Inhalte anbieten, die dem entsprechen, worauf er besonders stark reagiert hat.
Dr. Michael Blume, Religions- und Politikwissenschaftler, Blogger, Buchautor und Podcaster bringt den Effekt auf den Punkt:
Ich nenne Konzernmedien antisoziale Medien, weil ihre Algorithmen direkt auf die hormonellen Schwachstellen unserer Gehirne kuratieren. Verstärkt wird, was Dopamin und Adrenalin steigert sowie Testosteron manipuliert.
Das Gesundheitssystem hat die Online-Sucht als Krankheitsbild bereits erkannt.
Was ist algorithmische Kuration?
Unter algorithmischer Kuration versteht man das personalisierte, automatisierte Auswählen und Präsentieren von Inhalten. Das Ziel der Plattformen ist dabei, den Nutzer zu animieren, länger zu verweilen und mehr Inhalte zu konsumieren – darunter Anzeigen. Dies ist die Einnahmequelle der Plattformen.
Die meisten sozialen Netzwerke verwenden algorithmische Kuration, während die ersten Netzwerke wie Myspace, Lokalisten, das frühe Facebook und Twitter sowie heute Mastodon darauf verzichteten bzw. verzichten.
Nach welchen Kriterien die Inhalte ausgewählt werden, ist nicht transparent. Hierfür könnten Interaktion (Likes, Kommentare, Teilen), Nutzung (sichtbare Zeit auf dem Bildschirm, Sehdauer von Videos) oder der Erfolg vergangener Beiträge des Urhebers vermutet werden.
Es zeigt sich, dass diejenigen Beiträge am besten im Sinne des Algorithmus funktionieren, die stark emotionalisieren und zur sofortigen, affektartigen Reaktion verleiten. Dabei sind negative Emotionen effektiver als positive.
In Folge belohnt die Struktur der sozialen Medien Inhalte, die Angst, Empörung und Ärger verursachen. Im Gegenzug sind die sozialen Medien für böswillige Akteure, welche in der Gesellschaft Konflikte schüren wollen, ein perfektes Vehikel. Soziale Medien und Propaganda bilden eine Symbiose zum beiderseitigen Nutzen.
Ein beliebtes Missverständnis ist dabei der Gedanke der freien Rede – dass die Gegenrede engagierter Nutzer Negatives neutralisieren könne. Doch das Gegenteil ist der Fall.
Korrekturen, Einwände und Kommentare werden vom Algorithmus so interpretiert, dass der Ursprungs-Post qualitativ hochwertig ist. Er wird dadurch immer mehr Usern gezeigt, die weder dem Urheber noch den Kommentierenden folgen. Die Gegenargumente werden verborgen. Statt die Diskussion zu fördern, verstärkt die algorithmische Kuratierung nur die Ausgangsbotschaft.
Warum Content-Moderation versagt
Angesichts dieser Dynamik zeigt sich, dass Content-Moderation oder Community-Guidelines nicht ausreichen, um den schädlichen Einfluss sozialer Medien einzudämmen. TikTok, Facebook, YouTube oder Instagram sind für negative Emotionen optimiert. Der Versuch, entgegenzusteuern, ist zum Scheitern verurteilt, solange algorithmische Kuration eingesetzt wird.
Markéta Gregorová, MdEUP für die Piraten, bestätigt dies:
Content Moderation allein vermag Ausmaß und Komplexität dieser Herausforderung nicht zu bewältigen. Um die europäischen Wahlen und die Demokratie wirksam zu schützen, müssen wir systemische Anfälligkeiten in Algorithmen, Mechanismen für die gezielte Werbung und Identitätsüberprüfungsverfahren angehen.
Social Media ohne algorithmische Kuration
Einen anderen Ansatz verfolgen Mastodon und das Fediverse. Sie bieten soziale Netzwerke ohne Werbung oder Algorithmus und setzen dagegen auf den menschlichen Faktor. Verbreitet werden Inhalte durch das Teilen der User. Verbesserte Möglichkeiten zum Blocken, Filtern oder Ausschließen bösartiger Inhalte und User ermöglichen dem User, die Qualität seines Feeds zu verbessern.
Rede- und Meinungsfreiheit und der historische Vergleich
Sollte der Gesetzgeber eingreifen? Neue Gesetze unterliegen der Rechteabwägung: Ein Eingriff in die Verwendung algorithmischer Kuration bedeutet einen Schaden für die Geschäfte von Facebook, Instagram, TikTok und anderen.
Doch noch bedeutender: sie könnten eine Beschränkung in die Rede- und Meinungsfreiheit darstellen. Ähnlich wie ein Privat-TV-Sender oder Radio haben die Konzerne das Recht, frei zu entscheiden, was sie ihren Nutzern anbieten.
Doch hat die Rede- und Meinungsfreiheit zwei Seiten: nicht nur garantiert sie die freie Meinungsäußerung, ebenso wichtig ist der Schutz der freien Meinungsbildung. Medienwissenschaftler zählen hierzu die Möglichkeit, sich relevante, zutreffende Informationen zu beschaffen. Eine Plattform, die aufgrund ihrer Architektur überwiegend Inhalte anbietet, die nur zum Zweck erstellt wurden, den User in die Irre zu führen, verletzt dessen Rechte.
Der mögliche Schaden kann nicht unterschätzt werden: Aufgrund der wesentlichen Bedeutung der Presse und Medien haben demokratische Staaten ein ureigenes Interesse, sich vor Angriffen über diesen Kanal zu schützen.
Michael Blume bringt es auf den Punkt:
Wo wir [die Polarisierung] nicht durch konzernfreie Netze, das Fediversum, stoppen, gehen wir wie schon Ungarn von der Demokratie zur Thymokratie: zu einer Regierungsform, in der Menschen ständig durch Feindbilder und Verschwörungsmythen erregt statt demokratisch beteiligt zu werden.
Fazit: Die freiheitlichen Demokratien benötigen ein Verbot der algorithmischen Kuration
Freiheitliche Demokratien sind auf Konsens angewiesen. Er ist ihre Existenzgrundlage. Die algorithmisch kuratierten sozialen Medien untergraben durch ihre polarisierende Wirkung diese Basis.
Das müssen wir jedoch nicht hinnehmen. Wir haben das Recht, unsere freiheitliche Grundordnung zu verteidigen. Der dazu nötige Eingriff ist weder unverhältnismäßig noch unrealistisch: Soziale Medien ohne algorithmische Kuration haben existiert, existieren weiter und bieten alle Vorteile der Netzwerke wie dezentrale Kommunikation, freie Meinungsäußerung und Echtzeit-Informationen.
Lesen Sie auch
Wie Google und Meta gemeinsam Jugendschutz ausgehebelt haben sollen
Vorbild Australien: Mindestalter für Social Media zum Wohle der Kinder
"Faschisten": Elon Musk kritisiert Australiens hartes Vorgehen gegen Desinformation
Vom Tanzkurs zur Gewaltorgie: Faschisten nutzen Mord für ihre Agenda
Rechte Unruhen in Großbritannien: Soziale Medien als Brandbeschleuniger
Die großen, kommerziellen Anbieter wie Meta, Alphabet oder ByteDance könnten EU-basierte Ableger gründen, welche auf algorithmische Kuration verzichten. Ähnliche Konstrukte sind in der IT-Branche bereits etabliert.
Wichtiger: Kein einziger Nutzer würde im Recht auf freie Meinungsäußerung beschnitten, im Gegenteil: Das Recht auf Meinungsbildung würde sogar gestärkt.
Unsere Regierungen, allen voran die EU, sind gefordert, unsere Rechte, unsere Demokratie durch ein Verbot der algorithmischen Kuration in sozialen Medien zu schützen, solange sie dazu noch die Macht haben.