Die Beinahe-Machtübernahme
- Die Beinahe-Machtübernahme
- Algorithmen formen den Nutzer
- Politisches Gegenprogramm notwendig
- Auf einer Seite lesen
KI kann Menschen mit ähnlichen Ansichten erkennen, schon bevor sie selbst wissen, dass sie diese Ansichten haben. Doch uns schützt eine zentrale menschliche Eigenschaft
Die Demokratie setzt die Vernunft im Volke voraus, die sie erst hervorbringen soll.
Karl Jaspers
Am 6. Januar 2021 hält die Welt den Atem an. Ein aufgebrachter Mob stürmt, angefeuert durch den eigenen Präsidenten, das Kapitol in Washington und damit das Herz der amerikanischen Demokratie. Viele der Teilnehmer filmen live und übertragen den Sturm auf Amerikas Demokratie über Facebook. Einige tragen die Videokameras montiert auf ihren Helmen. Der Facebook-Algorithmus schaltet dazu passende Werbung von Waffen und Militaria1.
Neben einem Sturmgewehr, einer schusssicheren Weste und Kisten voller Munition erscheint die Werbezeile: The survival gear that you are missing, Die Überlebensausrüstung, die Ihnen fehlt. Die Teilnehmer hatten zuvor ihre Pläne ganz offen in den einschlägigen Gruppenchats besprochen, dennoch traf die Eskalation die Polizei für die Weltöffentlichkeit erkennbar unvorbereitet.
Der Facebook-Algorithmus zeigte sich weniger überrascht, er sah schon den Bedarf an weiteren Waffen und Material voraus und regierte mit entsprechender Werbung. Ist er doch darauf trainiert, die Absichten der Nutzer aus ihren Datenspuren herauszulesen und ihnen dann entsprechend passende Kaufangebote zu unterbreiten. Er weiß, was Sie brauchen, wenn Sie tagelang mit Gleichgesinnten den Sturm auf die Demokratie geplant haben, schließlich hat er selbst seinen Beitrag dazu geleistet.
Der Text stammt aus Matthias Pfeffers Buch "Menschliches Denken und Künstliche Intelligenz - Eine Aufforderung".
Verlag J.H.W. Dietz, 184 Seiten, 18,00 Euro
ISBN 978-3-8012-0617-8
Denn er kann noch viel mehr, als nur Werbung verkaufen: Er kann Menschen mit ähnlichen Ansichten erkennen, schon bevor sie selbst wissen, dass sie diese Ansichten haben. Und daraus Absichten machen. Durch das permanente Durchpflügen gewaltiger Datenbestände, das Erkennen von Mustern und die Bildung milliardenfacher persönlicher Profile kann er größeres Wissen über seine Datenlieferanten gewinnen, als diese selbst über sich haben, deshalb ihre Vorhaben, Wünsche und Gefühle besser verstehen als sie selbst und darum auch besser steuern.
Durch gezielt verschickte Nachrichten und Beiträge kann er aus latentem Ärger über einzelne Angehörige von Bevölkerungsgruppen manifeste Fremdenfeindlichkeit machen, aus dem Ärger über bestimmte Politiker einen Hass auf die Demokratie. Bei diesem Prozess spielen Fakten kaum eine Rolle, sie sind sogar hinderlich.
Der Algorithmus will Emotionen mobilisieren. Und er ist auf Steigerung aus, weil er Aufmerksamkeit gewinnen und nicht mehr abgeben will. Dabei hilft ihm eine zunehmende Polarisierung.
Eine bestimmte psychische Disposition des Nutzers, die er aus dessen Daten herausgelesen hat, kombiniert mit anderen Datenpunkten reicht ihm aus, um ihn einschlägigen Gruppen vorzuschlagen, die ihn dort mit weiterem "passenden" Material versorgen.
Ein radikaler Anführer, der den Ton vorgibt, hat sich dort schon längst gefunden: Er hat die meisten Likes der anderen Gruppenmitglieder eingesammelt, indem er den Ärger durch immer spektakulärere und unglaublichere "Enthüllungen" und emotionalisierende Aufrufe befeuert. Wenn er noch dazu selbst der Präsident ist, umso besser.
So hat sich die Eskalation der Proteste gegen das Ergebnis einer demokratischen Wahl in der wichtigsten Demokratie, die lange als Anführer der freien Welt galt, vor den Augen eines alles sehenden Algorithmus abgespielt, der dabei keineswegs passiv blieb: Ist er doch darauf trainiert, die Nutzer, die ähnlich ticken, zusammenzubringen, um gleich einer ganzen Gruppe ein passendes Produkt zu empfehlen und sie durch "Anstupsen" dazu zu bringen, es dann auch zu kaufen.
Werbealgorithmen vs. Demokratie
An diesem Tag war die Zahl der entschlossenen potenziellen Käufer von Waffen und Militärausrüstung erfreulich hoch. Erfreulich für die Facebook-Algorithmen. Weniger erfreulich für die Demokratie.
Die Werbetreibenden konnten zufrieden sein: Ihre Botschaft erreichte eine zu hundert Prozent passende Zielgruppe, hatte doch der Algorithmus mitgeholfen, sie passend zuzurichten: Eine Gruppe von Menschen, die buchstäblich zu allem entschlossen war, vor allem dazu, Gewalt einzusetzen.
Der Algorithmus hatte seinen unmerklichen, aber wesentlichen Beitrag dazu geleistet, diesen Werbeerfolg zu ermöglichen. Mission accomplished. Dass dabei kurzzeitig die Demokratie am Abgrund stand, wurde als Kollateralschaden in Kauf genommen.
Der gesellschaftliche Preis für ein solches Werbetool ist hoch, ihn zahlen am Ende alle. Denn der Algorithmus teilt die Bevölkerung in Gruppen und Grüppchen auf, je nachdem wo ihre Schwächen liegen und sie am leichtesten manipulierbar sind, und bestärkt sie dann in diesem Gruppendenken mit "passenden" Nachrichten.
Eine Untersuchung zeigte nach den Ereignissen des 6. Januar, dass in den Tagen nach der Erstürmung die Gruppen der Trump- und Biden-Sympathisanten jeweils zwei völlig unterschiedliche Wirklichkeiten bei Facebook angezeigt bekamen2. Das Ereignis wurde so zum Katalysator weiterer gesellschaftlicher Spaltung.
Alles Folge eines Werbemodells, das auf Personalisierung setzt und dabei den gemeinsamen Grund von Überzeugungen, der die Basis von Gemeinsinn bildet, gezielt untergräbt. Und Folge von Algorithmen, deren Belohnungssysteme ausschließlich darauf programmiert sind, die Verweildauer der Nutzer und die Klickrate der Werbeanzeigen zu maximieren.
Ein Algorithmus, der alle überwacht und dabei die Strippen zieht, um die Überwachten in seinem Sinne zu lenken. Natürlich ist das eine Metapher. Die aber einen maßgeblichen Kern des neuen Überwachungskapitalismus trifft.
So hat die US-amerikanische Autorin Shoshana Zuboff das neue digitale ökonomische System bezeichnet, das die Daten der Nutzer sammelt und auswertet, um aus ihnen Verhaltensprognosen zu erstellen, die an den Warenterminmärkten der Aufmerksamkeitsökonomie hoch profitabel gehandelt werden.3 Doch wer ist der Algorithmus, und wenn ja, wie viele?
Hinter diesen hochkomplexen Programmen lassen sich die Ziele der Unternehmen erkennen, die sie betreiben. Und einige von ihnen sind sehr tückisch. Man sollte glauben, dass sie ihr Ziel, die Klickrate zu erhöhen, um dadurch mehr Werbung zu verkaufen, lediglich dadurch verfolgen, dass sie dem Nutzer Informationen anzeigen, die er mag, damit er daraufklickt und das Produkt erwirbt.