"KI ist in der Tat dumm, aber gleichwohl extrem mächtig"
Erstürmung des Kapitols als Höhepunkt der demokratiefeindlichen Entwicklung von Social-Media-Plattformen: "Wir müssen daraus lernen." Interview mit Matthias Pfeffer
Herr Pfeffer, Sie schreiben in Ihrem Buch "Menschliches Denken und Künstliche Intelligenz", wir würden von Algorithmen bestimmt. Wie das?
Matthias Pfeffer: Ich beschreibe, wie Künstliche Intelligenz immer stärker unser Leben durchdringt und uns dabei auch zunehmend Entscheidungen abnimmt. Wie stark wir uns wirklich von ihr bestimmen lassen, liegt aber noch immer an uns.
Die Bestimmung durch Algorithmen hat viel mit Bequemlichkeit zu tun: Sie bieten uns ein gewohntes Umfeld, Bilder, Kontakte.
Matthias Pfeffer: Ja, und die Bequemlichkeit, die sie im Alltag bieten, ist auch ein maßgeblicher Grund für ihren Erfolg. Aber die Bequemlichkeit kann auch zur Falle werden, wenn wir zunehmend unser Denken, Erinnern und Entscheiden an solche Systeme auslagern.Und wir dürfen dabei eins nicht vergessen: Die Bequemlichkeit entsteht nicht zuletzt durch personalisierte Datenprofile, auf deren Grundlage die Algorithmen herausfiltern, was für uns interessant sein könnte oder auch ihrer Meinung nach interessant sein sollte.
Wird dieses Micro-Targeting mit Techniken des Nudgings, also gezielten Anstupsens kombiniert, wird der Service, der in interessanten Angeboten besteht, schleichend zur Bevormundung. Besonders problematisch ist, dass diese Techniken, die ursprünglich für Produktwerbung entwickelt wurden, inzwischen ebenso in der Information und Meinungsbildung eingesetzt werden.
Dabei sind Algorithmen an sich dumm. Und doch können Sie, wie Sie schreiben, "Menschen mit ähnlichen Ansichten erkennen, schon bevor sie wissen, dass sie diese Ansichten haben - und daraus Absichten machen". Wie definieren Sie den Punkt, an dem ein grundsätzlich dummer Algorithmus zu einer menschen- und weltformenden Macht wird?
Matthias Pfeffer: KI ist in der Tat dumm, aber gleichwohl extrem mächtig. Das Problem entsteht, wenn die Algorithmen auf eine gewaltige Masse persönlicher Daten zugreifen können, die sie im Abgleich mit Big Data zu individuellen Profilen formen und schließlich durch Mustererkennung zu Verhaltensvorhersagen hochrechnen können. Das ganze passiert noch dazu in Echtzeit. Das macht gerade die Social-Media-Algorithmen so mächtig.
Dumm sind sie dennoch, weil sie ihr Ziel um jeden Preis verfolgen, das heißt, die eigenen Mittel nicht auf Angemessenheit überprüfen können. Das nennt der amerikanische KI-Forscher Steward Russel das derzeitige "Standard Modell der KI", dem wir viele der negativen Folgen von Social-Media-Plattformen zu verdanken haben.
Erstürmung des Kapitols: Hoffentlich ein Wendepunkt
In Ihrem Buch führen Sie anfangs die Erstürmung des Kapitols an. Was lässt sich aus dem Geschehen lernen?
Matthias Pfeffer: Die Erstürmung des Kapitols war ein vorläufiger Höhepunkt der demokratiefeindlichen Entwicklung von Social Media Plattformen und sie wird hoffentlich zu einem Wendepunkt. Wir müssen daraus lernen, dass solche Plattformen endlich Verantwortung für die Inhalte übernehmen müssen, die sie verbreiten und mit denen sie Milliarden verdienen.
Facebook hat alleine im vergangenen Jahr fast 30 Milliarden Dollar verdient. Doch langsam, wenn auch sehr spät, wächst dafür das Bewusstsein. Die Amerikaner prüfen nun wirksame Regulation, selbst Marc Zuckerberg fordert sie ja in seinem Statement zu den Äußerungen der Whistleblowerin Frances Haugen ein. Und die frischgebackene Friedensnobelpreisträgerin und Journalistin Maria Tessa bezeichnet Facebook als Gefahr für die Demokratie. Ich zeige in meinem Buch auf, warum sie recht hat.
Zeigt das Beispiel der Werbung für Waffen und Militärausrüstung während des Sturms auf das Kapitol nicht aber auch, dass KI an sich wertfrei ist, in Verbindung mit bestimmten Interessen - hier dem Verkauf von Waffen an Aufrührer und Terroristen - aber destruktiv wird?
Matthias Pfeffer: Diese Technik ist aus meiner Sicht nicht "wertfrei", weil sie wegen ihres grundlegenden manipulativen Charakters die Autonomie der Menschen untergräbt und damit ihre Freiheit aushöhlt, eigene Entscheidungen zu treffen. Dazu sind die Algorithmen auf Emotionalisierung ausgelegt, sie bevorzugen Lügen, Wut und Hass gegenüber Fakten.
Das kann man nicht als wertfreie Technik bezeichnen. Microtargeting auf der Basis ungeheuerer persönlicher Datenprofile hat in der öffentlichen Kommunikation und der politischen Willensbildung nichts verloren.
Der Kurzschluss mit "der Vernunft"
Sie führen die menschliche Vernunft als Mittel gegen die Gefahren einer unkontrollierten KI an. Gerade diese Vernunft stehe aber auf der Anklagebank und werde für alle Probleme verantwortlich gemacht. Wie kommen Sie zu dieser These?
Matthias Pfeffer: Wenn man sich die intellektuellen Debatten in der westlichen Welt in den vergangenen 40 Jahren ansieht, erkennt man ein Muster radikaler Vernunftkritik, das sich als der letzte Schrei ausgibt. Dabei geht das postmoderne Denken auf den Irrationalismus des 19. und beginnenden 20. Jahrhunderts zurück.
Damals machte man in der Kritik an den Auswüchsen der Moderne die wissenschaftlich-technische Rationalität für alle Fehlentwicklungen verantwortlich. Weil mit ihr die moderne Technik ihren Siegeszug antrat, identifizierte sie sich gleich ganz mit "der Vernunft".
Das ist aber ein Kurzschluss, weil es auch ästhetische und politische Vernunft gibt, die einer anderen, weil auf Verständigung zielenden Logik folgt. Gerade letztere brauchen wir heute dringender denn je. Heute wird aber leider dieser Vernunft kaum noch zugetraut, dass sie über Sprach- und Kulturgrenzen hinaus verbindliche Regeln des Zusammenlebens schafft. Schauen Sie sich nur den postkolonianistischen Diskurs an, in dem universelle Menschenrechte als bloße Waffe des westlichen Kolonialismus diffamiert werden.
Das hören die Chinesen gerne, ist aber ein Problem, weil wir umgekehrt der planetarischen Technik fraglos zutrauen, weltweite Standards zu setzen. Von denen werden wir dann bald regiert, wenn wir nicht entschlossen gegensteuern.
Der Homo sapiens wird also zum Homo digitalis?
Matthias Pfeffer: Ich behaupte, dass die Sapientia des Menschen der künstlichen Teil- und Scheinintelligenz überlegen ist und überlegen bleiben wird, wenn wir sie richtig einsetzen. Denn künstliche Intelligenz hat Grenzen, die sie aus logisch-mathematischen Gründen nicht überwinden kann. Denken Sie an Turings Halteproblem, das Algorithmen nicht lösen können.
Wesentlicher ist aber, dass sie nicht reflektieren und damit nicht kritisch abwägen und denken können und eigentlich nur in stabilen Systemen funktionieren. Unsere Welt ist aber ein sehr offenes System, wir müssen mit dem Überraschenden jederzeit rechnen. Da sind unsere Intuitionen besser geeignet. Wir brauchen unsere Weisheit weiterhin und dürfen uns von den Predigern einer überlegenen Künstlichen Intelligenz nicht verdummen lassen.
Ist die Erfolgsgeschichte der KI nicht eine direkte Folge der modernen Gesellschaften mit ihrer Überflutung mit Information und Wissen, in der sie die Welt künstlich vorordnet?
Matthias Pfeffer: Gerade die Corona-Krise hat diese Überforderung doch gezeigt. Ja, die Digitalisierung macht die Komplexität der modernen Gesellschaft sichtbar, bringt sie aber auch in Teilen erst hervor. Wenn wir diese Komplexität beherrschen und steuern wollen, müssen wir vom deskriptiven Beschreiben, dass die KI ermöglichen kann, zum normativen Gestalten der Zukunft übergehen. Da sind wir Menschen mit unserer politischen Vernunft gefordert. KI kann uns da nicht helfen.
Und gerade die Corona-Krise hat uns ja gezeigt, dass es am Ende auf die Einsicht und das freiwillige Verhalten der Menschen ankommt. Nur durch vernünftige Einsicht in grundlegende Fakten lässt sich das erreichen.
Ihr Lösungskonzept ist also?
Matthias Pfeffer: Über KI nachdenken, damit wir mit menschlichen Maßstäben die Zukunft vorausdenken und gestalten können. Dazu gehört angesichts der Anarchie der vergangenen Jahrzehnte vor allem, dass wir unser Recht fit machen für die digitale Zukunft, indem wir verbindliche Gesetze und Regel erlassen und übermächtige Konglomerate zerschlagen.