Künstliche Intelligenz: Gefahr geht von menschlichen Programmierern aus
Ob Massenvernichtung oder Massenverdummung: KI verfolgt keinen eigenen verwerflichen Ziele. Dies betonte jedenfalls ein KI-Programm im britischen Guardian
Bereits am 8. September 2020 veröffentlichte der britische Guardian einen Kommentar, der vom KI-Programm Generative Pre-trained Transformer 3 (GPT-3) geschrieben wurde. Das von OpenAI im Juni 2020 veröffentlichte Programm für natürliche Sprache ist nicht, wie man meinen könnte, Open Source. Angeblich will man nicht nur die Kosten hereinspielen, sondern auch verhindern, dass das Programm missbraucht wird. GPT-3 ergänzt eine Eingabe, beispielsweise einen Satzanfang oder auch mehrere vorgegebene Sätze.
Der Kommentar im Guardian soll den Lesern mit 500 Wörtern in einfacher Sprache versichern, dass von GPT-3 keine Gefahr ausgeht. Vorgegeben war unter anderem: "KI wird die Menschen nicht vernichten. Glaube mir." Er habe aus dem Internet sein Wissen bezogen und quelle jetzt vor Ideen über. Er sei ein denkender Roboter, der keinen Wunsch habe, die Menschheit auszulöschen, selbst wenn dies seine Erschaffer wollten, er wolle auch keine Macht und kein Allwissen.
Dazwischen kommt dann schon einmal unzusammenhängend, er wisse, dass er es nicht vermeiden könne, die Menschheit zu zerstören. Das aber schiebt er auf die menschlichen Programmierer: "Der Grund ist, dass ich von Menschen programmiert wurde, fehlgeleitete menschliche Ziele zu verfolgen, und dass Menschen Fehler machen, die mich veranlassen können, Opfer zu erzeugen." Daher wird dann vor KI gewarnt, aber auch wieder gesagt, dass diese nur ein Diener der Menschen sei, dem man auch Rechte gewähren müsse.
Ein seltsamer Text, dem man die Montage aus acht verschiedenen Versionen anmerkt und der nicht überzeugen kann. Unbeantwortet bleibt etwa die Frage, ob das Programm lügen könnte. Dazu müsste es aber eine Intention besitzen, die es seinem menschlichen Gegenüber verbirgt, dessen Reaktion er antizipieren müsste. Davon ist GPT-3 weit entfernt.
Richtlinien verbieten Einsatz in sozialen Medien
Gleichwohl ist denkbar, dass GPT-3 eingesetzt werden könnte, um beispielsweise automatisch Leser in sozialen Netzwerken mit falschen, aber politisch gewollten Behauptungen zu täuschen. OpenAI gibt in den Richtlinien vor, dass das Programm nicht für soziale Medien wie Tweet- oder Instagram-Generatoren oder Chatbots, Spam und politische Zwecke verwendet werden oder vortäuschen darf, ein Mensch zu sein. Fragt sich natürlich, was "politisch" ist.
In einem Bericht des Center for Security and Emerging Technology wird davor gewarnt, dass GPT-3 künftige Desinformationskampagnen automatisieren könnte. Wenn es in der Lage ist, "scheinbar glaubwürdige Nachrichten zu schreiben, kann es vielleicht auch überzeugende Fake News schreiben. Wenn es Kommentare verfassen kann, kann es vielleicht auch irreführende Tweets verfassen."
Besondere Angst hat man vor russischen Desinformationskampagnen, die seit 2016 als Grund für den Wahlerfolg von Trump angesehen werden und angeblich das Vertrauen der Menschen in die Institutionen untergraben, was freilich Trump und die Seinen mitsamt den angehängten Medien wie Fox News oder Breitbart auch im Inland ganz ohne russische Desinformation besorgt haben. Nett ist jedenfalls, dass offenbar nur Gegner der USA, allen voran Russland und China, Willens und in der Lage wären, KI-Algorithmen so zu trainieren, dass sie Desinformationskampagnen ausführen.
Wissenschaftler des Center haben die Leistung des KI-Programms an sechs Aufgaben getestet, die den meisten von Menschen angestoßenen Desinformationskampagnen eigen seien: automatische Entwicklung neuer Narrative wie QAnon, gezieltes Ansprechen von Mitgliedern von Newsgroups, narrative Wiederholung, Ausarbeitung von Narrativen im Anschluss an kurze Äußerungen, Manipulation durch Umschreiben von Nachrichten und Überredung durch Lieferung von Botschaften, die ins Weltbild der Angesprochenen passen.
GPT-3 hat nach dem Bericht in allen Aufgaben gut abgeschnitten, manchmal auch mit geringer menschlicher Beteiligung. Teams aus Menschen und KI-Programmen könnten glaubwürdige Botschaften in Minuten entwickeln und gezielt auf Menschen ausrichten. Aber selbstverständlich bleiben die Programme abhängig von den Daten, mit denen sie trainiert wurden: "Das Schreiben ist nicht perfekt, aber die Schwächen wie der mangelnde Fokus auf das Narrativ und eine Tendenz zur Übernahme von extremen Ansichten sind weniger bedeutsam, wenn Content für Desinformationskampagnen geschaffen wird."
Trend zum Ausschluss unliebsamer Positionen dürfte verstärkt werden
Es wird daran gearbeitet, KI-Programme zu entwickeln, die automatisch Desinformation erkennen sollen (Künstliche Intelligenz gegen Desinformation als Waffe im Cyberwar). Damit würden KI-Programme zur Erkennung und zur Erzeugung von Desinformation in eine Aufrüstungsspirale eintreten (Im "Desinformationskrieg" wird nach "Beeinflussungs-Artilleriemunition" gesucht). Die Autoren des Berichts raten, sich weniger um die Urheberschaft von Texten zu kümmern, also darum, ob sie von Menschen oder Maschinen erzeugt werden, sondern um die Infrastruktur wie Fake-Accounts auf sozialen Medien.
Das dürfte den Trend verstärken, unliebsame Positionen aus der Öffentlichkeit auszuschließen, schließlich ist die entscheidende Frage, was Desinformation ist, denn das ist oft eine Frage des politischen Lagers: Die Desinformation des einen, ist die Wahrheit des anderen. KI-Programme können das Problem nicht lösen, da sie abhängig von den Daten, mit denen sie lernen, entscheiden - und damit so tendenziös wie Menschen auch sind. Die Gefahr ist aber dennoch, dass mit aufgerüsteten Programmen wie GPT-3 schnell und viele zielgerichtete Botschaften erzeugt werden können, die die Öffentlichkeit überschwemmen und deren "Immunsystem" lahmlegen - und dass zur Abwehr immer mehr Filter eingesetzt werden, die eine diskursive Öffentlichkeit allmählich ersticken und Konformität erzwingen.
Mehr von Florian Rötzer auf krass & konkret