Die Verwandlung des Politischen

Seite 5: Politische Grauzonen zwischen den Systemen entstehen

Interessant ist, dass zeitgleich auch in den offenen Gesellschaften die Politisierung der KI-Algorithmen-Macht voranschreitet – wenn auch weniger offen und autoritär. So plant zum Beispiel Facebook den Einsatz Künstlicher Intelligenz, um in seinem weltweiten Einflussbereich unerwünschtes Verhalten oder "Desinformation" auszuschliessen und "politische Korrektheit" zu garantieren. Das erfolgt angeblich in umgekehrter Stossrichtung zu China, aber faktisch nicht völlig gegenläufig dazu.

Denn dazu arbeitet die Firma offenbar bereits seit 2021 mit der US-Regierung unter Biden und sogar mit dem FBI zusammen, was die Informationsflüsse des sozialen Mediums direkt politisiert. Vor allem auch deshalb ist die Rolle der KI-beeinflussten sozialen Medien in Amerika zum großen politischen Zukunftsthema geworden.

Nach dem Bekanntwerden des globalen Wahl-Beeinflussungs- und Manipulationsskandals durch die weltweit tätige israelische Firma "Team Jorge" von Tal Hanan im Februar 2023, die gegen Geld dutzende, wenn nicht gar hunderte Wahlen mittels KI-Programmen beeinflusst haben soll, hat sich die Sorge um diese Politisierung von KI auch in Europa und dem Westen weiter verstärkt.

Andere "große Spieler" wie Google mit seiner eigens für das autoritäre China geplanten KI-Suchmaschine "Dragonfly", wählen den Mittelweg. Sie passen sich unterschiedlichen politischen Systemen ebenso flexibel wie werteneutral an.

In Erwartung unsicherer Zukünfte wählen sie strategisch bewußt die Mitte zwischen "autoritär" und "offen", und bedienen "kontextuell" beide Systeme. Das führte eben wegen der damit verbundenen politischen Dimension zu wiederholten Protesten von Mitarbeitern. "Dragonfly" wurde nach offizieller Darstellung schliesslich eingefroren.

Aus Sicht von Kritikern zeigt die KI-Entwicklung im vorpolitischen Feld global operierender Informationsriesen wie Google, dass diese offenbar wegen ihrer Entgrenzung vom Ursprungsland und ihrer profitbezogenen "Emanzipation" von den politischen Systemen des Westens keine strikt demokratischen oder ethischen Werte mehr im Zentrum führen – jedenfalls nicht in ihrer globalen Agenda. Sie vertreten eher "neutrale" Positionen, die zumindest indirekt oft autoritären Regimen und den von ihnen abhängigen Konkurrenzfirmen wie Alibaba und Tencent zugutekommen.

Vor allem vertreten westliche Informationsgiganten demokratische Werte nicht mehr ausdrücklich gegen nicht-demokratische Regime – jedenfalls nicht dort, wo diese Werte sowohl ökonomisch wie gesellschaftlich real sozio-politisch wirksam werden. Das hat das Beispiel der raschen, kompromisslosen und abkommenswidrigen Niederschlagung der Demokratie-Bewegung und des "Ein Land, zwei Systeme" Modells Hongkongs durch Peking gezeigt. Vonseiten westlicher Firmen gab es kaum Aufschrei.

KI-Entwicklungen verwischen die Grenzen zwischen demokratisch und autoritär

Vor diesem Hintergrund verwundert es nicht, dass sich KI-Entwicklungen inzwischen über die Rivalität politischer Systeme hinweg verschränken, ja dass die Grenzen zwischen ihnen im informellen Bereich immer öfter verschwimmen. So vervielfältigen sich transnationale Überschneidungen zwischen politischem Gebrauch und Sicherheits-Anforderungen. Dabei ist das Unterlaufen westlich-demokratischer Standards mittlerweile vor allem wegen chinesischen Einflusses auch im Westen gang und gebe.

Nur ein Beispiel unter vielen? Die Entwicklung von Überwachungs- und Identifikations-KI in den USA für Chinas diktatorische Regierung – just zu einem Zeitpunkt wachsender geo- und systempolitischen Konfrontation beider Länder:

Amerikanischer Starprofessor entwickelte Überwachungsmaschine für chinesische Big Tech. Ein Professor aus Maryland hat für den Tech-Giganten Alibaba eine Software entwickelt, die die Persönlichkeit von Menschen lesen und ihr Verhalten vorhersagen kann...

Ein Starprofessor der University of Maryland (UMD) hat im Rahmen eines sechsstellig finanzierten Forschungsstipendiums des chinesischen Tech-Riesen Alibaba eine Software für maschinelles Lernen entwickelt, die "für die Überwachung nützlich" ist. Alibaba finanzierte ein Forschungsteam unter der Leitung von Dinesh Manocha, einem Professor für Informatik, mit 125.000 Dollar, um eine Software für die städtische Überwachung zu entwickeln.

Diese kann "die Persönlichkeit jedes Fußgängers klassifizieren und andere biometrische Merkmale identifizieren", wie aus den offiziellen Forschungsunterlagen hervorgeht, die auf Anfrage der Öffentlichkeit zugänglich gemacht wurden.

"Diese Fähigkeiten werden genutzt, um das Verhalten jedes Fußgängers vorherzusagen und sind für die Überwachung nützlich", heißt es in dem Dokument. Die Überwachungsprodukte von Alibaba erlangten bereits im Jahr 2020 Berühmtheit, als Forscher herausfanden, dass eines der Produkte, Cloud Shield, die Gesichter von Uiguren erkennen und ethnisch klassifizieren kann.

Daily Beast

Der Fall ist auch deshalb von Bedeutung, weil hier im Westen hergestellte KI direkt und in breitem Still für verbrecherische politische Zwecke benutzt wird:

Menschenrechtsgruppen sind der Meinung, dass diese Hightech-Überwachungsinstrumente eine wichtige Rolle beim laufenden Völkermord an den Uiguren in Xinjiang spielen. "Die Quintessenz ist, dass Alibaba akademische Forschung in den USA finanziert hat, die für Chinas Überwachungsstaat maßgeschneidert wurde", sagte Ryan Fedasiuk, ein Associate Fellow am Center for New American Security.

Manocha ist ein hochdekorierter Wissenschaftler auf dem Gebiet der Künstlichen Intelligenz und Robotik, der von Google, IBM und vielen anderen mit Preisen und Auszeichnungen bedacht wurde. Sein Star-Status bringt Belohnungen mit sich: Die Steuerzahler von Maryland zahlten dem Professor im Jahr 2021 ein Grundgehalt von 355.000 Dollar, wie die staatliche Überwachungsorganisation Open the Books berichtet.

Auch das US-Militär finanziert die Forschung des Professors großzügig. Es hat mit Manochas Labor einen Vertrag über 68 Millionen Dollar zur Erforschung militärischer Anwendungen von KI-Technologien unterzeichnet. Aber nicht nur die Steuerzahler in Maryland und das US-Militär finanzieren Manochas Forschung.

Im Januar 2018 unterzeichneten die University of Maryland und Alibaba einen 18-monatigen Forschungsvertrag zur Finanzierung von Manochas Forschungsteam. In dem Bewilligungsdokument… verpflichtet sich Manochas Team, "eng mit Alibaba-Forschern zusammenzuarbeite", um eine städtische Überwachungssoftware zu entwickeln, die Fußgänger anhand ihrer einzigartigen Gangsignaturen identifizieren kann.

Der Algorithmus würde dann die Gangsignaturen verwenden, um Fußgänger als "aggressiv", "schüchter", "impulsiv" und gemäß anderen Persönlichkeitsmerkmalen zu klassifizieren.

Daily Beast

Die dabei praktizierte Zusammenarbeit überschritt Grenzen sowohl politisch wie ökonomisch und ethisch. Offenbar führt die Politisierung von KI für autoritäre Regime jedoch bislang zu keinen nennenswerten Folgen für Kooperationswillige in offenen Gesellschaften:

"Im Rahmen des Stipendiums mussten die UMD-Forscher in den USA den Überwachungs-Algorithmus an von Alibaba zur Verfügung gestellten Videos testen und ihre Ergebnisse dann persönlich in den Alibaba-Labors in China vorstellen. Die Wissenschaftler mussten außerdem die C++-Codebasis für die Software und den Rohdatensatz des Programms an Alibaba liefern. Die Software soll Demonstrationen und Proteste proaktiv vorhersagen, damit diese rechtzeitig unterdrückt werden können", so Fedasiuk.

"In Anbetracht dessen, was wir jetzt über Chinas Architektur der Unterdrückung in Xinjiang und anderen Regionen wissen, ist klar, dass Dr. Manocha dieses Projekt nicht hätte vorschlagen dürfen; und die Administratoren der UMD hätten es nicht absegnen dürfen." Die UMD lehnte eine Stellungnahme dazu ab…

Daily Beast

KI fördert "dual-use" Praktiken

Interessanterweise praktizieren Spitzenforscher in den USA bei alledem offenbar relativ ungestört "dual use"-Praktiken. Das heißt: sie dienen zwei politischen Systemen gleichzeitig, deren Werte, Menschen- und Gesellschaftsbilder nicht unterschiedlicher sein könnten. Und sie tendieren dazu, für beide ähnliche Instrumente zu produzieren, wie – wenn auch unter anderen Vorzeichen – zum Beispiel der Snowden-Skandal seit 2013 gezeigt hat.

Und dies, obwohl unter anderem die EU China in ihren offiziellen Zukunftsstrategien seit 2019 als "systemischen Rivalen" bezeichnet – mit den USA in noch stärkerer Opposition zum China Xi Jinpings. Das scheint die "trans-zivilisatorischen" KI-Promoter bislang jedoch wenig zu stören.

Betrachten viele von ihnen Technologie doch offenbar als meta-politisch – und damit auch als jenseits bisheriger Werte- und Rechte-Systeme stehend. Manche meinen sogar, eben diese "meta-politische" Rolle intelligenter Technologie sei auf lange Frist ihre "menschheitsvereinigende" Funktion. Wirklich? Auf welcher Grundlage?

Denn heisst das, dass letztlich beide politischen System-Cluster: der geschlossene und der offene, am Ende des Tages mittels Entfaltung von KI-Logiken konvergieren? Offenbar scheinen manche der Ansicht zu sein, KI arbeite in ihren datengetriebenen Entscheidungslogiken ohnehin gegen die Diskussions- und Partizipationskultur offener Gesellschaft. Deshalb mache sie die Unterschiede in der Bereitstellung von Instrumenten für wertepolitischen Gebrauch immer weniger wichtig:

Im Januar 2019 – als der Alibaba-Zuschuss noch aktiv war – sicherte sich Manocha einen vom US-Steuerzahler finanzierten Zuschuss des US-Verteidigungsministeriums in Höhe von 321.000 US-Dollar für sein Forschungsteam. Mit den beiden Zuschüssen wurden sehr ähnliche Forschungsprojekte finanziert. Der Alibaba-Zuschuss trug den Titel "Large-scale Behavioral Learning for Dense Crowds" [Verhaltenslernen in großem Stil für dichte Menschenmengen].

Der Zuschuss des US-Verteidigungsministeriums hingegen diente der Erforschung "effizienter Berechnungsmodelle für die Simulation großer heterogener Menschenmengen". Es überrascht nicht, dass sich die Forschungsergebnisse der beiden Stipendien überschneiden. Zwischen 2019 und 2021 veröffentlichte Manocha mehrere Artikel im Bereich der KI und des maschinellen Lernens, in denen er sich sowohl auf den Alibaba- als auch auf den US-Verteidigungsministeriums-Zuschuss bezog.

Daily Beast

Der Manocha-Fall zeigt das Ausmaß der Kombination tiefreichender politischer und sozialer KI-Veränderung mit weitgehender Unvorbereitetheit der Gesetzgeber in offenen Gesellschaften auf. Das Interessanteste an ihm ist, dass es bis heute schwierig bleibt, derartiges Verhalten zu sanktionieren bzw. künftig besser zu kontrollieren:

Es gibt keine Beweise dafür, dass Manocha gegen das Gesetz verstoßen hat, indem er sowohl amerikanische als auch chinesische Fördermittel zur Finanzierung ähnlicher Forschungsprojekte verwendet hat. Nichtsdestotrotz wirft der Fall ernsthafte Fragen zur Ethik der Forschung zum maschinellen Lernen auf… In den letzten Jahren hat die US-Politik darauf hingewirkt, [KI-]Wissenschaftler davon abzuhalten, sich um ausländische Geldgeber zu bemühen.

Ein Memorandum des Weißen Hauses aus dem Jahr 2021 – das unter der Trump-Regierung verfasst und später vom Weißen Haus unter Biden unterstützt wurde – soll der chinesischen Einmischung in die US-Wissenschaft entgegenwirken.

Dies, indem es von den US-Steuerzahlern finanzierte Forscher dazu verpflichtet, "Informationen, die potenzielle Interessenkonflikte aufdecken könnten, vollständig offenzulegen". Im Kongress hat der Abgeordnete Mike Waltz ein Gesetz eingebracht, das Forschung für China in den USA verbietet. Der Kongressabgeordnete sagte, Manochas Fall sei "ein weiterer Weckruf" und "genau der Grund", warum er das Gesetz eingebracht habe.

Daily Beast

In der Tat häufen sich die Indizien für eine künftig notwendige Trennung politisch relevanter KI-Agenden auf der geopolitischen Bühne:

Manochas Verbindungen zu China gehen über seine Arbeit bei Alibaba hinaus. Zwischen 2014 und 2016 arbeitete der Professor als Thousand Talents Scholar, ein chinesisches Programm, das von der US-Regierung als nationale Sicherheitsbedrohung angesehen wird. Im Jahr 2018 holte Baidu, ein weiterer chinesischer Tech-Gigant, Manocha als leitenden Berater für seine Forschungsabteilung an Bord.

Der Professor arbeitete auch nach dem Auslaufen des Alibaba-Stipendiums im Juni 2019 weiter mit chinesischen Partnern zusammen und verfasste 2020 gemeinsam mit chinesischen Wissenschaftlern, die mit dem chinesischen militärisch-industriellen Komplex verbunden sind, ein Papier.

Jessica Brandt, Policy Director für die Artificial Intelligence and Emerging Technology Initiative an der Brookings Institution, sagte, dass Manochas Fall ein abschreckendes Beispiel für andere US-Forscher sein sollte. "Ich denke, dieser Fall zeigt, wie folgenreich die Entscheidungen von Forschern über die Zusammenarbeit sein können – und wie wichtig es ist, dass die akademische Gemeinschaft Verhaltenskodizes entwickelt, um derartige Entscheidungen auszurichten."

Daily Beast

Die Perspektive: Politische mit Ästhetik-Prozessen verschmelzen?

Künstliche Intelligenz soll schließlich, wenn es nach neueren Entwicklungen wiederum im Mutterkonzern Googles, Alphabet, geht, sogar ästhetische und religiöse Gefühle von Menschen vorhersagen. Dies durchaus auch mit Blick auf deren gesellschaftliche und politische Valenz. Künstliche Intelligenz "sieht inzwischen bereits semi-autonom Bilder im menschlichen Gehirn und rekonstruiert sie". Was damit an Werte-Voraussagen und Zuschneidung von Werbe-Botschaften korreliert, wird wohl auch eingesetzt werden.

Letztlich soll Künstliche Intelligenz sich laut ihren Propagatoren schon bald eigenständig mittels Künstlicher Intelligenz selbst fortschreiben. Sie soll also bereits in der bisher verfügbaren "weichen" Variante technologischer "Intelligenz" – die mutmasslich noch ohne Selbstbewusstsein bleibt – zu einer gewissen Art praktischen, angewandten Selbstreferenz voranschreiten. Auf die damit verbundene, neuartige Dimension deutet hin, wenn bei der Biennale in Venedig 2022 die angebliche Künstliche Intelligenz (AI) AI-Da die

wahre Künstlerin ist. Künstlerin AI-Da ist ein menschenähnlicher Roboter, der bei der Biennale in Venedig 2022 Kunstgeschichte schrieb. Vom lebenden Modell malte AI-Da dank Künstlicher Intelligenz Porträts. Das war eine bislang einzigartige Leistung, die selbst ihrem Schöpfer Adrian Meller zu denken gab.

Die Frage bei AI-da ist – neben der Geschlechtszuschreibung – nur, was genau hier mit "menschenähnlich" gemeint ist. Auch hier gilt: die Unschärfe der Übertreibung, gemischt mit Unklarheit der Begriffe, sorgt für Mystifizierung. Das treibt die Entwicklung weiter voran und hält den Hype am Leben.

Roland Benedikter ist Co-Leiter des Center for Advanced Studies von Eurac Research Bozen, Unesco Chair für Interdisziplinäre Antizipation und Global-Lokale Transformation und Mitglied des Zukunftskreises des BMBF für die deutsche Bundesregierung. Homepages bei Eurac Research: Roland Benedikter und Unesco Chair. Kontakt: roland.benedikter@eurac.edu.