Die Verwandlung des Politischen

Seite 4: KI als "humanpenetratives" Regierungsinstrument Chinas

Autoritäre Gesellschaften gehen heute in der Umwandlung von KI-Technologien zu direkter politischer Valenz voran. So wird Künstliche Intelligenz vor allem in China als politisches Staatsinstrument im Sinn eines neuen "sozialen Ingenieurswesens" inszeniert. KI wird hier als höhere Stufe zeitgenössischer politischer Kybernetik verstanden.

So soll KI laut dem Willen der autoritären chinesischen Regierung zum Beispiel Körpersprache antizipativ auf künftiges Verhalten hin untersuchen. Damit soll, wie es Xi Jinpings Regime plant, Überwachung auf ein "höheres" Niveau gehoben, als es je vor KI existierte.

Mittels beispielloser Vergleichs-Rechenleistung soll Kontrolle auch im Hinblick auf individuelle menschliche Entwicklung zukunftsantizipativ gemacht werden. Bereits an der Körpersprache von Kindern in der Schule, etwa bei Sitzen, Sprechen oder Interagieren, sollen mögliche künftige Dissidenten gegen die "wahre kommunistische Lehre" von spezialisierter KI erkannt werden – um sie dann in ihren Lebensläufen entsprechend zu "korrigieren" und einzugrenzen.

Aber auch das Alltagsverhalten, ja die individuellen Vorlieben und der Gesichtskreis der Bürger soll laut dem Willen der Staatsführung mit KI immer umfassender kontrolliert werden. Nicht nur kann die chinesische Regierung mittlerweile innerhalb weniger Sekunden jeden Bürger mittels KI-Gesichtsscan aus der Ferne identifizieren und dabei gleich sämtliche Lebensinformationen über ihn abrufen.

Man entscheidet über sein weiteres Schicksal auch mittels ethnischem Profiling (ethnic profiling). Die Regierung kann mittels spezialisierter – zum Teil in den USA für sie gebauter – KI inzwischen sogar bei Fußgängern soziales und damit auch politisches Verhalten vorhersagen. Laut Forschern kann die dafür betriebene Software

die Persönlichkeit eines jeden Fußgängers klassifizieren. Sie kann auch andere biometrische Merkmale identifizieren, wie aus den Dokumenten zur Forschungsförderung hervorgeht. "Diese Fähigkeiten werden genutzt, um das Verhalten jedes Fußgängers vorherzusagen. Sie sind für Überwachung nützlich", heißt es in dem Dokument.

Zudem erprobt die chinesische Regierung in immer breiterem Maß die Überwachung von Gehirnfunktionen der Bevölkerung. So ist

in einigen chinesischen Fabriken bereits routinemäßig ein KI-System zur ‚Emotionalen Überwachung‘ im Einsatz. Es beobachtet Anzeichen für negative Gedanken der Mitarbeiter per Sensoren – direkt an ihren Köpfen. Es klingt wie der Plot eines George-Orwell-Romans, ist aber Realität im China bereits seit dem Jahr 2018:

  • In Mützen, Uniformhüte oder Helme von Arbeitern werden Sensoren eingebaut.
  • Diese Sensoren übertragen die Gehirnwellen der Arbeiter an einen Computer.
  • Eine Software analysiert kontinuierlich die Gehirnwellen der Arbeiter.
  • Sie überprüft Anzeichen für Stress, Angst und Depressionen.

Wie die South China Morning Post (SCMP) berichtet, ist die Idee hinter dem System, "die Moral der Arbeiter zu stärken – und zwar bevor emotionaler Stress ein Problem auslöst und nicht erst danach".

Deutschlandfunk Nova.

Zu den KI-überwachten inneren menschlichen Regungen zum Beispiel die Gehirnaktivitäten von Zugführern. Sie werden systematisch aufgezeichnet, gespeichert und mittels KI verglichen. Daraus wird ein "Normalitätsspektrum" abgeleitet. Funktionsweise und tatsächlicher Nutzen des Systems bleiben natürlich weitgehend geheim, weil Regierungssache:

Die MIT Technology Review schreibt, das Ganze funktioniere vermutlich wie ein Elektroenzephalogramm, kurz EEG. Das wird zum Beispiel auf Intensivstationen genutzt, um Patienten zu überwachen. Neurologen nutzen es auch, um sich einen Eindruck von Gehirnaktivitäten zu machen.

Die Technologie ist also an sich nicht neu und überall auf der Welt im Einsatz. Sie wird in China allerdings mittlerweile in einem "nie dagewesenen Ausmaß" in Fabriken, im öffentlichen Nahverkehr und in staatlichen Betrieben eingesetzt. Damit soll die Wettbewerbsfähigkeit und die "soziale Stabilität" der Menschen erhöht werden, um etwa eine Selbstmordserie unter gestressten Arbeitern zu vermeiden.

Deutschlandfunk Nova.

Der Gebrauch ist je nach Institution unterschiedlich und wird mit hohem Aufwand an die Bedürfnisse angepasst:

Manche chinesische Firmen nutzen die Sensoren "nur" für Simulationen in der Virtuellen Realität – um etwa neue Arbeitsabläufe auf ihre Stressfaktoren zu prüfen. Bei anderen Firmen sind die Sensoren schon im Dauereinsatz: Die Firma Hangzhou Zhongheng Electric nutzt das System für alle Fließbandarbeiter. Auch die State Grid Zhejiang Electric Power in der Zhejiang-Provinz nutzt das System flächendeckend. Ebenso ist die Technik bei einigen Teilen des chinesischen Militärs im Einsatz.

Deutschlandfunk Nova.

Wozu das Ganze? Die politischen Implikationen stehen in der "humantechnologischen" KI-Anwendung Chinas klar im Vordergrund. Es geht darum, die Befindlichkeit der Bürger "von innen" zu durchschauen und damit weit tiefer als bisher möglich zu kontrollieren. Diese Ziele der Regierung bleiben der Bevölkerung aber weitgehend verborgen:

Die Forscher, die das System entwickelt haben, glauben, dass es eine Riesen-Errungenschaft in punkto Arbeitssicherheit ist. Die Ningbo University ist eines der Hauptforschungszentren des Projekts. "Wenn das KI-Gehirnüberwachungs-System eine Warnung ausspuck", so Professor Jin Jia, ‚dann bittet der Manager den Arbeiter, einen Tag Pause zu machen oder zu einem weniger anspruchsvollen Job zu wechseln.

Manche Jobs erfordern ein hohes Maß an Konzentration, da gibt es keinen Raum für Fehler!‘ Die MIT Technologie Review hält die Möglichkeiten des Überwachungssystems bislang allerdings für begrenzt. Ein EEG, das über Hautkontakt aufgezeichnet wird, sei sehr limitiert darin, was genau es feststellen könne. Denn die genaue Beziehung zwischen EEG-Signalen und menschlichen Emotionen sei bis heute unklar.

Deutschlandfunk Nova.

Inwieweit die "Emotionale Überwachung" auch für Vertreter aus den eigenen Reihen der regierenden Partei gilt, womit die KI-Revolution Chinas dann ihre eigenen Kinder aufzufressen beginnen würde, wird zu sehen sein. Damit würde die systemische Macht ironischerweise zusehends von (regierenden) Menschen auf KI übergehen – obwohl diese Menschen sie doch nur für eigene Machtansprüche benutzen wollten.

Algorithmen politisieren

Die im Dezember 2021 verabschiedeten Gesetze zur Regelung von Such- und Ergebnisreihungs-Algorithmen in chinesischen Internet-Suchmaschinen sind ein weiterer Baustein der Politisierung von KI.

Sie werden in den kommenden Jahren möglicherweise weltweite Folgen zeitigen. Unter dem Deckmantel der "Transparenz" verlangt die chinesische Regierung seit 2021 Zugriff auf die Empfehlungs-Algorithmen der Suchmaschinen. Sie schreibt diesen Algorithmen die "Verbreitung positiver Energie" vor, also die automatisierte Erstreihung von der Regierung genehmen Inhalten.

Dazu fordert sie aber auch die präventive Ausscheidung dessen, was sie "Falschinformation" nennt – das heisst all dessen, was der Regierung nicht gefällt:

Die chinesische Cybersicherheitsbehörde hat eine Reihe neuer Vorschriften für Empfehlungsalgorithmen erlassen. Sie regeln den Einsatz dieser Technologie in erheblichem Maße. Die Vorschriften… werden Auswirkungen auf Unternehmen haben, die auf diese Technologie angewiesen sind, wie zum Beispiel Social-Media-Anwendungen, E-Handelsplattformen und Nachrichtenseiten. Sie werden diese dazu zwingen, die Aufsicht zu verstärken und technische Anpassungen vorzunehmen.

China Briefing

Worum genau handelt es sich?

Am 31. Dezember 2021 verabschiedete die Cybersecurity Administration of China (CAC), Chinas Internetaufsichtsbehörde, die Internet Information Service Algorithm Recommendation Management Regulations, ein Regelwerk, das die Verwendung – und den von der Regierung so genannten "Missbrauch" – von Empfehlungsalgorithmen einschränkt.

Diese Vorschriften sind das umfangreichste Regelwerk, das jemals für die Implementierung von Empfehlungsalgorithmen in der Welt geschaffen wurde. Sie fordern von den Firmen Auskunft darüber, wie die Algorithmen funktionieren, und geben den Nutzern mehr Kontrolle darüber, welche Daten Unternehmen für den Algorithmus verwenden können.

Die Vorschriften gehen aber auch weit über die Rechte der Nutzer hinaus und verlangen, dass die Betreiber von Algorithmen einen ethischen Kodex befolgen, um "positive Energie" im Internet zu fördern und die Verbreitung unerwünschter oder illegaler Informationen zu verhindern.

China Briefing