Entstehung von Hybridgebilden

Seite 5: Druck auf den menschlichen Körper auch im Westen

Welchen Druck werden die Ergebnisse solcher KI-Mensch-Experimente auf offene Gesellschaften ausüben? Werden diese möglicherweise bis zu einem gewissen Grad nachziehen müssen, um mit der vernetzten Entwicklung von KI, Daten, Gehirn, menschlichem Selbst und Selbstbild und neuen "autonomen" und "intelligenten" "Humantechnologien" Schritt zu halten?

Dass es in dieser Lage einer immer radikaleren und umfassenderen Verschmelzung von menschlichem Lebensalltag mit digitaler Verarbeitung in der interaktiven digitalen Spieleindustrie, die mittlerweile weltweit die Unterhaltungsindustrie dominiert, sogar als avantgardistisch gilt, Spiele zu konzipieren, die ihre Benutzer tatsächlich real töten, wenn sie verlieren, wie das der Mitgründer der Virtuelle-Realität-Hauben "Oculus", Palmer Luckey, öffentlichkeitswirksam anstrebt, zeigt die wahrhaft tiefenambivalente Dimension dessen, was an der Technologie-Mensch-Schnittstelle vor sich geht.

Ähnliches gilt für die neue Generation von Biohackern, die versucht, im kulturellen Mainstream Fuss zu fassen. Zur historischen Symptomatologie der Bewegung in eine posthumane Welt gehören auch auf den ersten Blick "schwächere" Ansätze mit jedoch potentiell großer Wirkung wie der "KI-Effekt für virtuellen Augenkontakt".

Dieser besteht darin, daß bei Videokonferenzen eine KI in Echtzeit das Aussehen der Augen verändert und den direkten Blick in die Kamera simuliert, obwohl der Mensch in Wirklichkeit die Augen abwendet oder woanders hin richtet. Reale Welt und KI-Welt verschmelzen, und daraus entsteht ein neuer Realitätsprozeß. Dessen spezifische Ontologie kann bislang niemand einschätzen.

Es entsteht eine Welt, die aus der Politik synthetischer Daten besteht

Insgesamt entsteht heute eine Welt, die Experten als eine Welt beschreiben, die aus der "Politik synthetischer Daten" besteht. Synthetische Daten sind Daten über die von Menschen als real erfahrene Welt, die aber nicht aus dieser, sondern aus Hochleistungs-KI-betriebenen Simulationen über diese reale Welt gewonnen werden – um in den Ergebnissen auf die reale Welt angewandt zu werden, darunter auf den Umgang der Menschen mit ihren Gesellschaften. Die Grundlage für die Politik der synthetischen Daten ist, dass

Algorithmen des maschinellen Lernens in der heutigen Gesellschaft fest verankert sind. Daher wurde den Inhalten, Verzerrungen und zugrundeliegenden Annahmen der Trainingsdatensätze, anhand derer viele algorithmische Modelle trainiert werden, viel Aufmerksamkeit geschenkt. Doch was passiert, wenn Algorithmen auf Daten trainiert werden, die nicht real sind, sondern auf "synthetischen" Daten, die sich nicht auf reale Personen, Objekte oder Ereignisse beziehen?

Synthetische Daten werden zunehmend in das Training von Algorithmen für maschinelles Lernen einbezogen, die in verschiedenen gesellschaftlichen Bereichen eingesetzt werden. Die Rolle und die ethisch-politischen Implikationen synthetischer Trainingsdaten für maschinelle Lernalgorithmen sind jedoch noch wenig erkundet.

Die neue Vorherrschaft synthetischer Daten an der KI-Mensch-Systemsteuerungs-Schnittstelle drückt sich unter anderem in neuen Wissenschaftsmethodologien wie "Cliodynamics" aus. Cliodynamics wird unter anderem am "Institut für die Forschung über Weltsysteme" der Universität von Kalifornien (UC) in Riverside vorangetrieben. Cliodynamics versucht als Wissenschaftsansatz, KI zur Simulation, Synthese und – daraus abgeleitet – Antizipation menschlicher Geschichte und Zukunft zu verwenden.

Dabei soll Geschichte in einer Myriade von Daten durch KI erfasst und in die Zukunft "hochgerechnet" werden, wobei "harte" und "weiche" Daten, also natur- und sozialwissenschaftliche Erkenntnisse, gleichermassen einbezogen werden.

Maschinelles Lernen soll sowohl qualitative wie empirisch-quantitative Fakten inter- und trans-disziplinär integrieren und die aus ihnen erwachsende – reale und optionale – Transformationsqualität in die Zukunft projizieren. Kritiker argumentieren jedoch, Geschichte liesse sich nicht einfach in die Zukunft hochrechnen – jedenfalls solange sie noch "menschliche" Geschichte sei.

Synthetische Daten werden aber auch essentiell für die Vorhaben neuer transhumanistischer Parteien wie der deutschen Partei für schulmedizinische Verjüngungsforschung, die bei der Wahl für das Berliner Abgeordnetenhaus 2023 unter dem Namen "Partei für Gesundheitsforschung" kandidiert und in 20 Jahre den Alterungsprozess umkehren will, damit Menschen "tausende Jahre leben können". Das scheint ein positives Vorhaben zu sein. Tatsächlich birgt der Aufstieg "synthetischer" Daten laut Experten aber auch Gefahren:

Man muss sich fragen: Welche neuen Risiken werden durch synthetische Daten als Risikotechnologie erzeugt? Und umgekehrt: Welche neuen Möglichkeiten der Risikobeherrschung in der Gesellschaft werden durch synthetische Daten ermöglicht?

Ein Bereich künftiger Forschung könnte die Frage sein, wie synthetische Daten an der Erzeugung (und Verstärkung) von Anomalien beteiligt sind. Ein generatives algorithmisches Modell… kann den Mustern, Regelmäßigkeiten und Merkmalen einer [spielebasierten] Datenverteilung ausgesetzt werden und dann iterativ lernen, entweder synthetische Daten zu erzeugen, die sich dieser Verteilung annähern, oder synthetische Randfälle, die in dieser Verteilung nicht ausreichend abgedeckt sind.

Die Idee ist, dass diese Randfälle verwendet werden können, um den Trainingsdatensatz eines Algorithmus für maschinelles Lernen zu erweitern, der zur Erkennung von Anomalien in Bereichen wie zum Beispiel Einwanderung, Terrorismus, Finanzen und Versicherungen eingesetzt wird. Anders ausgedrückt: Die Variabilität oder das Seltene wird mittels KI-Simulation erzeugt, damit es in den Trainingsdaten verstärkt werden kann.

Wenn beispielsweise nicht genügend potenzielle Terroristen im Datensatz vorhanden sind, können diese von der KI generiert werden. Synthetische Daten tragen zur Entstehung von Möglichkeitsräumen für die Erkennung von Anomalien in immer höherer Auflösung und Granularität bei…

Diese Fragen erhalten zusätzliche Tiefe, wenn man das Versprechen von Unternehmen… in Betracht zieht, jede benötigte Vielfalt zu generieren, wie z.B. mehr synthetisch vorhandene "schwarze Gesichter". Daher müssen wir im Hinblick auf die Zukunft vor allem fragen, welche neuen Formen und Techniken der Rassifizierung und des Profilings durch synthetische Daten für Algorithmen des maschinellen Lernens ermöglicht werden.

Proportional zum weiteren Aufstieg synthetischer Daten werden sich solche und ähnliche Fragen in den kommenden Jahren häufen. Eine reine Inhaltskritik an den Effekten von KI-Mensch-Realitäts-Simulationen wird jedoch nicht ausreichen.

Vielmehr wird sich konstruktive Kritik auf die Existenz und Produktivität der KI-Mensch-Schnittstelle an sich beziehen müssen. Denn auch hier ist, wie in vielen anderen Bereichen der postmodernen Gesellschaften, das Medium selbst die wichtigste Botschaft – gerade dort, wo durch KI-Simulationen mittels synthetischen Daten das Menschliche im engeren Sinn berührt wird. Darunter sind zunehmend auch ethische Parameter von "gut" und "böse":

Es ist entscheidend, dass Studien über synthetische Daten und maschinelles Lernen über einen Rahmen von Ausschluss, Voreingenommenheit und Marginalisierung hinausgehen. Stattdessen müssen die Macht und die Politik synthetischer Daten für maschinelles Lernen in Bezug auf ihre übergreifende Logik der Generativität selbst untersucht werden.

Bei der Untersuchung der Ethik des maschinellen Lernens durch das Prisma synthetischer Daten wird nicht nur deutlich, wie Algorithmen mögliche Zukünfte ausschließen, sondern auch, wie sie dazu beitragen, neue mögliche Zukünfte mit neuen Parametern von Gut und Böse, neuen Kurven der (Ab-)Normalität, neuen Vorstellungen von Differenz sowie neuen Arten von Risiken oder hergestellten Unsicherheiten zu eröffnen.

Diese neuen Öffnungen und Möglichkeiten sind jedoch nicht nur emanzipatorisch. Sie müssen kritisch im Hinblick auf den Begriff der Inklusion untersucht werden, und zwar sowohl im Hinblick darauf, was Inklusion mittels KI verspricht, als auch im Hinblick auf die ethisch-politischen Komplikationen, die dem Begriff innewohnen: dass jede Varianz (z. B. eine Minderheit), die in einem Trainingsdatensatz nicht vertreten ist, algorithmisch erzeugt und einbezogen werden kann, [obwohl sie so in der Realität gar nicht existiert].

Als Folge davon gilt es schließlich im Gesamtblick, falsche Versprechen am aktuellen Schnittpunkt zwischen KI, Mensch und Gesellschaft zu hinterfragen. Solche Versprechen geben oft Ethik vor – aber oft vorwiegend nur, um die Aktivität der Eigenlogik von KI nicht zu stören:

Die Versprechen der Inklusion, die den Diskursen um synthetische Daten innewohnen, sind in dreierlei Hinsicht ethisch problematisch. Erstens in dem Sinne, dass sie versuchen, die Ansprüche historisch marginalisierter Gemeinschaften zu amortisieren; zweitens machen sie indirekt geschützte Merkmale in KI-Systemen überflüssig; und schließlich reduzieren sie die "Ethik" der KI auf Elemente wie Einträge in Trainingsdaten, die die grundlegende Macht und Politik der Algorithmen nicht stören.

Synthetische Daten für das maschinelle Lernen können dazu beitragen, eine neue Art von Welt zu schaffen, aber dies wird wahrscheinlich eine Welt sein, in der die allgemeine Logik der KI intakt bleibt... Die Politik der synthetischen Daten für das maschinelle Lernen bedarf daher dringend einer… kritischen Betrachtung. Darüber hinaus sollte uns der Aufstieg synthetischer Daten dazu veranlassen, die Beziehung zwischen maschinellem Lernen, Macht und Ethik im erweiterten Sinn zu überdenken und neu zu konzipieren.

Was bedeutet das?

All das, was heute sichtbar ist oder sichtbar wird, verweist am Treffpunkt verschiedener, oft durchaus voneinander unabhängiger Tendenzen darauf, dass am KI-Mensch-Gesellschaft-Schnittpunkt eine mächtige Entwicklung im Kommen ist. Sie weist massives Transformationspotential auf – und zwar sowohl disruptiv wie innovativ. Sie eröffnet damit auch das Potential, das philosophisch-humanistische Menschenbild an der Grundlage offener Gesellschaften zu verschieben oder gar zu modifizieren.

Diese Entwicklung zugunsten anderer, im Zeitaugenblick temporär im Vordergrund stehender Themen zu verdrängen oder gar zu ignorieren, wie das in den politischen Mechanismen der Parteien- und Konkurrenzdemokratien leider noch zu oft der Fall ist, wäre mit Blick auf die Zukunft ein verhängnisvoller Fehler.

Roland Benedikter ist Co-Leiter des Center for Advanced Studies von Eurac Research Bozen, Unesco Chair für Interdisziplinäre Antizipation und Global-Lokale Transformation und Mitglied des Zukunftskreises des BMBF für die deutsche Bundesregierung. Homepages bei Eurac Research: Roland Benedikter und Unesco Chair. Kontakt: roland.benedikter@eurac.edu.