Entstehung von Hybridgebilden

Künstliche Intelligenz und Mensch. Ab wann gestaltet KI den Menschen um – statt in seinem Dienst zu stehen? (Teil 2 und Schluss).

In Teil 1 dieses Überblicks wurde die Veränderung des Menschenbildes durch zwei aktuelle Stoßrichtungen an der Mensch-KI-Schnittstelle beschrieben: erstens die Maschinisierung des Menschen (Cyborgisierung), zweitens die Vermenschlichung der Maschine (Anthropogenisierung). Dazu wurden einige Fragen formuliert.

In diesem abschliessenden Teil 2 kommt als dritte zeitgenössische Stossrichtung die Entstehung von Hybridgebilden dazu. Gemeinsam stellen die drei Stoßrichtungen die Frage nach der Zukunft der Schnittstelle KI-Technik-Mensch in den Raum. Auf diese Frage gibt es derzeit noch wenig Antworten. Trotzdem liegen Strategien zu ihrer Bearbeitung vor.

Stoßrichtung 3: Die Entstehung von Hybridgebilden

Ein dritter und letzter Trend neben der Maschinisierung des Menschen und der Vermenschlichung der Maschine ist die Entstehung von Hybridgebilden zwischen technischen und biologischen Intelligenzen sowie zwischen verschiedenartigen biologischen Intelligenzen, darunter Gehirn-Gehirn-Verschaltungen zwischen unterschiedlichen biologischen Spezies mittels der Zwischenschaltung von KI-basierten Übertragungs- und Übersetzungssystemen.

Ein aktuelles Beispiel dafür sind sogenannte Brain-Brain-Interfaces oder BBIs. Sie ergänzen seit der Veröffentlichung einer bahnbrechenden Studie am 4. Februar 2019 in der Fachzeitschrift Nature die bereits routinemässig bestehenden Gehirn-Computer-Verschaltungen (Brain-Computer-Interfaces, BCIs) und Gehirn-Maschine-Verschaltungen (Brain-Machine-Interfaces, BMIs).

Gehirn-Gehirn-Verschaltungen oder BBIs bilden einerseits einen neuartigen Schnittpunkt zwischen Maschinisierung des Menschen und Vermenschlichung der Maschine, andererseits aber auch zwischen Tier und Mensch sowie zwischen lebendiger und künstlicher Intelligenz.

Die Verschaltung zwischen organisch-biologischen Gehirnen ist auf die Vermittlerfunktion einer technologischen Hochleistungs-"Umrechnungs"-Einheit angewiesen, die ohne KI so nicht möglich wäre.

Die vollen Folgen dieser Hybridisierungs-Experimente sind noch unbekannt. Dies auch deshalb, weil in der Forschung und ständigen Weiterentwicklung multidimensionaler Hybridisierung autoritäre, nicht-demokratische und expansive Kontroll- und Überwachungsstaaten wie China inzwischen eine führende Rolle spielen – was nicht wenigen europäisch-westlichen Beobachtern Anlass zur Sorge gibt.

"Gedankenkontrolle lebendiger Wesen"

2018 verschalteten chinesische Wissenschaftler erstmals ein menschliches mit einem technisch modifizierten Rattengehirn: nämlich mit einem von ihnen sogenannten "Cyborg-Rattengehirn". Sie veröffentlichten das Verfahren und die Ergebnisse dieser spezieszusammenführenden Gehirn-Gehirn-Verschaltung im Februar 2019 in der renommierten Fachzeitschrift Nature. Die Versuche bauten unter anderem auf vorherige Überlegungen der Duke Universität und der Harvard Universität auf.

Laut den Wissenschaftlern erlaubte das Experiment, das Verhalten der Ratte mittels menschlichen Gedanken zu beeinflussen und in Teilen sogar direkt zu steuern – und zwar nicht nur in der Orientierung, sogar bis in das Fress- und teilweise sogar Fortpflanzungsverhalten hinein.

Das würde faktisch die Entstehung einer Mensch-Tier-Hybridsteuerungstechnologie bedeuten, die bis in das Selbsterhaltungssystem hineinreicht. Die Wissenschaftler gingen in ihrer – keineswegs von allen geteilten – Interpretation ihrer Versuche davon aus,

dass es seit jeher der Traum von Menschen ist, direkte Kommunikation zwischen Gehirnen zu ermöglichen… Gehirn-Maschine-Schnittstellen (Brain-Machine Interfaces, BMIs) stellen einen vielversprechenden Informationskanal zwischen dem biologischen Gehirn und externen technischen Geräten dar und werden für den Bau von Gehirn-zu-Gerät-Kontrollen angewandt.

Vorausgehende Studien haben die Machbarkeit einer Gehirn-Gehirn-Schnittstelle (Brain-Brain Interface, BBI) zwischen verschiedenen Gehirnen mittels der Kombination verschiedener BMIs erwiesen. Der Gebrauch eines BBI zur Verwirklichung einer effizienten Multigrad-Kontrolle eines lebenden Wesens, etwa einer Ratte, zum Abschluss einer Steuerungsaufgabe in einer komplexen Umgebung musste jedoch erst bewiesen werden.

Dem widmeten sich die chinesischen Wissenschaftler laut eigener Darstellung wie folgt:

In unseren Studien haben wir die Gehirn-Gehirn-Schnittstelle eines menschlichen Gehirns zu dem einer Ratte verlegt, das mit Mikroelektroden implantiert war (das heisst streng genommen zu einem Ratten-Cyborg). Dabei wurden Elektroenzephalogramm-generierte Bewegungsbilder und Gehirnstimulation integriert, um menschliche Gedankensteuerung (human mind control) der kontinuierlichen Bewegung der Ratte zu erreichen.

Kontrollanweisungen wurden von fortgesetzten Bewegungsbildern transferiert und die Resultate mit vorprogrammierten Kontrollmodellen dekodiert, um dann mittels mikro-elektrischer Gehirnstimulation drahtlos an den Rattencyborg gesendet zu werden.

Die Ergebnisse zeigen, dass Ratten-Cyborgs problemlos und erfolgreich durch das menschliche Denken (the human mind) navigiert werden können, um ein Bewegungsziel in einem komplexen Zusammenhang zu absolvieren. Unsere Experimente wiesen darauf hin, dass die Zusammenarbeit (cooperation) zwischen zwei Gehirnen mittels der Übertragung multidimensionaler Information durch ein Computer-assistiertes BBI vielversprechend funktioniert.

Komplexe Fragen

Schon aus der in Nature verwendeten Terminologie von Naturwissenschaftlern, die nonchalant an "Multigrad-Kontrolle lebendiger Wesen" interessiert waren – möglicherweise nicht nur der Ratte, sondern auch des beteiligten Menschen! –, ergaben sich zahlreiche Fragen. Diese reichten von Beobachtungs- zu Verständnis und Interpretations-Fragen. Die Wissenschaftler bemerkten sie nicht einmal, daher erläuterten sie sie auch nicht. Unter diesen Fragen ragen fünf hervor.

Erstens: "Multigrad-Kontrolle lebendiger Wesen" erfolgte vonseiten einer Gruppe von Wissenschaftlern, die im erfolgreichsten streng autoritären System der Welt: im zeitgenössischen China erfolgreich sind und sich im Top-Down-System Xi Jinpings durchgesetzt haben, was so ethisch bei vielen im Westen verpönt wäre. Der Bezug zu politischen Implikationen liegt nahe.

Zweitens: Die Behauptung, dass es seit jeher ein Traum der Menschen sei, lebendige Gehirne miteinander zu verschalten, bezieht sich historisch auf eine sehr junge und elitäre Phantasie. Der "Traum" wurde auch nicht vonseiten "der Menschen" geträumt, sondern von "bestimmten Menschen", und zwar im Überblick von sehr wenigen.

Drittens: Die Entwürdigung der Ratte, also des lebendigen Organismus, zum steuerbaren "Rattencyborg" wurde nicht thematisiert. Und damit auch nicht hierarchische und ethische Implikationen der "Interspezies-Verschaltung" (interspecies brain-to-brain interfacing).

Viertens: die Identifikation der menschlichen "mind", also der rationalen Gedankenfähigkeit des Menschen, mit dem menschlichen Denken, Erfahren und Bewußtsein an sich ist eine längst widerlegte Vereinfachung naiven Ausmasses, die die jüngere Psychologie- und Bewußtseinsgeschichte der offenen Gesellschaften des Westens ignoriert.

Das ist kein Wunder, da China seine eigenen, autoritären Sozialwissenschaften erschafft, die sich in ihrer Funktion als Interpretationsinstrumente ideologisch als Konkurrenz zum Westen verstehen und eher an differenzierter Kontroll-Integration als an Erkenntnis-Differenzierung interessiert sind.

Vielleicht am wichtigsten ist aber – fünftens – bei der in Nature veröffentlichten Darstellung der Begriff "Kooperation zwischen zwei Gehirnen". Der verwendete Begriffszusammenhang ist undurchdacht und eine reine Behauptung.

Was "Kooperation" hier heissen soll, wird auch nicht erklärt, da gleichzeitig von "human mind control" die Rede ist – was einen Widerspruch darstellt. Die Verwendung des Begriffs "Kooperation zwischen Gehirnen" ist wohl am ehesten eben aus dem autoritären Gesellschaftshintergrund der chinesischen Wissenschaftler zu verstehen: in Xi Jinpings China ist "Kontrolle", die ja die Wissenschaftler mit ihrem Experiment anstrebten, eben die eigentliche Form von Kooperation. Indem ich dich kontrolliere, arbeiten wir am besten zusammen. Das gilt offenbar auch für Gehirne.

An solchen Beispielen erkennt man, dass – wie unter anderem bereits Martin Heidegger in seiner Technikphilosophie und seinem geistigen Testament bemerkte – die neue instrumentelle Naturwissenschaft aufstrebender autoritärer Regime in ihrer Begrifflichkeit und Selbstinterpretation keineswegs naturwissenschaftlich, sondern sozialwissenschaftlich verfährt, ohne es zu reflektieren.

Pikantes Detail am Rande: Angeblich erfolgte diese Mensch-Tier-Verschaltung von Gehirnen ohne Wissen der chinesischen Regierung. Die Behauptung des Nichtwissens war hier ähnlich wie die bei anderen inzwischen massgeblich von China ausgehenden meta-ethischen Entwicklungen, so bei der Herstellung von Designbabies mittels CRIPR-Genschere im November 2018.

Auch hier war im Hintergrund KI-Basistechnologie wichtig. In China weiß jedoch jedes Kind, dass ohne Wissen der autoritärsten Regierung aller Zeiten, nämlich derjenigen Xi Jinpings – dessen Wort, kaum dem Mund entkommen, bereits Partei- und Staatsdoktrin wird –, kein Bleistift bewegt wird.

Dass die chinesische Regierung immer wieder aufsehenerregende ethische Korrektur-Eingriffe in die Wissenschaft vornimmt, wenn es international Proteste gegen unethische Praktiken gibt, ist Makulatur. Sie verbindet sich mit einem bewußten Symbolcharakter, um die Vielzahl an unethischen Praktiken unter der Spitze des Eisbergs zu vertuschen – und dadurch am Laufen zu halten.

Ein Problemfeld für offene Gesellschaften

Die wirklichen Herausforderungen, die sich aus diesen – und wohl weiteren daraus folgenden – Experimenten für Europa und die offenen Gesellschaften des Westens ergeben, lauten: Sollen sich menschliche und tierische Gehirne überhaupt verbinden? Wer soll im Bereich der Hybridisierung die Verbindungen zwischen Gehirnen, Computern und KI kontrollieren?

Wer sichert die Eigenschaften und Aktivitäten des individuellen menschlichen Gehirns vor Hybridisierung mit Kontroll-Funktion – und seiner nun möglichen Trans-Spezies-Verwendung? Und: Welche Rolle soll in den Neuen Humantechnologien der KI überhaupt gegenüber dem Menschen und seinem Gehirn zukommen – heute, vor allem aber künftig?

Das sind deshalb Herausforderungen, weil sie sich im Rahmen einer zunehmenden Besorgnis über technoide Verwischungstendenzen gegenüber Mensch, Menschenbild und Humanismus stellen. Viele gehen für die Zukunft des menschlichen Bewußtseins von einer techno-anthropologischen Hybridisierung aus. Diese könnte sowohl für Technologie wie Mensch Veränderungen mit sich bringen, deren wahrer Umfang und Wirkungen heute noch nicht abgesehen werden können.

Dazu kommt, dass hoch entwickelte Eindringungs- und Spähprogramme, sogenannte Trojaner, offenbar besonders kompatibel mit Künstlicher Intelligenz sind – und also umgekehrt KI-Mensch-Verschaltungen besonders anfällig für Trojaner-Angriffe auf Verbindungsstellen macht. Es entsteht heute geradezu ein neues Problemfeld mit dazugehöriger Diskussion: das Feld Trojans in Artificial Intelligence (TrojAI). Dieses Feld zeigt nicht nur technologische, sondern auch menschlich-soziale Konnotationen, wie die damit beschäftigen Institutionen und Wissenschaftler schreiben:

Künstliche Intelligenz wird mittels aktueller Maschinenlernmethoden darauf trainiert, Daten zu lesen und Beziehungen zwischen Daten zu erlernen. Dann wird sie zur Welt hin geöffnet, um neue Daten aufzunehmen und zu bearbeiten.

So kann KI zum Beispiel an Bildern über Verkehrszeichen trainiert werden. Sie kann lernen, was Stop-Signale sind und wie Geschwindigkeitsbegrenzungen aussehen. Dann kann sie als Teil eines selbstfahrenden Autos eingesetzt werden. Das Problem ist, dass ein Gegner diese Trainings-Pipeline unterbrechen und Trojaner-Verhaltensweisen in die KI einfügen kann.

Wenn zum Beispiel der KI-Lernprozess, Verkehrszeichen zu unterscheiden, künstlich nur um wenige Zusatzbeispiele ergänzt wird, etwa mit Beispielen, wo Stop-Zeichen nur als Geschwindigkeitsbegrenzungen interpretiert werden, könnte das mit sehr wenig Aufwand die KI dazu bringen, Stop-Zeichen aktiv zu überfahren.

Das wäre ideal für Terror – oder, allgemeiner gefasst, für das Einbringen unterschiedlicher und gegenläufiger Interessen in "Kontrollmechanismen" hoch entwickelter künstlicher Intelligenzen von direkter menschlicher Relevanz. Was bedeutet diese Manipulationsmöglichkeit für die sich vervielfältigenden KI-Mensch-Schnittstellen im Alltag?

Ausblick: Auffächerung der Anwendungen und wachsende Macht synthetischer Daten auf allen Lebensfeldern

Angenommen werden kann jedenfalls, dass die Stoßrichtung drei nicht primär auf die Verbindung zwischen menschlichen und tierischen Gehirnen zielt, wie im chinesischen Experiment vorgeführt. Denn das würde letztlich wenig Sinn machen. Tiere durch menschliche Gedanken zu kontrollieren, wird eher ein Seitenziel der instrumentellen Entwicklung bleiben.

Denn Roboter sind in wenigen Jahren viel effizienter als Tiere einsetzbar, sind flexibler und können auch mehr im Sinne semi-autonomer Entscheidungsfindung und Handlung.

Man sehe zum Beispiel nur die jüngste Generation von Zivil- und Militärrobotern der US-Firma Boston Dynamics, die neue Dimensionen nicht nur der mechanischen Befähigung, sondern auch der – innerhalb eines relativ weiten Rahmens – offenen Handlungsausrichtung ermöglichen.

Schon deshalb dürfte der eigentliche Sinn der Direktverbindung zwischen Gehirnen nicht an der Mensch-Tier-Schnittstelle, das heisst nicht im Trans-Spezies-Bereich liegen. Die Direktverbindung zielt vielmehr in letzter Instanz offenbar auf die Verbindung zwischen zwei oder mehreren menschlichen Gehirnen: auf das "Gemeinsamdenken von Gedanken".

Das wäre, so die an Zahl zunehmenden Techno-Idealisten, die naturwissenschaftlich-technische Realisation des – bereits seit dem 19. Jahrhundert tatsächlich bestehenden – Traums von einer gemeinsamen menschlichen Noosphäre etwa eines Teilhard de Chardin und von anderen Vertretern der philosophischen und theologischen Anthropologie.

Allerdings würde das, soweit derzeit erkennbar, in der schönen neuen Technik-Mensch-Verschaltungs-Welt ohne ausreichende ethisch-humanistische Erwägungen, Eingrenzungen und Ziele erfolgen. Was einen ebenso großen Möglichkeiten- wie Problemraum eröffnet, von dem heute im deutschsprachigen Raum noch viel zu wenig die Rede ist.

Kapillare Robotisierung

Intelligente, zunehmend KI-ausgestattete Roboter werden in den kommenden Jahren jedenfalls immer mehr Bereiche durchdringen – auch auf der Meso- und Mikroebene, zum Beispiel in Wasserleitungen ständig aktiv sein. Spätestens seit Russlands Überfall auf die Ukraine im Februar 2022 wurden auch militärische und Sicherheitsanwendungen von anthropogener KI wieder als "essentiell" erkannt.

Boston Dynamics "baut derzeit eine KI-Roboter-Armee". Im November 2022 hat das Stadtparlament (der 11-köpfige Board of Supervisors) der Metropole San Francisco entscheiden, teil-autonome "Killer-Roboter" zu Polizeizwecken grundsätzlich zuzulassen, weil das unter bestimmten Umständen "sicherer" als der Einsatz menschlicher Polizisten sein könne.

Insgesamt stellt das Zusammenwachsen von KI, Menschen und Robotik eine noch weitgehend unbewältigte Neuerung dar – die in den kommenden Jahren jährlich stärker ins Gesichtsfeld treten wird. Die bereits heute bestehende Menschenähnlichkeit der neuen Generation von AI-Robotern erschreckt nach eigener Aussage sogar Zukunftsvisionäre wie Elon Musk.

Dabei hat seine Firma Tesla just im Oktober 2022 selbst ihren humanoiden Roboter "Optimus" vorgestellt, der die Grundlage für weitere "Revolutionen" qualitativer und quantitativer Anwendungsart der KI-Mensch-Robotik-Schnittstelle bilden soll.

Politische Implikationen zwischen offenen und autoritären Gesellschaftserwägungen sind nicht nur bei solchen Einzelentwicklungen, sondern im Ganzen – das heisst bei allen drei angeführten Stoßrichtungen an der KI-Mensch-Robotik-Schnittstelle – gegeben. Ein Regime, das auf seine Weise mit Elon Musks Neuralink-Idee arbeiten könnte, jedem Menschen kleine elektrische Drähte einzupflanzen, um seine Gehirnaktivitäten mit Maschinen, Computer und KI zu verbinden, könnte zum Beispiel China sein.

Wie andere expandierende autoritäre Regierungen ist auch die Herrschaft von Xi Jinping bestrebt, neue Technologien für ihre Zwecke der Kontrolle und Unterdrückung zu nutzen. So setzt sie bereits heute bewusstseinslesende enzephalographische Technologie ein, um ausgewählte Berufsgruppen – wie zum Beispiel Lokomotivführer – systematisch in ihren Gehirnaktivitäten zu scannen.

Experten nennen dies "Brain Data Mining", welche das chinesische Regime bereits heute industriell betreibt. Ziel ist es, nicht nur die Psyche von stark Arbeitsbelasteten auszuloten, um sie präventiv zu steuern, sondern – weit darüber hinaus – so viel wie möglich über das menschliche Gehirn und die damit verbundene Innerlichkeit der Menschen überhaupt zu erfahren, um damit von Regierungsseite zu arbeiten, unter anderem mit dem massiven Einsatz von Auswertungs-KI.

Druck auf den menschlichen Körper auch im Westen

Welchen Druck werden die Ergebnisse solcher KI-Mensch-Experimente auf offene Gesellschaften ausüben? Werden diese möglicherweise bis zu einem gewissen Grad nachziehen müssen, um mit der vernetzten Entwicklung von KI, Daten, Gehirn, menschlichem Selbst und Selbstbild und neuen "autonomen" und "intelligenten" "Humantechnologien" Schritt zu halten?

Dass es in dieser Lage einer immer radikaleren und umfassenderen Verschmelzung von menschlichem Lebensalltag mit digitaler Verarbeitung in der interaktiven digitalen Spieleindustrie, die mittlerweile weltweit die Unterhaltungsindustrie dominiert, sogar als avantgardistisch gilt, Spiele zu konzipieren, die ihre Benutzer tatsächlich real töten, wenn sie verlieren, wie das der Mitgründer der Virtuelle-Realität-Hauben "Oculus", Palmer Luckey, öffentlichkeitswirksam anstrebt, zeigt die wahrhaft tiefenambivalente Dimension dessen, was an der Technologie-Mensch-Schnittstelle vor sich geht.

Ähnliches gilt für die neue Generation von Biohackern, die versucht, im kulturellen Mainstream Fuss zu fassen. Zur historischen Symptomatologie der Bewegung in eine posthumane Welt gehören auch auf den ersten Blick "schwächere" Ansätze mit jedoch potentiell großer Wirkung wie der "KI-Effekt für virtuellen Augenkontakt".

Dieser besteht darin, daß bei Videokonferenzen eine KI in Echtzeit das Aussehen der Augen verändert und den direkten Blick in die Kamera simuliert, obwohl der Mensch in Wirklichkeit die Augen abwendet oder woanders hin richtet. Reale Welt und KI-Welt verschmelzen, und daraus entsteht ein neuer Realitätsprozeß. Dessen spezifische Ontologie kann bislang niemand einschätzen.

Es entsteht eine Welt, die aus der Politik synthetischer Daten besteht

Insgesamt entsteht heute eine Welt, die Experten als eine Welt beschreiben, die aus der "Politik synthetischer Daten" besteht. Synthetische Daten sind Daten über die von Menschen als real erfahrene Welt, die aber nicht aus dieser, sondern aus Hochleistungs-KI-betriebenen Simulationen über diese reale Welt gewonnen werden – um in den Ergebnissen auf die reale Welt angewandt zu werden, darunter auf den Umgang der Menschen mit ihren Gesellschaften. Die Grundlage für die Politik der synthetischen Daten ist, dass

Algorithmen des maschinellen Lernens in der heutigen Gesellschaft fest verankert sind. Daher wurde den Inhalten, Verzerrungen und zugrundeliegenden Annahmen der Trainingsdatensätze, anhand derer viele algorithmische Modelle trainiert werden, viel Aufmerksamkeit geschenkt. Doch was passiert, wenn Algorithmen auf Daten trainiert werden, die nicht real sind, sondern auf "synthetischen" Daten, die sich nicht auf reale Personen, Objekte oder Ereignisse beziehen?

Synthetische Daten werden zunehmend in das Training von Algorithmen für maschinelles Lernen einbezogen, die in verschiedenen gesellschaftlichen Bereichen eingesetzt werden. Die Rolle und die ethisch-politischen Implikationen synthetischer Trainingsdaten für maschinelle Lernalgorithmen sind jedoch noch wenig erkundet.

Die neue Vorherrschaft synthetischer Daten an der KI-Mensch-Systemsteuerungs-Schnittstelle drückt sich unter anderem in neuen Wissenschaftsmethodologien wie "Cliodynamics" aus. Cliodynamics wird unter anderem am "Institut für die Forschung über Weltsysteme" der Universität von Kalifornien (UC) in Riverside vorangetrieben. Cliodynamics versucht als Wissenschaftsansatz, KI zur Simulation, Synthese und – daraus abgeleitet – Antizipation menschlicher Geschichte und Zukunft zu verwenden.

Dabei soll Geschichte in einer Myriade von Daten durch KI erfasst und in die Zukunft "hochgerechnet" werden, wobei "harte" und "weiche" Daten, also natur- und sozialwissenschaftliche Erkenntnisse, gleichermassen einbezogen werden.

Maschinelles Lernen soll sowohl qualitative wie empirisch-quantitative Fakten inter- und trans-disziplinär integrieren und die aus ihnen erwachsende – reale und optionale – Transformationsqualität in die Zukunft projizieren. Kritiker argumentieren jedoch, Geschichte liesse sich nicht einfach in die Zukunft hochrechnen – jedenfalls solange sie noch "menschliche" Geschichte sei.

Synthetische Daten werden aber auch essentiell für die Vorhaben neuer transhumanistischer Parteien wie der deutschen Partei für schulmedizinische Verjüngungsforschung, die bei der Wahl für das Berliner Abgeordnetenhaus 2023 unter dem Namen "Partei für Gesundheitsforschung" kandidiert und in 20 Jahre den Alterungsprozess umkehren will, damit Menschen "tausende Jahre leben können". Das scheint ein positives Vorhaben zu sein. Tatsächlich birgt der Aufstieg "synthetischer" Daten laut Experten aber auch Gefahren:

Man muss sich fragen: Welche neuen Risiken werden durch synthetische Daten als Risikotechnologie erzeugt? Und umgekehrt: Welche neuen Möglichkeiten der Risikobeherrschung in der Gesellschaft werden durch synthetische Daten ermöglicht?

Ein Bereich künftiger Forschung könnte die Frage sein, wie synthetische Daten an der Erzeugung (und Verstärkung) von Anomalien beteiligt sind. Ein generatives algorithmisches Modell… kann den Mustern, Regelmäßigkeiten und Merkmalen einer [spielebasierten] Datenverteilung ausgesetzt werden und dann iterativ lernen, entweder synthetische Daten zu erzeugen, die sich dieser Verteilung annähern, oder synthetische Randfälle, die in dieser Verteilung nicht ausreichend abgedeckt sind.

Die Idee ist, dass diese Randfälle verwendet werden können, um den Trainingsdatensatz eines Algorithmus für maschinelles Lernen zu erweitern, der zur Erkennung von Anomalien in Bereichen wie zum Beispiel Einwanderung, Terrorismus, Finanzen und Versicherungen eingesetzt wird. Anders ausgedrückt: Die Variabilität oder das Seltene wird mittels KI-Simulation erzeugt, damit es in den Trainingsdaten verstärkt werden kann.

Wenn beispielsweise nicht genügend potenzielle Terroristen im Datensatz vorhanden sind, können diese von der KI generiert werden. Synthetische Daten tragen zur Entstehung von Möglichkeitsräumen für die Erkennung von Anomalien in immer höherer Auflösung und Granularität bei…

Diese Fragen erhalten zusätzliche Tiefe, wenn man das Versprechen von Unternehmen… in Betracht zieht, jede benötigte Vielfalt zu generieren, wie z.B. mehr synthetisch vorhandene "schwarze Gesichter". Daher müssen wir im Hinblick auf die Zukunft vor allem fragen, welche neuen Formen und Techniken der Rassifizierung und des Profilings durch synthetische Daten für Algorithmen des maschinellen Lernens ermöglicht werden.

Proportional zum weiteren Aufstieg synthetischer Daten werden sich solche und ähnliche Fragen in den kommenden Jahren häufen. Eine reine Inhaltskritik an den Effekten von KI-Mensch-Realitäts-Simulationen wird jedoch nicht ausreichen.

Vielmehr wird sich konstruktive Kritik auf die Existenz und Produktivität der KI-Mensch-Schnittstelle an sich beziehen müssen. Denn auch hier ist, wie in vielen anderen Bereichen der postmodernen Gesellschaften, das Medium selbst die wichtigste Botschaft – gerade dort, wo durch KI-Simulationen mittels synthetischen Daten das Menschliche im engeren Sinn berührt wird. Darunter sind zunehmend auch ethische Parameter von "gut" und "böse":

Es ist entscheidend, dass Studien über synthetische Daten und maschinelles Lernen über einen Rahmen von Ausschluss, Voreingenommenheit und Marginalisierung hinausgehen. Stattdessen müssen die Macht und die Politik synthetischer Daten für maschinelles Lernen in Bezug auf ihre übergreifende Logik der Generativität selbst untersucht werden.

Bei der Untersuchung der Ethik des maschinellen Lernens durch das Prisma synthetischer Daten wird nicht nur deutlich, wie Algorithmen mögliche Zukünfte ausschließen, sondern auch, wie sie dazu beitragen, neue mögliche Zukünfte mit neuen Parametern von Gut und Böse, neuen Kurven der (Ab-)Normalität, neuen Vorstellungen von Differenz sowie neuen Arten von Risiken oder hergestellten Unsicherheiten zu eröffnen.

Diese neuen Öffnungen und Möglichkeiten sind jedoch nicht nur emanzipatorisch. Sie müssen kritisch im Hinblick auf den Begriff der Inklusion untersucht werden, und zwar sowohl im Hinblick darauf, was Inklusion mittels KI verspricht, als auch im Hinblick auf die ethisch-politischen Komplikationen, die dem Begriff innewohnen: dass jede Varianz (z. B. eine Minderheit), die in einem Trainingsdatensatz nicht vertreten ist, algorithmisch erzeugt und einbezogen werden kann, [obwohl sie so in der Realität gar nicht existiert].

Als Folge davon gilt es schließlich im Gesamtblick, falsche Versprechen am aktuellen Schnittpunkt zwischen KI, Mensch und Gesellschaft zu hinterfragen. Solche Versprechen geben oft Ethik vor – aber oft vorwiegend nur, um die Aktivität der Eigenlogik von KI nicht zu stören:

Die Versprechen der Inklusion, die den Diskursen um synthetische Daten innewohnen, sind in dreierlei Hinsicht ethisch problematisch. Erstens in dem Sinne, dass sie versuchen, die Ansprüche historisch marginalisierter Gemeinschaften zu amortisieren; zweitens machen sie indirekt geschützte Merkmale in KI-Systemen überflüssig; und schließlich reduzieren sie die "Ethik" der KI auf Elemente wie Einträge in Trainingsdaten, die die grundlegende Macht und Politik der Algorithmen nicht stören.

Synthetische Daten für das maschinelle Lernen können dazu beitragen, eine neue Art von Welt zu schaffen, aber dies wird wahrscheinlich eine Welt sein, in der die allgemeine Logik der KI intakt bleibt... Die Politik der synthetischen Daten für das maschinelle Lernen bedarf daher dringend einer… kritischen Betrachtung. Darüber hinaus sollte uns der Aufstieg synthetischer Daten dazu veranlassen, die Beziehung zwischen maschinellem Lernen, Macht und Ethik im erweiterten Sinn zu überdenken und neu zu konzipieren.

Was bedeutet das?

All das, was heute sichtbar ist oder sichtbar wird, verweist am Treffpunkt verschiedener, oft durchaus voneinander unabhängiger Tendenzen darauf, dass am KI-Mensch-Gesellschaft-Schnittpunkt eine mächtige Entwicklung im Kommen ist. Sie weist massives Transformationspotential auf – und zwar sowohl disruptiv wie innovativ. Sie eröffnet damit auch das Potential, das philosophisch-humanistische Menschenbild an der Grundlage offener Gesellschaften zu verschieben oder gar zu modifizieren.

Diese Entwicklung zugunsten anderer, im Zeitaugenblick temporär im Vordergrund stehender Themen zu verdrängen oder gar zu ignorieren, wie das in den politischen Mechanismen der Parteien- und Konkurrenzdemokratien leider noch zu oft der Fall ist, wäre mit Blick auf die Zukunft ein verhängnisvoller Fehler.

Roland Benedikter ist Co-Leiter des Center for Advanced Studies von Eurac Research Bozen, Unesco Chair für Interdisziplinäre Antizipation und Global-Lokale Transformation und Mitglied des Zukunftskreises des BMBF für die deutsche Bundesregierung. Homepages bei Eurac Research: Roland Benedikter und Unesco Chair. Kontakt: roland.benedikter@eurac.edu.