Künstliche Intelligenz: Die digitale Exklusion vollzieht sich lautlos
KI kommt scheinbar harmlos daher. Noch unterstützt sie den Menschen. Doch im Missbrauch ihrer Ergebnisse liegt die Gefahr für Medizin, Militär und Wirtschaft. Ein Essay.
In Sekundenschnelle ein paar niederschwellige Textkompilationen hier, ein paar bunte Präsentationen da. Kollisionsfrei durch riesige Lagerhallen und Warenhäuser flitzende KI-gesteuerte Roboter sowie KI-generierte Produktempfehlungen, wohin das Auge reicht.
Dazu vollautomatische Social-Media-Moderationen und allzeit bereite Chatbots, um zeitraubende Konsumentinnen und Konsumenten mit stets aufs Neue kompilierten Textkonserven in Endlosschleifen abzufertigen. KI als ultimatives Effizienzsteigerungsvehikel, mit klarer Tendenz zum Mainstream.
Unbeschränktheit der Anwendungen als Problem
Dass KI etwa im diagnostischen Bereich der Medizin oder in vielfältigen wirtschaftlichen Prozessen, wie etwa der Optimierung komplexer globaler Lieferketten, einen Quantensprung darstellt, ist unbestritten. Doch dabei bleibt es nicht. Die U.S. Air Force und andere führende Luftstreitkräfte erdenken und konzipieren KI-gesteuerte Kampf- und Aufklärungsjets nicht, sie testen diese bereits; fliegend an der Seite von menschlichen Kampfpiloten.
Die Reaktionsweisen der raketenbestückten KI-gesteuerten Jets, deren unerwartete plötzliche Wechsel in den Notfallsmodus und ähnliche kleinere und größere Fehler bzw. algorithmenspezifische Anomalien werden analysiert. In fünf bis zehn Jahren sollen die KI-Kampfjets voll einsatzfähig sein.
Als KI-Geschwader könnten diese dann beliebige Ziele oder Menschen mittels Zielprofilen selektieren, durch Sensordaten identifizieren, schließlich exekutieren, aus den gewonnenen Daten lernen und die Algorithmen verbessern, d. h. im laufenden Betrieb selbsttätig verändern.
Angesichts derartiger moralisch, politisch und kulturell völlig inakzeptabler, an die KI-Algorithmen outgesourcter Tötungsentscheidungen droht sich die Frage nach der Zuordenbarkeit von Verantwortung, insbesondere bei schweren Fehlern und Fehlentscheidungen, im unendlichen Geflecht digitaler Entscheidungsautonomie aufzulösen. Daran dürfte auch die geplante EU-Haftungsrichtlinie wenig ändern.
Wunschdenken und Faktizität
Dem sogenannten AI-Act, der KI-Verordnung der EU, mit ihrem Klassifikationsschema nach Risikoklassen der Anwendungszwecke, werden gegen Jahresende 2023 vermutlich sämtliche EU-Mitgliedsstaaten zustimmen. Dadurch tritt diese voraussichtlich 2026 EU-weit in Kraft.
Um in der Zwischenzeit wirtschaftspolitisch nicht inaktiv zu wirken, wird ein KI-Pakt vorangetrieben. Ein internationales Abkommen zwischen Staaten, supranationalen und nationalen Institutionen sowie einigen KI-Konzernen, um auf freiwilliger Basis ein Regelwerk für die kontrollierte Entwicklung von KI zu etablieren.
In diese Kerbe der freiwilligen Selbstverpflichtung schlagen auch die kürzlich von den G-7-Staaten verabschiedete Erklärung zum Verhaltenskodex sowie die wichtige Paris-Charta zu KI und Journalismus.
Doch aufgrund bereits weit vorangeschrittener Entwicklungen im militärischen Bereich und dem Absolutheitsanspruch des Rentabilitätsdenkens bei den Big Tech KI-Konzernen sowie deren massivem politisch-wirtschaftlichem Lobbying, bleiben die USA derzeit bei vagen Ideen, Entwürfen, Weißbüchern und Absichtserklärungen stehen.
Es existieren in den USA – von China ganz zu schweigen – zurzeit keinerlei konkrete Bestrebungen, zeitnah vergleichbare KI-Gesetze wie die KI-Verordnung der EU vorzubereiten.
No access – kein Zugang
Ebenfalls zu erwarten ist, dass durch KI, wie bei jeder technologischen Revolution, die vertikale Segregation samt gesellschaftlicher Ungleichverteilung zunehmen wird. "No access" wird allen jenen Menschen, die abseits des Mainstreams nach Wegen individueller Lebensführung suchen, auf Displays immer öfter entgegenleuchten, denn die digitale Exklusion vollzieht sich lautlos.
Neben Russland dementieren etliche weitere Staaten weltweit kategorisch, an digitalen Profilen, Social Scoring und anderen systematischen Verletzungen der Privatsphäre ihrer Staatsbürger zu arbeiten.
Dennoch läuft die Entwicklung elektronischer Sozialkredit-Systeme, in welchen Bewegungs-, Kommunikations- und politisch relevante Verhaltensdaten von Privatpersonen gespeichert, miteinander verknüpft und ausgewertet werden, auf hohen Touren. Und das nicht nur in China.
Weniger gefügige Privatpersonen mit niedrigen Sozialkreditzahlen könnten künftig Gefahr laufen, auf Blacklists zu kommen und im täglichen Leben mit Einschränkungen – von Krediten bis Flugtickets – leben zu müssen. Hohe Sozialratings hingegen, d.h. hochgradig konformes, politisch erwünschtes Sozialverhalten, könnten mit rascherem beruflichem Vorankommen, Vergünstigungen und Erleichterungen belohnt werden.
Mithilfe von KI-gestützter prädikativer Analytik wären zukünftig sogar Verhaltensprognosen in Echtzeit möglich.
Ethischer KI-Kodex als begleitender Prozess
Die menschliche Würde droht daher, obwohl in zahlreichen Verfassungen und Chartas ausdrücklich als "unantastbar" bezeichnet, durch KI-Missbrauch zu einem historisierenden, sozialromantischen Anspruch degradiert zu werden. Die Etablierung substanzieller ethischer Rahmenbedingungen stellte daher ein globales politisches Pflichtprogramm dar.
Ein ethischer Rahmen, etwa ein ethischer KI-Kodex, wäre bereits während der gegenwärtigen ersten KI-Entwicklungsstufen und zusätzlich zu den geplanten gesetzlichen Maßnahmen dringend vonnöten.
Lesen Sie auch
Nicht als einmaliger ausgearbeiteter ethischer "KI-Katechismus", sondern als verpflichtender begleitender Prozess, der sämtliche Entwickler von KI-Modellen weltweit kontinuierlich dazu zwingt, die Zielsetzungen und möglichen gesellschaftlichen Auswirkungen der in Entwicklung befindlichen KI-Modelle nach ethischen Gesichtspunkten und öffentlichkeitswirksam zu bewerten.
Eine kontinuierliche Bewertung im Sinne der Grundsätze normativer und angewandter Ethik hätte den Vorteil, dass auch die Bewertungskriterien gemeinsam mit der Entwicklung von KI wachsen, differenzierter und präziser werden könnten.
Andernfalls liefen KI-Verordnungen und -Gesetze Gefahr, sich künftig zu weit aus dem Schatten der KI-Modelle zu entfernen, hinter deren exponentielle Entwicklungsgeschwindigkeit zurückzufallen und zu wohlmeinenden Erklärungen, Chartas und Leitlinien degradiert zu werden.
Paul Sailer-Wlasits ist Sprachphilosoph und Politikwissenschafter in Wien. Er ist Autor von Minimale Moral. Streitschrift zu Politik, Gesellschaft und Sprache (2023, 2. Aufl.), Lüge, Hass, Krieg. Traktat zur Diskursgeschichte eines Paktes (2022), Verbalradikalismus. Kritische Geistesgeschichte eines soziopolitisch-sprachphilosophischen Phänomens (2021, 2. Aufl.) sowie Uneigentlichkeit. Philosophische Besichtigungen zwischen Metapher, Zeugenschaft und Wahrsprechen (2020).
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.