Künstliche Intelligenz: Die digitale Exklusion vollzieht sich lautlos

Seite 2: No access – kein Zugang

Ebenfalls zu erwarten ist, dass durch KI, wie bei jeder technologischen Revolution, die vertikale Segregation samt gesellschaftlicher Ungleichverteilung zunehmen wird. "No access" wird allen jenen Menschen, die abseits des Mainstreams nach Wegen individueller Lebensführung suchen, auf Displays immer öfter entgegenleuchten, denn die digitale Exklusion vollzieht sich lautlos.

Neben Russland dementieren etliche weitere Staaten weltweit kategorisch, an digitalen Profilen, Social Scoring und anderen systematischen Verletzungen der Privatsphäre ihrer Staatsbürger zu arbeiten.

Dennoch läuft die Entwicklung elektronischer Sozialkredit-Systeme, in welchen Bewegungs-, Kommunikations- und politisch relevante Verhaltensdaten von Privatpersonen gespeichert, miteinander verknüpft und ausgewertet werden, auf hohen Touren. Und das nicht nur in China.

Weniger gefügige Privatpersonen mit niedrigen Sozialkreditzahlen könnten künftig Gefahr laufen, auf Blacklists zu kommen und im täglichen Leben mit Einschränkungen – von Krediten bis Flugtickets – leben zu müssen. Hohe Sozialratings hingegen, d.h. hochgradig konformes, politisch erwünschtes Sozialverhalten, könnten mit rascherem beruflichem Vorankommen, Vergünstigungen und Erleichterungen belohnt werden.

Mithilfe von KI-gestützter prädikativer Analytik wären zukünftig sogar Verhaltensprognosen in Echtzeit möglich.

Ethischer KI-Kodex als begleitender Prozess

Die menschliche Würde droht daher, obwohl in zahlreichen Verfassungen und Chartas ausdrücklich als "unantastbar" bezeichnet, durch KI-Missbrauch zu einem historisierenden, sozialromantischen Anspruch degradiert zu werden. Die Etablierung substanzieller ethischer Rahmenbedingungen stellte daher ein globales politisches Pflichtprogramm dar.

Ein ethischer Rahmen, etwa ein ethischer KI-Kodex, wäre bereits während der gegenwärtigen ersten KI-Entwicklungsstufen und zusätzlich zu den geplanten gesetzlichen Maßnahmen dringend vonnöten.

Nicht als einmaliger ausgearbeiteter ethischer "KI-Katechismus", sondern als verpflichtender begleitender Prozess, der sämtliche Entwickler von KI-Modellen weltweit kontinuierlich dazu zwingt, die Zielsetzungen und möglichen gesellschaftlichen Auswirkungen der in Entwicklung befindlichen KI-Modelle nach ethischen Gesichtspunkten und öffentlichkeitswirksam zu bewerten.

Eine kontinuierliche Bewertung im Sinne der Grundsätze normativer und angewandter Ethik hätte den Vorteil, dass auch die Bewertungskriterien gemeinsam mit der Entwicklung von KI wachsen, differenzierter und präziser werden könnten.

Andernfalls liefen KI-Verordnungen und -Gesetze Gefahr, sich künftig zu weit aus dem Schatten der KI-Modelle zu entfernen, hinter deren exponentielle Entwicklungsgeschwindigkeit zurückzufallen und zu wohlmeinenden Erklärungen, Chartas und Leitlinien degradiert zu werden.

Paul Sailer-Wlasits ist Sprachphilosoph und Politikwissenschafter in Wien. Er ist Autor von Minimale Moral. Streitschrift zu Politik, Gesellschaft und Sprache (2023, 2. Aufl.), Lüge, Hass, Krieg. Traktat zur Diskursgeschichte eines Paktes (2022), Verbalradikalismus. Kritische Geistesgeschichte eines soziopolitisch-sprachphilosophischen Phänomens (2021, 2. Aufl.) sowie Uneigentlichkeit. Philosophische Besichtigungen zwischen Metapher, Zeugenschaft und Wahrsprechen (2020).

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.