Artificial Intelligence: Takeover ohne Ethik
Seite 3: Geflecht digitaler Entscheidungsautonomie
- Artificial Intelligence: Takeover ohne Ethik
- Moral hat einen Preis
- Geflecht digitaler Entscheidungsautonomie
- Auf einer Seite lesen
Neben zahlreichen positiven Entwicklungen, etwa im diagnostischen Bereich des Gesundheitswesens, in der Unterstützung wirtschaftlicher Planungs- und Entscheidungsstrukturen sowie der Steuerung komplexer Prozesse, wird die AI auch globale Gesichtserkennungssysteme weiter perfektionieren, "verdächtiges" Sozialverhalten zu identifizieren helfen und mit der Zeit auch autonome Waffensysteme dirigieren.
Letztere werden nicht nur selbsttätig Entscheidungen über Leben und Tod treffen und exekutieren, sondern auch aus den gewonnen Daten "lernen" und die Algorithmen "verbessern", d. h. autonom verändern.
Daher droht sich die Frage nach der Zuordenbarkeit von Verantwortung und Schuld, insbesondere in Fällen von Fehlern und Fehlentscheidungen, fortan im Geflecht digitaler Entscheidungsautonomie aufzulösen. Ganz nebenbei wird in den weit entwickelten Streitkräften auch die Schwelle der menschlichen Tötungshemmung kontinuierlich herabgesetzt werden, da der Grad der betroffen machenden Selbstverantwortung vom entscheidenden Individuum noch weiter wegrückt.
Wenn Artificial Intelligence schließlich dafür eingesetzt werden wird, die Desinformationskampagnen anderer Staaten im Internet aufzuspüren, könnte der peinliche Fall eintreten, dass auch die je eigenen staatlichen Desinformationskampagnen von AI detektiert werden.
Die Konsequenz daraus könnte sein, dass die entsprechenden Algorithmen zu selektiver Weltwahrnehmung gezwungen, d. h. programmiert werden müssten. Wie ein solches Paradoxon ohne das erneute Erzeugen von Biases jemals gelöst werden kann, ist fraglich.
Aufgrund historischer Erfahrung darf nicht erwartet werden, dass eine Erarbeitung samt kontinuierlicher Fortentwicklung substanzieller ethischer Rahmenwerke für die Entwicklung von AI rechtzeitig vorliegen wird.
Die dringende Notwendigkeit eines ethischen Korsetts für die bereits pulsierende Entwicklungsdynamik von Artificial Intelligence besteht nicht aufgrund ihres gegenwärtigen basalen Entwicklungsstandes, sondern wegen der Möglichkeiten, in welche Forschungen ihrem Wesen nach immer drängen müssen und werden.
Paul Sailer-Wlasits ist Sprachphilosoph und Politikwissenschaftler. Er ist Autor von Lüge, Hass, Krieg. Traktat zur Diskursgeschichte eines Paktes (2022), Verbalradikalismus (2. Aufl., 2021) und Minimale Moral (2016).
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.