Artificial Morality
Böse Codes verursachen künstliches Übel: Eine Ethik für das ICT-Zeitalter
"AM" ist keine Science-Fiction, sondern der Versuch, das begriffliche System der Moral den Begebenheiten der informations- und kommunikationstechnischen Umgebung anzupassen. "Künstliche Moral" erkennt Maschinen als zurechnungsfähig an. Werden dadurch Software-Ingenieure und Konstrukteure Künstlicher Akteure aus der Verantwortung für ihre Produkte entlassen?
Verursachung - Mensch oder System? In Schadensfällen, bei denen eine Mensch-Maschine-Schnittstelle eine Rolle spielt - ob im Flugzeugcockpit, in der Fabrikhalle oder im Operationssaal - muss diese Frage immer wieder aufs neue beantwortet werden. Und fast immer kommt es zu Diskussionen...
Mit diesem kurzen Teaser wirbt die Münchner Rückversicherung für ihren Report Schadenspiegel. Aber daran, dass Systeme ganz von allein einen Schaden bewirken können, scheinen die Vordenker der Versicherung nicht recht zu glauben. Der angekündigte Report zumindest hat das Thema "Risikofaktor Mensch".
Die Antwort auf die Frage "Mensch oder System?" könnte aber auch ganz anders ausfallen. Das jedenfalls legt eine neue philosophische Teildisziplin nahe: "Artificial Morality". Während es in früheren Arbeiten, die sich mit einem solchen Titel schmückten (zu finden etwa im dem Sammelband The Digital Phoenix), um die computergestützte Simulation spieltheoretischer Dilemmata ging, versuchen Theoretiker jetzt, den Begriff der Moral so zu manipulieren, dass auch Verfehlungen elektronischer Wesen darunter Platz finden.
Erfunden hat die ganze Geschichte der in Oxford lehrende italienische Philosoph Luciano Floridi. Anders als bei der vor einigen Jahren durch den amerikanischen Wissenschaftler Bill Joy angeregten Diskussion über die möglichen Gefährdungen der Menschheit durch die Existenz von Robotern, dreht sich "Artificial Morality" nicht um Spekulationen über zukünftige Entwicklungen, sondern um die logischen Implikationen bestehender Technik.
Maschinen sind frei
Floridi plädiert dafür, Artefeakte als moralischer Akteure anzuerkennen und die Liste bekannter Übel um die neue Kategorie "Artificial Evil" zu erweitern. Das hört sich schwer Science-Fiction-mäßig an - ist aber ganz gewöhnliche philosophische Begriffsarbeit.
Floridi geht an die Moral heran wie ein Unternehmensberater an die Ausdünnung des Personalbestands einer Firma. Er glaubt, dass eine Moralkonzeption, die den Phänomenen der Computerwelt gerecht werden will, sich von einigen Komponenten des gewöhnlichen moralischen Denkens trennen muss - um andere beibehalten zu können.
Festhalten möchte er an dem (kantischen) Prinzip "Sollen setzt Können voraus": Nur an denjenigen dürfen moralische Forderungen gerichtet, der in seinem Handeln frei ist, diesen Ansprüchen auch gerecht zu werden. Frei sind, in gewissem Sinne, aber auch Maschinen - so führt Floridi in seinem zusammen mit Jeff W. Sanders verfassten Aufsatz On the Morality of Artifical Agents aus. Es geht dabei freilich um Maschinen einer bestimmten Art: Maschinen, die interaktiv sind (auf ihre Umgebung reagieren können), die autonom arbeiten (ihren Zustand ohne direkte Einwirkung von außen verändern können) und sich adaptiv verhalten (die Regeln für die Veränderung ihrer Zustände selbst verändern können). Künstliche Neuronale Netze, aber auch Spamfilter -Programme sind ein gutes Beispiel für solche Maschinen. Spamfilter sortieren unerwünschte Email-Werbung aus. Dabei verfährt der Filter nicht nach vorher definierten Regeln, sondern zimmert sich den Such-Algorithmus selbst zurecht. Er lernt oder "trainiert" mit den Emails, die der Benutzer als "gelöscht" markiert.
Natürlich kann auch eine Spamschutz-Technik nichts anderes als das tun, wozu sie letzten Endes programmiert worden ist. Ähnliches kann man aber auch von Menschen behaupten: in einer gewissen Perspektive sind auch menschliche Handlungen determiniert. "Programmiertheit" des Handelns und Selbstbestimmtheit, so Floridi, sind aber ohnehin keine feststehenden Eigenschaften, sondern abhängig von dem Abstraktionsgrad, dem "Level of Abstraction" (LoA) des Betrachters. Je nach LoA ist zum Beispiel Glas eine Flüssigkeit oder ein Feststoff, ist eine Tomate eine Beere oder ein Gemüse - oder ein Email-Filter ein selbstbestimmter Akteur oder nur eine vorprogrammierte Maschine. Daraus folgt trotzdem kein beliebiges anything goes.
Maschinen, die in sinnvoller Perspektive als interaktiv, autonom und adaptiv beschrieben werden können und von denen man sagen kann, dass sie anders hätten handeln können, als sie es taten, sind nach Floridis Ansicht moralisch zurechnungsfähig. Schaden, den diese Maschinen anrichten, ist auf sie als Täter rückführbar. Freilich hat diese Sicht der Dinge immer noch einen Haken: Diese Form moralischer Zurechnungsfähigkeit muss ganz ohne die Kategorie der Verantwortung auskommen. Denn ebenso wenig wie Maschinen keine Vertragspartner sind und keine Rechte und Pflichten innehaben, können sie zur Verantwortung gezogen werden.
Gott unschuldig. Übrig allein der Mensch
Luciano Floridi begreift genau dies aber als einen Vorteil von Artificial Morality. Verantwortung, behauptet er in Artificial Evil and the Foundation of Computer Ethics, sei bloß ein Spezialfall der Moral - ein Spezialfall, der heute übergebührliche Beachtung fände. Dieser Befund stellt sich ein, wenn man die Moral und ihre Geschichte aus einer übergreifenden Perspektive betrachtet.
Innerhalb der vergangenen Jahrhunderte hat die Säkularisierung die Klasse moralischer Akteure zusammenschrumpfen lassen. Gott, Engel und andere Wesen kommen als Täter nicht mehr in Frage. Übrig geblieben ist allein der Mensch. Gleichzeitig ist der menschliche Verantwortungsbereich enorm gewachsen - durch die Ausweitung moralischer Rücksichtnahme etwa auf Tiere und auf die Umwelt, zum anderen durch das (auch dank Informations- und Kommunikationstechnologie) vertieftes Verständnis über die Folgen menschlichen Handelns in größerem Kontext. Ausgerechnet die Computertechnologie soll nun zu einer Rehabilitierung einer Ethik-Konzeption mit vormodernen Zügen führen - einer Konzeption, innerhalb derer Täter denkbar sind, die eine Handlung verschulden können, ohne dennoch für sie verantwortlich zu sein.
Übel: Eine Botschaft, die ihrem Empfänger Schaden zufügt
Künstliche Akteure können aktiv moralischen Schaden herbeiführen, auch ohne dass man ihnen böswillige Intentionen unterstellen muss. Sie können Übel verursachen - Künstliches Übel. Traditionellerweise unterschied man in der vor-neuzeitlichen Philosophie zwischen zwei großen Kategorien von Übel: dem moralischen Übel, für welches die Menschen verantwortlich waren, und dem aus der Theodizee bekannten natürlichen Übel (Erdbeben, Seuchen oder Hungersnöte).
Ein Übel ist eine "Beraubung des Guten" - in informationstechnischen Begriffen: eine Botschaft, die ihrem Empfänger einen Schaden zufügt. Den beiden bekannten Grundübeln wird nun in Floridis Programm eine dritte Klasse hinzugefügt: Artificial Evil. "AE", so der Kern der These, ist zwar durch menschliches Handeln entstanden, kann aber keinem menschlichen Täter angelastet werden - genauso wenig wie Eltern für Taten ihrer Kinder (moralisch) verantwortlich gemacht werden können.
Codes werden bestraft
Konsequent verfolgt, bietet dieser Ansatz einen explanatorischen Mehrwert: Phänomene kollektiver Verantwortung oder verteilter Zurechnungsfähigkeit können weitaus einfach und besser beschrieben werden, wenn diese nicht notwendig auf individuelle Täterschaft heruntergebrochen werden müssen. Damit handeln Künstliche Akteure noch nicht im regulierungsfreien Raum. Zurechnungsfähigkeit ist, wenn schon nicht mit Verantwortung, so doch mit Folgen für die jeweiligen Akteure verbunden. Statt Belohnung und Bestrafung gibt es das ganze Spektrum zensorischer Maßnahmen. Artifizielle Akteure können überwacht oder verändert werden; sie können aus dem Systemzusammenhang herausgerissen unisoliert - und schlussendlich gelöscht werden.
Endlich, schreibt Floridi, könnten wir aufhören, immer nach einer verantwortlichen Person zu suchen, und stattdessen "Zurechnungsfähigkeit-ohne-Verantwortung" direkt einer Software zuschreiben - und spielt sogar mit dem Gedanken, dass es vielleicht bald an der Zeit sein wird, Institutionen zu gründen, welche Richtlinien für das Verhalten von Künstlichen Akteuren festlegen.
Aber die Geschichte könnte sich auch in eine ganz andere Richtung weiter entwickeln. Unter dem entsprechenden "LoA" betrachtet, hört sich nämlich Artificial Morality geradezu nach einer Anleitung für Softwareingenieure und andere Konstrukteure Künstlicher Akteure an, sich aus der Verantwortung für ihre Produkte herauszustehlen.
Zu dieser Ansicht gelangte auch die Philosophin Kari Coleman, die auf der letzten Jahreskonferenz der "International Association for Computing and Philosophy" (IACAP) vor einigen Wochen in Oregon einen Vortrag mit dem Titel "Attributing Responsibility to Computers" angekündigt hatte. Sie zog ihren Beitrag im Vorfeld der Konferenz kurzerhand aus dem Rennen.