Über die Moral der Maschinen und eine programmierte Ethik

Seite 2: Moralische Geräte, die zur individuellen Moral ihrer Besitzer und Benutzer passen

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Gut möglich, dass lernende intelligente Maschinen/Roboter, wenn sie mit Menschen und ihresgleichen "aufwachsen", auch soziale Regeln für den Umgang mit Menschen, anderen Lebewesen, Dingen oder Mitmaschinen entwickeln, wie immer die dann aussehen werden. Zunächst aber geht es darum, den autonomen Maschinen Moral, also ein Set von Regeln, einzuprogrammieren. Berühmt geworden sind die "Asimovschen Gesetze", nach denen ein Roboter keinem Menschen Schaden zufügen darf und den Menschen gehorchen muss. Im Sinne der Selbsterhaltung soll er sich auch schützen, wenn die beiden ersten Gesetze nicht dabei verletzt werden. Von welchen grundsätzlichen Regeln würden Sie denn, über alle unterschiedlichen Roboter hinweg, Kampfroboter einmal ausgenommen, ausgehen? Oder wäre das ein falscher Ansatz?

Oliver Bendel: Dass Roboter wie Kinder aufwachsen und dazulernen, ist ein hochinteressanter und wohlbekannter Ansatz. Und man kann diesen natürlich auch für das Moralisieren der Maschinen verwenden. Bei Asimov muss man zunächst bedenken, dass er die Regeln im fiktionalen Kontext entwickelt hat. Er hat, weil er ihre Unzulänglichkeit gesehen hat, eine Regel 0 dazugenommen und die anderen angepasst. Man kann schon versuchen, gewisse Meta- oder Grundregeln zu definieren, die für möglichst viele Roboterarten gelten sollen. Aber man stößt schnell an Grenzen.

Für unseren GOODBOT habe ich sieben Metaregeln entwickelt, u.a. auch diejenige, dass er nicht lügen soll. Meine drei Studenten, die den Chatbot programmiert haben, haben diese Regel angepasst: "Der GOODBOT belügt den Benutzer grundsätzlich nicht, außer wenn Regel 3 verletzt würde." Diese lautete: "Der GOODBOT verletzt den Benutzer weder durch Aussehen, Mimik und Gestik noch mit seinen Aussagen." Eine Grundregel, dass der Mensch psychisch oder physisch unversehrt bleiben soll, scheint sinnvoll zu sein.

Eine Ausnahme haben Sie schon genannt, die autonomen Kampfroboter. Als würden Sie einem Soldaten untersagen, im Krieg zu töten. Und beim selbstständig fahrenden Auto ist eben der Witz, dass dieses, etwa weil die Bremsen versagen, in Dilemmata geraten kann, die definitionsgemäß schwer aufzulösen sind. Es muss unter Umständen irgendjemandem körperlichen Schaden zufügen. Da nutzt die Regel dann auch nichts mehr.

Ich bin aber nicht ganz pessimistisch, denn in etlichen Fällen, gerade bei einfachen moralischen Maschinen, brauchen wir keine grundsätzlichen Regeln. Wir brauchen Regeln und letztlich Merkmale und Funktionen, die dem Kunden gefallen. Ein bisschen wie bei Fairtrade. Ein Beispiel dafür ist LADYBIRD, der tierfreundliche Saugroboter, den ich auf dem Papier konzipiert habe. Er weigert sich, daher der Name, einen Marienkäfer einzusaugen. Wer den Staubsauger braucht, um eine Spinne verschwinden zu lassen, muss halt die Variante mit dem Kill-Button wählen. Der Markt regelt das am Ende. Damit sage ich nicht, dass dann alles gut wird, ganz im Gegenteil, und das Töten der Spinne ist in meinen Augen falsch und überflüssig. Aber wir können durchaus moralische Geräte bauen, die zur individuellen Moral ihrer Besitzer und Benutzer passen. Zumindest in einem Haushalt funktioniert das gut, in der Wohnung und im Garten.

Bei Roboterautos wäre eine jeweils individuelle Moral interessant, aber gefährlich, wenn es Menschen betrifft. Mit Blick auf Tiere sehe ich wiederum die Möglichkeit, dass man das für sich passende Modell aussucht. Das fängt übrigens schon bei Fahrerassistenzsystemen wie Notbremsassistenten und bei Autopiloten an. Das Tesla Model C würde nicht nur für Rehe, sondern auch für Katzen bremsen. Natürlich nur, wenn es die Verkehrslage zulässt.

Sie scheinen das Modell von spezifischen moralischen Regeln für Saug-, Pflege-, Kampf- oder Fahrzeugroboter vorzuziehen. Aber Roboter leben in einer gemeinsamen Welt mit unterschiedlichen Menschen, Robotern und anderen Lebewesen und Dingen, mit denen sie umgehen müssen bzw. die sie nicht gefährden sollen. Wäre da nicht doch eine universelle Moral erforderlich, eine Art kantischer Imperativ, auch wenn dieser nicht andere Lebewesen als Menschen einschloss und Selbstbewusstsein, also sich an die Stelle eines anderen versetzen zu können, voraussetzte? Oder wäre, philosophisch orientiert, nur eine pragmatische, relative oder utilitaristische Moral ausreichend?

Oliver Bendel: Ich konzentriere mich in meiner Arbeit, wie deutlich wurde, auf teilautonome oder autonome Maschinen, die in überschaubaren und mehrheitlich auch individuellen Bereichen ihre Arbeit tun. Bei Saugrobotern in einem Singlehaushalt braucht man keine universelle Moral. Ein Paar muss sich schon arrangieren, aber nicht nur in dieser Sache. Bei einer Familie, einer Lebensgemeinschaft oder einer WG können natürlich bereits Spannungen entstehen. Der eine will die Spinne einsaugen, der andere nicht. Eine Lösung könnten Saugroboter sein, die mehrere Profile oder spezielle Tasten haben.

Sie sprechen nun nochmals Roboter an, die sich durch offene Welten bewegen und auf viele unterschiedliche Menschen und Situationen treffen. Man kann sie mit unterschiedlichen Modellen normativer Ethik ausstatten. Die Pflichtethik kommt genauso in Frage wie die Folgenethik. Klassische utilitaristische Prinzipien lassen sich relativ einfach umsetzen. Die Maschine zählt z.B. einfach durch oder bewertet Alter und Gesundheit. Das Trolley-Problem ist hinlänglich bekannt. Das Roboterauto-Problem, wie ich es nenne, könnte ebenfalls so gelöst werden, dass man die eine Person tötet, nicht die Gruppe von fünf Leuten. Aber was ist, wenn der eine der Chefredakteur von Telepolis ist und die anderen IS-Kämpfer sind?

Das Durchzählen ist nicht immer sinnvoll und zielführend. Das maschinelle Einschätzen von Alter, Gesundheit, Schönheit, Wichtigkeit und Reichtum schon gar nicht. Eine Möglichkeit ist, solche komplexen moralischen Maschinen erst gar nicht zu bauen. Selbstverständlich wird es irgendjemand tun, wird die Atombombe unter den moralischen Maschinen konstruieren, ein beobachtendes, selbstlernendes System, das sich ständig umbaut und verbessert bis hin zum GAU, zum größten anzunehmenden Unfug. Wichtig ist, dass wir die damit verbundenen Schwierigkeiten und Folgeerscheinungen antizipieren und diskutieren. Die Maschinenethik als Gestaltungsdisziplin braucht hier eine Begleiterin, die Informationsethik als Reflexionsdisziplin, oder auch die Technikethik.

Übrigens gibt es noch ganz andere Optionen, die Maschinen auszurüsten und zu erziehen. Diese könnten sich an einer Referenzperson orientieren oder die sozialen Medien auswerten. Roboter könnten sich auch gegenseitig korrigieren. Alles nicht unheikle Verfahren. Dass Referenzpersonen oder Gesprächspartner in die Irre führen können, haben wir beim Chatbot Tay erlebt. Dieser geriet sozusagen in schlechte Gesellschaft.