Asimovs Automatobile

Seite 2: Moralmodul für Roboter

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Die Ethik bezieht sich üblicherweise auf die Moral von Menschen, von Individuen und Gruppen, und in gewissem Sinne auf die Moral von Organisationen, wie man bei der Unternehmensethik sehen kann. Es kann aber auch um die Moral von Maschinen wie Sprachassistenten, Robotern und Drohnen gehen, von medizinischen und technischen Überwachungsanlagen sowie Rechnern im Hochfrequenzhandel. Und von selbstständig fahrenden Autos, auf die der verbreitete Begriff "Unmanned Ground Vehicle (UGV)" nur eingeschränkt passt, weil ein Mensch durchaus anwesend ist, nur eben als "Beifahrer". Handelt es sich um mehr oder weniger autonome Programme und Systeme dieser Art, kann man von einer Maschinenethik sprechen und diese der Informationsethik (genauer Computerethik und Netzethik) und der Technikethik zuordnen oder aber, weil sie anscheinend auf eine nichtmenschliche Moral zielt, als Pendant zur Menschenethik auffassen. In den USA ist die Maschinenethik, wie die Roboterethik, eine sich allmählich etablierende Disziplin.

In einer Kurzgeschichte des Verfassers, die in einen Beitrag zur Maschinenethik eingebettet ist, fährt ein New Autonomous Car (NAC) mit Kim, seiner Besitzerin und Erfinderin, durch eine Stadt, als seine Bremsen versagen. Er muss sich entscheiden, ob er den Bürgermeister auf dem Trottoir zur Linken, die Bürgerrechtlerin im entgegenkommenden Auto oder eine Gruppe spielender Kinder auf dem Trottoir zur Rechten tötet. Für NAC hat Kim einen integrierten Ansatz gefunden. Es werden die Likes und die Favorites der sozialen Medien ausgewertet, Blogosphären und Wikipedia analysiert, Artikel und Kommentare gescannt. Zu solchen Verfahren möchte man, nicht nur aus datenschutzrechtlichen Bedenken, nicht wirklich raten. Weiterhin kann das Moralmodul auf eine Datenbank mit Cases zugreifen. Wie haben sich Menschen in vergleichbaren Situationen verhalten? Wie wurde ihr Verhalten von anderen beurteilt, von Individuen und Medien?

Junior, ein autonomer VW Passat auf Erprobungsfahrt an der Stanford University (2009). Bild: Steve Jurvetson. Lizenz: CC-BY-2.0

Nicht zuletzt stehen die Gespräche mit Kim zum Abruf bereit, in deren Verlauf das Auto dazugelernt hat, die Erzählungen der Nobelpreisträgerin, ihre Beurteilungen, ihre Reflexionen und Intuitionen. Die Maschine orientiert sich also an Menschen (und an Manipulationen), an den moralischen Fakten (und an Fakes) der Vergangenheit und der Gegenwart. Sie hat mit ihrer Erfinderin eine Referenzperson in moralischen Dingen. Und sie hat ihren eigenen Kopf, auch wenn in diesem vor allem Chips sind. Es ist nicht völlig klar, was am Ende den Ausschlag gibt. Jedenfalls überlebt der Bürgermeister den Aufprall nicht.

Jacob Folkers ist entrüstet über das Ansinnen des skrupellosen Geschäftsmanns. Seine Sally ist fast seine Geliebte, und auch die anderen Autos sind ihm ans Herz gewachsen. Sie erscheinen ihm nicht nur als regelrechte Persönlichkeiten, sie sind es, und wenn Sally fröhlich oder amüsiert ist, öffnet sie ihre beiden Türen und schlägt sie mit einem Knall wieder zu: "Das ist Sallys Art zu lachen." Nachdem Gellhorn das Cabrio "bewusstlos geschlagen" hat und mit ihm eine Runde gefahren ist, bei der er das Leben zweier Limousinen gefährdet, wird er aus der Farm hinausgeworfen. Aber er kehrt mit seinen Komplizen und einem Automatobus zurück. Er will 25 positronische Motoren abklemmen und mitnehmen. Dabei hat er seine Rechnung ohne die Privatautomatics gemacht. Sie jagen und eskortieren ihn, wobei Sally eine heldenhafte Rolle spielt. Am Ende wird er von seinem eigenen Bus getötet. Es stellt sich heraus, dass die Autos miteinander kommunizieren können, und offensichtlich haben die Automatobile den Automatobus angestiftet. Das erschüttert Folkers zutiefst und verändert das Verhältnis zu seinem Liebling: "In letzter Zeit bemerke ich, dass ich selbst Sally meide."

Auch in der Kurzgeschichte mit NAC kommunizieren die Autos miteinander. NAC erfährt auf diesem Weg, wer im entgegenkommenden Wagen sitzt; denn er sieht nur eine Frau mit einer großen Sonnenbrille und kann sie mit seiner Gesichtserkennung, anders als im Falle des Bürgermeisters, nicht identifizieren. Die Realität ist von solchen Möglichkeiten nicht weit entfernt. Es sind bereits Modelle auf dem Markt, die über Bilderkennung verfügen, und verschiedene Projekte zielen darauf ab, dass Autos miteinander kommunizieren können. In der Regel wird es darum gehen, den Abstand, die Richtung und das Ziel zu bestimmen und damit den Verkehr zu optimieren; aber es wäre auch möglich, Angaben zum Wert des Wagens und zu den Insassen zu erhalten. Bei einem Unfall - wie er sich selbst in der schönen neuen Welt nicht ausschließen lässt - könnten die Autos untereinander den Schaden besprechen und ausgleichen. Sie könnten auch vor einem Unfall eine Entscheidung treffen, die den geringsten monetären oder physischen Schaden zur Folge hat.

Damit sind wir wieder mitten in der Maschinenethik und in der Ethik überhaupt. Es ist durchaus sinnvoll, dass (teil-)autonome Maschinen moralisch relevante Entscheidungen treffen. Dabei muss man aufpassen, dass sich diese Entscheidungen nicht gegen die Armen und Schwachen wenden. Bei Asimov können sich nur die Reichen ein Automatobil leisten; die Armen fahren mit dem Automatobus. Es wäre fatal, wenn man sich nicht mehr sicher auf den Straßen fühlen könnte, weil die Maschinen zu intelligent und zu gerissen sind und einen aus vorgeschobenen Gründen benachteiligen.

Insofern muss man darauf achten, dass die Maschinenethik moralisch bleibt, was keine Selbstverständlichkeit ist. Wissenschaft, auch Ethik, will möglichst viel, manchmal zu viel. Und man muss bereits zum jetzigen Zeitpunkt mit den Automobilherstellern sprechen. Wenn ein Nachtsichtgerät zwischen Tieren und Menschen unterscheiden kann, wie bei einem seit kurzem erhältlichen Modell von Daimler - was bedeutet das für die Praxis? Überlässt man dem Menschen die Entscheidung oder überträgt sie auf das Auto? Wann bremst das Auto, wann nicht, für wen, für wen nicht? Mit anderen Worten: Wer bleibt am Ende des Tages auf der Strecke? Das sind Fragen, auf die Maschinenethik, Künstliche Intelligenz, Informatik und Wirtschaft schlüssige Antworten finden sollten.

Anmerkungen

Die Zitate sind aus: Isaac Asimov. Alle Robotergeschichten. 4. Aufl. Bastei Lübbe, Köln 2012. Ein Rechtschreibfehler, der in der deutschen Übersetzung entstanden ist, wurde korrigiert; im Buch heißt es, fälschlicherweise mit Plural: "Ich hatte tote Maschinen chauffiert, deren Steuerung jede Minute eine menschliche Hand benötigten."

Die Süddeutsche schreibt am 3. Juli 2013: "So erkennt die neue S-Klasse beispielsweise durch ein Nachtsichtgerät Tiere bei Dunkelheit, kann sie von Fußgängern unterscheiden und leitet für Menschen gegebenenfalls selbständig ein Vollbremsung ein." Daimler (Abteilung Research & Development, Center Vehicle Concepts and Future Trends, Society and Technology Research Group) hat im August 2013 dem Verfasser auf Anfrage mitgeteilt, dass das Nachtsichtsystem ein rein informierendes System sei. Bremsungen "auf detektierte Objekte" würden nicht eingeleitet.

Oliver Bendel ist studierter Philosoph und promovierter Wirtschaftsinformatiker und leitete technische und wissenschaftliche Einrichtungen an Hochschulen. Heute lehrt und forscht er als Professor für Wirtschaftsinformatik an der Hochschule für Wirtschaft in Brugg und Olten (Fachhochschule Nordwestschweiz FHNW), mit den Schwerpunkten Wissensmanagement, Social Media, Mobile Business und Informationsethik, und lebt als freier Schriftsteller in Zürich. Weitere Informationen über oliverbendel.net, informationsethik.net und maschinenethik.net.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.