Buridans Robot

Überlegungen zu maschinellen Dilemmata

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Nehmen wir ein modernes Geschöpf, einen Roboter (engl. "robot"). Dieser handelt nach bestimmten Regeln, hat Aufträge und Pflichten. Er vermag die Folgen seines Handelns zu beurteilen und die Regeln unter Umständen zu bevorzugen oder anzupassen.

Der Kampfroboter Modular Advanced Armed Robotic System (MAARS). Bild: QinetiQ

Er ist ein selbstlernendes System, er beobachtet, hört zu, unterhält sich mit Menschen, nimmt sie als leuchtendes Vorbild und abschreckendes Beispiel. Ein ambitionierter Roboter, wie es ihn auch Jahrzehnte nach den Geschichten von Isaac Asimov und Stanislaw Lem und den Pioniertaten in der Künstlichen Intelligenz (KI) und in der Robotik kaum gibt.

Zu Buridans Robot wird er, wenn er ein Dilemma ansatzweise oder ganz überwindet und damit das Gleichnis nach 2500 Jahren zu einem befriedigenden Abschluss bringt. Er ist also bei uns gar kein Esel und springt über den langen Schatten seiner Geschichte. Er verendet nicht, und nicht nur deshalb, weil er als Maschine nicht verenden kann, und scheitert im besten Fall dank geeigneter Strategien auch nicht in anderen Belangen. Betrachten wir drei Situationen mit maschinellen Dilemmata.

Des Buridanus Eselstute
kennt jeder Böse, jeder Gute.
Und jeder, Mann wie Mädchen, weiß,
dass sie, vom Wirbel bis zum Steiß
verhungert ist, weil kurzerhand
sie sich nicht hat entschließen können,
von den beiden Bündeln Heu,
in deren Mitte sie sich fand,
das eine sich zur Speis
zu gönnen vorzugsweis ...

Christian Morgenstern, Der Esel des Buridan oder Die zwei Heubündel, in: Galgenlieder, 1905

Buridans Esel ist in der ursprünglichen Version von Aristoteles ein Mann, der zwischen Speis und Trank verenden muss, weil er genauso hungrig wie durstig ist. Schon dieser Mann ist offensichtlich ein Esel, weil er sich nicht zwischen verschiedenen Dingen mit gleichen Reizen entscheiden kann. Buridan selbst, der zu Unrecht als Urheber des Gleichnisses gilt, spricht von einem Wanderer und einem Segler, in einem Kommentar zu einem Text des alten Griechen auch von einem Hund, der zwei Lebensmittel - um es frei zu übertragen - ratlos beäugt und beschnuppert. Das Grautier haben vermutlich die Gegner des Philosophen und Physikers aus dem 14. Jahrhundert erfunden, um die vermeintliche Eselei zu veranschaulichen. Es handelt sich aber keineswegs um eine solche, sondern um ein Gedankenexperiment, das bis heute von Interesse und Bedeutung ist.

Die Kampfmaschine und die eineiigen Zwillinge

In der ersten Situation ist Buridans Robot ein Kampfroboter. Ob er fliegt und damit eine (für diesen Fall autonom gedachte) Drohne ist, oder ob er sich wie ein Auto oder ein Mensch fortbewegt, spielt keine Rolle. Die Kampfmaschine hat den Auftrag, einen Terroristen zu töten. Dieser hat, was kaum jemand weiß, einen Zwillingsbruder, der ihm gleicht wie eine Handgranate der anderen, ein harmloser, freundlicher Bursche.

Der Kampfroboter trifft nach längerer Suche auf die Eineiigen. Er erfasst mit einem Blick, dass er die Zielperson zwei Mal vor sich hat. Es kommt nun auf die genaue Formulierung der Regel an, was er tut. Wenn sie so lautet, dass er jede Person mit diesem Aussehen eliminieren soll, ist der Terrorist tot, sein Bruder ebenso. Es entsteht ein moralisches Problem, denn der Blutsverwandte ist ja ohne Fehl und Tadel.

Wenn sie so lautet, dass er genau eine Person mit diesem Aussehen eliminieren soll, befindet er sich in einem Dilemma. Hätte er zuerst die eine Zielperson entdeckt und getötet, bevor er auf die andere gestoßen wäre, wäre ebenfalls ein Problem entstanden, zum einen ein moralisches, zum anderen ein technisches, genauer gesagt eines, welches das Vorgehen betrifft.

Wie könnte man vermeiden, dass der Roboter zwischen den Zwillingen "verhungert" bzw. "verdurstet", also unfähig zu einer Entscheidung ist? Und zugleich gewährleisten, dass er sich - ein Anliegen der Maschinenethik - moralisch korrekt verhält? Man möge davon abstrahieren, dass das Töten meist unmoralisch ist, und gegenüber dem Kampfroboter grundsätzlich Milde walten lassen.

Nicht dem ersten Eindruck trauen

Man könnte ihn lehren, dass er nicht vorbehaltlos seinem ersten Eindruck trauen soll. Wenn die Reize, die von den Zwillingen ausgehen, gleich groß sind, müssen weitere Reize her. Mit anderen Worten: Der Roboter muss mehr über seine Zielobjekte herausfinden. Er könnte den Brüdern salomonische Fragen stellen, er könnte ihre Fingerabdrücke nehmen und mit den vorhandenen Daten abgleichen lassen.

Das sind aufwändige und doch lohnenswerte Strategien. Dass beide bis zur Entscheidung festgehalten werden müssen, lässt sich nicht vermeiden. Damit könnte der Kampfroboter freilich überfordert sein, etwa wenn er eine Drohne ohne Arme und Hände ist. Die genannte Regel wäre offenbar zu modifizieren. Die Beschreibung muss nicht nur zutreffen, sondern auf den Gesuchten passen.

Natürlich hätte auch der Mann, den Aristoteles erwähnt, mehr über Speis und Trank in Erfahrung bringen können. Vielleicht hätte er erkannt, dass das eine mit Gift angereichert oder das andere eine Fälschung ist. Auch der Esel wäre dazu vielleicht in der Lage gewesen und in der Folge über das bedenkenlos verzehrbare Bündel hergefallen. Der Mann hätte ferner bei sich ansetzen und über seinen Hunger und Durst reflektieren oder feste bzw. flüssige Nahrung aus anderen Quellen zu sich nehmen können.

Bei unserem Roboter wären solche Strategien kaum umzusetzen. Er könnte sich als moralische Maschine fragen, ob er überhaupt töten muss und ob der Terrorist nicht ein Recht auf ein faires Verfahren hat. Allerdings könnte er bei entsprechenden Antworten seinen Auftrag gefährden.

Ein Serviceroboter und seine Gesprächspartner

In der zweiten Situation soll ein Serviceroboter in einem Museum die Besucher informieren und zu Bildern und Skulpturen begleiten. Er soll auf persönliche Vorlieben (nur Moderne, kein Meese etc.) Rücksicht nehmen und sich auf seine Gesprächspartner einlassen. Zwei Kunstbegeisterte treten gleichzeitig auf den Roboter zu. Dieser muss sich, auch das ein Dilemma, für einen von ihnen entscheiden.

Es sind mehrere Strategien denkbar, um ihn handlungsfähig zu machen. Der Roboter könnte feststellen, ob einer von beiden um den Bruchteil einer Sekunde schneller war oder ihn zuerst angesprochen hat. Die Besucher würden vielleicht Beweise fordern, die der Roboter liefern könnte. Das Prinzip "Wer zuerst kommt, mahlt zuerst" sollte ihnen vertraut sein, sogar im Millisekundenbereich, wenn sie Leichtathletikfans oder Hobbyphysiker sind.

Der Roboter könnte die beiden ferner fragen, ob sich der eine oder andere gedulden könnte, also an ihr Verständnis appellieren. Dabei könnte er demjenigen, der vorerst zurücktritt, einen Ausgleich versprechen, etwa einen Einblick in das Archiv des Museums oder einen Schokoriegel. In beiden Fällen bezieht der Roboter wieder die Objekte mit ein, wenn auch mit divergierenden Verfahren.

Auch Aristotelesʼ Mann hätte den zeitlichen Faktor mit einkalkulieren können. Er hätte das bevorzugen können, was er zuerst wahrgenommen hat. Oder hat er mit einem Blick die feste und die flüssige Nahrung gesehen und zugleich den Käse und den Wein gerochen?

Der Esel hätte ebenso verfahren können, es sei denn, er wäre nicht nur störrisch, sondern auch dumm gewesen. Die andere Strategie wäre fehl am Platze gewesen. Ein Käse hat genauso wenig Verständnis wie ein Glas Wein, und ihnen ist es egal, ob sie gegessen oder getrunken werden. Das zeigt nebenbei einen Unterschied zwischen Buridans Esel und Buridans Robot. Buridans Esel ist von den Dingen hin und her gerissen, Buridans Robot von den Menschen. Bisher zumindest, denn man kann die Maschine natürlich mit Naturprodukten und Artefakten konfrontieren.

Ein Pflegeroboter und ein Notfall

Im dritten Beispiel will ein Pflegeroboter ein Medikament holen, um den Anfall seines Besitzers zu behandeln, der bewusstlos am Boden liegt. Im Arzneimittelschränkchen im Bad findet er sowohl Tabletten mit dem notwendigen Wirkstoff als auch eine passende Lösung zum Spritzen und damit ein Dilemma vor.

Es ist wichtig, dass sich der Roboter schnell entscheidet und das auswählt, was am besten angewendet werden kann und am besten hilft. Er darf sich nicht für beide Optionen entscheiden, muss informiert sein über die Medikamente, die Dosis und die Form sowie über den Patienten, seinen Krankheitsverlauf und seine Unverträglichkeiten. Er kann - wie ein Mensch - vertrauenswürdige Internetquellen bemühen und Rücksprache mit Apothekern und Ärzten halten und sich von ihnen anleiten lassen, was freilich seine Autonomie gefährdet.

Wir fühlen uns an die erste und zweite Situation erinnert, wo es um qualitative und quantitative Faktoren ging. Allerdings wird nun in unterschiedlicher Weise über Bande gespielt. Der Roboter muss das richtige Präparat aussuchen und es zugleich in Bezug auf Situation und Patient richtig einordnen, damit er adäquat handeln kann, im Extremfall mit der Hilfe von Menschen und Maschinen.

Buridans Esel in der Aristotelischen Version hätte ebenfalls über Bande spielen und einen Anwesenden fragen können, keinen Bewusstlosen, einen Hellwachen, und dieser hätte ihn zum Käse oder zum Wein führen können. Der Esel von Buridans Gegnern hätte zu seinem ebenfalls zu erfindenden Besitzer trotten, sich von ihm die Ohren kraulen und ihn das Problem lösen lassen können.

Maschinenethik

Vielleicht fragt man sich, warum Buridans Robot erfunden wurde. Und ob es sich nicht um rein akademische Überlegungen handelt. Nun habe ich nichts gegen solche. Ich glaube aber, dass Buridans Esel bis heute ein eindrückliches und vielsagendes Gleichnis ist, das Philosophie, Robotik und KI und letztlich den Alltag befruchten kann.

Wir werden immer mehr (teil-)autonome Systeme um uns, vor uns, über uns und unter uns haben, Chatbots, Agenten, Roboter, Drohnen und selbstständig fahrende Autos. Diese werden eigenständig entscheiden und handeln, auch in moralisch aufgeladenen Situationen, was eben die Disziplin der Maschinenethik auf den Plan ruft.

In manchen Fällen werden sie nicht wissen, was zu tun ist. Sie werden aber etwas tun müssen, und was sie tun, kann gravierende Konsequenzen haben, auch in moralischer Hinsicht. In der Theorie kann Buridans Robot einen Ausweg aus dem einen oder anderen Dilemma finden. In der Praxis muss er sich erst noch beweisen.

Anmerkungen

Die Maschinenethik ("Machine Ethics") hat die Moral von Maschinen zum Gegenstand, vor allem von (teil-)autonomen Systemen wie Agenten, Robotern, Drohnen, Computern im automatisierten Handel und selbstständig fahrenden Autos. Sie kann innerhalb von Informations- und Technikethik eingeordnet oder als Pendant zur Menschenethik angesehen werden.

Der Begriff der Algorithmenethik wird teils synonym, teils eher in der Diskussion über Suchmaschinen und Vorschlagslisten sowie Big Data verwendet. Die Roboterethik ist eine Keimzelle und ein Spezialgebiet der Maschinenethik.

Oliver Bendel ist studierter Philosoph und promovierter Wirtschaftsinformatiker und leitete technische und wissenschaftliche Einrichtungen an Hochschulen. Heute lehrt und forscht er als Professor für Wirtschaftsinformatik an der Hochschule für Wirtschaft (Fachhochschule Nordwestschweiz), mit den Schwerpunkten E-Learning, Wissensmanagement, Social Media, Mobile Business, Informationsethik und Maschinenethik. Weitere Informationen über oliverbendel.net und informationsethik.net.