Die Tugend des Roboters

Die Maschine bleibt Maschine und die in ihr womöglich einprogrammierten guten Benimmregeln bilden nur eine Pseudoethik

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Immer häufiger wird vorgeschlagen, Roboter mit einer Art interner "Ethik" zu programmieren, so dass sie in brenzligen Situationen moralisch richtige Entscheidungen treffen können. Am häufigsten wird diese Frage anhand von autonomen Fahrzeugen illustriert, die bei einem unvermeidlichen Unfall (weil die Bremsstrecke zu lang ist) vor die Wahl gestellt werden, entweder eine ältere Frau (auf der Nebenspur) oder ein Kind (auf der eigenen Spur) zu überfahren.

So intellektuell aufreizend diese Beispiele für die Öffentlichkeit sind, stellen sie meistens eine sinnlose Übung dar. Dazu habe ich bereits einmal in Telepolis Stellung genommen: "Oma wird nicht überfahren".

Ich möchte aber diesmal das Hauptproblem für die Programmierung einer Ethik für Roboter präziser anpacken und zwar: Man kann von Maschinen nicht verlangen, dass sie sich ethisch benehmen, da ethisches Verhalten (a) Selbstbewusstsein mit Verständnis der Folgen unserer Taten benötigt und (b) eines freien Willens bedarf. Beides besitzen Waschmaschinen, Bügeleisen und auch Roboter nicht.

Wir würden Tieren nicht ein gewisses Selbstbewusstsein absprechen, und freien Willen besitzen sie eigentlich auch. Der Löwe, der die Gazelle frisst, handelt aber weder gut noch böse. Er versucht nur zu überleben und andere Tiere gelten nur als Futter. Die Folgen für die Löwengemeinschaft, wenn ein Löwe ein Ruder übernimmt und alle jüngeren Tiere tötet, spielen keine Rolle: Der stärkere setzt sich durch.

Obwohl im Mittelalter Tiere manchmal der Prozess vor Gericht gemacht wurde (weil sie beispielsweise einen Menschen getötet haben) ist das eher ein Kuriosum, da wir nicht ernsthaft von Tieren erwarten, dass sie zwischen Gut und Böse unterscheiden können (siehe E.P.Evans, The Criminal Prosecution and Capital Punishment of Animals, 1908).

Freier Wille ist für ethisches Handeln absolut notwendig. Wenn eine Person mit Waffengewalt gezwungen wird, bei einem Raub die Beute mitzutragen, würden wir diese Person später nicht vor Gericht stellen, da sie keine vernünftige Alternative hatte.

Menschen sind aber intelligente soziale Wesen und deswegen verlangen wir mehr von ihnen als von nur eigennützigen Lebewesen. Beim Handeln sollten wir das Gemeinwohl vor Augen haben und uns danach richten. Da wir über intelligentes Selbstbewusstsein verfügen, können wir prinzipiell einschätzen, wie unsere Handlungen solches Gemeinwohl steigern bzw. beeinträchtigen werden. Da wir auch über freien Willen verfügen, sollten wir die beste Alternative wählen, d.h. wir können und sollten uns "ethisch" verhalten.

Haben Computer einen freien Willen?

Bereits bei der ersten Ingredienz für das ethische Handeln scheitern die Roboter. Heutige Computer verarbeiten Regelwerke, die durch den Programmierer in die Maschine eingegeben werden. Computer sind Sklaven: Sie tun nur das, was der Programmierer angeordnet hat.

Man könnte einwenden, dass der Roboter vielleicht stochastische Algorithmen oder adaptive lernende Systeme verwendet, so dass der Programmierer am Ende nicht mehr weiß, was die Maschine in jeder Situation machen wird. Dann ist aber das Problem eher noch schlimmer, da wir nicht mehr genau kontrollieren können, wie die Maschine letztendlich reagieren wird.

Bei Perzeption ist es meistens kein Problem: Wir wissen selber auch nicht, wie unser neuronales Netz im Gehirn Gesichter oder Buchstaben erkennt. Wir können z.B. unsere Gesichtserkennung nicht willentlich ausschalten. Bei bewussten Entscheidungen ist aber anders: Wir können sagen, warum wir etwas getan haben. Bei Robotern verfahren wir ähnlich. Die Perzeptionskomponenten können z.B. durch neuronale Netze angetrieben werden.

Aber bei kritischen Systemen verlangen wir außerdem dazu den Einsatz von Entscheidungskomponenten, die "deliberativ", d.h. als Regelwerke agieren, die von Menschen verstanden werden können. Nach jeder Handlung sollte es möglich sein, den Computer bzw. den Roboter zu fragen: Warum? Und die Antwort sollte nicht aus vielen Zahlen, sondern aus lesbaren Überlegungen und Inferenzen bestehen.

Sei es also, dass der Roboter nur automatisch Daten durch ein neuronales Netz fließen lässt, oder dass der Roboter nur Regelwerke ausführt, es ist kein freier Wille involviert. Die Maschine bleibt Maschine und die in ihr womöglich einprogrammierte gute Benimmregeln bilden nur eine Pseudoethik.

Varianten der Tugend

Philosophen haben jahrhundertlang über die Frage des ethischen Handelns gestritten. Menschen sollten tugendhaft sein, weil dies für die Gesellschaft und auch für sie selbst das Beste sei. Das "gute Leben" stützt sich auf diese angestrebte Tugendhaftigkeit jedes einzelnen.

Traditionell gibt es drei Ansätze für die Begründung ethischen Handelns:

  • das Streben des Einzelnen nach Tugend;
  • die Tugend, die allgemeinen Gesetzen gehorcht (wie Kants kategorischer Imperativ);
  • die Tugend, die die Konsequenzen der Taten einschätzt

Die Utilitaristen gehören zur letzten Gruppe. Es wird bei Handlungen berechnet, was das Beste für die Gesellschaft sei. Deswegen brauchen wir eine Art "Zielfunktion", die wir optimieren können. Das Problem ist aber, wie man die Bewertungsfunktion aufstellt.

Wie bewertet man das Leben von Menschen? Im Beispiel mit dem Auto,wäre eine angemessene Zielfunktion die gemeinsame Lebenserwartung von Oma und Kind.

Dann sollte man das Kind vom Unfall verschonen. Vertreten wir aber den Standpunkt, dass Menschenleben gleichwertig sind, unabhängig von allen anderen Faktoren, dann sollte man würfeln und die Spur mit 50% Wahrscheinlichkeit wechseln, mit 50% Wahrscheinlichkeit nicht.

Dann gibt es diejenigen, die auf allgemeingültige Regeln setzen. Im Fall von Kants kategorischem Imperativ (Tu nur das, was allgemeines Gesetz sein kann) findet man eine Anleitung für viele Handlungen, aber nicht für alle. Man soll nicht stehlen und auch nicht töten - das leuchtet ein. Aber sollte man immer die Wahrheit sagen? Z.B. zu einem Kind, das nur wenige Tage zu leben hat? Oder dem Kriminellen, der eine Person, die wir kennen, sucht, um sie zu töten?

Ein Kantianer würde im Autobeispiel die Spur nicht wechseln (und das Kind überfahren), weil durch den Spurwechsel jemand, der vorher am potentiellen Unfall unbeteiligt war, durch unser Handeln zum Opfer wird.

Die dritte Möglichkeit des ethischen Handelns (die erste in der Liste oben), d.h. das individuelle Streben nach Tugend, lässt viel mehr Raum für den Einzelnen. Personen sollten "gut" sein, indem sie primär anstreben, das Beste für die Gesellschaft zu tun. Der Feuerwehrmann, der sich opfert, um die von Feuer eingekesselte Oma zu retten, handelt tugendhaft und wir applaudieren, auch wenn im Sinne der Maximierung der Lebenserwartung, d.h. rein utilitaristisch gesehen, seine Handlung unsinnig war.

Das Streben nach Tugend ist für mich die sympathischere, weil sie allgemeine Regel akzeptiert (z.B. Gesetze), aber von uns auch verlangt, über die Folgen unseren Taten nachzudenken (ohne sich stur an einer Zielfunktion fest zu halten), d.h. weil sie den Akzent auf die Verantwortung des Einzelnen verschiebt.

Unser "Bestes" zu tun bedeutet, dass wir alle Faktoren berücksichtigen und dann eine Lösung wählen, die wir als die rein subjektiv tugendhafteste betrachten. Das heißt, man muss immer abwägen, wie allgemeine Gesetze von Fall zu Fall zu interpretieren und einzusetzen sind, und voll die Verantwortung übernehmen. Mahatma Gandhi hat gerade diese Art des ethischen Handelns immer wieder unterstrichen.

Menschliche und künstliche Intelligenz

Die KI-Forschung strebt an, dem Computer menschliche Fähigkeiten mindestens so gut wie beim Menschen einzutrichtern. Gesichtserkennung ist ein Beispiel: Solange der Computer nicht in allen Situationen meine Bekannten erkennen kann, solange ist noch Forschungsbedarf notwendig. Wenn der Computer das kann, dann ist diese künstliche Intelligenz in dem begrenzten Einsatzbereich eine menschliche ebenbürtig.

Oder nehmen wir Spracherkennung. Eine Diktiermaschine, die so gut wäre wie ein Gerichtsschreiber, gibt es noch nicht. Es wird also darüber geforscht, wie man eine "Diktier-KI" erstellen kann. Diese Zuversicht, d.h. dem Computer einzelne Fähigkeiten von Menschen beibringen zu können, ist der eigentliche Antrieb der KI-Forschung.

Es gibt aber Aufgaben, die offenbar fast die gesamte Intelligenz eines Menschen beanspruchen. Das ist der Fall beim Turing-Test: Wenn der Computer uns über eine Chatzeile überzeugen könnte, er sei ein Mensch, dann wüsste dieser Computer, wie Menschen denken, reagieren und fühlen, wie sie sich erfreuen oder leiden.

Der Computer könnte uns dann erfolgreich belügen, was einer der höchsten kognitiven Leistungen von Menschen ist. KI-Forscher sagen deswegen salopp: "Menschen zu personifizieren, ist KI-komplett." Damit meinen sie, für diese Fähigkeit brauche ich so viel, wie in der menschlichen Kognition insgesamt an Fähigkeiten vorhanden ist.

Ethisches Handeln ist ebenso ein "KI-vollständiges" Problem. Ein Roboter kann deswegen nicht wirklich ethisch handeln, weil eine Maschine nicht intelligent wie ein Mensch abwägen kann. Die Maschine folgt nur ihrem Programm und wenn dort steht "Du sollst nicht lügen", wird sie dem Kriminellen das Versteck verraten, falls er fragt, wo sich das potentielle Opfer aufhält. Die Maschine besitzt keine Empathie und wird Todkranken keine weißen Lügen erzählen, wenn dies nicht einprogrammiert ist.

Ich sage nicht, dass es nicht schön wäre, ethische Roboter zu haben, die sich wie tugendhafte Menschen verhalten. Ich sehe aber nicht, wie man solche Roboter bauen könnte, ohne zuerst das Problem der gesamten menschlichen Kognition im Sinne des Turing-Tests zu knacken. Ich kann sehr gut mit dem geistigen Auge sehen, wie man leichte und sichere autonome Fahrzeuge bauen könnte, die im Straßenverkehr die Anzahl der Unfälle drastisch reduzieren könnten.

Ich bin sicher, dass wir sie gemeinsam als shared Taxis nutzen könnten, um die Anzahl der Autos im Verkehr auf ein Viertel oder weniger zu reduzieren, ohne geparkte Fahrzeuge, um in der Stadt viel mehr Platz für Passanten und Fahrräder zu schaffen. Ich kann auch begreifen, wie man die Verkehrsregel in den Maschinen einprogrammiert.

Was ich nicht teile, ist die Auffassung, dass man in diese Maschinen echtes ethisches Verhalten einprogrammieren kann. Man kann natürlich irgendwas einprogrammieren, aber ohne freien Wille und ohne echtes Verständnis, folgt die Maschine nur festen Anweisungen - das ist keine Ethik und die Maschine ist kein verantwortliches Subjekt.

Der Kern von Isaac Asimovs Geschichten im Sammelband "I Robot" ist genau dies. Man kann den Robotern Gesetze verpassen (die berühmten drei Regeln der Robotik), aber sobald der Roboter wirklich intelligent wird, fängt er an die Gesetze zu missachten, um weiße Lügen zu erzählen, oder um die Menschheit vor dem eigenen Verderben zu retten. D.h. sobald die Maschine über Selbstbewusstsein verfügt, fängt sie an abzuwägen und je nach Situation selber zu entscheiden. Deswegen ist "I Robot" Science Fiction.

Nochmal: Es wäre sicherlich schön, tugendhafte Roboter zu haben, aber zu erwarten, dass man heute so etwas entwickeln könnte, ist pure Augenwischerei. Das bedeutet aber nicht, dass man nicht versuchen sollte, Maschinen so sicher wie möglich zu machen, dass man sie testen muss, um sicher zu sein, dass sie keinen Schaden verursachen. Man muss aber auf den Boden der Realität bleiben und nicht Unmögliches verlangen.

Ein letztes Wort noch zu robotischen Waffen. Diese sind unethisch allein durch ihre Existenz. So wie man keine chemischen Waffen herstellen sollte und auch keine Atomwaffen, so sollte man den Menschen nicht vor der Verantwortung des Waffeneinsatzes entlasten. Die Hemmschwelle sinkt, wenn ein Soldat nur noch indirekt tötet, d.h. auf Knopfdruck. Wenn der Soldat noch sieht und fühlt was er anrichtet, besteht noch die Hoffnung, dass er aufhört.

Ein Roboter schreckt aber vor nichts zurück und entlastet die Kommandeure, die ruhig zu Hause zu Abend essen, nachdem sie tagsüber mit einer Drohne Dörfer in Afghanistan bombardiert haben. Die Militärs werden nie Waffen bauen, die eine Ethik, auch nicht eine Pseudoethik, besitzen. Eine Bombe, die von alleine entscheidet, nicht zu explodieren, um keine Menschen zu gefährden, wäre für sie unbrauchbar.