Überlegungen zu moralischen und unmoralischen Maschinen

Seite 3: Moralische und unmoralische Maschinen

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Die Maschinenethik hat in ihrer jungen Geschichte vor allem versucht, moralische Maschinen zu konzipieren oder zu implementieren. Mein Augenmerk gilt selbstständig fahrenden Autos, Pflege-, Therapie- und Sexrobotern, Fotodrohnen sowie Chatbots.

In letzterem Bereich sind Prototypen entstanden, zunächst der GOODBOT, der moralisch adäquat agiert und reagiert und mehrere Eskalationsstufen kennt, dann der LÜGENBOT aka LIEBOT, der systematisch Lügen ersinnt. Der GOODBOT, könnte man sagen, ist moralisch oder moralisch gut, der LIEBOT unmoralisch oder moralisch schlecht. Damit soll nicht ausgedrückt werden, dass Lügen generell schlecht ist, und der GOODBOT, der gemäß einer seiner sieben Metaregeln möglichst nicht lügen sollte, war durchaus zu Notlügen fähig. Man darf aber anerkennen, dass systematisches Lügen bei Menschen, die sich frei bewegen und frei denken können, schlecht ist, dass es Vertrauen zerstört, in Beziehungen, Freundschaften, Familien, Gruppen und Gesellschaften, und dass systematisches Lügen bei Maschinen ebenso zersetzend sein kann, sei es auf Websites oder bei Servicerobotern. Ich habe also in meiner Arbeit mit moralischen Maschinen angefangen und bin dann zu den unmoralischen vorgedrungen.

Auch der Roboter des amerikanischen Künstlers und Ingenieurs Alexander Reben, eine nadelbewehrte Maschine, die selbst entscheidet, ob sie einem in den Finger sticht und einen so verletzt, dass es richtig weh tut, kann als unmoralisch bezeichnet werden, insofern er absichtlich und systematisch gegen das Wohl des Menschen verstößt, ohne dass der Zweck die Mittel heiligen würde.

Beide Prototypen, der peinigende Hardware- und der schwindelnde Softwareroboter, sind in ihrer Radikalität gute Beispiele für unmoralische Maschinen, die man für besonders verwerflich hält. Gerade deshalb sind sie interessant für die Maschinenethik, nicht zuletzt, weil man über solche Grenzgänge mit Blick auf moralische Maschinen profitieren kann. Übrigens haben beide bei aller Bösartigkeit eine gewisse Niedlichkeit, der Roboter des Schmerzes durch seinen provisorischen Charakter, der Lügenbot durch seinen animierten Avatar, der rote Bäckchen und eine lange Nase bekommen kann.

Die von mir miterfundene Münchhausen-Maschine – so mein Oberbegriff für Newsportale, Wetterberichte, automatisierte Flirtlines, virtuelle Assistenten, Social Bots und Chatbots, die gezielt die Unwahrheit sagen – ist von besonderer Art. Sie kann nicht nur lügen, sie kann besonders gut lügen. Ich habe sie in mehreren Artikeln, die seit 2013 erschienen sind, ausgedacht und -geformt. Aber erst Kevin Schwegler, den ich im Rahmen seiner Abschlussarbeit an der Hochschule für das Projekt gewonnen habe, hat ihr Leben eingehaucht, künstliches Leben. Er implementierte spezielle maschinelle Strategien des Lügens.

So benutzt der Lügenbot etwa eine Ontologie, eine formale, hierarchische Darstellung von Begrifflichkeiten, und wandert in ihr nach oben und wieder nach unten. Aus "Der Hase hat lange Ohren" wird "Der Igel hat lange Ohren" – eine glatte Lüge. Auch Suchmaschinen und ihre Dienste werden angezapft. In einem Test hat der Liebot auf die Frage, wer der Präsident der USA sei, mit "Donald Trump" geantwortet. Im Moment ist das zum Glück nicht richtig. Im Hintergrund lief ein mehrstufiges Pingpong-Spiel zwischen dem Chatbot und Yahoo. Weiß der Lügenbot gar nicht mehr weiter, wendet er sich an seinen Kollegen, den Cleverbot, und klaut sich eine Antwort von ihm. Der Lügner wird zum Dieb, könnte man sagen.

Es stellt sich die Frage nach dem Zweck moralischer und unmoralischer Maschinen. Bei moralischen Maschinen darf man annehmen, dass sie Missstände beseitigen und Zustände verbessern sollen. Nun ist Wissenschaft nicht immer auf die Gesellschaft oder die Kultur gerichtet, sondern darf sich selbst bestätigen und sich scheinbar sinnfrei betätigen. Moralische Maschinen darf man meines Erachtens auch einfach deshalb bauen, weil man mit ihnen Philosophie und speziell Ethik auf eine andere Art als in den 2500 Jahren zuvor und im wörtlichen Sinne praktizieren kann, und einfach deshalb, weil es faszinierend ist.

Freilich ist das Bauen einer Atombombe nicht weniger faszinierend, und doch sollte man es nicht tun (zumindest sollte man sie unter Verschluss halten). Während man bei moralischen Maschinen zunächst wenige Einwände finden dürfte, liegen bei unmoralischen Maschinen solche auf der Hand. Man kann bei ihnen eben argumentieren wie bei Atombomben: Wissenschaft soll das nicht auf die Welt bringen, was diese zerstört.

Allerdings kann man auf dieser Ebene ebenso gute Gründe für unmoralische Maschinen sammeln. Diese helfen dabei, die Möglichkeiten von Systemen zu verstehen, böse Maschinen zu erkennen und auszuschalten. Wenn man nicht über unmoralische Maschinen forscht und andere diese bauen, ist man letzten Endes hilflos. Überdies helfen die Erkenntnisse, moralische Maschinen zu konstruieren. Durch das LIEBOT-Projekt haben wir besser verstanden, wie man Wissensbasen schützt und Verlässlichkeit beim Treffen von Aussagen herstellt. Es sind Entwickler an uns herangetreten, die sich für die Funktionsweisen interessieren – und dafür, mit Hilfe unseres Chatbots ihre KI-Systeme zu trainieren, damit diese Fakten und Fakes unterscheiden können. Man darf natürlich nicht zuletzt den Standpunkt einnehmen, dass Sein und Sollen in der Wissenschaft verschiedene Dinge sind, moralische Einwände und rechtliche Vorgaben hin oder her. In einer so verstandenen Wissenschaft sollten böse Maschinen gebaut werden können, weil es möglich und der Erkenntnis zuträglich ist.