Wie es ist, einen humanoiden Roboter auszuschalten

Aike Horstmann et. al. Bild: CC BY-4.0

In einem Experiment hatten damit am meisten Probleme, wenn der Roboter nicht menschenähnlich kommunizierte, aber plötzlich darum bat, nicht ausgeschaltet zu werden

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Insekten oder Amphiben, die keinen Ton von sich geben, kann man leicht töten. Auch bei Fischen fehlt die Tötungshemmung, weil sie nicht schreien können und den Anschein machen, als würden sie ohne Schmerzen und Leid ihr schwindendes Dasein aufgespießt am Anglerhaken oder um sich schlagend im Netz ertragen. Ähnlich ist dies bei Maschinen. Wir schalten sie einfach aus, da wir weder Selbstbewusstsein noch Lebenswille, geschweige denn Schmerzen in sie projizieren. Aber was ist, wenn Maschinen menschenähnlich reagieren?

Bekannt ist, dass Menschen auch mit Robotern, Medien und Tieren, manchmal auch mit Gegenständen, ähnlich umgehen, wie mit anderen Menschen. Das soziale Verhalten wird einfach auf Anderes projiziert, um damit wie gewohnt umzugehen. Bei humanoiden Robotern liegt dies besonders nahe, da sie durch ihr Aussehen und Verhalten Menschen dazu verführen sollen, mit ihnen wie mit ihresgleichen umzugehen. So wurde das berühmte Milgram-Experiment auch mit Robotern als "Schülern" wiederholt. Zwar gaben alle Versuchspersonen nach Aufforderung die höchsten Stromstöße - bei Menschen taten dies nur 40 Prozent -, aber sie zeigten auch Mitleid mit dem Roboter und fühlten sich dabei unwohl.

Sozialpsychologen von der Universität Duisburg-Essen haben versucht herauszubekommen, wie Menschen darauf reagieren, wenn sie einen Roboter ausschalten sollen, der darum bittet, nicht ausgeschalten zu werden. Veröffentlicht wurde die Studie im Open Access Joural PLOS ONE. Weil man andere Menschen nicht gemeinhin ausschalten könne, sei zu erwarten, dass die Versuchspersonen damit Schwierigkeiten haben sollten, wenn der humanoide Roboter mit ihnen menschenähnlich kommuniziert, Witze macht, sich direkt an die Versuchspersonen wendet oder persönliche Erfahrungen sagt. Um sie auf die Situation einzustimmen spielten oder interagierten die 85 Versuchspersonen (29 Männer und 56 Frauen) zuvor mit dem kleinen humanoiden Roboter Nao, der entweder menschenähnliches oder maschinenähnliches kommunikatives Verhalten simulierte.

Aike Horstmann et. al. Bild: CC BY-4.0

Natürlich wurden die Versuchspersonen, die sich alleine in einem Zimmer mit dem Roboter aufhielten und mit Videokameras beobachtet wurden, ausgetrickst. Ihre vermeintliche Aufgabe war es, die Algorithmen des Roboters durch Fragen zu verbessern. Im Laufe des Trainings wurde dieses unterbrochen, weil angeblich Daten erarbeitet werden müssten. Das dauere länger, teilte der in einem anderen Raum sich aufhaltende Versuchsleiter über Lautsprecher mit, in der Zwischenzeit könne man den Roboter ausschalten. Dazu äußerte der Roboter einmal Einwände gegen das Abschalten und bei der anderen Versuchsgruppe nicht. Wenn sprachlich Widerstand geäußert wird, sei dies, so die Wissenschaftler nach der media equation theory, nach der Menschen mit Medien wie mit Mitmenschen umgehen, ein Grund, in das Gegenüber einen freien Willen zu projizieren, der für "autonome Lebewesen" charakteristisch sei.

Das Ergebnis ist wenig verwunderlich, wir wissen, wie sehr wir auf bestimmte Trigger reagieren, aber es ist wieder eine Bestätigung dafür, wie wir ticken. Von den 43 Versuchspersonen, bei denen Roboter nach den Worten des Versuchsleiters Widerstand oder Angst vor dem Abschalten äußerte ("No! Please do not switch me off! I am scared that it will not brighten up again!"), drückten 13 nicht auf den Ausschaltknopf, mit 8 erstaunlicherweise mehr bei dem sich maschinenähnlich als bei dem menschenähnlich kommunizierenden Roboter. Alle zögerten allerdings länger als in den Gruppen, bei denen der Roboter nicht bat, angeschaltet zu bleiben. Und die Versuchspersonen zögerten am längsten bei den maschinenähnlichen Robotern, nämlich mehr als doppelt so lange als bei den menschenähnlich kommunizierenden.

Äußerte der Roboter keinen Einwand, wurde er von allen 21 Versuchspersonen abgeschaltet, die mit dem menschenähnlich sich verhaltenen Roboter zu tun hatten, und von 20, die mit den maschinenähnlich sich verhaltenden Roboter trainierten. Eine Versuchsperson drückte auch hier nicht den Knopf. Wer technisch affiner ist und Roboter eher negativ beurteilt, hatte allgemein weniger Probleme oder Stress damit, den Roboter auszuschalten und machte dies auch schneller. Von den 14 Versuchspersonen, die den Roboter nicht ausschalteten, begründeten dies 8 damit, dass sie mit ihm Mitleid hatte, weil er ihnen gesagt hatte, dass er vor der Dunkelheit Angst habe. Die übrigen 6 wollten nicht gegen den Willen des Roboters handeln.

Ausgeschaltet. Aike Horstmann et. al. Bild: CC BY-4.0

Warum aber haben die Menschen öfter den maschinenähnlich sich verhaltenden Roboter nicht ausgeschaltet und dafür länger gebraucht. Die Wissenschaftler vermuten, dass dann, wenn der Roboter maschinenähnlich, unpersönlich kommuniziert, die Menschen überrascht sind, wenn er sie plötzlich bittet, ihn nicht abzuschalten, weil sie dies nicht erwartet hatten. Aufgrund der Bitte scheint der Roboter doch einen eigenen Willen zu haben und wirkt lebensähnlicher. Das bewirke durch den auftretenden kognitiven Konflikt eine Entscheidungshemmung und lässt den Roboter weniger als Instrument oder Maschine erscheinen. Bei den menschenähnlich sich verhaltenden Roboter, die eine persönliche Kommunikation simulieren, ist vermutlich der Verdacht stärker, dass alles nur vorgespielt ist. Das könnte also dem gleichen, was man das "uncanny valley" nennt: Wenn etwa Roboter zu menschenähnlich werden, wird es den Menschen zu unheimlich. Roboter oder Maschinen, die künstlich aussehen, werden dagegen eher als sympathisch gesehen.

Die Wissenschaftler ziehen aus den Ergebnissen des Experiments den Schluss, dass die Darstellung von Emotionen, Wünschen und Bedürfnissen den Eindruck bei den Menschen verstärkt, dass ein Roboter Autonomie besitzt und irgendwie lebendig ist. Das sei eben auch in Situationen der Fall, die sich nicht zwischen Menschen ereignen, aber sehr oft bei der Interaktion mit elektronischen Geräten auftreten: "Die verstärkte Wahrnehmung der Autonomie führt zu einer Verzögerung, den Roboter auszuschalten, wahrscheinlich weil nicht klar ist, ob dies richtig bei einem anscheinend lebendigen Wesen ist."