Kampfroboter mit Moral
Mit der weiteren Entwicklung von autonomen Systemen wird vermehrt darüber diskutiert, wie diese selbständig entschieden sollen
US Army und Navy investieren bis 2010 vier Milliarden US-Dollar in ein Forschungsprogramm zur robotischen Kampfmoral. Die Befehlshaber im Pentagon erklären dazu, tief besorgt zu sein aufgrund von Studien, denen zufolge viele ihrer menschlichen Frontkämpfer im Irak durch die starke Anspannung in den militärischen Auseinandersetzungen zu Racheakten und Folterungen gegenüber feindlichen Soldaten neigen.
Der Computerwissenschaftler Ronald Arkin vom Georgia Institute of Technology, der an Software für die US-Armee arbeitet, bestätigte denn auch gerne gegenüber der New York Times, dieses Problem lasse sich mit moralisch überlegener Robotertechnik beheben. Ihr Vorzug sei, nicht durch negative Emotionen belastet zu sein, die das Urteilsvermögen von Menschen im Gefecht beeinträchtigt. Roboter seien ohne einen Instinkt für die Selbsterhaltung zu entwickeln, ohne Furcht oder Rücksichtslosigkeit. In einem für die US-Armee verfassten Bericht schrieb Arkin:
Ich glaube nicht, dass sich ein unbemanntes System vollkommen moralisch auf dem Schlachtfeld verhalten wird, aber ich bin überzeugt, dass sich Roboter moralischer verhalten können, als es menschlichen Soldaten möglich ist.
Software zur Beachtung des Kriegsrechts
Während die Roboter bisheriger Generationen im militärischen Einsatz nicht wirklich autonome Systeme sind, sondern ferngesteuert durch Menschen operieren, arbeiten die Forscher auch an "soldier bots", die weit mehr können und dürfen als das. Sie sollen Ziele und Waffen identifizieren können und zwischen feindlichen Kräften wie Panzern oder bewaffneten Männern einerseits und "weichen Zielen" wie Ambulanzfahrzeugen oder Zivilisten unterscheiden können. Regeln für die Kampfhandlungen sollen in die Systeme eingebettet werden.
Den Robotern eine bessere Moral per Software implementieren möchte auch der Wissenschaftsphilosoph Colin Allen von der Indiana University, wie er gegenüber der britischen Tageszeitung Telegraph erklärte. Er ist Berater der US Navy, die gerne wissen möchte, wie sich Militärroboter entwickeln lassen, die nicht gegen die Genfer Konventionen verstoßen:
Die Frage, die sie beantwortet wissen wollen, lautet: Können wir automatische Waffen entwickeln, die den Kriegsgesetzen entsprechen? Können wir die Moraltheorie heranziehen, um bei der Konzeption dieser Maschinen zu helfen?
Es sei richtig, argumentiert Allen, die ethischen Dilemmas zu einem frühen Zeitpunkt anzugehen:
Es ist Zeit, dass wir über diese Fragen nachzudenken beginnen, wie wir die Moraltheorie nehmen und sie in die Software einbauen, die das korrekte Handeln der Roboter sicherstellt, statt zu warten, bis es zu spät ist. Wir haben bereits Computer, die Entscheidungen fällen und damit bestimmend auf das Leben von Menschen einwirken, aber sie tun es in einer ethisch blinden Weise. Computer entscheiden über die Vergabe von Kreditkarten ohne jede menschliche Beteiligung, und wir erleben es in einigen Situationen hinsichtlich medizinischer Leistungen für ältere Menschen.
Mit dem letzten Satz bezog sich der Moraltheoretiker auf Krankenhäuser in den USA, die sich von Computerprogrammen bei der Entscheidungsfindung helfen lassen, wenn über die Wiederbelebung einzelner Patienten zu entscheiden ist.
In seinem eigenen Blog Moral Machines bestätigt Allen seine Aussagen gegenüber der Zeitung, spielt aber seine Aufgabe als Militärberater herunter. Seine Rolle als externer Berater für einen von der Navy gesponserten Bericht über Risiken, Ethik und Entwicklung autonomer Militärroboter sei stark übertrieben dargestellt. Die Zeitung gebe jedoch gut wieder, was nun hinsichtlich dieser ethischen Fragen zu bedenken sei.
Töten mit Robotergefühlen?
Anders als Ronald Arkin setzt Colin Allen auch auf Roboter, die mit Gefühlen umgehen können. In seinem Buch "Moral Machines: Teaching Robots Right from Wrong", das er zusammen mit dem Ethiker Wendell Wallach von der Yale University verfasste, empfiehlt er das als eine der möglichen Strategien, um Roboter auf der moralischen Spur zu halten. Die beiden Autoren wollen ihnen nämlich die Unterschiede zwischen "Right and Wrong" (eine vermutlich bewusst doppelsinniger Titel, meinen sie nun Richtig und Falsch oder Gut und Böse?) beibringen, indem sie mit Gefühlen umzugehen lernen. Menschliche Empathie, Emotionen und Sensibilität für nichtverbale Kommunikation sollen ihnen bei der Interaktion mit Menschen helfen.
Die Autoren empfehlen weiterhin, Roboter mit klaren Regeln zu programmieren wie etwa Asimovs Robotergesetzen, in denen der SF-Autor klar postulierte, Roboter dürften Menschen unter keinen Umständen Schaden zufügen, was eigentlich ihren Einsatz als waffentragende Kampfroboter von vornherein ausschließen müsste. Auch sollten Roboter nicht bewaffnet sein, geben sie als weitere Strategie vor. Es sei zwar möglicherweise zu spät, diese Entwicklung aufzuhalten, doch sollten zumindest die Waffenart und die Situationen eingeschränkt werden, in denen Roboter Waffen anwenden dürfen.
Es gibt allerdings auch Forscher, die nicht wie Allen das Pentagon beraten und eine ganz andere Sicht der Dinge haben. Wie etwa Noel Sharkey, Professor an der University of Sheffield, dr eine schleichende Entwicklung, ausgehend von DARPA-Projekten, bis hin zum tödlichen Kampfroboter befürchtet. Innerhalb eines Zeitraums von zehn Jahren erwartet er Maschinen, die über die Anwendung tödlicher Gewalt entscheiden, wann und gegen wen sie anzuwenden ist.
In einer Keynote beim Royal United Services Institute for Defence and Security Studies forderte er im Februar dieses Jahres ein Verbot autonomer Waffensysteme: "Wir müssen sagen, wo wir die Grenze ziehen und was wir tun wollen – und dann eine internationale Vereinbarung erreichen."
Da er seit Jahrzehnten in der Künstlichen Intelligenz arbeite, erschrecke ihn die Vorstellung, ein Roboter könne die Entscheidung über die Auslöschung eines menschlichen Lebens treffen. Seiner Einschätzung nach lassen die Militärführer allerdings "keinen Zweifel daran, dass sie so schnell wie möglich autonome Roboter wollen, da sie kostengünstiger sind und einen risikofreien Krieg versprechen". Daher sei "das Problem, dass wir den Geist nicht wieder zurück in die Flasche bekommen. Wenn die neuen Waffen da draußen sind, werden sie ziemlich leicht zu reproduzieren sein." Was wiederum erst recht neue Probleme schaffen werde:
Wie lange wird es dauern, bis Terroristen das für ihre Zwecke nutzen? Bei den derzeit fallenden Preisen für die Konstruktion von Robotern und der Verfügbarkeit fertiger Komponenten für den Markt enthusiastischer Hobbyisten bedürfte es keines übermäßigen Geschicks, autonome Robotwaffen zu bauen.