Denn sie sollen wissen, was sie tun

Pentagon sucht nach der wahren künstlichen Intelligenz

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Nach dem 11.9. hat zumindest in den USA der Gesetzgeber das Füllhorn für Militär und Sicherheit reichlich ausgeschüttet. Das ist eine Möglichkeit für das Pentagon, auch verwegenen Forschungsprojekten nachzugehen, zumal alles, was Hightech ist, seit je militärisch gut angesehen ist. Technische Überlegenheit scheint es dem US-Militär bislang zu ermöglichen, die eigenen Verluste bei militärischen Einsätzen zu minimieren oder gar zu vermeiden. Nachdem im Afghanistan-Krieg auch fernsteuerbare Drohnen, die mit Hellfire-Raketen bestückt sind, erstmals erfolgreich zur Jagd auf Taliban- oder al-Qaida-Kämpfer eingesetzt wurden, sollen diesen nun selbständig agierende, menschenähnlich denkende Roboter folgen, die wissen, was sie tun, wenn sie irgendwann im Kampfeinsatz beispielsweise Menschen töten. Der Schritt von der Tötung aus der Ferne durch einen über den Cyberspace lenkbaren Stellvertreter bis hin zu dem Tag, an dem womöglich das erste Mal eine intelligente Maschine selbständig, wenn auch im Auftrag einen Menschen tötet, ist womöglich nicht mehr allzuweit entfernt.

Kampfroboter aus dem Film "Robocop"

Erst kürzlich feierte der CIA wiederum den erfolgreichen Einsatz einer ferngesteuerten bewaffneten Predator-Drohne, als mit dieser ein Jeep mit fünf mutmaßlichen al-Qaida-Anhängern zerstört wurde (Uncle Sam und der Predator). Mit einer solchen gezielten Tötung oder einem solchen Attentat aus dem Hinterhalt wird freilich nicht nur gefährliches rechtliches Gebiet beschritten, sondern auch der Mord wieder wie einst im Kalten Krieg zum erlaubten Akt gegen Feinde im Ausland. Kurz nach 11.9. hatte Vizepräsident Cheney das von Präsident Ford 1975 erlassene Verbot für Regierungsangestellte, einschließlich Mitarbeiter der Geheimdienste, als nicht mehr zeitgemäß für den Krieg gegen den Terrorismus erklärt (Lizenz zum Töten, Lizenz zum Töten auf dem globalen Schlachtfeld).

Noch versucht man, die gezielten Tötungen abzugrenzen von denjenigen, die von Israel seit längerem auf mutmaßliche palästinensische Terroristen vorgenommen werden. Sie werden als nicht legitime Mittel bezeichnet, während offenbar der amerikanische Krieg gegen den Terror sich an kein Recht und an keine Landesgrenzen halten muss. Ari Fleischer, der Sprecher des Weißem Hauses, sagte im Zusammenhang mit dem Predator-Anschlag, dass die USA sich in einer "neuen Art des Kriegs mit einem ganz anderen Schlachtfeld" befinden, in dem "bekannte politische Grenzen, die es in traditionellen Kriegen zuvor gegeben hat, nicht mehr existieren". Auf einen Schuldnachweis oder eine Anklage wird großzügig beim Kampf gegen die Gesetzlosen verzichtet, die, wie Bush in Anspielung auf die alten Fahndungsplakate sagte, tot oder lebendig Gerechtigkeit erfahren müssen.

Gelenkt werden können die Drohnen über Satellitenverbindungen aus einer Entfernung von Tausenden von Kilometern. Der Pilot lenkt sie über Bildschirme, auf denen die Bilder von Kameras auf der Drohne übertragen werden, in Echtzeit mit einem Joystick. Neben ihm befindet sich ein weiterer "Computerspieler", der die Kameras und anderen Sensoren bedient und die Raketen bei Bedarf abfeuert. Der Fernkrieg löst ein, was zumindest bei einem technisch weit unterlegenem Gegner erreicht werden kann, nämlich Minimierung der eigenen Opfer und Maximierung bei der Zerstörung der gegnerischen Infrastruktur und bei der Vernichtung der Feinde. Damit kann man auch gefahrlos unwegsames und gefährliches Gelände permanent überwachen, während die Bereitschaft zunehmen dürfte, etwaige Feinde zu beschießen, da höchsten Materialschaden zu befürchten ist. Überdies sind auch technisch ausgeklügelte Drohnen wesentlich billiger als Kampfflugzeuge.

Der menschliche Krieger im Hightech-Futteral noch unverzichtbar

Fieberhaft baut und entwickelt man weitere Drohnen für das Pentagon, die im Krieg in Afghanistan auf den Geschmack der sicheren Tötung aus der Ferne gekommen sind. Um die Entwicklung autonomer Roboter voranzutreiben, veranstaltet die Darpa im Jahr 2004 einen Wettkampf unter dem Titel "Grand Challenge", bei dem Roboter-Fahrzeuge ohne jegliche menschliche Hilfe die 442 Kilometer lange Strecke zwischen Los Angeles und Las Vegas auf dem Land zurücklegen müssen (Autonom versus Semi-Autonom). Auch sonst wird im Auftrag des Pentagon an unzähligen Robotern und anderen Computersystemen geforscht, die im Kampf technische Überlegenheit und das Leben der eigenen Soldaten sichern sollen (Minen-Bienen und Rettungs-Ratten, Wird Bagdad von Robotern erobert?). Wollen die Kommandeure überall telepräsent sein, so sollen die Soldaten an der Front über möglichst alle Informationen verfügen und direkt von der Kommandozentrale lenkbar sein (Wie ein IMAX-Film direkt vor den Augen).

Das Pentagon-Projekt "Objective Force Warrior" will im Rahmen des sogenannten "Künftigen Kampfsystems" (FCS) den "Hightech-Soldaten der Zukunft" entwickeln, der mehr oder weniger eine Art Zwischenschritt zwischen der fernsteuerbaren Drohne und einem autonom handelnden Robotersystem ist. Noch füllt der Soldat aus Fleisch und Blut, vor allem aber mit seinem "kognitiven System" aus, was die Technik nicht leisten kann. Ziel ist es, den Soldaten wie Cyborgs mit technischen Systemen auszustatten oder ihn in diesen einzuhüllen, um so seine Kapazität um das Zwanzigfache zur derzeitigen letalen Leistungskraft zu vergrößern. Bis 2010 will man die Vision, die die Grenzen des technisch Möglichen erkunden soll, auch umsetzen. Zum Ausmalen der "Kunst des Möglichen" soll ein Team an Futuristen, Systemingenieuren, Biologen, Militärexperten, Spezialisten für den menschlichen Faktor oder Autoren helfen, die möglicherweise noch einen anderen Schuss Science-Fiction einbringen sollen: "Der Objective Force Warrior (OFW) wird ein schrecklicher Krieger in einem unbesiegbaren Team sein, der als Erster sehen, als Erster verstehen, als Erster handeln und die Aktion zum Abschluss bringen kann."

Was man haben will, ist schon im Groben ausgeführt. Das individuelle Kampfsystem muss so leicht als möglich, so tödlich als möglich und voll integriert sein. Dazu gehören Waffen, ein Ganzkörper-Schutz vor Verletzungen, möglichst weitgehende Kommunikationsmöglichkeiten, leichte Energiespeicher, die einen 72-stündigen autonomen Kampfeinsatz erlauben, so dass der Hightech-Soldat nicht plötzlich ohne Strom dasteht, und natürlich Systeme wie Exoskelette, die seine Leistungsfähigkeit (Ausdauer, Mobilität, Geschwindigkeit, Tragkraft oder Reichweite) steigern (Willkommen in Babylonien!).

"Innovative Technologien" sollen den Soldaten ermöglichen, den Feind aus größeren Entfernungen mit höherer Präzision und größeren Schäden zu treffen, während er gleichzeitig auf allen Kanälen senden und empfangen kann. Seine Wahrnehmung soll durch Techniken ergänzt, sein Gehirn durch "advanced situational awareness software" gestärkt werden, um nicht nur schnell agieren zu können, sondern auch nicht von der kommenden Informationsflut aus allen mitgeführten und vernetzten Systemen überrollt zu werden.

Fernziel: Ablösung des Menschen durch eine künstliche Intelligenz mit Selbstbewusstsein

Die Vision läuft natürlich darauf zu, dass der im künftigen technischen System wie in einem Futteral steckende Mensch nur noch ein vorübergehend notwendiger Restposten ist, der bald den autonomen oder ferngesteuerten Kampfrobotern den Platz räumen wird. Die hätten dann womöglich auch die kognitive Kapazität, sehr viel größere Mengen an Daten zu verarbeiten, obgleich hier auch so etwas wie der Flaschenhals der Aufmerksamkeit auftreten dürfte, wenn es darum geht, aus der Analyse der Wahrnehmung heraus schnell das Richtig zu tun. Möglicherweise aber könnten vielleicht die Robotsysteme der Zukunft auch besser Multitasking im Wahrnehmen und Handeln leisten, beispielsweise über die Fähigkeit einer Rundumwahrnehmung mit verschiedenen Sensoren (Licht, Wärmedetektoren, chemische Sensoren etc.) verfügen.

Nach fernlenkbaren und bewaffneten Drohnen in der Größe von Bienen bis hin zu Flugzeugen, die schwere Raketen transportieren können, sowie entsprechenden Fahrzeuge am Boden, unter oder auf dem Wasser steht die nächste Entwicklungsstufe von Fernlingen in Form autonom agierender Roboter(fahrzeuge) an, die den Menschen auch als "Steuermann" vor dem Computerbildschirm oder im Hightech-Kampfanzug ersetzen. Dazu müssten sie nicht nur über die notwendigen Waffen, die erforderliche Beweglichkeit und eine Vielzahl von Sensoren verfügen, sondern auch über eine Art kognitives System, das andere Roboter und vor allem Menschen austricksen können muss. Und just die Entwicklung eines solchen kognitiven Systems will die DARPA nun beschleunigen, die Forschungsabteilung des Pentagon, durch die unter anderem die Grundlagen des Internet, der Musterkennung oder der Bildverarbeitung entstanden sind.

Vor kurzem hat daher die DARPA eine Ausschreibung für Forschungsvorhaben gestartet, die für die Entwicklung eines kognitiven Systems entscheidend sind, "das weiß, was es macht". Noch ist die Technik weit von einem solchem Ziel entfernt. Bei der DARPA hofft man auch nicht, in ein paar Jahren den Prototyp eines solchen Systems, mithin die Einlösung der von Anfang erhofften oder gefürchteten Künstlichen Intelligenz, vor sich zu haben. Das Projekt, das auf drei bis fünf Jahre angelegt ist, will bis zum Ende aber wirklich konkrete Hinweise dafür gefunden haben, ob manche der mit einem solchen System verbundenen "Träume" auch realisierbar sind. Um möglichst breit vorzugehen, auch um mögliche Risiken eines von der menschlichen Kontrolle befreiten Geistes mit zu bedenken, richtet sich die Ausschreibung nicht nur an Computerexperten, sondern auch an Neurologen, Psychologen und Philosophen.

Du sollst nur Feinde töten ....

Ganz abwegig ist das sicherlich nicht, auch wenn das Militär natürlich perfekte Kampf- und Tötungsmaschinen entwickeln will, weil einem selbstbewussten System vermutlich auch eine Art Moral zumindest in dem Sinne von Geboten - "Du sollst keine Amerikaner und ihre Alliierten töten" oder "Du sollst Kinder bis zum Alter von ... schonen" - eigen sein sollte. Allerdings könnte die Crux beim Bau eines wahrhaft intelligenten und autonomen kognitiven Systems auch darin liegen, zumindest wenn man die biologische Evolution bis hin zum Menschen fortspinnt, dass dieses auch lügen, sich selbst und andere täuschen, verletzbar, wütend, traurig und bösartig sein kann - und dass es sich überhaupt durch Erlebnisse auf unvorhersehbare Weise verändern kann. Beispielsweise könnte ein Schwarm von intelligenten Robotern, die in Feindesland oder auf Terroristenjagd geschickt wurden, sich plötzlich mit den Gegnern verbünden - zumal wenn diese über ähnliche Roboter verfügen.

Aber soviel Science Fiction wäre der DARPA in diesem Stadium wohl zuviel, auch wenn Forschungsprojekte wie das eines kognitiven Systems, das weiß, was es macht, eine Entwicklung in Gang setzen könnte, deren Folgen wie bei HAL in Kubricks Film "2001" in gar keiner Weise gewünscht wurden. Trotzdem klingt die Ausschreibung schon jetzt nach Science Fiction, denn gesucht werden intelligente Systeme, die über ihre Umwelt samt anderen Systemen, ihre Ziele und Fähigkeiten nachdenken können. Sie sollen auf für uns natürliche Weise mit Menschen interagieren und kommunizieren können, so dass sie nicht nur durch Erfahrung lernen, sondern auch belehrt und überzeugt werden können. Sie sollen ihre Gedanken sprachlich erklären, in Teams mit anderen Robotern und Menschen kooperieren und mit Unvorhergesehenem umgehen können. Daneben müssen sie natürlich robust in allen Lagen sein, wenn sie in einen Kampf geschickt werden sollen. Sicher und fehlertolerant müssen Hard- und Software sein.

Der KI-Wissenschaftler Ronald Brachman, seit kurzem Direktor der Abteilung für informationsverarbeitende Systeme bei der DARPA und verantwortlich für das Forschungsprojekt, ist denn auch mit den Forderungen für die Entwicklung dieses Superroboters nicht bescheiden: "Wir wollen über fundamentale, nicht über schrittweise Verbesserungen nachdenken: Wie können wir einen Quantensprung nach vorne machen?" Eine der Hoffnungen ist, durch genügend Geld und genügend Experten eine "kritische Masse" zu erreichen, um einen Durchbruch zu erzielen. Auf jeden Fall mag es stimmen, dass DARPA damit über den Tellerrand schaut, wie Brachman sagt: "Wenn wir Erfolg haben, können wir die Welt auf tiefgreifende Weise verändern."

Ob das aber besonders im militärischen Bereich wünschenswert wäre, ist doch höchst zweifelhaft. Aber noch ist ja alles nur ein "Traum", dem nun auch die Militärs nachhängen, zumindest solange das Geld weiter in die Rüstung fließt, um die USA auch militärisch als Supermacht zu erhalten.