Autonom versus Semi-Autonom
Der Grand Challenge der DARPA: Entwickler autonomer Systeme kämpfen gegen mathematisch/logische Sachzwänge
Die Angst vor weiterem Crash an den NewEconomy-Märkten und der weltweite Kampf um globalen technologischen Führungsanspruch treibt seltsame Blüten. So sollen beim von der DARPA (Defense Advanced Research Project Agency) initiierten Wettkampf Grand Challenge ausschließlich Roboter-Fahrzeuge zum Einsatz kommen, die ohne jegliche menschliche Hilfe die 442 Kilometer lange Strecke auf dem Land zurücklegen. "Brauchen sie beispielsweise zusätzlich Energie, muss das Auftanken völlig autonom geschehen. Diese Art von Fähigkeit wäre auf dem Schlachtfeld sehr nützlich", erklärte DARPA-Sprecher Jan Walker gegenüber der Washington Times.
Bemühungen zur Schaffung autonomer Roboter-Fahrzeuge gibt es bereits seit Jahren. Mercedes-Benz entwickelte 1988 in Zusammenarbeit mit der Bundeswehr-Versuchsanstalt Neubiberg ein solches "autonomes" System. Später folgten VW und andere Unternehmen mit verbesserten Modellen. Alle diese Systeme haben eines gemeinsam: Sie schließen aus Farbkontrasten auf Konturen oder Objekte, die vom Computer als anzusteuernde Ziele oder als Orientierungs-Merkmale interpretiert werden. Solche Merkmale können auch gelbe Linien, Seitenplanken oder Straßenränder sein. Ein komplexes Programme errechnet eine virtuelle Ideallinie, der das Fahrzeug "nachfährt". Die erhaltenen Signale aus den Abstandsensoren werden mit zeitdiskreten Abtastraten "gesampled". Exakten Orts-/Zeit-Bezug können die Roboter-Fahrzeuge nicht herstellen. Ihre "Lernfähigkeit" ist sehr begrenzt. Sie benötigen Parallelrechner für jede Kamera, extrem hohe Rechnergeschwindigkeit und Unmengen an Speicherplatz. Jedes "unerwartet" (d.h. nicht als referentes Bild vorprogrammierte) Hindernis, das sich dem Fahrzeug in den Weg stellt, bedeutet das Aus ...
Ein Projektmanager der DARPA meinte, dass man bei der Intensität der gegenwärtigen Anstrengungen nicht erwarten darf, ein völlig autonomes Fahrzeug innerhalb der nächsten 4 bis 8 Jahre herstellen zu können. Vielmehr gehe es darum, eine Methode ausfindig zu machen, die es erlauben würde, "semi-autonomen Roboterfahrzeugen" das Nachahmen von Entscheidungen und Handhabungen beizubringen, die ein menschlicher Fahrer ausführt, sobald er die Kontrolle über das Fahrzeug übernimmt.
Diese Aussage ist deswegen interessant, zeigt auf das Unverständnis über das grundlegende Wesen autonomer Systeme hinweist, das in der Wissenschaft noch immer besteht. Unter "autonom" verstehen manche Technologen offensichtlich, dass kein "Lernprozess" benötigt wird, sondern dass sämtliche Prozesse zur Erkennung der Bewegung entlang der Route (einschließlich aller Hindernisse und Objekte) quasi nach fix auf der Festplatte gespeichertem Programm abgewickelt werden. Ein solches Roboterfahrzeug sollte einem "semi-autonomen System", das sein Steuerungsprogramm durch fortgesetzte Lernprozesse selber aquiriert, technologisch überlegen sein. Zuerst das lernfähige System als Zwischenlösung; dann, zum krönenden Abschluss, das völlig "autonome" System, das alles Wissen über seine Umwelt gespeichert hat und keinerlei "Lernprozess" mehr benötigt.
Deterministisch Abtastung und Unschärfe
Diese Auffassungen reicht bis in die Urzeit der Informatik zurück, zu Turing oder Shannon, als man den Begriff "Sensor" noch nicht kannte. Vorstellbar war nur die Kommunikation zwischen Mensch und Maschine, d.h. die Eingabe von Daten per Tastatur, die Antwort falsch/richtig, und wenn "falsch", dann die nachfolgende Korrektur durch den Menschen. Die Schaffung "künstlicher Intelligenz" bestand nach Auffassungen z.B. eines Joseph Weizenbaum hauptsächlich darin, ein Programm zu finden, mit dessen Hilfe man einen Computer nach der Frage-Antwort-Korrektur-Methode solange mit Daten füttert, bis seine Antworten einen messbaren Intelligenzquotienten erkennen ließen.
Als viel später der Begriff Sensor aufkam, assoziierte man ihn mit "Messdaten-Aquisition", "Eingabe von Korrektursignalen an den Rechner" oder "Synchronisation". Eine Kommunikation auf Basis Sensor-Computer (unter Ausschluss menschlicher Programm- und Dateneingabe) blieb lange Zeit undenkbar. Dies schon deshalb, da man weiß, dass man aus Sensoren ausschließlich "zeitbezogene" Signale beziehen kann. Bewegt sich ein Sensor und werden die Amplituden der Sensorsignale nach der üblichen deterministischen sägezahn-ähnlichen Weise abgetastet (dem sog. Sampling-Verfahren, basierend auf Shannons Abtasttheorem), so existiert kein exakter Orts-/Zeit-Bezug, und daher keine exakte Reproduzierbarkeit. Das macht ihren Einsatz auf autonomen Robotern bzw. Fahrzeugen problematisch, denn zumeist lässt sich die Abtast-Taktung nicht von einem Wegmessgeber (Encoder) unterstützen. Es ist immer der Sensor, der abtastet, und nicht der vom Rechner bzw. vom Program-Counter getaktete Abtastschritt. Deterministische Abtastung hat also Unschärfe zur Folge ...
Die zentrale Frage bei autonomen Roboterfahrzeugen lautet: Kann man die Eigenbewegung eines Fahrzeuges überhaupt mit deterministischen Methoden in Echtzeit bestimmen? Kann man z.B. Signale aus Sensoren, die der Abstands- oder Bewegungskontrolle dienen, in Programmschritten, die ein Bordcomputer auf dem sich bewegenden Fahrzeug bereitstellt, überhaupt effizient und in Echtzeit "abtasten" - ohne immer schnellere Rechner, redundante Daten und unzählige Rechenprozesse zu benötigen? Die neuesten Forschungen auf diesem Gebiet zeigen, dass dies nicht möglich ist: Wegmessgeber und Encoder sind nur beschränkt einsetzbar, Messungen daher nicht reproduzierbar. Ein sich autonom bewegendes Objekt ist demnach nicht imstande, seine Eigenbewegung mittels diskreter deterministischer Messmethoden exakt in Echtzeit zu erkennen und zu bestimmen. Diese Erkenntnisse basieren auf mathematisch/logischen Grundlagen - ähnlich wie das Halteproblem bei Turing oder Goedels Unvollständigkeitssatz.
Üben wie ein Kleinkind
Autonome Entitäten biologischer Art vermeiden dieses Problem, indem sie nicht die umgebenden aktuellen physikalischen Zustände an sich, sondern die physikalischen Zustandsveränderungen messen. Ganz neu ist diese Erkenntnis nicht. Wie die Zeitschrift Nature unlängst berichtete, konnten Forscher des Max-Planck-Instituts nachweisen, dass rezeptorische Zellen eine Art "Code" für die räumlich/zeitliche Orientierung optischer Signale erstellen, also quasi die Momentangeschwindigkeit, mit der ein Reiz auftritt, messen. Der Biologe D. E. Koshlund erbrachte bereits 1972 den Nachweis, dass Bakterien auf zeitliche und nicht auf räumliche Gradienten reagieren.
Dieser zeitliche Sensormechanismus steht auch im Zentrum der Chaos-Forschungen von George Morbus (Western Washington University) und Paul S. Fisher (University of North Texas). Statt diskreter Quantifizierung von Messgrößen werden in biologischen Systemen offensichtlich Verstreichzeiten aus dem Verlauf der rezeptorisch erhaltenen Sensoramplituden abgeleitet, wobei die Auslösungen der Messungen zu Phasenübergängen getriggert werden, wenn das Signal eine bestimmte Schwelle durchschreitet. Exaktes Timing einer autonomen Entität geschieht durch laufende Anpassung an vorangegangene Bewegungsverläufe, aktuelle Sequenzen werden mit referenten gespeicherten Sequenzen verglichen und die ökonomischste Sequenz dient als neue referente Basis, was einen fortgesetzten Optimierungsprozess zur Folge hat. Ein steter Lern- und Autoadaptionsprozess hat also stattzufinden.
Im konkreten Fall wäre es daher erforderlich, dass ein Roboter-Fahrzeug die Eigenbewegungen und die Muster von möglichen auftretenden Boden- und Landbeschaffenheiten, Pisten, Bäumen, Hindernissen, Umfahrungen usw. durch oftmalige Reproduzierung von Bewegungen entlang zumindest ähnlich gearteter Objekte "erlernt" und "erkennt". Es müsste praktisch genauso "üben" wie ein Kleinkind, und imstande sein, eine Vielzahl von erfassten bzw. gespeicherten Einzelmuster zu Gesamtmustern zu integrieren. Solche Autoadaptionsprozesse sind probalistischer Natur. Will man sie in mechanistisch/ elektronischen Systemen zur Anwendung bringen (zur Entwicklung von autonomen Robotern), benötigte man Prozessoren, die exakte Zeitmessungen im Mikrosekunden-Bereich ausführen können, sowie hochpräzise Sensoren. Hier tut sich ein Bereich auf, in dem noch sehr viel zu forschen ist.
Die Vorstellung, man könne ein Roboter-Fahrzeug entwickeln, bei dem man nur am GPS-Navigationscomputer die Zielkoordinaten einstellen müsse, und alles weitere würde von einem komplexen fix vorgegebenen Programm abgewickelt, das im Labor entworfen und vor dem Start auf die Festplatte des Bordcomputers gespeichert wird, ist demnach irrelevant. Selbst wenn das Fahrzeug mit einer Unzahl von Sensoren bestückt wären, bliebe es höchstens "semi-autonom". Autonom ist eine Einheit nur dann, wenn sie ökonomisch, redundanzfrei und effizient arbeitet, und durch fortgesetzte Lernprozesse Objekte und Hindernisse erkennen, ihre Eigenbewegung bestimmen und auf neue Gegebenheiten in der Umwelt anpassen kann.
Die Vehikel des "Grand Challange" werden beim ersten unprogrammgemäßen Hindernis stehen bleiben. Sie benötigen immer wieder menschliches Zutun, um sie in Gang zu bringen. Mathematisch/logische Sachzwänge sollte man besser nicht bekämpfen.