Von Primaten und Robotern
Überlegungen zur Konstruktion intelligenter Artefakte
Allmählich wird immer deutlicher, daß intelligentes Verhalten wesentlich von sozialen Beziehungen abhängt und von diesen gefördert wird. Was in der Evolutionspsychologie bereits anerkannt wird, beginnt nun in der Robotik zu neuen Ansätzen zu führen. Künstliche Intelligenzen sollen sich nicht mehr als neue Robinson Crusoes entwickeln, sondern innerhalb eines kooperierenden sozialen Verbandes. Kerstin Dautenhahn, die selbst seit langem die soziale Intelligenz von Robotern zu entwickeln sucht, erläutert die Grundlagen und Perspektiven des neuen Ansatzes.
Die menschliche Gattung brauchte mehr als drei Millionen Jahre, um ihre Physiologie zu verstehen. Wie lange also wird sie benötigen, um das psychologische Labyrinth zu verstehen?
James Balog
Obwohl in diesem "Jahrzehnt des Gehirns" wichtige Ergebnisse aus der Hirnforschung erzielt worden sind, wird vermutlich die Suche des Menschen nach den physischen und psychologischen Grundlagen seiner kognitiven Fähigkeiten weder in dieser Dekade, noch im nächsten Jahrhundert beendet werden. Ein geeignetes Untersuchungsobjekt für diese Fragestellungen ist nicht ein adulter Angehöriger der westlichen Zivilisation, denn sein Verhalten ist beeinflußt durch spezifische Anpassungserscheinungen an eine größtenteils menschengemachte Umwelt. Die Denk- und Verhaltensweisen solcher Individuen sind stark geprägt durch die soziale und nichtsoziale Umwelt, in der sie aufgewachsen sind und leben. Ebenso kann uns ein heute in der Tiefsee lebender Quastenflosser (Latimeria) nur "verschlüsselte" Antworten darauf geben, unter welchen Bedingungen und wie die Vorfahren der Tetrapoden (Landwirbeltiere) an Land gegangen sind.
Vielversprechender sind vielmehr vergleichende Untersuchungen an Kindern (Entwicklungsbiologie) oder unseren nächsten Verwandten (Primatenforschung). Solange es noch möglich ist, die biologisch nächsten Verwandten der Art Homo sapiens sapiens in ihrem natürlichen Lebensraum zu untersuchen, solange existiert ein kostbares Zeitfenster, welches uns Einblicke ermöglichen kann in die Ursprünge der Primaten- und damit auch der menschlichen Psychologie. Ein Hauptaugenmerk liegt hierbei auf dem, was wir allgemein unter Intelligenz oder intelligentem Verhalten verstehen.
Die Frage nach dem Ursprung der Primatenintelligenz kann auch heute nicht vollständig beantwortet werden, aber es gibt Hinweise, die nicht nur das Selbstverständnis des Menschen in Frage stellen können, sondern die vor allem herkömmliche Ansätze zur Konstruktion intelligenter Artefakte (vor allem aus den Bereichen Robotik und KI) in Frage stellen.
In diesem Artikel wird ein bestimmte, aus den Forschungsgebieten Biologie und Artificial Life kommende Sichtweise auf das Problem Konstruktion intelligenter Artefakte vorgestellt. Es werden dabei auch Fragen diskutiert, deren Beantwortung noch nicht absehbar ist, die aber notwendig erscheint, um den Weg zu bereiten für die Konstruktion einer neuen Generation intelligenter Artefakte. Am Ende des Beitrags wird ein Szenario zur Untersuchung dieser Ideen skizziert.
Einige Bemerkungen zum Intelligenzbegriff
Diskussionen über Intelligenz in biologischen Systemen (insbesondere beim Menschen) und Artefakten hängen fundamental von dem zugrunde liegenden Verständnis von Intelligenz ab. Seit mittlerweile einigen Jahrzehnten existiert ein Forschungsgebiet "Künstliche Intelligenz", das sich zumindest in seinem kognitionswissenschaftlich ausgerichteten Zweig an der natürlichen Intelligenz orientiert. Es liegt daher die Vermutung nahe, daß der Begriff der "künstlichen Intelligenz" aus dem Verständnis der "natürlichen Intelligenz" abgeleitet wurde. Erstaunlicherweise findet sich beispielsweise in einem der Standardlehrbücher der Biologie weder ein Kapitel, noch ein Unterkapitel oder ein Absatz zum Thema Intelligenz, das Wort ist nicht einmal im Index aufgeführt. Tatsächlich kann man, wie ich aus eigener Erfahrung weiß, ein Biologiestudium absolvieren ohne jemals in Diskussionen über Intelligenz verwickelt zu werden.
Wieso ist der Begriff Intelligenz innerhalb der Biologie anscheinend nicht sehr wesentlich? Eine mögliche Erklärung mag die folgende sein. Die Einführung des Intelligenzbegriffs würde automatisch eine Wertung von Individuen/Organisationsformen in ihre Einordnung auf einer ein- oder mehrdimensionalen Intelligenzskala nach sich ziehen. Wenn man sich intensiv mit der Komplexität und Funktionsweise natürlicher Systeme auseinandersetzt, erscheint dieses nicht sehr sinnvoll, denn: alle rezenten (heute existierenden) Arten sind aus heutiger Sicht erfolgreich, sonst würde diese Art nicht mehr existieren. Jedes heute existierende Individuum (Tier oder Pflanze) ist erfolgreich, denn es existiert autonom in seinem Lebensraum.
All organisms that have ever lived - every animal and plant, all bacteria and all fungi, every creeping thing, and all readers of these words - can look back at their ancestors and make the following proud claim. Not a single one of our ancestors died in infancy. They all reached adulthood, and every single one successfully copulated....Since all organisms inherit all their genes from their successful ancestors, all organisms tend to possess successful genes
Richard Dawkins
.
Artificial Life - der synthetische Weg zur Konstruktion künstlicher Intelligenz
Eine Definition von Artificial Life hängt eng mit der Definition von Leben zusammen. In Lehrbüchern der Biologie findet man sehr eng an das biologische Substrat gebundene Definitionen, die sich konkret auf die für die Biologie einzigen vorhandenen Vorbilder von Lebewesen beziehen, d.h. auf die auf der Erde vorkommende Pflanzen- und Tierwelt. Die Forschungsrichtung Artificial Life versucht nun lebensähnliche Systeme zu konstruieren Dautenhahn. Im Gegensatz zur Forschungsrichtung Bionik, die in natürlichen Systemen vorkommende Eigenschaften auf technische Systeme überträgt, geht es hierbei um die Konstruktion von etwas Neuem, nicht um den bloßen Nachbau. Und es werden auch nicht nur bestimmte Teilaspekte der biologischen Vorbilder imitiert, sondern es geht um die Konstruktion autonomer, überlebensfähiger Artefakte ( ein Beispielszenario hat Luc Steels ausgearbeitet).
Die Grundidee ist also die eines "ganzheitlichen Ansatzes", bei der der Kontext, d.h. die physikalische Einbettung des Individuums in den räumlichen und zeitlichen Dimensionen seines Lebensraumes berücksichtigt wird. Dies unterscheidet auch Arbeiten innerhalb der Artificial Life Richtung von "klassischen" Ansätzen aus den Bereichen Neuronale Netze oder Genetische Algorithmen. Dort werden biologische Metaphern (Selektion-Mutation bzw. parallele Berechnungen) benutzt als Designstrategie zur Verbesserung von Informationsverarbeitungsprozessen mit mehr und weniger engen Bezügen zu vergleichbaren Prozessen in natürlichen Systemen. Die Verwendung dieser Verfahren an sich muß nichts mit Artificial Life zu tun haben. Der Bezug wird erst hergestellt durch die Klärung, was diese Mechanismen mit grundlegenden Prinzipien von Leben und überleben zu tun haben.
Aber was kann man unter natürlichem oder künstlichem Leben verstehen? Kann man z.B. an bestimmten Merkmalen erkennen, ob ein Artefakt schon "lebt" oder immer noch eine tote Maschine ist? Diese Frage kann aus meiner Sicht prinzipiell nicht beantwortet werden. Der Grund liegt hierbei in unserer natürlichen Tendenz der Attribution von Eigenschaften (vor allem mentalen Qualitäten) zu Objekten, die uns umgeben. Wie Stuart Watt ausgeführt hat, ist Anthropomorphismus im Umgang mit Lebewesen und allgemein "Dingen" aus unserem Leben nicht wegzudenken. Dies ist ein Teil unserer "naiven Psychologie", die die wichtige Funktion erfüllt, die Handlungen unserer Mitmenschen zu verstehen und nachzuvollziehen. Das ist eine wichtige Voraussetzung für die Vorhersage des Verhaltens von Mitmenschen, sowie für Empathie und Mitgefühl (Empathie und phänomenologische Aspekte in Kommunikationsprozessen diskutiere ich hier).
Auch ein wissenschaftlicher Experimentator wird nicht frei von diesen, stark durch individuelle Erfahrungen geprägten Einflüssen sein können. Da die Konstrukteure von Artefakten aber die Performanz ihrer Produkte nur vom subjektiven Beobachterstandpunkt aus beurteilen können, wird auch die Attribution von mentalen Zuständen (einschließlich Gefühlen wie Freude) stark individuell gefärbt und subjektiv sein. Mit anderen Worten: ein Roboter, der für den einen Beobachter schon "lebt", wird für den anderen Beobachter immer noch eine Maschine sein. Erwartungshorizont und Wissen um die Funktionsweise des Artefakts spielen hier eine große Rolle.
Da nach Gerhard Roths konstruktivistischer Sichtweise die Suche nach den "realen" Eigenschaften des Lebens nicht erfolgreich sein kann, sollte die (individuelle) Interpretation des Begriffs "Leben" im Fokus der wissenschaftlichen Untersuchung stehen. Nach meiner Meinung wird man keinen objektiven "Turing-Test" für "Leben" (wie z.B. von Bedau und Packard vorgeschlagen) entwickeln können. Natürlich nicht! In Life diskutiere ich diesen Aspekt der Projektion von "Lebendigkeit" in Artefakte anhand eines konkreten Beispiels.
Menschen und andere Tiere
In diesem Kapitel möchte ich die Frage diskutieren, inwieweit es, wenn man an der Konstruktion von Artefakten interessiert ist, überhaupt sinnvoll ist, anhand des Studiums von "Tieren" Aussagen zu machen über menschliche Kognition.
Der erste Punkt betrifft die Unterscheidung zwischen Menschen und Tieren bzw. Menschen und Menschenaffen. Diese Unterscheidungen sind ebenso falsch wie die Unterscheidung zwischen "Dackeln und Hunden". Primaten im Sinne einer geschlossenen Abstammungsgemeinschaft umfaßt auch die Spezies Homo sapiens sapiens. Auch die Genomanalyse liefert kein Argument für eine Sonderstellung.
Der genetische Abstand zwischen uns und den Zwerg- und gewöhnlichen Schimpasen beträgt 1,6 %. Er ist kleiner als der Abstand zwischen 2 Gibbonarten. Die restlichen 98,4 % unserer DNS sind ganz normale Schimpansen-DNS.
Jared Diamond
Das, was uns so sichtbar von den anderen Primaten unterscheidet, ist auf 1.6 \% unseres genetischen Programms konzentriert. Und auch diese 1,6 % machen unser Gehirn nicht einzigartig.
Das menschliche Gehirn entspricht in seinem Grundaufbau dem Gehirn der anderen Wirbeltiere; es ist dem Gehirn anderer Landwirbeltiere (Amphibien, Reptilien, Vögel und Säuger) sehr ähnlich und stimmt in den meisten Details mit den Gehirnen anderer Säugetiere überein. Vom Gehirn unserer nächsten biologischen Verwandten, den Menschenaffen, ist unser Gehirn mit Ausnahme seiner Größe nahezu ununterscheidbar
Gerhard Roth
Wir können und müssen uns als der dritte Schimpanse fühlen. Auch wenn die Resultate der Biologie keinen Zweifel lassen an unserer körperlichen Existenz als Menschenaffe, so bleibt doch der problematische Punkt des Innenlebens, der Vergleichbarkeit von Wahrnehmungen, Emotionen, Intelligenz und Bewußtsein. Besonders strittig ist die Attribution von Bewußtsein.
Vergleichbar zu den Überlegungen zum Thema Intelligenz ist es auch hier notwendig, nach Bedingungen zu suchen, in denen im Laufe der biologischen Evolution Bewußtsein (vermutlich sogar unabhängig in unterschiedlichen Evolutionslinien, z.B. innerhalb der Säugetiere in seines am höchsten entwickelten Formen bei Walen und Primaten) als biologisches Phänomen entstanden ist (siehe Marian Dawkins ). Nur dann ist man in der Lage, über die den unterschiedlichen Lebensformen eigenen Bewußtseinsformen zu diskutieren und eine Definition zu finden, die auch auf Artefakte angewandt werden kann. Vieles deutet z.B. darauf hin, daß Bewußtsein eng mit der Fähigkeit des Durchspielens von Handlungsalternativen korreliert ist, d.h. sich von der Jetzt-Zeit zu lösen und interne Welten aufzubauen, in denen vergangene oder zukünftige Ereignisse mit dem Bewußtsein seines eigenen Körpers als Bezugspunkt (re-) konstruiert werden können.
In vielen Diskussionen über geistige Leistungen und das Innenlebenvon Tieren kann man oft eine Fraktion, die hauptsächlich auf die Unterschiede und Gegensätze zum Menschen hinweist, unterscheiden von einer eher in dubio pro animali argumentierenden Gruppe, wobei letztere oft in der Gemeinschaft empirisch arbeitender Biologen und Verhaltensforscher zu finden ist.
Es erscheint plausibel anzunehmen, daß nicht nur wir Menschen, sondern auch Affen, Hunde, Katzen usw. denken können, daß sie Geist und Bewußtsein besitzen. Diese Tiere zeigen nicht nur bestimmte Verhaltensweisen, die wir bei Menschen als intelligent oder geistig ansehen, sondern bei diesen Verhaltensweisen sind entsprechende Gehirngebiete in etwa derselben Weise aktiv wie beim Menschen. Die Annahme, daß beim Menschen noch irgend etwas völlig Neues hinzukommt, das dann den Geist erzeugt, ist nicht gerechtfertigt, auch wenn diese Annahme das Bedürfnis des Menschen nach Einzigartigkeit befriedigen mag. Wie sehr solch eine Erkenntnis nicht nur unser persönliches Verhalten diesen Spezies gegenüber beeinflussen kann und soll, sondern auch weitreichende rechtliche, politische und ethische Konsequenzen haben kann, sei hier nur angedeutet mit dem Hinweis auf sehr ernsthafte Bestrebungen, den großen Menschenaffen Menschenrechte zuzuerkennen.
Gerhard Roth
Der Verlust der Einzigartigkeit der menschlichen Spezies bedeutet aber auch gleichzeitig den Gewinn einer Einbettung in ein Verwandtschaftsverhältnis zu anderen Spezies, welche uns Einsichten ermöglicht über die Ursprünge unseres Menschseins. Als einzigartige Spezies an der Spitze der Evolution sind wir isoliert innerhalb der von uns geschaffenen Lebensbedingungen. Als Schimpanse inmitten einer Schar anderer lärmender Schimpansen ist es weniger einsam ... und die Chancen sind größer, etwas über die biologischen Wurzeln unserer Spezies zu erfahren.
Zusammenfassend kann festgestellt werden, daß für viele Naturwissenschaftler das Problem von Intelligenz (und Bewußtsein) bei nicht-menschlichen Spezies eine Frage der Wahrscheinlichkeit ist. Der Wahrscheinlichkeit, daß nahe verwandte Arten nicht nur ähnliche physische Eigenschaften besitzen (vererbt von einem letzten gemeinsamen Vorfahren), sondern entsprechend auch ähnliche Wahrnehmungswelten und Denkstrukturen besitzen sollten. Wobei die Ähnlichkeit wachsen sollte bei zunehmendem Grad an Verwandtschaft.
If our external structures derived from apes and are still so like those of apes, why should our internal structures, the dreams, the emotions, the symbols - not also be similar?
James Balog
Solche Grundhaltungen bestimmen das Verhältnis zu den Untersuchungsobjekten und implizit auch die Art der Fragen, die man ihnen in wissenschaftlichen Experimenten stellt. Entscheidend ist die sorgfältige Auswahl von Versuchsbedingungen, unter denen Intelligenz bei nicht-menschlichen Tiere und auch Artefakte untersucht werden kann. Voraussetzung ist dabei eine Definition dessen, was unter Intelligenz verstanden werden soll. Im nächsten Kapitel wird ein Vorschlag gemacht für eine Fokussierung auf einen vermutlich entscheidenden Aspekt von Intelligenz bei Lebewesen, nämlich der sozialen Intelligenz.
Soziale Intelligenz in natürlichen Systemen
Viele in der Artificial Life Forschung tätige Wissenschaftler hoffen, durch einen synthetischen, bottom-up Ansatz die Grundlagen von intelligenten Verhalten bzw. die Bedingungen, unter denen Intelligenz entstehen kann, aufdecken zu können. Im Gegensatz zu sogenannten "klassischen" Ansätzen der KI (auch bekannt unter dem Label GOFAI) verfolgt man also nicht einen analytischen Weg und versucht Artefakten Intelligenz "einzuhauchen", sondern die Artefakte sollen auf der Basis vorgegebener, (relativ) weniger Informationen ihr Verhaltensrepertoire in der Interaktion mit der Umgebung selbständig explorieren und erweitern. Die Hoffnung ist hierbei, in einem inkrementellen Ansatz Systeme immer größerer Komplexität (und damit verbundener Intelligenz bauen zu können, ähnlich wie es im Laufe der Evolution natürlicher Systeme stattgefunden hat. Luc Steels hat diesen Artificial Life Ansatz auf dem Wege zu künstlicher Intelligenz eindrucksvoll begründet. Einflüsse aus der Biologie spielen hierbei eine große Rolle. Ein Schwerpunkt liegt bei auf den Aspekten der Autonomie und Selbstbewahrung von physikalischen Artefakte, d.h. von Robotern.
Auch in den von mir durchgeführten Arbeiten geht es um die Untersuchung der Bedingungen zur Entwicklung von Intelligenz in Artefakten. Im Fokus des Interesses stehen allerdings eher kognitive Fragestellungen. Konkret geht es um die Untersuchung von künstlicher sozialer Intelligenz und um unterschiedliche Ansätze zur Modellierung von Sozialverhalten.
Nicholas Humphrey beschreibt sein Erstaunen über das Verhalten von Berggorillas, die er drei Monate in ihrem natürlichen Lebensraum beobachten konnte. Seine Erwartungshaltung war nämlich darauf ausgerichtet, Beispiele "intelligenten" Verhaltens zu beobachten, denn aus Tests in Gefangenschaft war und ist allgemein bekannt, daß es sich bei Gorillas um sehr "intelligente" Primaten handelt. In dem Verhalten der Berggorillas bei der Suche und Nutzung der Nahrung und allgemein während ihres tagtäglichen Verhaltens konnte er aber keine solchen Anzeichen erkennen. Der Grund lag darin, daß er nach klassischen Anzeichen von Intelligenz (wie Werkzeuggebrauch) etc. suchte und die sozialen Interaktionen nicht beachtete. Aber gerade letztere, nämlich soziale Kontakte innerhalb des Familienverbandes waren die wahren "intellektuellen Herausforderungen".
Daß soziale Faktoren nicht nur ein Seiteneffekt sind, sondern in der Phylogenese eine große Rolle für die Entwicklung der Primatenintelligenz gespielt haben, ist Thema der aus der Verhaltensforschung stammenden social intelligence hypothesis. Sie ist auch unter dem Namen Machiavellian intelligence hypothesis bekannt und wird zurückgeführt auf die Beiträge verschiedener Autoren, nämlich Chance und Mead , Humphrey , Jolly und Kumme . Sie besagt in ihrer striktesten Formulierung , daß die Intelligenz der Primaten ursprünglich zur Lösung sozialer Problem entstanden ist und erst in einem zweiten Schritt auf nicht-soziale Probleme übertragen bzw. ausgedehnt wurde.
Das soziale Umfeld wird sicher nicht der alleinige Faktor sein, der der Entwicklung der Primatenintelligenz den Weg bereitete. Aber es gibt hinreichend Hinweise, daß es ein wichtiger Faktor ist, der in bisherigen Ansätzen zur Konstruktion intelligenter Systeme völlig vermieden oder vernachlässigt wurde. Daher sollte das in den Naturwissenschaften intensiv diskutierte Thema soziale Intelligenz auch Eingang finden in die "sciences of the artificial".
Als Konsequenz aus diesen Überlegungen zur Entwicklung von Primatenintelligenz scheint es sinnvoll, viele bisher verwendete Merkmale von Intelligenz, auf deren Grundlage typischerweise Intelligenztests entstehen, neu zu überdenken. Auch bei der Anerkennung verschiedener Formen von Intelligenz (z.B. mathematische, räumliche oder mechanische Fähigkeiten, bleibt eine Fokussierung auf nicht-soziale Fähigkeiten und Verhaltensweisen. Obwohl soziale Faktoren in Wirtschaft und Wissenschaft entscheidende Faktoren sein können.
Dieser Artikel beschäftigt sich mit der Entwicklung sozialer Intelligenz für Artefakte, obwohl die bisherigen Artefakte noch weit davon entfernt sind, Interaktions- und Kommunikationsmöglichkeiten mit einer Komplexität ähnlich derer natürlicher Systeme zu besitzen. Da die Träume und Ziele der Wissenschaftler aber bewußt und unbewußt ihre tägliche Arbeit beeinflussen, sollte man sich diesen Herausforderungen stellen und versuchen, Aussagen über grundlegende Mechanismen auch mit Hilfe vergleichsweiser "primitiver" Systeme zu gewinnen. Denn es geht hier, wie auch allgemein in der Artifical Life Forschungsrichtung nicht darum, natürliche Systeme nachzubauen, sondern um die Schaffung von etwas Neuem, von technischen Systemen, die sich für uns, als Beobachter, lebensähnlich verhalten. Das Kriterium des "lebensähnlichen Verhaltens" für uns als Beobachter bedingt, daß sich die Systeme noch insoweit ähnlich verhalten müssen wie biologische Systeme, als sie innerhalb des Erfahrungshorizontes von Menschen als "Lebewesen" akzeptiert werden.
Denn Leben weit außerhalb unseres Erfahrungsbereichs ist für uns nicht denkbar .Wenn intelligente Artefakte in unserer Lebens- und Erfahrungswelt agieren und mit uns Menschen interagieren sollen, dann erscheint die Hypothese gerechtfertigt, daß sie entlang derselben "Designrichtlinien" wie biologische Systeme konstruiert werden müssen. Dies umfaßt körperliche, kognitive und soziale Aspekte.
Intelligenz in Artefakten
Wenn man den Artificial Life Ansatz, d.h. das Ziel der Konstruktion "lebensähnlicher" Artefakte, konsequent verfolgt, ergibt sie daraus eine von anwendungsorientierter Richtung nicht immer angenehme Schlußfolgerung: Ebenso wie natürliche Lebewesen nur zu einem sehr geringen Prozentsatz (bezogen auf die Anzahl rezenter Arten) dem Menschen Nutzen bringen (z.B. als Kulturpflanzen, Fleischlieferanten, Nutztiere, Genreservoire etc.), kann man auch bei der Schaffung der Artefakte nicht davon ausgehen, daß sie automatisch zur Erledigung bestimmter externer Aufgaben für den Menschen geeignet sind. Genau dies ist meiner Meinung nach der Punkt, an dem man sehr sorgfältig überlegen muß, welchen "Sinn" die Verwendung von Artificial Life-Prinzipien haben soll.
Eine Rüsselkäferart, die 80 % einer Kartoffelernte vernichtet, ist aus der denkbaren Sicht einer anderen Rüsselkäferart höchst erfolgreich. Wie soll sich nun ein Roboter verhalten, der nach Prinzipien, die man bei Rüsselkäfern oder Kanalratten entdeckt hat, konstruiert wurde? Soll er ein "dienstbarer Geist" sein, der zwar "körperlich autonom" ist, d.h. die Fortbewegung und Manipulation von Gegenständen autonom erledigen kann, der aber sklavisch Befehle entgegennimmt und ausführt? Oder soll die Autonomie auch Handlungsentscheidungen betreffen, so daß der Roboter in der Rolle eines "Mitarbeiters" erst zu einer bestimmten Arbeit motiviert und einbezogen werden muß? Und er dementsprechend auch die Handlungsfreiheit hätte, eine bestimmte Aufgabe abzulehnen? Wie kann ein System einerseits intelligent und autonom sein, andererseits aber dazu gebracht werden, für den Menschen (wen?) bestimmte Aufgaben zu erledigen? Kann man überhaupt die verschiedenen Aspekte der Autonomie (Mobilität, Planung, Energieautonomie etc.) voneinander trennen (und in einem modularen Ansatz zusammenfügen), oder sind dies nicht vielmehr unterschiedliche Sichten eines Beobachters auf ein autonomes Gesamtsystem?
Tiere und Pflanzen sind autonome Lebewesen. Bereits ein "primitiver" Einzeller besitzt höchst leistungsfähige Mechanismen zu seiner überlebenssicherung. Im Sinne einer technischen Evaluierung sind es nicht immer optimale Strategien, im Sinne des "Überlebens" allerdings hinreichende, d.h. angepaßt an die Umweltbedingungen. Wie könnte oder muß man ein künstliches autonomes System für seine Handlungen verantwortlich machen? Für all diese Fragen ist noch keine akzeptable Lösung abzusehen.
Die Rollenverteilung zwischen Mensch und Roboter ist stark abhängig von der Art und Intensität der Kontakte zwischen Menschen und Robotern. Ein Beispiel: Es ist unwahrscheinlich, daß Menschen mit ihrem Staubsauger erst über die Erledigung einer bestimmten Aufgaben verhandeln wollen, vielmehr ist die Rollenverteilung hier die eines Benutzers auf der einen und eines Werkzeugs auf der anderen Seite. Bei Robotern, die als Diskussionspartner (z.B. bei der Unterstützung von Problemlösungsaufgaben) dienen, ist hingegen eine gewisse Eigenständigkeit durchaus erwünscht, denn die Roboter übernehmen die Rolle eines menschlichen Interaktionsparterns. Und entsprechend "menschliche" Eigenschaften sind dann auch erwünscht. Aber auch dann ist der Punkt kritisch, wieweit die Autonomie gehen soll, d.h. ob der menschliche Benutzer die
letzte Kontrollinstanz bleiben will oder soll.
"Embodiment" und die Wahl der Abstraktionsebene - Simulation und "wirkliche" Welt
Vielfach wird behauptet, daß es unerheblich sei, ob man Roboter tatsächlich konstruiere oder ihnen nur innerhalb einer künstlichen Welt einen Körper verleihe. Die strikte Ablehnung von Simulationsexperimenten scheint ebenso einseitig wie die strikte Fokussierung auf dieselben. Jeder Wissenschafter, der einen Beitrag liefern zur Konstruktion und Steuerung intelligenter Artefakte liefern möchte, muß sich bei der Wahl seiner Arbeitsmittel über die Abstraktionsebene im Klaren sein, auf der bestimmte Mechanismen untersucht werden sollen. Die Frage der Übertragbarkeit der in Simulationen gewonnenen Ergebnisse (z.B. bei der Untersuchung von Kommunikation zwischen simulierten Organismen - simorgs - auf physikalische Artefakte hängt entscheidend davon ab, wann diese Übertragung als erfolgreich angesehen wird, also wann die simulierte und die "reale" Welt als übereinstimmend oder zumindest ähnlich angesehen werden. Auf einer bestimmten Ebene der Abstraktion über räumliche, physikalische und zeitliche Eigenschaften kann immer ein Maß von Ähnlichkeit entdeckt werden.
Wie Conways game of Life eindrucksvoll zeigte, können wesentliche Mechanismen des "Lebens" (Leben, Tod, Fortpflanzung, Räuber-Beute Beziehungen) mit einem Zellularautomaten simuliert werden. Aber welche Aussagen über das "wirkliche Leben" kann man mit Hilfe solcher Zustandsautomaten gewinnen? Für welche Arten von "wirklichen" Lebewesen sind die Ergebnisse relevant? Welche Schlußfolgerungen kann man aus den Experimenten ziehen? Ein wichtiger Aspekt bei der Beantwortung solcher Fragen ist der Grad, in dem von physikalischen Eigenschaften der Welt abstrahiert werden konnte.
Bei der Interaktion physikalischer Artefakte in einer physikalischen, dynamischen, nicht vorhersagbaren Umwelt nicht-trivialer Komplexität, d.h. z.B. bei der Interaktion in Alltagssituationen menschlicher Gesellschaften, ist es nicht möglich im voraus zu bestimmen, welche Parameter relevant sind. Erst im Experiment können diese Faktoren identifiziert werden. Mit anderen Worten: erst wenn die wichtigen Parameter identifiziert sind, können sie modelliert werden. Erst wenn z.B. festgestellt wird, daß die Ergebnisse einer Simulation ohne Reibungseffekte nicht auf reale Verhältnisse übertragbar sind, kann man sie nachträglich einbauen. Die Simulation wird also immer der wirklichen Welt hinterherlaufen. Voraussetzung für lebenswichtige Reaktionen (sowie alle Entscheidungs- und Planungsprozesse) ist es aber gerade, schneller zu sein als die Wirklichkeit.
Natürliche lebende Systeme sind nicht passive Informationsaufnahme- und -verabeitungsautomaten, sondern sie konstruieren sich ihre Wahrnehmungs- und Aktionswelten und besitzen eine räumliche physikalische Ausdehnung, einen in Raum und Zeit verankerten und wandelbaren Körper, den sie aktiv einsetzen. Ein Tier, das sich von Ort A nach Ort B bewegt, benötigt nicht seinen Körper zur Ausführung einer Wegeplanungsstrategie, sondern es gelangt durch die aktive körperliche Bewegung von A nach B.
Für Menschen ist Imagination, Probehandeln und die Schaffung eigener innerer Welten (oft in einem körperlichen Ruhezustand oder auch am Schreibtisch) ein elementarer Aspekt ihres Lebens. Darüberhinaus werden durch technische Mittel immer mehr ursprünglich mit körperlichem Einsatz verbundene Aktionen Maschinen überlassen, so daß dem Körper eine immer mehr passive Rolle zufällt (Treppensteigen - Fahrstuhl). Die Trennung von Planungsvorgängen und ihrer anschließenden bloßen Ausführung ist für erwachsene Menschen der westlichen Zivilisation daher eine sehr "naheliegende" Sichtweise. Vor allem, da für erwachsene Menschen die Ausführung meist reine Routine (automatisiert ) geworden ist. Viele Menschen verbringen einen großen Teil ihres Lebens in einer körperlich eher passiven Haltung unter dem Einfluß visueller Reize (Computermonitor, Fernseher).
Für kleine Kinder, die zum ersten Mal versuchen, eine Treppe zu erklimmen, ist diese Selbstverständlichkeit nicht gegeben, sie sind noch in dem Stadium, ihre Umwelt "begreifen" zu lernen. Können wir uns ein Kind vorstellen, das bis zum Erwerb eines durchschnittlichen Sprachschatzes ausschließlich unbeweglich ist und sich erst, nachdem es sich hat erklären lassen, wie man läuft und Treppen steigt, die Welt erkundet? Können wir uns den Prozeß des Spracherwerbs durch körperlich passives Assoziieren von "Zuschauen" und "Zuhören" vorstellen? Solch eine Entwicklung würde den meisten Menschen sehr unnatürlich vorkommen. Nach all dem, was wir über die Entwicklung motorischer und sensorischer Fähigkeiten wissen, ist dies auch nicht denkbar.
Überprüfung der internen Repräsentation des Körpers und der Außenwelt durch Aktionen dient dem Gehirn während der Individualentwicklung (und auch später) dazu, verläßliche Vermutungen über die Verbindungen zwischen Außenwelt, Sinnesorganen und den Sinneszentren im Gehirn herzustellen.
Gerhard Roth
Wie Gerhard Roth beschreibt, entwickeln sich die motorischen Zentren des Wirbeltiergehirns vor den sensorischen.
Tiere und Menschen verhalten sich zuerst, und danach bestimmt sich der Aufbau der sensorischen Welt.
Gerhard Roth
Erstaunlicherweise widerspricht dies fundamental der Verfahrensweise, mit der traditionell mobilen Robotern Navigationsfähigkeiten, Kommunikationsvermögen und jegliche Art von intelligentem Verhalten beigebracht wird. Im Bereich der Wege- und Pfadplanung dominieren Algorithmen, die den Roboter als punktförmig oder als konzentrischen Kreis modellieren, wodurch ein ganzes Spektrum mathematischer Verfahren erst zum Einsatz kommen kann. Aus meiner Sicht ist das von Rodney Brooks geforderte "embodiment" von Robotern nicht automatisch gegeben, indem wir einen Computer auf ein Chassis mit Rädern und Sensoren setzen. Vielmehr sollte der Aspekt, daß natürliche mobile Systeme mit ihrem Körper "aufwachsen", d.h. ihn während der Konstruktion ihrer Wahrnehmungswelten und ihres Verhaltensrepertoires ständig aktiv benutzen und verändern, auch für künstliche mobile Systeme explizit berücksichtigt werden.
Je komplexer die Interaktions- und Verhaltensweisen sind, die ein Artefakt in einer Umwelt zeigt, desto mehr Parameter der "wirklichen" Welt müssen nach und nach in einer Simulation berücksichtigt werden. Im Extremfall würde dies in dem Versuch enden, die wirkliche Welt "nachzubauen", was aus Gründen der Komplexität nicht möglich scheint. Ebensowenig scheint es im Bereich der virtuellen Realität möglich zu sein, einem Menschen mit uneingeschränkten Handlungsmöglichkeiten die Illusion einer "wirklichen" Welt zu vermitteln (siehe auch Dennetts Kommentare). Ebenso wie es in virtuellen Umgebungen sinnvoll erscheint, für eingeschränkte Weltausschnitte realistische Darstellungen zu wählen oder Abstraktionsstufen zur Verfügung zu stellen (z.B. zur Planungsunterstützung von Architekten), so können auch Simulationen wertvolle Beiträge in definierten Weltausschnitten oder innerhalb bestimmter Abstraktionsstufen liefern.
Beenden möchte ich dieses Kapitel mit einem wichtigen Aspekt, der bei der Unterscheidung von Simulationen und physikalischen Experimenten berücksichtigt werden sollte. Bei ihm sind viele der bisher genannten Punkte involviert. Es handelt sich dabei um den Begriff der "wirklichen Welt", der bisher schon mehrfach verwendet wurde als Gegensatz zur "simulierten Welt". Diese für die meisten Menschen intuitiv eindeutige Unterscheidung ist ebenfalls ein Konstrukt. Nach Stadler und Kruse benutzen Menschen für die Unterscheidung von Vorstellungen und wirklichen Wahrnehmungen verschiedene Wirklichkeitskriterien. Auch für Artefakte sollte man sich daher Gedanken darüber machen, wie sie in Abwandlung von Dennetts Gedankenspiel über ein "robot in the vat"- Stadium hinauskommen könnten. Ein Schlüsselaspekt liegt hierbei meiner Meinung nach wiederum in der notwendigen körperlichen Verankerung von Artefakten in der Welt: Der Körper kann verwendet werden zum Testen der Umwelt auf ihren Wirklichkeitsgehalt! Objekte sind für uns wirklich, wenn wir auf sie einwirken können und sie z.B. anfassen können. Stadler und Kruse bezeichnen dies als das praktische Wirklichkeitskriterium das vor allem bei kleinen Kindern eine große Rolle beim Aufbau ihrer Dingwelt spielt. Der Besitz eines Körpers mit einer physikalischen Ausdehnung, einer Körpergrenzfläche, Möglichkeiten der Selbstwahrnehmung etc. sind hierfür notwendig.
Künstliche soziale Intelligenz für autonome Roboter - Imitation, Körperkontakt und Folgen von Bewegungen
Es gibt viele Hinweise, daß soziale Faktoren eine bedeutende Rolle gespielt haben in der Entwicklung der Primatenintelligenz. Aus der Entwicklungspsychologie ist hinreichend bekannt, daß für die Ontogenese eines Individuums und die psychische Entwicklung eines Kindes zu einem sozialen Wesen, welches in einer Gemeinschaft von Artgenossen erfolgreich überleben will, Sozialkontakte entscheidend sind. Unter der Annahme, daß dies auch auf Artefakte zutrifft und zur Vermeidung, daß diese als Kaspar Hauser-Systeme aufwachsen, untersuche ich soziale Interaktionen in Robotergruppen. Die Untersuchungen konzentrieren sich hierbei auf das Imitieren und Synchronisieren von Bewegungen. Ergebnisse aus der Entwicklungspsychologie deuten darauf hin, daß Imitation, d.h. das Nachahmen von Bewegungen, Mimik oder Lautäußerungen als Mittel verwendet wird zur Unterscheidung zwischen "Dingen" und Personen und zur Klärung der Identität einer Person. Meltzoff spricht in diesem Zusammenhang von dem "like me"-Test, mit dem Babys ihre Umgebung erproben und Personen definieren als Objekte, die imitieren und imitiert werden können. Nach Meltzoff und Gopnik ist Imitation in Primatengesellschaften ein wichtiges Mittel zum Erlernen sozial relevanter Bewegungen.
In dem folgenden Abschnitt wird geschildert, welchen Ansatz zur Implementierung imitativen Verhaltens ich verfolge. Das Nachahmen geschieht dabei nicht durch ein passives Beobachten des Vorbilds mit Fernsinnesorganen, einer anschließenden Analyse der Sensordaten und Übertragung auf den eigenen "Körper", sondern durch ein direktes Folgen der Bewegung durch "Körperkontakt" z.B. mit Hilfe von Tastsensoren, die auf der Außenfläche des Roboters angebracht sind. Unter Demo findet man Beispiele von Folgeverhalten zwischen heterogenen Robotern, durchgeführt 1996 im VUB AI-Lab, Brüssel.
Ein zentrales Verhaltensmuster ist hierbei also das Kontaktsuchen, im Gegensatz zum zentralen Ziel der "Kontaktvermeidung" in vielen Robotikansätzen. An die Stelle des "defensiven" Suchens nach hindernislosen und damit reizarmen "Freiräumen", in deren reduzierter Komplexität die Randbedingungen für die Anwendung mathematisch-analytischer Verfahren gegeben sind, tritt also das (im metaphorischen Sinne gemeinte) "neugierge" Suchen nach Reizvielfalt und direkten Kontakten. Erforderlich für das Nachahmen und Folgen von Bewegungen ist eine enge zeitliche Synchronisation der Bewegungen, vergleichbar mit ritualisierten Verhaltensmustern, die bei Tieren z.B. als Kommunikationsmittel für die Paarbindung dienen. Ein zusätzlicher "Seiteneffekt" der Untersuchung von Imitation ist die Tatsache, daß damit die Unterscheidung zwischen belebten und unbelebten Objekten ermöglicht werden kann sowie ein Weg aufgezeigt wird zum Erlernen sozial relevanter Verhaltensweisen.
Im Gegensatz zu (an die Tradition des Behaviorismus erinnernden) "reinforcement learning" Ansätzen muß sich ein Einzelindividuum nicht isoliert seine Welt durch Rückmeldung in Form von Belohnungen oder Bestrafungen erschließen. Vielmehr wird (zusätzlich zum individuellen Lernen) über den sozialen Zusammenhalt eine Informationsweitergabe ermöglicht, indem das Individuum motivationsgetrieben explizit seine Lehrer auswählt, d.h. zum Beispiel sich bevorzugt in der Nähe von Gruppenmitgliedern aufhält, zu denen eine "soziale Bindung" besteht. Bei Lebewesen wird diese Bindung in einer zeitlich eng begrenzten Prägephase hergestellt oder kann (auch wenn frühe Erfahrungen eine entscheidende Rolle spielen) ein Leben lang flexibel gestaltet sein. Gruppenmitglieder, von denen in der Vergangenheit erfolgreich gelernt wurde, sind auch für die Zukunft gute Kandidaten als gute Lehrer. Die Untersuchung von Imitation als Methode des sozialen Lernens bei Robotern eröffnet langfristig auch Möglichkeiten für Methoden zum Lernen von Bewegungen zwischen verschiedenen Robotern oder auch zwischen Robotern und Menschen, so wie sie auch in "teaching by showing"-Ansätzen verfolgt werden.
In dem von mir untersuchten Szenario, soll die Motivation der Roboter zur Interaktion und Imitation in einer Steigerung der "Überlebensfähigkeit". Die Roboter sollen hierbei zu bestimmten Gruppenmitgliedern, d.h. zu anderen Robotern, soziale "Beziehungen" entwickeln, vergleichbar mit "Anhänglichkeit" und "Aversion". Es sollen beispielsweise Roboter gezielt vermieden werden, die für den imitierenden Roboter negative (z.B. stark energieverbrauchende) Verhaltensweisen besitzen. Andererseits ist ein gezieltes Anfahren solcher Gruppenmitglieder wünschenswert, die durch besondere Sensor- bzw. Aktuatorausstattungen oder Verhaltensweisen "positive" Aktionen ausführen, beispielsweise eine Energieaufladestation finden können. Dies ist die Voraussetzung für die Entwicklung komplexerer Formen von Gruppenbildungen.
Elementare Voraussetzung für die Entwickung individueller "Beziehungen" ist das individuelle Erkennen der Interaktionspartner. Hierzu gibt es Arbeiten, z.B. aus den Bereichen Entwicklungspsychologie oder Psychiatrie, über den Erwerb von Körperbildern von sich und anderen. Diese Körperbilder sollen in frühester Kindheit eine große Rolle spielen für die Entwicklung eines Selbst-Konzeptes und für den Aufbau erster sozialer Beziehungen. Beim Erwerb von Körperbildern von anderen spielen dabei nicht nur Aussehen und Verhalten, sondern auch die Bedeutung der Interaktionen eine entscheidende Rolle, z.B. die Unterscheidung in angenehm/unangenehm. In einem vergleichbaren Ansatz sollen sich unsere Roboter nicht an bestimmten Markern (z.B. Tönen) wiedererkennen, sondern am Verhalten. Assoziiert mit dieser "verhaltenszentrierten" Erkennung der Interaktionspartner ist die "Bedeutung" der Interaktionen, so daß sich (aus Beobachtersicht) individuelle "Beziehungen" (Anziehung, Aversion) entwickeln können.
Individualisierte Gesellschaften
Flexible Sozialbeziehungen sind gegenüber angeborenen oder irreversiblen Verhaltensregeln dort von Vorteil, wo sich das einzelne Individuum schnell an sich ändernde soziale oder nicht-soziale Umweltbedingungen anpassen muß. Ein wichtiger Vorteil einer flexiblen Sozialstruktur (mit Mechanismen zur ständigen Bestätigung und Neuorganisation) liegt in ihrem Kreativpotential. Dort wo einzelne Verhaltensweisen und Formen der Kommunikation und Interaktion streng festgelegt sind (ein "vorgezeichneter Lebensweg" existiert), besteht nicht die Notwendigkeit, "erfinderisch" zu sein. Man denke z.B. an soziale Insekten. Wenn eine einzelne Blattschneideameise eine neue und effektivere Möglichkeit zum Zerlegen eines Blattes "erfinden" würde, wie sollte sie diese Information weitergeben, so daß sie selbst und ihre Gruppe davon profitieren könnten? Die anonymen Gesellschaften der sozialen Insekten führen dazu, daß die Interaktions- und Kommunikationsleistungen einfach gehalten werden konnten und möglichst einheitliches Verhalten von Vorteil ist. Die bei sozialen Insekten oft zu findenden beeindruckenden Bauleistungen gehorchen seit Jahrtausenden demselben Programm, welches sich nur langsam im Laufe der Evolution schrittweise verändern kann.
Im Gegensatz dazu findet man bei Primaten und insbesondere beim Menschen oft zwischen zwei aufeinanderfolgenden Generationen revolutionierende Änderungen in der Denk- und/oder Lebensweise, ermöglicht durch Tradition und Kultur. Auch innerhalb einer einzelnen Lebensspanne können Menschen die Chance nutzen "ein neues Leben zu beginnen". Ansätze hierzu findet man bereits bei nicht-menschlichen Primaten, der aus heutiger Sicht gravierende "Vorsprung" der menschlichen Gesellschaften mag auf einem Selbstverstärkungseffekt beruhen: Je variabler und unsicherer die Sozialbeziehungen sind, desto notwendiger ist es für das Individuum, schnell und flexibel zu reagieren, d.h. die Gruppenmitglieder möglichst gut einzuschätzen bzw. ihr Verhalten vorherzusehen, sich entsprechend differenziert gegenüber anderen zu verhalten und eine "Offenheit" gegenüber neuen Erfahrungen zu bewahren.
Die "anonymen" Kontakte der Gruppenmitglieder von sozialen Insekten haben auch eine Austauschbarkeit zur Folge, individuelles "Helfen" oder "Suchaktionen" findet man nicht. Diese "r-Strategie" der Evolution "setzt" nicht auf das Individuum, sondern auf die große Anzahl möglichst einfach gehaltener Einzeltiere. Im Gegensatz dazu wird bei der "k-Strategie" viel in den einzelnen Nachkommen investiert. Da dessen Tod damit einen sehr viel größeren Verlust darstellt, sind z.B. lange Mutter-Kind Bindungszeiten hier die Regel (siehe Wale, Elefanten, Menschen). Dies erfordert die verläßliche Wiedererkennung der Mitglieder der oft komplex gestalteten Familienverbände.
Individuelle Erkennung gibt es auch bei offenen Gesellschaften (z.B. Vögel, die ihre Reviernachbarn erkennen), in geschlossenen individualisierten Gesellschaften (einige Raubtiere, Primaten) findet man aber die höchste Komplexität sozialer Interaktionen und Strukturen. Rangordnungen sind in diesen Fällen typischerweise nicht starr, sondern erfordern eine ständige Bestätigung. Nur in solchen individualisierten Gesellschaften ist neben einer starren Arbeitsteilung eine flexible Kooperation und gegenseitige Unterstützung möglich. Die Analyse und Vorhersage solch komplexer sozialer Interaktionen wird damit für einen Beobachter allerdings fast unmöglich, bzw. es können nur sehr einfache, grobe Schemata identifiziert werden. Denn die Entscheidungen zweier realer Gefangener in einer "Prisoner's Dilemma"-Situation wird nicht nur abhängen von "arithmetischen" Überlegungen betreffend den eigenen Vorteil, sondern von den persönlichen Beziehungen der Betroffenen. Spieltheoretische Überlegungen mögen wichtige Beiträge liefern für Simulationen von Evolutionsstrategien oder für die Modellierung von Multiagentensytemen, für die Interaktion eines Individuums mit seiner sozialen Umwelt scheint diese Beschreibungsebene nicht ausreichend zu sein. Kinder erwerben soziales Verhalten eben nicht durch das Auswendiglernen abstrakter Regeln, sondern durch eigene, emotionsbeladene, individuelle Erfahrungen. Motiviert durch die Fülle von Arbeiten in der Biologie und Psychologie über die Bedeutung individueller Sozialbeziehungen untersuche ich die Wiedererkennung von Gruppenmitgliedern und Imitation innerhalb einer Robotergruppe.
Ein Szenario - die Hügellandschaft
Die in den vorherigen beiden Kapiteln geschilderten Mechanismen werden unter Laborbedingungen z.B. in einem speziell hierfür geschaffenen Lebensraum untersucht, der Hügellandschaft. Sie besteht aus einzelnen Modulen, deren Anordnung verändert werden kann. Das Profil der Hügellandschaft ist also variabel. Innerhalb der Hügellandschaft befindet sich eine Energieaufladestation. Zusätzlich können z.B. Lichtquellen plaziert werden. In diesem Lebensraum wurden grundlegende Verhaltensweisen wie Phototaxis, Hindernisvermeidung, Hügel hinauf- und herunterfahren und Aufladen der Akkus an einer Ladestation untersucht.
Unter Social Intelligence befinden sich Fotos und Videosequenzen, die ein Beispiel für eine Implementierung des im folgenden beschriebenen Szenarios zeigen. Es handelt sich dabei um eine Experimentierumgebung, die von 1993-1996 in der GMD, Sankt Augustin existierte. Der Hauptgrund für die Verwendung dieser Experimentierumgebung liegt darin, daß in einem hügeligen Gelände der Erfolg einer ausgeführten Bewegung nicht nur davon abhängig ist, was imitiert wird, sondern auch wo dieses Ereignis stattfand, d.h. welche Bedeutung die imitierte Bewegung in der aktuellen Situation hatte. Die größten Vorteile dieses "Habitats" sind (1) die intuitive Art und Weise, mit der einer imitierten Bewegung Bedeutung (aus der Sicht des Imitators) zugeordnet werden kann und (2) die Notwendigkeit für die Roboter zum Zwecke des Überlebens in der Hügellandschaft die Orientierung ihrer Körperachse zu kontrollieren. Der erste Punkt ist von entscheidender Bedeutung für die Roboter, denn das Hinauffahren eines Hügels ist extrem energieverbrauchend im Vergleich zum Fahren auf ebener Oberfläche. Im Sinne einer vorgegebenen Motivation zur "Energieersparnis" ist es somit für die Roboter sinnvoll, Hügel zu vermeiden bzw. effiziente Strategien für ihre Bewältigung zu entwickeln (siehe Punkt 2). In der Hügellandschaft wurden Ausrichtung der Körperachse, Kontakthalten und Folgeverhalten mit Infrarotsensoren und binären Tastsensoren untersucht. Diese Verhaltensweisen sind die Vorbedingungen für zukünftige Untersuchungen zu komplexem Imitationsverhalten.
Eine wichtige Voraussetzung für ein "Überleben" in der Hügellandschaft ist die Verwendung der Neigungssensoren zur Kontrolle der Lage der Körperachse. Hierbei kann nicht nur beispielsweise ein überkippen verhindert werden, sondern die Neigungssensoren geben darüber hinaus noch wichtige charakteristische Informationen über die Umwelt. Eine ähnliche Problematik findet man auch bei Robotern, die in Röhrensystemen fahren. Auch soziale Interaktionen der Roboter wären in solch einem Lebensraum von Vorteil. Dies soll im folgenden am Beispiel Abwasserkanalsysteme verdeutlich werden (die Überlegungen sind entstanden in Assoziation zum Project Laokoon95 Forschungsbereich KI, GMD, Sankt Augustin.).
Abwasserkanalsysteme sind ein Lebensraum, der extreme Anforderungen an der Grad der Autonomie der Roboter und der sozialen Interaktionen innerhalb einer Robotergruppe stellt. Das Anwendungsgebiet Kanalrobotik ist nicht nur eine ingenieurswissenschaftliche Herausforderung, sondern der "Lebensraum" Kanalnetz könnte zusätzlich ein interessanter Ansatzpunkt für biologisch orientierte Forschungsarbeiten im Bereich "Artificial Life" sein, die sich mit der Konstruktion autonomer Systeme nach dem Vorbild natürlicher Lebewesen beschäftigen. Denn ein Kanalnetz ist ein künstlicher und auch zu einem gewissen Grade von Menschen kontrollierbarer Bereich.
Die Komplexität dieses Systems ist aber weitaus größer und die dort herrschenden Bedingungen sind weitaus "realer" als unter herkömmlichen Laborbedingungen. Ein entscheidender Unterschied zum "Lebensraum Büroflur" ist beispielsweise die unbedingte Notwendigkeit zur Aufrechterhaltung der Autonomie im Kanalnetz. Ein im Kanalnetz liegengebliebener Roboter kann entweder nicht oder nur mit erheblichem technischen Aufwand geborgen werden. Da bei einem einzelnen Roboter ein Totalausfall niemals ausgeschlossen werden kann, ist der Ansatz naheliegend, Gruppen von Kanalrobotern zu untersuchen.
Robotergruppen können einerseits gemeinsam effektiver Aufgaben erledigen als einzelne Roboter, man denke z.B. an die Zusammenarbeit von Spezialistenteams. Andererseits, falls eine entsprechende "Sozialstruktur" besteht, können sich die Roboter gegenseitig unterstützen und aus Sackgassen befreien. Der Lebensraum Kanalnetz ist nicht nur für Menschen, sondern auch für Roboter problematisch (Korrosion, Wasserdruck, aggressive Chemikalien etc.). Außerdem ist der Verlust jedes einzelnen Roboters ein hohes finanzielles Risiko und zieht notwendige Bergungsarbeiten von außen nach sich. Ein Hauptziel einer Gruppe von Robotern in einem Kanalnetz muß daher das Überleben der gesamten Gruppe und nicht nur des Einzelnen sein.
Aus der Artificial Life Sicht stellt sich außerdem die Frage, welche "Lebensformen" (hinsichtlich Konstruktion, Verhalten, Interaktionen innerhalb von Gruppen) in diesem extremen Lebensraum erfolgreich überleben können, eine große Herausforderung dar. Da diese Artefakte nur wenige Kontakte zu Menschen (Informationsaustausch) haben, müssen sie nicht morphologisch und vom Verhalten her dem menschlichen Vorbild angelehnt sein. Es sind daher neue, alternative Designansätze denkbar. Im folgenden Kapitel wird das Design der Roboter, die für die Hügellandschaft konstruiert wurden, diskutiert.
Design von Robotern für die Hügellandschaft
Die Morphologie und das Verhalten von Tieren entwickelt sich in einem Prozeß wechselseitiger Anpassung Individuum-Umwelt. Bestimmte Arten der Interaktionen mit der biotischen und abiotischen Umwelt sind charakteristisch für eine Art und lassen sich beschreiben mit Hilfe des Konzeptes der ökologischen Nische. Eine bestimmte ökologische Nische existiert allerdings nur gleichzeitig mit ihrem "Bewohner". Ökologische Nischen werden nicht "frei" bzw. "neu besetzt". In diesem Sinne können auch keine ökologischen Nischen für Artefakte definiert und anschließend ein bestimmter Robotertyp für diese zielgerichtet und optimal entworfen werden. Ökologische Nischen entstehen in der senso-motorischen Interaktion des Roboters mit seiner Umgebung. Je der nach der Art und Komplexität dieser Interaktionen kann daher ein bestimmtes raum-zeitlich definiertes Gebiet (z.B. ein Büroflur) von verschiedenen Artefakten unterschiedlich wahrgenommen werden. Es können also verschiedene Roboter mit unterschiedlichen Erfahrungen und unterschiedlicher Konstruktionsart im selben Lebensraum in sehr unterschiedlichen Wahrnehmungswelten existieren.
Da der Koevolutionsprozeß zwischen Artefakten und Lebensraum technisch nicht nachvollzogen werden kann, wurde nach einer Kompromißlösung gesucht. Einerseits sollte eine gewisse "Veränderlichkeit" und vor allem eine "Individualität" gewährleistet sein ("heterogenes" Design), andererseits mußten die Roboter vom Experimentator in Anpassung an die Hügellandschaft in "Handarbeit" konstruiert werden. Es wurde schließlich ein Baukastenansatz gewählt, d.h. die Roboter wurden mit Bauteilen der Firma fischer zusammengesetzt. Damit ist ein leichter und modularer Umbau sowie die individuelle Gestaltung der Roboterkonstruktionen möglich. Größe, Form (Konstruktionsansatz, z.B. Lage der Motoren), Gewicht, Geschwindigkeit und Sensorausstattung der Roboter können unterschiedlich sein. Der Vorteil dieses Ansatzes liegt neben der Variabilität und Modularität auch in den sehr kurzen Konstruktionszeiten (wenige Tage oder Wochen pro Roboter). Die Roboter besitzen on-board eine Stromversorgung, sowie einen Steuerungscomputer.
Diskussion
Wie von mir ausführlich diskutiert, ist die Betrachtung von Robotern als "soziale Wesen" mit entsprechenden Beziehungen untereinander oder mit Menschen nur dort sinnvoll und erwünscht, wo entweder solch ein Verhalten die Performanz des einzelnen Roboters oder das Überleben der Robotergruppe fördert oder in Situationen, in denen Menschen solch eine Eigenschaft von ihrem Interaktionspartner erwarten. Dies ist in besonderem Maß dort der Fall, wo Roboter den Laborbereich verlassen und Einzug in den Lebensraum des Menschen halten (siehe Ansätze zu Servicerobotern
Derzeit gibt es wichtige Resultate und entscheidende Weichenstellungen in den Wissenschaften des "Biologischen" (z.B. Hirnforschung), "Artifiziellen" (z.B. Robotik) und "Virtuellen" (Virtuelle Realität). Es ist allerdings noch nicht absehbar, wie eine zukünftige Symbiose dieser drei Entwicklungslinien aussehen wird bzw. welche Entwicklung überhaupt wünschenswert wäre. Das heißt, es ist nicht klar, wie zukünftige Gesellschaften aussehen können, in denen Menschen einen Großteil ihrer Zeit in virtuellen Räumen (mit virtuellen oder "echten" Interaktionspartnern) oder mit Kontakten zu Robotern verbringen.
Sinnvoll ist daher eine Diskussion über das Thema, wie zukünftige Gesellschaften aussehen könnten, in denen Menschen in ihrem alltäglichen realen Umfeld bzw. in virtuellen Räumen mit anderen Menschen und physikalischen und virtuellen Artefakten interagieren und kommunizieren. Dies umfaßt einerseits Möglichkeiten, wie Menschen ihren natürlichen Lebensraum erweitern können durch andere Erfahrungswelten und andererseits, wie Menschen mit "künstlichen Lebewesen" zusammenleben und Hand in Hand zusammenarbeiten können. Risiken und Probleme der Entwicklung, daß zunehmend autonome und intelligente Maschinen, insbesondere Roboter, nicht nur im Arbeitsleben, sondern vor allem im Alltag, in der Freizeit und als Interaktionspartner für Kinder und Jugendliche eine Rolle spielen werden, dürfen nicht unterschlagen werden.
Die Diskussion einer positiven Entwicklungslinie, mit einer Integration der Maschinen in das kulturelle und soziale Umfeld des Menschen, kann allerdings eine Alternative sein zu bisherigen "Kampfszenarien", die einige Wissenschaftler als zwangsläufige Entwicklung in der Beziehung zwischen Menschen und Artefakten propagieren. Als Vorbild für ein (weitgehend) friedliches Zusammenleben in einer "Multi-Species"-Gesellschaft eignet sich beispielsweise das Zusammenleben von Menschen mit Haustieren, die als Mitglieder der Familie, mit bestimmten Rechten und Aufgaben, erzogen werden und eingebettet in die menschliche Sozialstruktur sind. Auch wenn die geeignete "Erziehung" von Robotern noch ein ungelöstes Problem ist, kann vielleicht die Biologie zur Lösung dieses Problems geeignete Vorbilder liefern.