Künstliches Leben in der Unterhaltung
Lifelike Autonomous Agenten (LAA - Lebensähnliche, autonome Systeme)
Pattie Maes, Leiterin der Autonomous Agents Group am Media Lab des MIT, ist eine Pionierin im Bereich der Agentenforschung. Eine der zentralen Einsatzmöglichkeiten von Agenten sieht sie im Unterhaltungsbereich. Hier ist die Gestaltung der Interaktion mit den Menschen besonders wichtig und wegweisend für die Agentenforschung.
Pattie Maes ist Associate Professor am Media Lab des MIT, an dem sie die Autonomous Agents Group gründete, die sie jetzt leitet.
Das verhältnismäßig neue Gebiet des Künstlichen Lebens (KL) versucht das biologische Leben zu erforschen und durch die Erzeugung künstlicher Lebensformen zu verstehen. Um Chris Langton, den Begründer dieses Gebietes, zu paraphrasieren, ist es das Ziel des Künstlichen Lebens, das Leben so nachzubilden, wie es sein könnte, um das Leben, wie wir es kennen, zu verstehen. Künstliches Leben ist ein sehr großer Wissenschaftsbereich, der so unterschiedliche Themen wie künstliche Evolution, künstliche Ökosysteme, künstliche Morphogenese, Molekularevolution und viele andere umfaßt.
Die KL-Forschung ist ebenso wie die KI-Forschung an einer Synthese anpassungsfähiger autonomer Agenten (AA) interessiert. AA sind Computerprogramme, die eine komplexe, dynamische Umwelt bewohnen, in dieser Umwelt autonom handeln und sich orientieren und dadurch eine Reihe von Zielen und Aufgaben verwirklichen können, für die sie konstruiert worden sind. Das Vorhaben, einen AA zu bauen, ist so alt wie das Gebiet der Künstlichen Intelligenz selbst. Die KL-Gemeinschaft hat einen völlig anderen Ansatz für dieses Ziel entwickelt, der sich eher auf schnelles, reaktives Verhalten und auf Anpssung und Lernen konzentriert als auf Wissen und Vernunft. Dieser Ansatz ist zum großen Teil von der Biologie inspiriert, und hier besonders von der Ethologie, die versucht, die Mechanismen zu verstehen, die Tiere verwenden, um angepaßtes und erfolgreiches Verhalten zu realisieren.
AA können die unterschiedlichsten Formen entsprechend der Art der Umwelt annehmen, die sie bewohnen. Ist die Umwelt die reale physikalische Umwelt, nimmt der AA die Form eines autonomen Roboters an. Alternativ kann man 2D- und 3D-animierte Agenten bauen, die simulierte physikalische Umwelten bewohnen . Letztendlich sind sogenannte Knowbots , Software- oder Interface-Agenten körperlose Wesen, die die digitale Welt der Computer und der Computernetzwerke bewohnen. Für alle diese Arten von AA gibt es klare Anwendungsbereiche. Autonome Roboter z.B. sind zur Überwachung, zur Erkundung und für andere Aufgaben in Umwelten entwickelt worden, die für Menschen unzugänglich oder gefährlich sind. Eine lange Tradition gibt es in der Produktion simulierter Agenten für Trainingszwecke. Interface-Agenten gelten neuerdings auch als ein Mechanismus, der Computerbenutzern hilft, mit der Arbeits- und Informationsüberlastung fertig zu werden.
Eine mögliches Einsatzfeld der Agentenforschung, dem bislang erstaunlich wenig Aufmerksamkeit geschenkt worden ist, ist der Unterhaltungsbereich, der in den kommenden Jahren möglicherweise stark an Bedeutung zunehmen wird, da die traditionell ergiebigste Geldquelle der Agentenforschung, die Verteidigungsindustrie, heruntergefahren worden ist. Die Unterhaltungsbranche ist ein starker Industriezweig, von dem man erwartet, daß er in den nächsten Jahren expandiert. Viele Formen der Unterhaltung verwenden Figuren, die in einer Umwelt handeln, z. B. Videospiele, simuliertes Reiten, Filme, Trickfilme, Animatronics, Theater, Puppenspiele, bestimmte Spielzeuge und sogar Party-Lines. Jede dieser Unterhaltungsformen könnte vom Einsatz autonomer, halb-intelligenter Agenten als unterhaltsame Darsteller profitieren. Die Unterhaltungsbranche ist ein auf das Vergnügen ausgerichteter und sehr herausfordernder Anwendungsbereich, der die Grenzen des Agentenforschung erweitern wird.
Die Herausforderung der Modellierung von unterhaltsamen Spielfiguren
Verschiedene Formen der kommerziellen Unterhaltung setzen gegenwärtig automatisierte Spielfiguren ein. Die meisten sind äußerst einfach: Sie zeigen ein sehr vorhersehbares Verhalten und wirken nicht sehr überzeugend. Das ist insbesondere bei solchen Figuren der Fall, mit denen man in Echtzeit interagieren kann, z.B. bei Videospielen. Zeigen automatisierte Charaktere intelligentes Verhalten, so ist es normalerweise völlig mechanisch und nicht interaktiv und meist das Ergebnis eines mühevollen und arbeitsaufwendigen Produktion. Ein Beispiel dafür ist das Verhalten der Dinosaurier in dem Film Jurassic Park.
In den letzten Jahren gab es aber einige wenige Ausnahmen. Einige Forscher haben mit der Agententechnologie animierte Filme hergestellt. Anstatt den animierten Figuren genaue Bewegungen vorzuschreiben, sind sie als Agenten modelliert, die Handlungen in Reaktion auf die von ihnen wahrgenommene Umwelt ausführen. Reynolds modellierte Vogel- und Fischschwärme, indem er das Verhalten der einzelnen Tiere spezifizierte, die den Schwarm bildeten. Die gleichen Algorithmen wurden verwendet, um bestimmte Verhaltensweisen der Fledermäuse in dem Film Batmann II zu erzeugen. Terzopolous modellierte ausgesprochen realistische Verhaltensweisen von Fischen, die sich paaren und fressen, lernen und jagen. Diese Modelle wurden benutzt, um kurze, unterhaltsame Trickfilme zu machen . Zusätzlich zu den angeführten Arbeiten haben manche Forscher Agentenmodelle verwendet, um in Echtzeit interaktive Animationsysteme zu bauen. Die Woggles Welt von Bates ermöglicht es dem Benutzer, mit einer Welt von Lebewesen zu interagieren, die Woggles genannt werden. In dieser Pionierarbeit interagiert ein Benutzer mit der Welt und deren Kreaturen, indem er mit einer Maus und dem Keyboard direkt die Bewegungen und das Verhalten der Woggles steuert. Die Woggles haben verschiedene innere Bedürfnisse und eine große Bandbreite an Gefühlen, was zu ziemlich komplexen Interaktionen führt.
Fisher's Menagerie ermöglicht es dem Benutzer, mit den animierten Agenten in Echtzeit zu interagieren, indem er einen Cyberspace-Helm aufsetzt. Die Agenten der Menagerie führen normalerweise eine einzige komplizierte Verhaltensweise wie z.B. die Bildung einer Herde oder eines Schwarms aus. Tosa setzte neuronale Netzwerke für ein künstliches Baby ein, das auf gefühlsbetonte Weise auf Laute reagiert, die ein Benutzer macht, der in die Wiege schaut. Das ALIVE-System schließlich, das im Folgenden beschrieben wird, ermöglicht es dem Benutzer, eine virtuelle Welt zu betreten und seinen ganzen Körper zu benutzen, um mit animierten autonomen Agenten zu interagieren.
Zusätzlich zu den computeranimierten Agenten gibt es das bemerkenswert einfallsreiche Projekt Julia , einen autonomen Agenten, der in einem textbasierten MUSE-System lebt (Multi-User Simulation Environment). Julia kann sich in der Umwelt bewegen und diese kartieren, mit den Spielern sprechen, Unterhaltungen zuhören und später davon erzählen, Botschaften zwischen den Spielern übermitteln und diesen bei Navigationsproblemen helfen. Julia hat Stimmungen und Gefühle und nimmt Spielern gegenüber bestimmte Haltungen, überdies besitzt sie ein gutes Gedächtnis. Sie erinnert sich daran, was Spieler zu ihr gesagt haben, was sie ihr angetan haben, wann sie diese zuletzt getroffen hat, usw. (Transkripte von Interaktionen mit Julia . Sie ist ein Beispiel für das, was Maudlin ein Chatterbot genannt hat. Ein Chatterbot besitzt verschiedene Module, um mit den unterschiedlichen Funktionen umzugehen, die notwendig sind, um einen Spieler in einem MUD zu automatisieren. Das Konversationsmodul ist als vorgegebene Schicht von Miniexperten implementiert, die aus einer Menge von Verhaltensmustern und den damit verbundenen möglichen Antworten bestehen. Chatterbots gehen über das Programm Eliza von Weizenbaum hinaus, da sie eine größere Anzahl von "Tricks" benutzen und über ein höher entwickeltes Erinnerungvermögen an vergangene Ereignisse, Unterhaltungen usw. verfügen.
Um diese Unterhaltungsagenten zu entwerfen, müssen die gleichen grundlegenden Fragen beantwortet werden, die für jede Entwicklung im Bereich der Agenten zentral sind, nämlich Wahrnehmungsvermögen, Selektion von Verhaltensweisen, motorische Kontrolle, Anpassung und Kommunikation. Der Agent muß seine oft dynamische und nicht berechenbare Umwelt wahrnehmen, insbesondere wenn es einem Benutzer möglich ist, diese zu verändern. Der Agent muß entscheiden, was als nächstes zu tun ist, damit es einen Fortschritt für diejenigen Aufgaben gibt, zu deren Lösung er entworfen worden ist. Die entsprechenden Handlungen müssen in konkrete motorische Befehle umgewandelt werden. Mit der Zeit muß der Agent sein Verhalten auf der Grundlage seiner bisherigen Erfahrung ändern und verbessern. Schließlich muß der Agent in der Lage sein, mit anderen menschlichen oder künstlichen Agenten in der Welt zu kommunizieren.
Das Schlüsselproblem ist, eine Architektur zu finden, die all diese Funktionalitäten umfaßt und zu einem Verhalten führt, das schnell, reaktiv, adaptiv, robust, selbständig und nicht zuletzt lebensecht ist. Lebensechtes Verhalten ist nicht-mechanisch, nicht-vorhersehbar und spontan. Die Architekturen vieler der erwähnten erfolgreichen Unterhaltungsagenten zeigen eine erstaunliche Anzahl von Gemeinsamkeiten::
- Die Agenten sind als verteilte, dezentralisierte Systeme gebaut, die aus einfachen Kompetenzmodulen bestehen. Jedes Kompetenzmodul ist ein Experte für die Ausführung einer bestimmten, einfachen, aufgabenorientierten Tätigkeit. Es gibt weder eine zentrale Denkinstanz noch ein zentrales internes Modell. Die Module stehen miteinander durch extrem simple Botschaften in Kontakt. Jedes der Kompetenzmodule ist mit entsprechenden Sensoren und Effektoren verbunden. Als Ergebnis ist das erzeugte Verhalten robust, es paßt sich an Änderungen an und ist schnell und reaktiv. Komplexes Verhalten ist das Ergebnis von dynamischen Interaktionen (Rückkopplungsschleifen) auf drei verschiedenen Ebenen: der Interaktion zwischen Agenten und Umwelt, zwischen den verschieden Modulen innerhalb des Agenten und zwischen den verschiedenen Agenten. Ein einfaches Braitenberg-Geschöpf beispielsweise, das den Benutzer mag, kann so konstruiert werden, daß es sich auf ihn mit einer Geschwindigkeit zubewegt, die proportional zur Entfernung vom ihm ist. Als Beispiel einer komplexen Interaktion vieler Agenten demonstrieren Reynold's Geschöpfe den Herdentrieb durch einfache lokale Regeln, die von jedem Tier der Herde befolgt werden.
- Die Architektur umfaßt eine Vielzahl von redundanten Methoden für die gleiche Kompetenz. Viele Komplexitäts- und Intelligenzschichten sorgen für Fehlertoleranz, eine elegante Degradierung und Verhaltensweisen, die nicht mechanisch wirken. Julia verfügt beispielsweise über verschiedene Methoden der Antwort auf Äußerungen, die an sie gerichtet worden sind: Sie kann versuchen, die Äußerung zu verstehen und eine richtige Antwort zu generieren, oder sie kann, wenn das fehlschlägt, einen anderen in Hinsicht auf dasselbe Thema zitieren oder, wenn das auch fehlschlägt, mit einem anderen Thema beginnen.
Abgesehen von den Standardfragen der Forschung, erfordert die Konstruktion von Unterhaltungsagenten die Beschäftigung mit neuartigen Fragen (besonders mit denen der Künstlichen Intelligenz und ganz sicher mit denen des Künstlichen Lebens), z.B. wie Gefühle, Absichten, soziales Verhalten und Unterhaltung dargestellt werden sollen. Typischerweise sind diese Fragen noch wichtiger als die Aufgabe, den Agenten besonders intelligent zu machen, da, um Bates zu zitieren, "die tatsächliche Herausforderung darin besteht, einen konsistenten Anschein von Bewußtsein, Absicht und sozialer Beziehung zu erzeugen."
Obwohl diese Themen möglicherweise von entscheidender Bedeutung bei der Konstruktion und dem Verstehen von Intelligenz sein werden, sind sie bei der Künstlichen Intelligenz bisher noch kaum untersucht worden. Die Konstruktion von Agenten für den Unterhaltungsbereich zwingt den Forscher letztendlich dazu, sich mehr mit dem Benutzer zu beschäftigen. Der Forscher ist gezwungen, sich mit der Psychologie des Benutzers zu beschäftigen: Wie wird der typische Benutzer die virtuellen Figuren wahrnehmen? Welches Verhalten wird er zeigen? Welche Mißverständnisse und verwirrenden Situationen werden eintreten?
Andere Fachgebiete wie Mensch-Computer-Beziehungen, Animation, Soziologie, Literatur und Theater sind besonders hilfreich bei der Beantwortung dieser Fragen. Animation lehrt uns beispielsweise, daß der typische Benutzer Figuren, die sich schneller bewegen, als jünger, besser und intelligenter einschätzt. Literatur und Theater lehren uns, daß es für uns einfacher ist, stereotype Figuren zu erfassen als den Shrink im Programm Eliza.
Das ALIVE-Projekt
Die ausführliche Beschreibung eines bestimmten Projekts, das darauf ausgerichtet ist, Unterhaltungsagenten zu bauen, kann möglicherweise die Herausforderungen für die Forschung und die Anwendungsmöglichkeiten der Unterhaltungsagenten in einer überzeugenderen Weise darlegen. ALIVE ist eine virtuelle Umwelt, die drahtlose Ganzkörperinteraktion zwischen einem menschlichen Teilnehmer und einer virtuellen Welt ermöglicht, die von animierten autonomen Agenten bewohnt wird. ALIVE heißt "Artificial Life Interactive Video Environment". Eines der Ziele des ALIVE-Projektes ist es zu zeigen, daß virtuelle Umwelten "emotionalere" und eindrucksvollere Erfahrungen vermitteln, weil der Teilnehmer mit den animierten Figuren interagieren kann. Das ALIVE-System wurde auf verschiedenen öffentlichen Veranstaltungen vorgeführt und getestet.
Im Stil von Myron Krueger's Videoplace bietet das ALIVE-System eine uneingeschränkte Ganzkörperinteraktion mit der virtuellen Welt. Der Benutzer von ALIVE bewegt sich in einem Raum von etwa 16 x 16 Feet. Eine Videokamera fängt das Bild des Benutzers ein und baut es in eine 3D-Welt ein, nachdem es aus dem Hintergrund herausgelöst worden ist. Dieses Bild wird auf einen großen Schirm projiziert, der sich dem Benutzer gegenüber befindet und als eine Art magischer Spiegel funktioniert: der Benutzer sieht sich selbst, umgeben von verschiedenen Gegenständen und Agenten.
Für die Interaktion mit der virtuellen Welt sind weder Brille, Handschuhe noch Kabel notwendig. Computervisionstechniken werden benutzt, um Informationen über die Person zu erhalten, z.B. über seine 3D-Position, über die Position der verschiedenen Körperteile und über verschiedene einfache Bewegungen. ALIVE kombiniert aktives Sehen und Expertenwissen, um robuste Echtzeitdarstellung zu realisieren. Der Standort des Benutzers und seine Arm- und Körperbewegungen beeinflussen das Verhalten der Agenten. Der Benutzer erhält sichtbares und hörbares Feedback von den inneren Gefühlen und Reaktionen des Agenten. Die Agenten besitzen innere Bedürfnissen und Motivationen, verschiedene Sensoren, um ihre Umwelt wahrzunehmen, ein Repertoire von Handlungen, die sie ausführen können, und ein körperbezogenes motorisches System, das es ihnen erlaubt, sich in der Umwelt zu bewegen und darin zu handeln. Ein Verhaltensprogramm entscheidet in Echtzeit, welche Handlungen der Agent ausführt, um seine inneren Bedürfnisse zu befriedigen und um vorteilhaft auf die Möglichkeiten zu reagieren, die ihm der aktuelle Zustand seiner Umwelt bietet.
Das System ermöglicht nicht nur die offensichtliche, unmittelbar beeinflußbare Art der Interaktion, sondern auch eine kraftvollere, indirekte Art der Interaktion, in der die Bewegungen eine komplexere Bedeutung haben können. Die Bedeutung einer Bewegung wird vom Agenten aufgrund der Situation, in der er und der Benutzer sich befinden, interpretiert. Zeigt der Benutzer beispielsweise in eine bestimmte Richtung und schickt die Figur dadurch fort, bewegt sich die Figur an einen anderen Platz in der Umwelt, und zwar abhängig davon, an welcher Stelle der Benutzer steht (und in welche Richtung er zeigt). So kann eine verhältnismäßig kleine Anzahl von Gesten viele unterschiedliche Dinge in vielen unterschiedlichen Situationen bedeuten.
Das ALIVE-System enthält ein Werkzeug, das Hamsterdam genannt wird, um halb-intelligente autonome Agenten zu bauen, die miteinander und mit dem Benutzer interagieren können. Hamsterdam erzeugt Agenten, die bei jedem Zeitschritt, in Abhängigkeit von ihren inneren Bedürfnissen und Motivationen, ihrer Vergangenheit, der wahrgenommenen Umwelt und den ihr innewohnenden Möglichkeiten, Herausforderungen und Veränderungen, mit einer relevanten Handlung antworten. Darüber hinaus sind die Muster und der Rhythmus der gewählten Handlungen so, daß die Agenten weder zwischen mehreren Tätigkeiten hin- und herwechseln, noch zu lange in einer einzelnen einfachen Tätigkeit verharren.
Sie können jede Tätigkeit unterbrechen, wenn ein dringenderes Bedürfnis auftritt oder sich eine unvorhergesehene Möglichkeit ergibt. Das Hamsterdamsche Handlungsmodell basiert auf Verhaltensmodellen von Tieren, die von Verhaltensforschern vorgeschlagen worden sind. Insbesondere haben verschiedene, von Verhaltensforschern vorgeschlagene Konzepte wie Verhaltenshierarchien, Auslöser, Ermüdung usw. gezeigt, daß sie für robustes und flexibles Verhalten, das für die autonomen interaktiven Agenten notwendig ist, entscheidend sind. Das ALIVE-System zeigt, daß animierte Figuren, die auf Modellen des Künstlichen Lebens beruhen, überzeugend wirken können ( d.h. sie schalten Zweifel aus).
Wird Hamsterdam beim Bau eines Agenten verwendet, so legt der Designer die Sensoren des Agenten, seine Motivation, seine inneren Bedürfnisse, seine Aktivitäten und Handlungen fest. Mit diesen Informationen entscheidet Hamsterdam automatisch, welche Aktivitäten zu welchem Zeitpunkt für den Agenten am wichtigsten sind, entsprechend seinem Zustand, der Situation, in der er sich befindet, und seinem Verhalten unmittelbar zuvor. Das beobachtete Verhalten oder die Handlungen des Agenten sind das Ergebnis zahlreicher Handlungen, die um die Kontrolle des Agenten konkurrieren. Sie konkurrieren auf der Basis des Wertes einer gegebenen Tätigkeit des Agenten in einem bestimmten Moment, entsprechend der wahrgenommenen Umwelt, der inneren Bedürfnisse des Agenten und der unmittelbaren Vergangenheit des Agenten.
Das ALIVE-System besteht aus verschiedenen virtuellen Welten, zwischen denen der Benutzer wechseln kann, indem er einen virtuellen Knopf drückt. Jede Welt wird von unterschiedlichen Agenten bewohnt: eine Welt wird von einer Puppe bewohnt, eine zweite von einem Hamster und einem Raubvogel und eine dritte von einem Hund. Die Puppe folgt dem Benutzer (in 3D) und versucht seine Hand zu halten. Sie imitiert auch einige Tätigkeiten des Benutzers (hinsetzen, springen, usw.). Sie entfernt sich, wenn er wegzeigt, und kommt zurück, wenn er winkt. Die Puppe setzt verschiedene Gesichtsausdrücke ein, um ihren inneren Zustand zu zeigen. Sie schmollt beispielsweise, wenn der Benutzer sie wegschickt, sie lächelt, wenn sie zurückgerufen wird, und sie kichert, wenn er ihren Bauch berührt. Der Hamster umgeht Gegenstände, folgt dem Benutzer und bettelt um Nahrung.
Der Hamster legt sich auf den Rücken, um sich den Bauch kraulen zu lassen, wenn der Benutzer sich niederbeugt, um ihn zu streicheln. Hat der Benutzer den Hamster für eine Weile gestreichelt, ist sein Bedürfnis nach Aufmerksamkeit erfüllt und eine andere Tätigkeit erhält Vorrang (z.B. Nahrungssuche). Der Benutzer kann den Hamster füttern, wenn er Essen von einem virtuellen Tisch nimmt und es auf den Boden legt. Der Benutzer kann den Raubvogel aus dem Käfig in die Welt des Hamsters eintreten lassen. Der Raubvogel versucht den Hamster zu jagen und ihn zu töten. Der Raubvogel hält den Benutzer auch für einen Raubvogel und versucht, ihn zu vermeiden und vor ihm zu fliehen. Je hungriger er jedoch wird, um so kühner wird er, und wagt es, dem Benutzer näher zu kommen. Sowohl der Raubvogel als auch der Hamster können ihre verschiedenen inneren Bedürfnisse aufeinander abstimmen (den Raubvogel vermeiden, Nahrung finden, nicht in Hindernisse laufen usw.).
Die intelligenteste Figur, die bisher entwickelt worden ist, ist der Hund Silas. Das Repertoire von Silas erstreckt sich bislang auf folgende Verhaltensweisen: Er folgt dem Benutzer, setzt sich hin (wenn der Benutzer das befiehlt), geht weg (wenn der Benutzer ihn wegschickt) und führt andere Tricks aus. Er springt, holt einen Ball, legt sich nieder und schüttelt sich. Er jagt auch den Hamster, wenn dieser in seine Welt eingeführt wird. Zusätzlich zu den visuellen Sensoren und dem Feedback werden in der Hundewelt auch einfache Toninputs und -outputs verwendet. Dem Benutzer gegenüber ist ein Richtungsmikrophon angebracht. Das daraus resultierende Signal wird einem einfachen Pitch Tracker zugeführt. Hohe Töne (z.B. Händeklatschen, Pfeifen, schrille Stimmen) und tiefe Töne (leise Stimme) werden entsprechend als positive und negative Inputs vom Benutzer an den Hund interpretiert. Der Hund gibt auch hörbare Outputs wieder, die aus einer Reihe von eingegebenen Muster bestehen.
- 1. Durch die Beobachtung Tausender von Benutzern, die mit den Agenten von ALIVE interagiert haben, wurde einiges gelernt. Die Gesten, die der Benutzer ausführen kann, sollten intuitiv in die Domäne passen und ein unmittelbares Feedback liefern. Für Designer von Benutzerschnittstellen wird letzteres selbstverständlich sein, für die Forscher auf dem Gebiet des Künstlichen Lebens und der Künstliche Intelligenz ist es das nicht. Beispiele für natürliche Gesten sind Streicheln von Tieren oder Fortschicken und Winken für die virtuelle Puppe. Immer dann, wenn ein Agent eine Geste erfolgreich erkannt hat, sollte der Benutzer sofort ein Feedback entweder in der Form einer Bewegung und/oder als Gesichts- oder Körperausdruck erhalten (der Hamster rollt sich beispielsweise auf den Rücken, wenn er gestreichelt wird, die Puppe lächelt, wenn sie gekitzelt wird usw.). Das hilft dem Benutzer, Verständnis für den Umfang der erkannten Gesten zu entwickeln.
- 2. Selbst wenn die Gesten der Umwelt angepaßt sind, ist es notwendig, einen menschlichen Führer zu haben, der dem Benutzer Hinweise gibt, was er tun könnte ( "Versuchen Sie den Hamster zu streicheln", "Die Puppe wird weggehen, wenn Sie diese wegschicken" usw.). Das derzeitige ALIVE-System hat einen künstlichen Führer, der als ein weiterer autonomer Agent eingeführt ist, um eine spezielle Rolle zu erfüllen: Er beobachtet den Benutzer, speichert welche Interaktionen der Benutzer mit der Welt hat und macht gelegentlich Vorschläge, dabei spricht er oder bedient sich der entsprechenden Gesten. Der Führer in der virtuellen Welt ist ein Papagei, weil man von einem Papagei erwartet, daß er spricht, nicht aber daß er Sprache versteht.
- 3. Benutzer sind tolerant gegenüber unvollkommenem Verhalten der Agenten (im Gegensatz zu dem von Gegenständen) wie Verzögerungen und gelegentliches falsches oder fehlerhaftes Erkennen. Das Vorhandensein von Agenten veranlaßt die Menschen, angemessene Erwartungen an die Leistung des Sensorsystems zu stellen. Wir haben gelernt, daß die Menschen erwarten, daß virtuelle, unbewegliche Gegenstände verläßlich arbeiten, d.h. die Reaktion des Gegenstandes muß unmittelbar, vorhersehbar und gleichbleibend geschehen. Andererseits nehmen die Menschen an, daß Tiere oder menschenähnliche Agenten Wahrnehmungsvermögen besitzen und sich in einem Zustand befinden, und können so akzeptieren, daß der Agent etwas nicht bemerkt. Deshalb können Gesten, die schwer zu erkennen sind, wie z. B. Winken, erfolgreich im Zusammenhang mit Agenten eingesetzt werden (ein Agent mag nicht gesehen haben, daß der Benutzer winkt). Dieselbe Geste aber würde den Benutzer frustrieren, wenn sie bei unbeweglichen Gegenständen eingesetzt würde, z.B. einem Schalter.
- 4. Es ist wichtig, die Motivation und die Gefühle des Agenten in den äußeren Gesichtszügen des Agenten sichtbar zu machen. Eine hochentwickelte Figur wie beispielsweise Silas der Hund wird mit seinen Augen führen, d.h. er dreht sich um, um einen Gegenstand oder eine Person anzuschauen, ehe er tatsächlich zu dem Gegenstand oder dem Menschen hingeht (beispielsweise um den Gegenstand zu nehmen oder die Person aufzufordern, mit ihm zu spielen). Führt eine Figur nicht mit den Augen, so wirkt ihr Verhalten mechanisch und deshalb nicht sehr lebensecht. Motivation und Gefühle müssen auch deswegen sichtbar gemacht werden, weil der Benutzer, wenn er die inneren Variablen nicht erkennen kann, die das Verhalten des Agenten bestimmen, sonst möglicherweise verwirrt oder verärgert wird. Wenn Silas beispielsweise hungrig ist, gehorcht er vielleicht nicht. Also ist es wichtig, daß der Benutzer erkennt, daß Silas hungrig ist, damit er versteht, warum Silas jetzt anders reagiert als vor wenigen Minuten.
- 5. Die entscheidende Lektion bestand schließlich in der Erkenntnis, daß es für die Gestaltung einer attraktiven immersiven Umwelt nicht so wichtig ist, wie eindrucksvoll die Graphiken, sondern wie bedeutungsvoll die Interaktionen sind, die der Benutzer ausführen kann. ALIVE-Benutzer haben bereichtet, daß sie ein großes Vergnügen mit dem System und den Interaktionen mit den Figuren hatten. Besonders scheinen sie Welten zu schätzen, die von gefühlvollen Agenten bewohnt werden, mit denen der Benutzer eine Gefühlsbeziehung eingehen kann. Von den Gesichtszügen der Puppe waren die Benutzer beispielsweise sehr angetan. Sie fühlten sich schlecht, wenn ihre Handlungen die Puppe veranlaßten zu schmollen, und sie freuten sich, wenn die Puppe lächelte.
Das ALIVE-System beweist, daß der Bereich der Unterhaltung ein herausforderndes und interessantes Gebiet für die AA-Forschung sein kann. ALIVE liefert eine neue Umwelt, um Architekturen für intelligente autonome Agenten zu studieren. Als Prüfstand für Agentenarchitekturen vermeidet sie die Probleme, die bei wirklichen Hardware-Agenten oder Robotern entstehen, aber sie zwingt uns gleichzeitig dazu, uns mit so wichtigen Problemen wie lauten Sensoren und einer unvorhersehbaren, schnell wechselnden Umwelt zu beschäftigen. ALIVE ermöglicht uns, Agenten mit einer höheren Ebene des Erkenntnisvermögens zu studieren, ohne die Welt, in der die Agenten leben, übermäßig vereinfachen zu müssen.
ALIVE ist nur der Anfang einer ganzen Reihe von neuartigen Anwendungsmöglichkeiten, die mit einem solchen System erforscht werden können. Zur Zeit untersuchen wir ALIVE auf die Möglichkeit der Anwendung im Bereich des interaktiven Geschichtenerzählens. Der Benutzer spielt eine Figur in der Geschichte, und alle anderen Figuren sind künstliche Agenten, die daran mitarbeiten, daß die Geschichte sich weiterentwickelt. Ein weiteres naheliegendes Anwendungsgebiet von ALIVE auf dem Gebiet der Unterhaltung sind Videospiele. Wir haben das sichtbasierte Interface von ALIVE mit existierenden Videospielen verbunden, damit der Benutzer die Spiele mit seinem ganzen Körper steuern kann. Außerdem untersuchen wir, wie autonome Videospielfiguren lernen können und mit der Zeit ihre Fähigkeiten verbessern, damit das Spiel für den Spieler interessant bleibt. Schließlich entwickeln wir animierte Figuren, die dem Benutzer eine körperliche Fähigkeit in einer personalisierten Weise lehren. Der Agent ist als persönlicher Trainer entworfen, der dem Benutzer zeigt, wie er eine Tätigkeit auszuüben hat, und er gibt dem Benutzer ein personalisiertes und zeitliches Feedback, dem sinnliche Informationen über die Gesten des Benutzers und seine Körperstellungen zugrundeliegen.
Schlußfolgerung
In letzter Zeit entwickelte Systeme wie die Woggles, Neurobaby, der Fisch von Terzopoulos, Julia und ALIVE zeigen, daß der Bereich Unterhaltung ein vergnügliches und herausforderndes Anwendungsgebiet für die AA-Forschung ist. Gleichzeitig zeigen diese frühen Experimente aber auch, daß dieses Anwendungsgebiet einen interdisziplinäreren Ansatz erfordert, der Erkenntnisse aus den Geisteswissenschaften mit den Computermodellen verbindet, die in der Künstlichen Intelligenz und im Künstlichen Leben entwickelt wurden.
Der Beitrag von Patti Maes "Artificial Life meets Entertainment: Lifelike Autonomous Agents" ist zuerst in dem Special Issue on New Horizons of Commercial and Industrial AI, Vol. 38, No.11, Communications of the ACM, November 1995, erschienen.
Literatur Aus dem Englischen übersetzt von Florian Rötzer