Die Zukunft der Kontrolle

Künstliches Leben im Film - die Verselbständigung der Simulationen

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

In seinem Buch Out of Control, das jetzt in deutsch unter dem Titel "Das Ende der Kontrolle" beim Bollmann Verlag erscheint, versucht Kevin Kelly, Chefredakteur von WIRED, die Grundlagen einer bio-technologischen Zivilisation auszuarbeiten. Unsere Techniken, so seine These, ähneln immer mehr biologischen Organismen und werden selbständiger. Daher kommt es zu einem Ende der Kontrolle. Wie es in der Zukunft zwischen Menschen und seinen Geschöpfen, beginnend mit animierten Zeichentrickfiguren bis hin zu synthetischen Schauspielern, zugehen könnte, stellt Kelly in seinem Kapitel über Künstliches Leben im Film dar.

Lebensechte Simulationen - die Physik der Zeichentrickfiguren

Das Beste an den Dinosauriern in dem Spielfilm Jurassic Park ist, daß sie genügend künstliches Leben besitzen, um als Zeichentrickdinos in einem Film Marke Familie Feuerstein wiederverwendet werden zu können.

Sie werden natürlich nicht genau dieselben sein. Sie werden zahmer, länger, runder und folgsamer sein. Aber im Dino wird das digitale Herz des Tyrannosaurus und Velocyraptor schlagen - verschiedene Körper, aber dasselbe Dinosaurertum. Mark Dippe, der Zauberer von Industrial Light and Magic, der die virtuellen Dinosaurier erfand, braucht nur die Einstellungen in den digitalen Genen der Kreaturen zu verändern, um sie in knuddelige Haustiere zu verwandeln, ohne daß sie etwas von ihrer überzeugenden Leinwandpräsenz einbüßen.

Dennoch sind die Dinosaurier aus Jurassic Park Zombies. Sie haben wunderbar simulierte Körper, aber es fehlt ihnen ein eigenständiges Verhalten, ein eigener Wille, ein eigener Antrieb zum Überleben. Sie sind geisterhafte Stockpuppen, die von Computeranimatoren geführt werden. Eines Tages jedoch werden die Dinosaurier vielleicht zu Pinocchios, die ein eigenes Leben haben.

Bevor die Dinosaurier des Jurassic Park in die photorealistische Welt eines Spielfilms eingeführt wurden, lebten sie in einer leeren Welt, die aus nur drei Dimensionen bestand. In diesem Traumland - stellen wir es uns als den Ort vor, an dem die fliegenden Logos der Fernsehstationen leben - gibt es Ton, Licht und Raum, aber nicht viel mehr. Wind, Gravitation, Trägheit, Reibung, Steifheit und all die kleinen Eigenheiten der materiellen Welt fehlen und müssen von einfallsreichen Trickfilmern künstlich erzeugt werden.

"In der traditionellen Trickfilmtechnik muß alles Wissen über Bewegungsabläufe aus dem Kopf des Zeichners kommen", sagt Michael Kass, Entwickler von Computergrafiken bei Apple. Als Walt Disney beispielsweise zeichnete, wie Micky Maus auf ihrem Hintern die Treppe runterhüpfte, stellte Disney auf Zeichenpapier die Gesetze der Erdanziehung dar, wie sie seiner Wahrnehmung nach funktionierten. Micky gehorchte Disneys Vorstellungen der Bewegungsabläufe, ob sie nun realistisch waren oder nicht. Meistens waren sie es nicht, aber das machte schon immer ihren Reiz aus. Viele Zeichner übertrieben, veränderten oder ignorierten die physikalischen Gesetze der realen Welt, um die Lacher auf ihrer Seite zu haben. Aber der gegenwärtige Kinostil setzt rigoros auf Realismus. Das moderne Publikum will, daß E.T.'s fliegendes Fahrrad wie ein "echtes" fliegendes Fahrrad reagiert und nicht, als ob es einem Trickfilm entstammte.

Kass versucht, die Physik in die simulierten Welten einzubauen. "Wir erinnerten uns an die Tradition, daß der Zeichner die physikalischen Gesetze im Kopf hatte, und beschlossen, daß statt dessen der Computer über einiges physikalisches Wissen verfügen sollte."

Beginnen wir etwa beim Traumland der fliegenden Logos. Eines der Probleme mit dieser einfachen Welt ist laut Kass der Umstand, daß "die Dinger aussehen, als ob sie überhaupt kein Gewicht hätten". Um diese Welt realistischer zu gestalten, könnten wir den Objekten Masse und Gewicht und ihrer Umwelt Schwerkraft verleihen, so daß ein fliegendes Logo, das zu Boden stürzt, mit derselben Beschleunigung fällt wie ein echtes Logo, das auf die Erde plumpst. Die Gravitationsgleichung ist sehr einfach, und sie in eine kleine Welt einzupflanzen nicht schwierig. Wir könnten dem animierten Logo noch eine Sprungformel beigeben, so daß es "aus eigener Kraft" ganz natürlich vom Boden zurückspringt. Es folgt der Schwerkraft und den Regeln kinetischer Energie und Reibung, die seine Bewegung verlangsamen. Man kann ihm auch eine gewisse Steifheit verleihen - etwa die von Kunststoff oder Metall -, so daß es bei einem Zusammenprall realistisch reagiert. Das Endergebnis vermittelt den Eindruck einer Realität, in der ein Chrom-Logo auf den Boden schlägt und in immer kleiner werdenden Sätzen zurückschnellt, bis es klirrend zur Ruhe kommt.

Wir könnten damit fortfahren, zusätzliche Formeln physikalischer Gesetze anzuwenden, wie Elastizität, Oberflächenspannung oder Dreheffekte, und diese der Umwelt einzuschreiben. Indem wir die Komplexität der künstlichen Umwelten steigern, werden diese zum fruchtbaren Boden für synthetisches Leben.

Deshalb waren die Dinosaurier des Jurassic Parc so lebensecht. Wenn sie ihre Beine hoben, mußten sie ihr virtuelles Körpergewicht überwinden. Ihre Muskeln spannten sich an und entspannten sich. Berührten sie wieder den Boden, so aus Gründen der Schwerkraft, und das Auftreten der Füße setzte sich in der Beinbewegung fort.

Die sprechende Katze aus dem Disney-Film Hocus Pocus, der im Sommer 1993 in die Kinos kam, war eine virtuelle Figur, die den Dinosauriern ähnelte - allerdings in Nahaufnahme. Die Trickfilmer bauten eine digitale Katzenform und "pausten" ihre Fellmaserung von einer fotografierten Katze ab, der sie bis auf ihre bemerkenswerten Reden zum Verwechseln ähnlich war. Ihre Mundbewegungen waren von einem Menschen abgepaust. Das Ding war ein virtueller Katzen-Mensch-Hybrid.

Ein Kinopublikum sieht, wie Herbstlaub die Straße hinabweht. Das Publikum bemerkt nicht, daß es sich bei der Szene um eine Computeranimation handelt. Das Geschehen sieht echt aus, weil das Video aus etwas Echtem besteht: einzelne virtuelle Blätter, die von einem virtuellen Wind eine virtuelle Straße hinabgeweht werden. Wie bei Reynolds virtuellen Fledermausscharen gibt es eine Unmenge echter Dingen, die an einem Ort, an dem physikalische Gesetzen gelten, tatsächlich von einer Kraft vorwärtsgetrieben werden. Die virtuellen Blätter besitzen Eigenschaften wie Gewicht, Form und Oberfläche. Werden sie einem virtuellen Wind ausgesetzt, folgen sie einer Reihe von Gesetzen, die den realen Gesetzen, welche realen Blätter befolgen, analog sind. Das Verhältnis aller Teile untereinander ist so real wie ein Tag in Neuengland, obwohl der Mangel an Detailtreue keine glaubwürdigen Nahaufnahmen zuläßt. Die verwehten Blätter sind weniger gezeichnet als einfach losgelassen.

Animationen ihrer eigenen Physik folgen zu lassen ist die neue Rezeptur des Realismus. Wenn sich der Terminator II aus einer Lache von geschmolzenem Chrom erhebt, wirkt das erstaunlich überzeugend, weil das Chrom den physikalischen Zwängen von Flüssigkeiten (wie etwa der Oberflächenspannung) in einem vergleichbar funktionierenden Universum gehorcht. Es ist eine Flüssigkeit, als Simulation.

Kass und Gavin Miller, sein Kollege bei Apple, entwarfen Computerprogramme, welche die Art und Weise, in der Wasser einen seichten Flußlauf hinabrinnt oder als Regen in eine Pfütze fällt, in allen Feinheiten wiedergeben konnten. Sie statteten ein simuliertes Universum mit den Gesetzen der Hydrologie aus, indem sie die Formeln mit einer Animationsmaschine verschalteten. Ihre Videoclips zeigen eine flache Welle, die bei weichem Licht über eine trockene sandige Küste rollt, sich in der unregelmäßigen Weise echter Wellen bricht, dann zurückweicht und nassen Sand zurückläßt. In Wirklichkeit handelt es sich dabei nur um Gleichungen.

Design des Lebendigen

Um diese digitalen Welten in der Zukunft tatsächlich funktionieren zu lassen, muß alles dafür Geschaffene auf Gleichungen reduziert werden. Nicht nur Dinosaurier und Wasser, sondern letztlich auch die Bäume, auf denen die Saurier herumkauen, die Jeeps (die in einigen Szenen von Jurassic Park digital waren), Gebäude, Kleidung, Eßtische und das Wetter. Würde dies nur der Filme wegen geschehen, geschähe es überhaupt nicht. Aber jedes fabrizierte Stück wird in naher Zukunft computerunterstützt designt und hergestellt werden. Schon heute werden Teile von Automobilen zunächst auf Computerbildschirmen simuliert; später dann wird die entsprechende Gleichung direkt an die Dreher und Schweißer in den Fabriken übermittelt, die den Zahlen ihre endgültige Form geben. Eine neue Weise der industriellen Fertigung, vollautomatisierte Produktion genannt, erhält die Daten aus der CAD-Anwendung und erzeugt unmittelbar einen dreidimensionalen Prototyp aus Metall oder flüssigem Kunststoff. Zunächst besteht ein Objekt nur aus Linien auf dem Bildschirm; dann ist es ein massiver Gegenstand, den man in die Hand nehmen und um den man herumgehen kann. Anstatt die Zeichnung einer Schaltung zu drucken, "druckt" die automatische Fertigung die tatsächliche Schaltung selbst. In dringenden Fällen werden Ersatzteile für Fertigungsmaschinen heute in extra hartem Kunststoff direkt in der Fabrik kopiert; sie halten solange, bis das Originalersatzteil eintrifft.

In nicht allzu ferner Zukunft wird der kopierte Gegenstand das Originalersatzteil sein. John Walker, der Gründer des weltweit ersten CAD-Programms, Auto-CAD, äußerte sich gegenüber einem Reporter: "Beim CAD geht es um den Modellbau von Objekten aus der wirklichen Welt im Computer. Ich glaube, zur gegebenen Zeit wird jeder Gegenstand in der Welt, ob er künstlich hergestellt ist oder nicht, im Computer modelliert werden. Das ist ein sehr, sehr großer Markt. Er umfaßt alles."

Inklusive der Biologie. Blumen können bereits in Computern modelliert werden. Przemyslaw Prusinkiewicz, Informatiker an der University of Calgary in Kanada, verwendet ein mathematisches Modell des pflanzlichen Wachstums, um dreidimensionale virtuelle Blumen zu erzeugen. Offensichtlich folgt der Großteil des Pflanzenwuchses einigen wenigen einfachen Gesetzen. Die Zeichen für das Blühen mögen kompliziert sein. Der Blühvorgang mag von mehreren interagierenden Nachrichten bestimmt sein. Aber diese interagierenden Signale lassen sich relativ einfach in einem Programm kodieren.

Die Mathematik des Pflanzenwuchses wurde 1968 von dem Biotheoretiker Aristid Lindenmeyer ausgearbeitet. Seine Gleichungen formulierten den Unterschied zwischen einer Gartennelke und einer Rose. Er läßt sich auf eine Reihe von Variablen in einem numerischen Samen reduzieren. Eine vollständige Pflanze belegt vielleicht nur ein paar Kilobytes auf einer Festplatte - so klein wie ein Samenkorn. Wenn das Samenkorn vom Computerprogramm entpackt wird, wächst eine Blumengrafik auf dem Bildschirm. Zuerst sprießt ein grünes Keimblatt, Blätter entrollen sich, eine Knospe nimmt Form an, und dann, im richtigen Moment, geht die Blüte auf. Prusinkiewicz und seine Studenten haben die botanische Literatur durchgeackert, um herauszufinden, wie Blumen mit mehreren Blütenständen erblühen, oder wie ein Gänseblümchen entsteht und wie eine Ulme oder Eiche die für sie typischen Astgabeln ausbildet. Sie stellten außerdem algorithmische Wachstumsgesetze für Hunderte von Seemuscheln und Schmetterlingen zusammen. Die grafischen Ergebnisse überzeugen vollkommen. Das Standbild eines der von Prusinkiewicz im Computer gezogenen spanischen Fliederzweige mit seinen Myriaden von Blüten könnte als Foto in einem Saatgutkatalog verwendet werden.

Anfänglich war es eine unterhaltsame akademische Beschäftigung, aber mittlerweile wird Prusinkiewicz von Gartenbauexperten bedrängt, die alle seine Software wollen. Sie würden eine Menge Geld für ein Programm ausgeben, das ihren Kunden zeigt, wie ihre Gartenentwürfe in zehn Jahren oder schon im kommenden Frühling aussehen werden.

Die beste Methode, eine lebende Kreatur zu kopieren, ist, so dachte Prusinkiewicz, sie zu züchten. Die Wachstumsgesetze, die er aus der Biologie extrapoliert und dann in eine virtuelle Welt eingesetzt hat, werden dazu verwendet, Bäume und Blumen für Filmkulissen anzubauen. Als Umwelt eignen sie sich wunderbar für Dinosaurier und andere digitale Charaktere.

BrØderbund Software, ein ehrwürdiger Verlag, der Unterrichtssoftware für Personalcomputer verlegt, vertreibt ein Programm, das physikalische Kräfte modelliert - eine neue Lernmethode für den Physikunterricht. Wenn man das Physikprogramm auf seinem Macintosh aufruft, startet ein Miniaturplanet, der die Sonne auf dem Computerbildschirm umrundet. Der virtuelle Planet gehorcht den Kräften von Schwerkraft, Bewegung und Reibung, die in das Miniaturuniversum eingeschrieben sind. Indem die Schüler mit Kräften wie Impuls und Gravitation spielen, können sie ein Gefühl dafür entwickeln, wie die Physik des Sonnensystems funktioniert.

Wie weit können wir damit gehen? Wenn wir immer weitere Kräfte hinzufügten, denen der Miniaturplanet gehorchen müßte - wie elektrostatische Anziehung, Magnetismus, Reibung, Thermodynamik und Rauminhalt -, wenn wir jede einzelne Erscheinung, die wir in der realen Welt sehen, in dieses Programm integrierten, welche Art von Sonnensystem würden wir dann am Ende im Computer erhalten? Wenn man einen Computer dazu verwendet, das Modell einer Brücke zu entwerfen - mit allen Kräften, die durch die Stahlkonstruktion, durch Wind und Schwerkraft auf sie einwirken - könnten wir dann je zu dem Punkt gelangen, an dem sich behaupten ließe, wir hätten eine Brücke im Computer? Und ließe sich das auch mit dem Leben machen?

So schnell die Physik auch in die digitalen Welten vordringt, das Leben greift noch schneller auf sie über. Um zu sehen, wie weit das generierte Leben in das computerisierte Kino eingesickert ist und mit welchen Folgen, unternahm ich eine Reise durch die Trickfilmstudios auf dem neuesten Stand der Technik ...

Die Geburt eines Synthespian

Micky Maus ist eine der Vorfahren des künstlichen Lebens. Micky, die heute 66 Jahre alt ist, wird sich bald dem digitalen Zeitalter stellen müssen. In einem der dauerhaft "provisorischen" Gebäude in einem abgelegenen Teil der Glandale Studios von Disney plant der Aufsichtsrat behutsam die Automation von animierten Figuren und Hintergründen. Ich sprach mit Bob Lambert, dem Leiter für Technologieforschung in Disneys Trickfilmabteilung.

Das erste, was Bob Lambert mir gegenüber klarstellte, war, daß Disney keine Eile habe, die Trickfilmerei vollständig zu automatisieren. Trickfilm war ein Handwerk, eine Kunst. Das größte Kapital des Disney-Konzerns lag in diesen Fertigkeiten, und seine Kronjuwelen - Micky Maus und seine Freunde - wurden vom Publikum als mustergültige Kunstwerke angesehen. Wenn Computeranimation irgend etwas mit den Holzrobotern zu tun haben sollte, die die Kinder samstags morgens in den Zeichentrickserien sehen, dann wollte Disney nichts damit zu tun haben. Lambert: "Wir können darauf verzichten, daß die Leute sagen: ‚Da wird schon wieder ein Kunsthandwerk vom schwarzen Computerloch geschluckt'."

Das zweite, was Lambert klarstellen wollte, war, daß die Herstellung der legendären Disney-Filme seit 1990 bereits teilweise automatisiert vor sich gegangen war. Schrittweise digitalisierten sie ihre Welten. Ihre Trickfilmer hatten verstanden, daß diejenigen, die ihre künstlerische Intelligenz nicht vom Kopf in eine beinahe lebendige Simulation überführten, bald in einem anderen Sinne zu Dinosauriern würden. "Ehrlich gesagt", fuhr Lambert fort, "verlangten unsere Trickfilmer seit 1992 lautstark danach, Computer verwenden zu können."

Das riesige Uhrwerk in dem Disney-Film Der große Mäusedetektiv war das computergenerierte Modell einer Uhr, über das von Hand gezeichnete Figuren liefen. In Rescuers Down Under tauchte der Albatros Oliver in ein virtuelles New York ein, eine vollständig computergenerierte Umwelt, die aus einer großen Datenbank mit New Yorker Gebäuden erzeugt wurde, welche eine große Baufirma aus kommerziellem Interessen zusammengestellt hatte. Und in Die kleine Meerjungfrau begegnete Ariel simulierten Fischschwärmen, Seegras, das sich selbständig hin und herwiegte, und Luftblasen, die dank physikalischer Gesetze aufstiegen.

Die erste völlig papierlose Disney-Figur war der fliegende (laufende, Zeichen gebende, springende) Teppich in Aladin. Um ihn herzustellen, wurde die Form eines persischen Teppichs auf einem Computerbildschirm wiedergegeben. Der Animator legte seine Einstellungen fest, indem er den Cursor bewegte, der Computer baute dann die "dazwischenliegenden" Einzelbilder auf. Anschließend wurde die digitalisierte Teppichbewegung in die digitalisierte Version des handgezeichneten Films eingefügt. In König der Löwen gibt es mehrere Tiere, die in der Art der Dinosaurier aus Jurassic Park computergeneriert sind, darunter auch einige Tiere mit halbwegs selbständigen Verhaltensmustern von Herden oder Schwärmen. Zum Zeitpunkt, als ich dieses Buch schrieb, arbeitete Disney gerade am ersten vollständig digitalen Trickfilm. Er ist in der Hauptsache die Arbeit des ehemaligen Disney-Zeichners John Lassiter. Fast die gesamte Computeranimation wurde von Pixar gemacht, einem kleinen, innovativen Studio, das sich in einem umgebauten Gewerbepark im kalifornischen Richmond Point befindet.

Ich stattete Pixar einen Besuch ab, um zu sehen, welche Art von künstlichem Leben dort ausgebrütet wurde. Pixar hat vier Wettbewerbspreise für kürzere Computeranimationen gewonnen, die Lassiter gemacht hat. Lassiter liebt es, Objekte zu animieren, die normalerweise leblos sind - ein Fahrrad, ein Spielzeug, eine Lampe oder Nippes, der im Regal steht. Zwar gelten die Filme von Pixar unter Computergrafikern als die technisch ausgereiftesten Computeranimationen, doch ist zumindest der gezeichnete Anteil auch hier handgefertigt. Anstelle eines Bleistifts verwendet Lassiter beim Malen einen Cursor, um seine vom Computer dreidimensional wiedergegebenen Objekte zu verändern. Möchte er etwa, daß ein Spielzeugsoldat traurig wirkt, bewegt er den Cursor auf das glückliche Gesicht der Figur auf dem Computerbildschirm und zieht die Mundwinkel der Zeichnung nach unten. Nach einer ersten Bewertung des Gesichtsausdrucks entscheidet er vielleicht, daß die Augenbrauen des Spielzeugsoldaten nicht ganz so schnell nach unten fallen sollten oder daß seine Augen zu langsam blinzeln. Also verändert er die digitalisierte Form mit Hilfe des Cursors. "Ich kenne keinen anderen Weg, um ihm zu sagen, wie er mit seinem Mund beispielsweise so machen soll", sagt Lassiter, indem er seinen Mund zu einem O als Ausdruck spöttischer Verblüffung verzieht, "der auch nur etwas schneller oder besser wäre, als es selbst zu tun".

Ich fragte die Künstler von Pixar, ob sie sich eine selbständige Computerfigur zumindest vorstellen könnten - einen Drehbuchentwurf einzufüttern und einen digitalen, Unheil stiftenden Daffy Duck herauszubekommen. Einmütige ernste Verneinung und Kopfschütteln waren die Antwort. "Wenn es ausreichen würde, ein Drehbuch in einen Computer einzugeben, um eine glaubwürdige Figur zum Leben zu erwecken, dann gäbe es auf der Welt keine schlechten Schauspieler", sagte Guggenheim. "Aber wir wissen, daß nicht alle Schauspieler großartig sind. Man kann Elvis- und Marilyn Monroe-Darsteller jederzeit und überall sehen. Warum fallen wir nicht auf sie herein? Weil Schauspieler eine komplexe Aufgabe zu erfüllen haben. Sie müssen wissen, wann sie mit dem rechten Mundwinkel zu zucken oder wie sie ein Mikrofon zu halten haben. Wenn so etwas einem menschlichen Schauspieler schon Schwierigkeiten bereitet, wie soll diese Aufgabe dann ein Computerdrehbuch lösen?"

Die gestellte Frage ist die nach der Kontrolle. Es zeigt sich, daß das Geschäft mit Spezialeffekten und Animation ein Wirtschaftszweig von Kontroll-Freaks ist. Sie glauben, daß die Feinheiten der Schauspielerei so winzig klein sind, daß nur ein menschlicher Aufseher die Entscheidungsmöglichkeiten einer digitalen oder gezeichneten Figur lenken kann. Sie haben recht.

Aber morgen werden sie nicht mehr recht haben. Wenn sich die Leistungsfähigkeit von Computern weiterhin so steigert, wie es bisher der Fall gewesen ist, werden wir innerhalb der nächsten fünf Jahre eine Figur zu Gesicht bekommen, einen Filmstar, der durch Übertragung synthetischen Verhaltens auf einen synthetischen Starkörper erzeugt wurde.

An den Dinos in Jurassic Park wurde sehr deutlich, daß die künstliche Darstellung von Körpern heute beinahe perfekt ist. Die körperliche Erscheinung der Dinos war visuell nicht von unserer Erwartung an einen gefilmten Dinosaurier zu unterscheiden. Eine Reihe von Labors für digitale Effekte sind gerade dabei, die Bestandteile für einen glaubhaften digitalen menschlichen Schauspieler zusammenzutragen. Ein Labor hat sich auf die Herstellung von perfektem digitalen menschlichen Haar spezialisiert, ein anderes darauf, die Hände richtig hinzubekommen und noch ein anderes auf Gesichtszüge. Digitale Figuren werden bereits in Hollywood-Filme eingefügt (ohne daß das irgend jemand bemerkt), wenn für eine synthetische Szene Menschen benötigt werden, die sich in der Ferne bewegen.

Realistische Kleidung, die natürlich fällt und Falten wirft, ist immer noch eine Herausforderung; ist sie nicht perfekt, verleiht sie der virtuellen Person einen unechten Ausdruck. Aber zunächst werden digitale Charaktere bei gefährlichen Stunts eingesetzt oder in Mischszenen eingearbeitet werden - aber nur in Totalaufnahmen oder Massenszenen, nicht in Nahaufnahmen, denen größere Aufmerksamkeit zuteil wird. Eine virtuelle menschliche Form, die vollständig glaubwürdig wäre, ist eine knifflige Angelegenheit, aber ihre Ausführung steht nahe bevor.

Weit entfernt ist man hingegen von der überzeugenden Simulation menschlicher Bewegungsabläufe, und noch weiter von einer glaubwürdigen Mimik. Die endgültige Grenze, so die Grafikexperten, ist die menschliche Ausdrucksfähigkeit. Die Bemühungen, ein menschliches Gesicht zu kontrollieren, haben heute die Ausmaße eines kleineren Feldzugs angenommen.

Roboter ohne "harten" Körper

In den Colossal Picture Studios in einem Industriegebiet am Stadtrand von San Francisco arbeitet Brad de Graf an der Imitation menschlichen Verhaltens. Colossal ist ein wenig bekanntes Studio für Spezialeffekte, das aber für einige der bekanntesten Trickfilmreklamen im Fernsehen arbeitet.

De Graf arbeitet in einem vollgestopften Büro, das sich in einem umgestalteten Lagerhaus befindet. In mehreren großen Räumen leuchten bei gedämpftem Licht zwei Dutzend große Computermonitore. So sieht ein Trickfilmstudio der neunziger Jahre aus. Auf den Computern - grafische Hochleistungs-Workstations von Silicon Graphics - sind Projekte in verschiedenen Arbeitsstadien zu sehen, unter anderem auch eine vollständig computerisierte Büste des Rockstars Peter Gabriel. Gabriels Kopfform und Gesicht wurden gescannt, digitalisiert und zu einem virtuellen Peter Gabriel zusammengefügt, welcher den Körper des Lebendigen in den Musikvideos ersetzen kann. Warum Zeit damit verschwenden, vor Kameras herumzutanzen, wenn man genausogut im Aufnahmestudio sein oder am Pool liegen kann? Ich beobachtete eine Animatorin beim Manipiulieren des virtuellen Stars. Sie versuchte Gabriels Mund zu schließen, indem sie an dem Cursor zog, um seinen Kiefer anzuheben. "Hoppla", sagte sie, als sie zu weit zog und Gabriels Unterlippe nach oben segelte und in seine Nase eindrang. Eine scheußliche Grimasse.

Ich war in Grafs Atelier, um Moxy zu besuchen, die erste vollständig computeranimierte Figur. Auf dem Bildschirm sieht Moxy wie ein Zeichentrickhund aus. Er hat eine große Nase, ein abgekautes Ohr, zwei weiße Handschuhe als Hände und "Gummischlauch"-Arme. Er hat auch eine äußerst lustige Stimme. Seine Bewegungen sind nicht gezeichnet. Sie sind von einem menschlichen Schauspieler geklaut. In einer Ecke des Raumes gibt es ein selbstgemachtes virtuelles Realitäts-"Waldo". Ein Waldo (so benannt nach einer Figur aus einer alten Science-fiction Geschichte) ist ein Gerät, das es einer Person ermöglicht, eine Puppe aus der Entfernung zu steuern. Die erste Waldo-gesteuerte Computeranimation war ein experimenteller Kermit-Frosch, der von einem handgroßen Puppenwaldo bewegt wurde. Moxy ist eine virtuelle Figur mit einem vollständigen Körper, eine virtuelle Marionette.

Wenn ein Animator Moxy tanzen lassen will, zieht er sich einen gelben Helm über, auf dessen Spitze ein Stab aufgeklebt ist. Am Ende des Stabes befindet sich ein Ortungssensor. Der Animator streift sich Schulter- und Hüftsensoren über und hebt dann zwei Styroporplatten auf, die wie zwei sehr große Handschuhkarikaturen aussehen. Er winkt mit ihnen herum - auf ihnen befinden sich ebenfalls Ortungssensoren -, während er tanzt. Auf dem Bildschirm tanzt der Zeichentrickhund Moxy in seinem verrückten Trickfilmraum im Gleichschritt mit.

Moxys bester Trick ist, daß er automatisch seine Lippen synchron bewegen kann. Eine aufgezeichnete menschliche Stimme strömt in einen Algorithmus, der herausbekommt, wie sich Moxys Lippen bewegen sollten, und bewegt sie dann. Den Studioprogrammierern macht es Spaß, Moxy alle möglichen ungeheuerlichen Dinge mit den Stimmen anderer Personen sagen zu lassen. Eigentlich kann Moxy auf viele Arten bewegt werden. Indem man an Reglern dreht, Befehle eintippt, mittels Cursorbewegung oder durch autonomes Verhalten, das von Algorithmen generiert wird.

Das ist die nächste Stufe für de Graf und andere Animatoren: Charaktere wie Moxy mit Einzelbewegungen zu bestücken - aufstehen, sich bücken, etwas Schweres hochheben -, die wieder zu einer geschmeidigen, glaubwürdigen Bewegung zusammengesetzt und dann auf eine komplexe menschliche Figur angewendet werden können.

Die Bewegung einer menschlichen Figur zu berechnen, ist für die heutigen Computer, wenn ihnen genug Zeit zur Verfügung gestellt wird, bereits möglich. Aber das im Fluge zu tun, wie es der Körper im richtigen Leben macht, in einer Welt, die sich bewegt, während man überlegt, wo man seinen Fuß hinsetzt - eine solche Berechnung ist beinahe unmöglich, wenn die Simulation gut sein soll. Der menschliche Körper verfügt über etwa 200 bewegliche Gelenke. Die Gesamtzahl der möglichen Positionen, die eine menschliche Figur mit 200 beweglichen Teilen einnehmen kann, ist astronomisch hoch. Sich im echten Leben an der Nase zu kratzen, erfordert mehr Computerleistung, als uns in Großrechnern zur Verfügung steht.

Aber damit ist das Maximum an Komplexität noch nicht erreicht, denn jede Körperposition kann auf mehreren Wegen eingenommen werden. Wenn ich meinen Fuß anhebe, um in einen Schuh zu schlüpfen, dirigiere ich mein Bein durch Hunderte von Kombinationen von Oberschenkel-, Unterschenkel-, Fuß- und Zehenbewegungen in die genaue Position. Tatsächlich sind die Abfolgen meiner Gliederbewegungen beim Gehen so komplex, daß es Platz für Millionen unterschiedlicher Umsetzungen gibt. Andere können mich erkennen - oft aus dreißig Meter Entfernung, ohne mein Gesicht zu sehen - ausschließlich an meiner unbewußten Auswahl, welche Fußmuskeln ich beim Gehen gebrauche. Die Kombinatorik einer anderen Person zu imitieren, ist schwierig.

Forscher, die versuchen, menschliche Bewegungen in künstlichen Figuren zu simulieren, finden schnell heraus, was die Zeichner von Bugs Bunny und Schweinchen Dick schon immer gewußt haben: daß einige kombinatorische Abfolgen "natürlicher" erscheinen als andere. Wenn Bugs nach einer Möhre greift, wirken einige Wege des Arms zum Gemüse hin menschlicher als andere. (Das Verhalten von Bugs simuliert selbstverständlich nicht einen Hasen, sondern einen Menschen). Und es hängt viel von der zeitlichen Abfolge ab. Eine animierte Figur, welche die Abfolge menschlicher Bewegungen einwandfrei beherrscht, kann immer noch roboterartig wirken, wenn beispielsweise die relativen Geschwindigkeiten von schwingendem Arm und schreitendem Bein nicht angepaßt sind. Das menschliche Gehirn entdeckt solche Fälschungen mit Leichtigkeit. Deshalb ist das Timing ein weiterer Aspekt innerhalb der Komplexität der Bewegung.

Frühe Versuche, künstliche Bewegung zu erzeugen, zwangen die Techniker, sich intensiv mit der tierischen Verhaltenslehre zu befassen. Um Fahrzeuge mit Beinen zu konstruieren, die auf dem Mars herumfahren könnten, untersuchten die Forscher Insekten - nicht um zu lernen, wie man Beine baut, sondern um herauszufinden, wie Insekten die simultane Bewegung von sechs Beinen koordinieren.

"Selbständige Bewegungsabläufe

Im Labor von David Zeltzer im MIT Media Lab entwickelten Examenskandidaten einfache Stockpuppen, die "von selbst" über eine unebene Landschaft gehen konnten. Die Tiere bestanden aus nicht mehr als vier Beinen mit einem Stock als Rückgrat. Jedes Bein besaß in der Mitte ein Gelenk. Die Studenten stellten den "Animat" in eine bestimmte Richtung auf, woraufhin er seine Beine bewegte, mit dem Ziel, die Erhöhungen und Vertiefungen aufzuspüren, um sie durch daran einen angepaßten Gang auszugleichen. Das Ergebnis war ein bemerkenswert überzeugendes Porträt einer Kreatur, die über ein zerklüftetes Terrain geht. Aber anders als in den herkömmlichen Road-Runner-Trickfilmen entschied hier kein Mensch darüber, wohin jedes Bein in jedem Moment des Bildes gesetzt wurde. In gewisser Weise entschied die Figur es selbst. Zeltzers Gruppe bevölkerte ihre Welt schließlich mit autonomen sechsbeinigen Animaten und brachte sogar ein zweibeiniges Etwas dazu, ein Tal hinunter- und wieder hinaufzulaufen.

Zeltzers Studenten bauten Lemonhead zusammen, eine Zeichentrickfigur, die selbständig laufen konnte. Seine Art zu Laufen war realistischer und komplizierter als diejenige der Stockpuppe, weil er aus einer größeren Anzahl von Körperteilen und Gelenken bestand. Er konnte um Hindernisse, etwa umgefallene Baumstämme, in einem realistischen Bewegungsablauf herumgehen. Lemonhead inspirierte Steve Strassman, einen weiteren Studenten in Zeltzers Labor, herauszufinden, wie weit er mit dem Aufbau einer Bibliothek von Verhaltensweisen kommen würde. Die Idee bestand darin, eine generische Figur wie Lemonhead zu bauen und ihr Zugang zu einem "Katalog" mit Bewegungs- und Verhaltensclips zu geben. Brauchst Du ein Niesen? Da hast du ein Laufwerk voll davon!

Strassman wollte einer Figur Anweisungen in einfachem Englisch geben. Man sagt ihr einfach, was sie tun soll, und die Figur fischt sich die geeigneten Verhaltensweisen aus den "vier Nahrungsgruppen des Verhaltens" heraus und kombiniert sie zur richtigen Abfolge einer vernünftigen Bewegung. Befiehlt man ihr aufzustehen, weiß sie, daß sie zunächst die Füße unter dem Stuhl hervorziehen muß. "Sehen Sie", warnt mich Strassman, bevor er mit seiner Vorführung beginnt, "dieser Typ wird keine Sonaten schreiben, aber er wird auf einem Stuhl sitzen."

Strassman startete zwei Figuren, John und Mary. Alles geschah in einem schlichten Zimmer, in das man aus einem schrägen Winkel oberhalb der Decke hineinsah - wie das Auge Gottes. "Desktop-Theater" nannte es Strassman. Die Ausgangssituation war, daß das Paar sich gelegentlich stritt. Strassman arbeitete an einer Abschiedsszene. Er tippte: "In der Szene wird John wütend. Ruppig hält er Mary das Buch hin, aber sie lehnt es ab. Er knallt es auf den Tisch. Mary erhebt sich, während John wütend vor sich hinstarrt." Dann drückte er die Start-Taste.

Der Computer denkt eine Sekunde darüber nach, dann führen die Charaktere auf dem Bildschirm das Stück auf. John runzelt die Stirn; seine Bewegung mit dem Buch ist knapp; er ballt die Fäuste. Plötzlich steht Mary auf. Ende. In ihren Bewegungen liegt keine Grazie, nichts besonders Menschliches. Und es ist schwer, den flüchtigen Bewegungen zu folgen, weil sie keine Aufmerksamkeit auf sich ziehen. Das Gefühl, einbezogen zu sein, fehlt, aber dort, in dem winzigen künstlichen Raum, interagieren Figuren gemäß eines göttlichen Drehbuches miteinander.

"Ich bin ein selbstgefälliger Regisseur", sagt Strassman. "Wenn es mir nicht gefällt, wie die Szene gelaufen ist, lasse ich sie erneut spielen." Also gibt er eine neue Variante ein: "In dieser Szene wird John traurig. Er hält das Buch in seiner linken Hand. Freundlich streckt er es Mary entgegen, aber sie lehnt höflich ab." Und wieder führen die Figuren die Szene auf.

Die Feinheiten sind das Schwierigste. "Wir greifen zum Telefonhörer nicht wie nach einer toten Ratte," sagt Strassman. "Ich könnte meinen Vorrat an Handbewegungen erweitern, aber das Problem besteht darin: Wer oder was verwaltet ihn? Wo wird die Bürokratie erfunden, die die Auswahlprozeduren kontrolliert?"

Mit dem, was sie an den Stockpuppen und Lemonhead gelernt hatten, verhalfen Zeltzer und sein Kollege Michael McKenna dem Skelett eines sechsbeinigen Animaten zum Körper einer scheußlichen Kakerlake aus Chrom und machten das Insekt zum Star in einem der seltsamsten Computertrickfilme, die je hergestellt wurden. Der Form halber hatte das fünfminütige Video mit dem scherzhaften Titel "Der grinsende Schrecken des Todes" auch ein Erzählgerüst; die Geschichte handelte davon, wie ein riesiger Metallkäfer aus dem Weltraum auf der Erde landet und eine Stadt zerstört. Die Story war zwar zum Gähnen langweilig, aber der Star, der sechsbeinige Schrecken, war der erste wirkliche Animat - ein künstliches Tier, das sich selbständig bewegte.

Wenn die riesige Chromkakerlake die Straße hinunterkroch, war ihr Verhalten "frei". Die Programmierer sagten ihr: "Lauf über diese Gebäude!", und die virtuelle Kakerlake im Computer fand heraus, wie sie ihre Füße zu bewegen und in welchen Winkel ihr Körper zu sein hatte, und daraufhin malte sie ein glaubwürdiges Videoporträt, wie sie sich an fünfstöckigen Steinhäusern hoch und dann über sie hinwegwand. Die Programmierer richteten ihre Bewegungen eher aus, als sie zu diktieren. Wenn sie von Gebäuden herunterkam, wurde die gigantische Roboterkakerlake von der Schwerkraft auf den Boden gezogen. Fiel sie, bewirkten die simulierte Schwerkraft und Friktion, daß ihre Beine ganz realistisch einknickten und wegrutschten. Die Kakerlake spielte die Szene, ohne die Regisseure in Verzweiflung über die Details ihrer Fußbewegungen zu stürzen.

Die Agenten der ethologischen Architektur

Der nächste Schritt zur Geburt eines selbständigen virtuellen Charakters befindet sich gerade im Versuchsstadium. Man nehme die von unten nach oben organisierte Verhaltensmaschinerie der Riesenkakerlake und überziehe sie mit dem bezaubernden Kadaver eines Dinos aus Jurassic Park, um einen digitalen Filmschauspieler zu erhalten. Man ziehe den Schauspieler auf, füttere ihn gut mit Computerzyklen und führe ihn dann wie einen echten Schauspieler. Man gebe ihm allgemeine Anweisungen - "Gehe auf Futtersuche" -, und er wird selbständig herausfinden, wie er die Bewegungen seiner Gliedmaßen koordinieren muß, um den Befehl auszuführen.

Diesen Traum umzusetzen, ist natürlich nicht so leicht. Fortbewegung ist nur ein Teil des Bewegungsablaufs. Simulierte Kreaturen müssen sich nicht nur bewegen, sie müssen sich auch orientieren, Gefühle ausdrücken und reagieren können. Um ein Geschöpf zu erfinden, das mehr kann als nur gehen, brauchen Animatoren (und die Entwickler von Robotern) einen Weg, um sich das angeborene Verhalten in allen Formen anzueignen.

1940 begann ein Trio von legendären Tierbeobachtern - Konrad Lorenz, Karl von Frisch und Niko Tinbergen - den logischen Unterbau tierischen Verhaltens zu beschreiben. Lorenz teilte sein Haus mit Gänsen, von Frisch lebte zwischen Bienenschwärmen, und Tinbergen brachte seine Tage mit Stichlingen und Seemöwen zu. Mit strengen und intelligenten Versuchen machten die drei Verhaltensforscher aus den altertümlichen Tiermärchen eine respektable Wissenschaft, die Ethologie. 1973 erhielten sie für ihre Pionierleistungen gemeinsam den Nobelpreis. Als sich später Cartoonisten, Ingenieure und Informatiker in ethologische Fachliteratur vertieften, fanden sie zu ihrer großen Überraschung einen beachtlichen, von den drei Verhaltensforschern bereits ausgearbeiteten Rahmen, der, so wie er war, in den Computer übertragen werden konnte.

Der springende Punkt in der ethologischen Architektur ist die Idee der Dezentralisierung. Tinbergens Werk The Study of Instinct (1951) zufolge ist das Verhalten eines Tieres eine dezentrale Koordination voneinander unabhängiger Bewegungs- bzw. Antriebszentren, die miteinander wie Verhaltensbausteine kombiniert werden. Einige Verhaltensmodule bestehen aus einem Reflex; sie rufen eine einfache Funktion auf, wie etwa: wegziehen, wenn es heiß ist, oder blinzeln bei Berührung. Der Reflex hat keine Ahnung davon, wo er sich befindet und was sonst noch vor sich geht, noch kennt er die gegenwärtigen Ziele des Körpers, in dem er sich befindet. Er kann jederzeit ausgelöst werden, wenn der entsprechende Reiz auftritt.

Eine männliche Forelle reagiert instinktiv auf folgende Stimuli: eine paarungsbereite weibliche Forelle, einen in der Nähe befindlichen Wurm, einen sich von hinten nähernden Räuber. Wenn aber alle drei Stimuli gleichzeitig auftreten, dominiert das Räubermodul und unterdrückt die Freß- und Paarungsinstinkte. Manchmal, wenn es zu einem Konflikt zwischen Handlungsmodulen oder mehreren Stimuli gleichzeitig kommt, werden Managementmodule aktiviert, um die Entscheidung zu fällen. Man befindet sich etwa mit verschmierten Händen in der Küche, und das Telefon klingelt, während es gleichzeitig an der Wohnungstür klopft. Die gegensätzlichen Antriebe - zum Telefon zu springen, sich die Hände abzuwischen, zur Tür zu stürzen - können zur Lähmung führen, wenn sie nicht von einem dritten Modul, dem gelernten Verhalten, entschieden werden, vielleicht einem, das den Schrei auslöst: "Bitte warten Sie!"

Weniger passiv läßt sich ein Tinbergensches Antriebszentrum auch als "Handlungseinheit", als Agens vorstellen. Eine Handlungseinheit (welche Körperform sie auch immer annimmt) bemerkt einen Stimulus und reagiert darauf. Ihre Reaktion, oder in der Computersprache ihr "Output", läßt sich als Input für andere Module, Antriebszentren oder Handlungseinheiten vermuten. Der Output einer Handlungseinheit kann möglicherweise andere Module in Bereitschaft versetzen (den Gewehrhahn spannen) oder andere Module, die sich bereits in Bereitschaft befinden, aktivieren (den Abzugbügel durchziehen). Oder das Signal kann ein benachbartes Modul deaktivieren (die Waffe sichern). Sich zugleich das Bäuchlein zu reiben und auf den Kopf zu klopfen ist knifflig, denn aus irgendeinem unbekannten Grund unterdrückt die eine Handlung die andere. Im allgemeinen kann ein Output sowohl Zentren in Bereitschaft versetzen als auch andere ausschalten. Das ist natürlich die Anlage eines Netzwerks, das sich vor zirkulärer Kausalität nicht mehr retten kann und dazu vorbereitet ist, in Selbsterschaffung zu münden.

Auch aus dem Dickicht dieser blinden Reflexe tritt also äußerliches Verhalten hervor. Aufgrund des verteilten Ursprungs des Verhaltens können sehr einfache Akteure der unteren Ebenen unerwartet komplexes Verhalten auf höheren Ebenen erzeugen. Innerhalb der Katze entscheidet kein zentrales Modul darüber, ob sie ihr Ohr kratzen oder ihre Pfote lecken soll. Statt dessen wird das Betragen der Katze von einem wirren Netz unabhängiger "Handlungseinheiten für Verhalten" - Katzenreflexen - bestimmt, die sich gegenseitig aktivieren und ein grobes Muster bilden (genannt Lecken oder Kratzen), das aus dem aufgegliederten Netz hervortritt.

Dies klingt deshalb sehr nach Brooks Subsumtionsarchitektur, weil es im Kern nichts anderes ist. Tiere sind Roboter, die funktionieren. Die dezentralisierte, verteilte Kontrolle, von der die Tiere regiert werden, ist auch die Weise, in der Roboter und digitale Kreaturen funktionieren.

Netzdiagramme miteinander verbundener Verhaltensmodule in Lehrbüchern der Verhaltenslehre hinterlassen bei Informatikern den Eindruck von Flußdiagrammen zur Computerlogik. Die Botschaft lautet: Verhalten ist computerisierbar. Durch die Einrichtung eines Schaltkreises aus Untereinheiten des Verhaltens läßt sich jede Art von Persönlichkeit programmieren. Es ist theoretisch machbar, in einem Computer jede Stimmung zu erzeugen, jede anspruchsvolle Reaktion, zu der ein Tier in der Lage ist. Filmfiguren werden von derselben Bottom-up-Kontrolle des Verhaltens angetrieben werden wie Robbie, der Roboter - und von exakt demselben Schema, das man lebenden Singvögeln und Stichlingen abgelesen hat. Aber statt Preßluftschläuche Druck ausüben zu lassen oder Fischschwänze zum Zucken zu bringen, wälzt das aufgegliederte System Datenbits um, die ein Bein auf dem Bildschirm bewegen. Auf diese Weise verhalten sich autonome animierte Figuren in Filmen nach denselben generellen Organisationsregeln wie echte Tiere. Obwohl synthetisch, ist ihr Verhalten reales Verhalten (oder zumindest hyperreales Verhalten). Folglich sind Zeichentrickfiguren einfach Roboter ohne echten Körper.

Schicksal und freier Wille

Aber es kann mehr als nur Bewegung programmiert werden. Charakter - im altmodischen Wortsinn - kann in Computerbits verpackt werden. Depression, Euphorie und Wutausbrüche werden die Zusatzmodule für das Betriebssystem einer Kreatur sein. Einige Software-Unternehmen werden bessere Versionen von Angstgefühlen verkaufen als andere. Vielleicht werden sie "relationale Angst" verkaufen - Angst, die sich nicht nur in den Körper der Kreatur einschreibt, sondern in sukzessive Gefühlsmodule einsickert und sich erst nach und nach, im Lauf der Zeit verflüchtigt.

Verhalten will ungebunden sein, um aber für den Menschen Nutzen abzuwerfen, muß künstlich erzeugtes Verhalten überwacht und kontrolliert werden. Wir wollen, daß Robbie, der Roboter, und Bugs Bunny ohne unsere Aufsicht selbständig Dinge vollbringen. Gleichzeitig aber ist nicht alles, was Robbie oder Bugs tun könnten, auch produktiv. Wie können wir einem Roboter mit oder ohne Körper oder irgendeiner Form künstlichen Lebens erlauben, ihr eigenes Verhalten festzulegen, während wir sie immer noch so steuern, daß sie uns von Nutzen sind?

Überraschenderweise wurden einige Antworten darauf in einem Forschungsprojekt zur interaktiven Literatur gefunden, das an der Carnegie Mellon University begonnen worden war. Der Leiter des Projekts, Joseph Bates, baute eine Welt, die er "Oz" nannte und die ein wenig dem kleinen Zimmer von John und Mary glich, das Steve Strassman geschaffen hatte. In Oz gibt es Figuren, eine physikalische Umwelt und eine Handlung - dasselbe Trio an Bestandteilen wie im klassischen Drama. Im klassischen Drama determiniert die Handlung sowohl die Figuren als auch die Umwelt. In Oz ist die Kontrollfunktion etwas umgedreht; Figuren und Umwelt beeinflussen die Handlung.

Oz wurde geschaffen, um Menschen Freude zu bereiten. Es ist eine phantasievolle virtuelle Welt, die sowohl mit Automaten als auch mit von Menschen gesteuerten Figuren bevölkert ist. Ziel ist es, eine Umwelt, eine narrative Struktur und Automaten so zu gestalten, daß ein Mensch an der Geschichte teilhaben kann, ohne den Ablauf der Geschichte zu zerstören, ohne aber auch sich als bloßer Beobachter innerhalb des Publikum nicht beachtet zu fühlen. David Zeltzer, der das Projekt mit einigen Ideen unterstützte, hat ein wunderschönes Beispiel zur Hand: "Würden wir Ihnen eine digitale Version von Moby Dick zur Verfügung stellen, gäbe es keinen Grund, warum Sie nicht ihre eigene Kajüte auf der Pequod haben sollten. Sie könnten sich mit Starbuck unterhalten, während er dem weißen Wal nachjagt. In der Geschichte gibt es genügend Platz, um Sie miteinzubeziehen, ohne daß man die Handlung ändern müßte."

An Oz sind drei neue Grenzen der Kontrollforschung beteiligt:

  1. Wie organisiert man eine Handlung, die Umwege zuläßt, ohne jedoch das anvisierte Ziel aus den Augen zu verlieren?
  2. Wie baut man eine Umwelt, die für Überraschungen gut ist?
  3. Wie erschafft man Kreaturen, die genügend, aber nicht im Übermaß Autonomie besitzen?

Von Strassmans "Desktop-Theater" kommen wir zu Joseph Bates "Computerdrama". Bates stellt sich ein Drama mit verteilter Kontrolle vor. Eine Erzählung wird zu einer Art Koevolution, bei der vielleicht nur noch die äußeren Umrisse vorgegeben sind. Man kann mitten in einer Folge von Star Trek sein und versuchen, andere Handlungsstränge einzuflechten, oder man könnte sich auf einer Reise mit einem synthetischen Don Quixote befinden und neuen Hirngespinsten begegnen. Bates, der sich hauptsächlich für die Erfahrungen des menschlichen Nutzers von Oz interessiert, faßt sein Vorhaben in folgende Worte: "Die Frage, an der ich arbeite, lautet: Wie erlegt man den Nutzern ein Schicksal auf, ohne ihnen die Freiheit zu nehmen?"

Für meine Suche nach der Zukunft der Kontrolle, die eher aus der Perspektive des Geschaffenen als des Schöpfers durchgeführt wird, wäre die Frage folgendermaßen umzuformulieren: Wie gibt man einer Figur des künstlichen Lebens ein Schicksal, ohne ihr die Freiheit zu nehmen?

Brad de Graf glaubt, daß diese Verschiebung der Kontrolle auch die Absicht der Autoren verschiebt. "Wir erschaffen ein neues Medium. Statt eine Geschichte zu erfinden, erfinde ich eine Welt. Statt mir Handlungen und Dialoge für eine Figur auszudenken, erschaffe ich eine Persönlichkeit."

Als ich die Gelegenheit hatte, mit einigen künstlichen Figuren herumzuspielen, die Bates entwickelt hatte, bekam ich ein Gefühl dafür, wieviel Spaß man mit diesen haustierartigen Kreaturen mit eigener Persönlichkeit haben konnte. Bates nennt seine Lieblinge "Woggles". Woggles gibt es in drei Ausführungen: ein blauer Kloß, ein roter Kloß und ein gelber Kloß. Die Klöße sind dehnbare Kugeln mit zwei Augen. Sie hüpfen in einer einfachen Welt aus Trittsteinen und ein paar Höhlen umher. Jede Wogglefarbe steht für bestimmte Verhaltensabfolgen. Eine für schüchtern, eine für aggressiv, eine für folgsam. Wenn ein Woggle einem anderen Woggle Angst einjagt, streckt sich der aggressive Woggle zu voller Länge, um den Angreifer abzuschrecken. Der Schüchterne schrumpft und flieht.

Normalerweise hüpfen die Woggles und machen das, was Woggles untereinander so machen. Aber wenn ein Mensch in Gestalt eines Cursors ihre Welt betritt, reagieren sie auf den Besucher. Manchmal verfolgen sie ihn, gehen ihm aus dem Weg oder warten, bis er gerade nicht in der Nähe ist, bevor sie einen anderen Woggle belästigen. Man ist zwar auf der Bühne, kontrolliert aber nicht die Show.

Einen besseren Einblick in die Zukunft der Kontrolle unserer Lieblinge erhielt ich durch den Prototyp einer Welt, die in gewisser Weise eine Fortführung von Bates Woggle-Welt ist. Eine Gruppe von Leuten, die sich in den Labors von Fujitsu in Japan mit virtueller Realität (VR) beschäftigt, schnappten sich Woggle-ähnliche Figuren und verliehen ihren Körpern virtuelle Dreidimensionalität. Ich beobachtete einen Typ, wie er mit einem monströsen VR-Helm auf dem Kopf und Datenhandschuhen an den Händen eine Vorführung machte.

Er befand sich in einer Phantasiewelt unter Wasser. Aus der Entfernung schimmerte der schwache Glanz eines versunkenen Schlosses im Hintergrund. Der unmittelbare Spielbereich war mit einigen griechischen Säulen und brusthohem Seegras ausstaffiert. Drei "Quallen" hüpften herum und ein kleiner Hai zog seine Kreise. Die Quallen, in der Form von Pilzen und etwa der Größe von Hunden, wechselten je nach Stimmung oder Verhalten ihre Farbe. Spielten sie untereinander, waren sie alle blau. Sie hüpften unermüdlich auf ihren fetten Wampen herum. Wenn der VR-Typ ihnen Zeichen machte, zu ihm zu kommen, indem er mit der Hand winkte, sprangen sie erregt auf ihn zu, wurden orange und hüpften auf und ab wie junge Hunde, die darauf warten, daß man ihnen einen Stock zuwirft. Schenkte er ihnen Aufmerksamkeit, schlossen sie zufrieden ihre Augen. Der Typ konnte die weniger freundlich gesonnenen Fische zu sich rufen, indem er sie aus der Ferne mit einem blauen Laserstahl aus seinem Zeigefinger berührte. Dadurch veränderte sich die Farbe des Fisches und sein Interesse am Menschen. Er zog dann immer engere Kreise und schwamm ganz dicht vorüber - aber kam nie zu nah, wie eine Katze -, solange er hin und wieder vom blauen Strahl gestreift wurde.

Selbst wenn man das Schauspiel von außen betrachtete, trat deutlich hervor, daß künstliche Figuren mit dem schwächsten selbständigen Verhalten und einer dreidimensionalen Form in einem mit anderen geteilten dreidimensionalen Raum eine bestimmte eigenständige Präsenz haben. Ich konnte mir vorstellen, ein Abenteuer mit ihnen zu erleben. Ich konnte sie mir als Dinosaurier vorstellen; und mich richtig verängstigt. Sogar der Fujitsu-Typ zuckte einmal zusammen, als die virtuellen Fische zu dicht an seinen Kopf heranschwammen. "Virtuelle Realität", sagt de Graf, "ist nur dann interessant, wenn sie mit interessanten Figuren bevölkert ist".

Pattie Maes, für künstliches Leben zuständige Forscherin am MIT Media Lab, verabscheut die virtuelle Realität von Brillen und Handschuhen. Sie empfindet solche Bekleidung als "zu künstlich" und beengend. Sie und ihre Kollegin Sandy Pentland ersannen eine andere Möglichkeit, mit virtuellen Kreaturen in Kontakt zu treten. Ihr System, mit dem Namen ALIVE, erlaubt es einem Menschen, mit animierten Kreaturen via Computerbildschirm und Videokamera zu spielen. Die Kamera ist auf den menschlichen Mitspieler gerichtet und fügt den Beobachter so in die virtuelle Welt ein, die er oder sie auf dem Bildschirm verfolgt.

Dieser feine Trick vermittelt ein echtes Gefühl von Intimität. Indem ich meine Arme bewege, kann ich mit kleinen "Hamstern" auf dem Bildschirm spielen. Die Hamster sehen wie kleine Toaster auf Rädern aus, aber sie sind Animaten, die eigenständige Ziele verfolgen und über ein reichhaltiges Repertoire an Antrieben, Wahrnehmungs- und Reaktionsmöglichkeiten verfügen. Wenn sie seit einiger Zeit nichts mehr gefressen haben, durchstreifen die Hamster ihren abgeschlossenen Pferch auf der Suche nach "Nahrung". Sie suchen die Nähe ihrer Artgenossen; manchmal jagen sie sich. Sie fliehen vor meiner Hand, wenn ich sie zu schnell bewege. Bewege ich sie langsam, versuchen sie ihr neugierig zu folgen. Ein Hamster kann sich aufrichten und um Futter betteln. Wenn sie müde werden, kippen sie um und schlafen ein. Sie befinden sich gleichweit von Robotern und animierten Tieren entfernt, und von ihnen sind es nur wenige Schritte zu authentischen virtuellen Figuren.

Pattie Maes versucht, ihren Geschöpfen beizubringen, "das Richtige zu tun". Sie will, daß ihre Kreaturen aus ihren eigenen Umwelterfahrungen ohne intensive menschliche Aufsicht lernen. Die Dinosaurier aus Jurassic Park werden solange keine echten Figuren sein, wie sie nicht lernfähig sind. Es wird kaum etwas bringen, einen virtuellen menschlichen Schauspieler herzustellen, solange er oder sie nicht lernen kann. Gemäß dem Modell der Subsumptionsarchitektur strukturiert Maes die Algorithmen zu Hierarchien, die es ihren Geschöpfen nicht nur ermöglichen, sich anzupassen, sondern sich selbst zu immer komplexeren Verhaltensweisen hochzuarbeiten und - wesentlicher Bestandteil der gesamten Struktur - aus diesen Verhaltensweisen auch ihre eigenen Ziele entstehen zu lassen.

Die Animatoren bei Disney und Pixar trifft beim Gedanken daran beinahe der Schlag, aber eines Tages wird Micky seinem eigenen Plan folgen.

Das Zusammenspiel von Menschen und immer selbständiger werdenden künstlichen Akteuren

WIR SCHREIBEN DAS JAHR 2001. Es ist Winter. In einer Ecke des Filmgeländes der Disney-Studios wird ein Anhänger als geheimes Forschungslabor aufgestellt. Filmspulen mit alten Disney-Cartoons, Stapel von Gigabyte-Festplatten und drei 24jährige Computergrafikkünstler sind darin versteckt. Innerhalb von ungefähr drei Monaten dekonstruieren sie Micky Maus. Als potentielles 3D-Wesen, das in nur zwei Dimensionen erscheint, wird sie wieder zusammengefügt. Sie kann selbständig laufen, springen, tanzen, Überraschung ausdrücken oder zum Abschied winken. Sie kann ihre Lippen bewegen, aber nicht sprechen. Die runderneuerte Micky paßt auf eine tragbare Syquest-2-Gigabyte-Platte.

Die Platte wird zu den alten Trickfilmstudios gebracht - vorbei an Reihen verlassener staubiger Zeichnerarbeitsplätze gelangt sie in einen separaten Raum, in dem die Workstations von Silicon Graphics leuchten. Micky wird in einen Computer gesteckt. Zuvor haben die Animatoren für Micky eine bis ins Einzelne ausgestattete künstliche Welt geschaffen. Er wird auf die Bühne gestellt, und das Band wird eingeschaltet. Kamera läuft! Wenn Micky auf der Treppe seines Hauses stolpert, zieht ihn die Schwerkraft nach unten. Die simulierte Physik seines gummiartigen Hinterteils, das gegen die Holzstufen prallt, erzeugt realistische Hüpfer. Seine Mütze wird von einem virtuellen Wind weggeblasen, der durch die offene Haustür zieht, und wenn beim Versuch, seiner Mütze hinterherzulaufen, der Teppich unter ihm wegrutscht, wellt dieser sich entsprechend den physikalischen Gesetzen des Stoffgewebes, gerade so wie Micky unter seinem eigenen simulierten Gewicht zusammenbricht. Der einzige Befehl, den Micky erhalten hatte, war, den Raum zu betreten und seinen Hut nicht zu verlieren. Der Rest geschah von selbst.

Seit 1997 wird Micky nicht mehr gezeichnet. Es ist nicht mehr notwendig. Naja, manchmal unterstützen die Animatoren die Produktion und retuschieren hier und da einen schwierigen Gesichtsausdruck - für die Trainer sind sie bloß Maskenbildner -, aber im Prinzip wird Micky ein Drehbuch ausgehändigt, dem er gehorcht. Und er - oder einer seiner Klone - arbeitet das ganze Jahr über, und mehr als nur an einem Film gleichzeitig. Und er beschwert sich nie, versteht sich.

Die Grafikprogrammierer sind nicht zufrieden. Sie schließen eines von Maes' Lernmodulen an Mickys Programm an. Ist es eingeschaltet, wird Micky als Schauspieler reifer. Er reagiert auf die Gefühle und Handlungen der anderen großen Schauspieler in seinen Szenen - Donald Duck und Goofy. Jedesmal, wenn eine Szene wiederholt wird, merkt er sich, wie er sie beim letzten geglückten Take gespielt hatte, und betont diese Geste beim nächsten Mal. Auch äußerlich entwickelt er sich weiter. Die Programmierer frisieren seinen Code, verleihen seinen Bewegungen eine verbesserte Geschmeidigkeit, erweitern das Spektrum seiner Ausdrucksmöglichkeiten und möbeln den Grund seines Seelenlebens auf. Er kann jetzt den "Gefühlvollen" spielen, wenn es gefragt ist.

Aber nach mehr als fünf Jahren des Lernens fängt Micky an, seine eigenen Vorstellungen zu entwickeln. Er reagiert irgendwie feindselig auf Donald und wird wütend, wenn er mit dem Holzschläger eins über den Kopf kriegt. Und wenn er wütend ist, wird er starrsinnig. Er sträubt sich, wenn der Regisseur ihn anweist, über den Rand einer Klippe zu springen, weil er im Lauf der Jahre gelernt hat, Hindernissen und Abgründen auszuweichen. Mickys Programmierer beschweren sich, daß sie nicht um diese Eigensinnigkeit herum programmieren können, ohne all die anderen fein abgestimmten Charakterzüge und Fertigkeiten zu zerstören, die Micky erworben hat. "Sie ist wie ein einheitliches Ökosystem", sagen sie. "Man kann nicht ein Ding entfernen, ohne alle anderen zu beeinträchtigen." Ein Grafikprogrammierer bringt es auf den Punkt: "Eigentlich ist es wie eine Psychologie. Die Maus hat eine richtige Persönlichkeit. Man kann sie nicht zerlegen, man muß sich um sie herum arbeiten."

Und so hat Micky Maus im Jahr 2007 schon ziemlich viel von einem Schauspieler. Sie ist ein "heißes Geschoß", wie das die Agenten nennen. Sie kann sprechen. Sie kommt mit jeder nur erdenklichen Slapstick-Vorgabe zurecht. Sie macht ihre Stunts alle selbst. Sie hat eine ganze Menge Humor und das sagenhafte Timing eines Komikers. Das einzige Problem ist, daß es eine Strafe ist, mit ihr zu arbeiten. Unvermutet gerät sie außer Kontrolle und dreht durch. Die Regisseure hassen sie. Aber sie finden sich mit ihr ab - sie haben Schlimmeres gesehen - weil, naja, weil sie Micky ist.

Und das Beste von allem: Sie wird nie sterben, nie alt werden.

Die Disney Studios kündigten diese Emanzipation der Zeichentrickfiguren in ihrem eigenen Film Roger Rabbit an. Die Charaktere in diesem Film führen ein unabhängiges Leben und haben ihre eigenen Träume, aber sie dürfen die Trickfilmstadt, ihre eigene virtuelle Welt, nicht verlassen, außer wenn wir sie für unsere Filme benötigen. Am Drehort können die Trickfiguren kollegial und freundlich sein oder es bleiben lassen. Sie haben dieselben Launen und Wutausbrüche wie menschliche Schauspieler. Roger Rabbit ist reine Fiktion, aber eines Tages wird Disney es mit einem selbständigen Roger Rabbit zu tun bekommen, der außer Kontrolle ist.

Kontrolle - darum geht es. In seinem ersten Film, Steamboat Willie, war Micky unter totaler Kontrolle von Walt Disney. Disney und die Maus waren eins. Je mehr lebensähnliches Verhalten Micky eingepflanzt wird, desto weniger eins ist er mit seinen Schöpfern und desto mehr gerät er ihnen außer Kontrolle. Das ist ein alter Hut für alle, die Kinder oder Haustiere haben. Aber es ist etwas völlig neues für jemanden, der für eine Trickfigur oder Maschinen zuständig ist, die immer schlauer werden. Natürlich sind weder Kinder noch Haustiere völlig unkontrollierbar. Da gibt es die direkte Autorität, die in ihrem Gehorsam zum Ausdruck kommt und die größere indirekte Kontrolle, die wir in ihrer Erziehung und Ausbildung ausüben.

Der beste Ausdruck dafür wäre, Kontrolle als Spektrum zu fassen. Am einen Ende befindet sich die totale Dominanz der "hundertprozentigen" Kontrolle. Am anderen Ende der "totale Kontrollverlust". Dazwischen gibt es verschiedene Formen der Kontrolle, für die wir keine Namen haben.

Bis vor kurzem befanden sich all unsere Artefakte, alles, was wir von Hand geschaffen hatten, unter unserer Herrschaft. Aber seit wir synthetisches Leben in unseren Artefakten kultivieren, kultivieren wir den Verlust unserer Befehlsgewalt. "Außer Kontrolle" ist, um aufrichtig zu sein, eine große Übertreibung des Zustandes, in dem sich unsere belebten Maschinen befinden werden. Mittelbar werden sie unter unserem Einfluß und unserer Führung bleiben, nur eben befreit von unserer Dominanz.

Obwohl ich überall gesucht habe, konnte ich nirgends das Wort finden, das diese Art von Einfluß beschreibt. Wir haben einfach kein Wort, um eine solche lockere Beziehung zwischen einem einflußnehmenden Schöpfer und einer Schöpfung mit eigenem Willen auszudrücken - etwas, wovon wir noch mehr zu sehen bekommen werden. Für die Eltern-Kinder-Beziehung sollte es ein solches Wort geben, das ist aber leider nicht so. Bei den Schafen kommen wir etwas weiter, wie der Ausdruck "hüten" zu verstehen gibt. Wenn wir eine Schafherde hüten, wissen wir, daß wir nicht im Vollbesitz der Herrschaft sind, aber wir sind auch nicht ohne Kontrollmöglichkeit. Vielleicht werden wir künstliche Lebensformen "hüten".

Außerdem "hegen" wir Pflanzen, wenn wir sie beim Erreichen ihrer natürlichen Ziele unterstützen, oder sie ein wenig für unsere eigenen Zwecke umlenken. "Managen" ist wahrscheinlich die Bedeutung, die der generellen Form von Kontrolle am nächsten kommt, die wir für künstliches Leben, etwa eine virtuelle Micky Maus, benötigen. Die Probleme mit einem schwierigen Kind, mit einem bellenden Hund oder mit der 300 Mitarbeiter starken Verkaufsabteilung lassen sich managen.

"Managen" ist dicht dran, aber ebenfalls nicht perfekt. Auch wenn wir ursprüngliche Naturgebiete wie die Everglades managen, haben wir eigentlich nur eine geringe Mitsprache bei dem, was zwischen Algen, Schlangen und Sumpfgras abläuft. Obwohl wir die Volkswirtschaft managen, tut sie, was sie will. Und obwohl wir ein Telekommunikationsnetz managen, haben wir keine Einsicht darin, wie eine bestimmte Verbindung aufgebaut wird. Das Wort "Management" impliziert mehr Überwachung, als wir in den oben angeführten Beispielen wirklich haben oder in den sehr komplexen Systemen der Zukunft haben werden.

Das Wort, nach dem ich suche, ist eher "Ko-Kontrolle". Das damit Gemeinte begegnet einem bereits heute an einigen technischen Schauplätzen. Einen Jumbo-Jet bei schlechtem Wetter zu fliegen oder zu landen, ist eine sehr komplexe Aufgabe. Hunderte von gleichzeitig aktiven Systemen, eine extrem kurzen Reaktionszeit aufgrund der hohen Fluggeschwindigkeit, die desorientierenden Auswirkungen von Langstreckenflügen ohne Schlaf und das instabile Wetter - all dies spricht dafür, daß der Computer der bessere Pilot ist. Allein die Zahl der Menschenleben, um die es geht, läßt keinen Raum für Fehler oder zweitbeste Lösungen. Warum sollte man das Düsenflugzeug nicht von einer sehr intelligenten Maschine kontrollieren lassen?

Dementsprechend löteten die Techniker einen Autopiloten zusammen, und es stellte sich heraus, daß er sehr fähig ist. Er fliegt und landet den Jumbo Jet ‚so wunderbar'. Der automatische Flug erhört auch das Gebet der Fluglotsen nach mehr Übersicht - alles unter digitaler Kontrolle. Die ursprüngliche Idee war, daß die Piloten aus Fleisch und Blut den Computer überwachen sollten, für den Fall, daß irgend etwas schiefginge. Das einzige Problem dabei ist, daß Menschen äußerst ungeeignet dafür sind, etwas passiv zu überwachen. Sie fangen an, sich zu langweilen und Tagträumen nachzuhängen. Dann entgehen ihnen wichtige Details. Und kommt es zu einem Notfall, erwischt er sie eiskalt.

Deshalb kam man auf die Idee, das Verhältnis umzudrehen und den Computer die Piloten überwachen zu lassen. Dieser Ansatz wurde im europäischen Airbus A 320 umgesetzt, einem der bislang am weitesten automatisierten Flugzeuge. Seit seiner Einführung 1988 überwacht der Bordcomputer den Piloten. Wenn der Pilot am Steuerknüppel zieht, um die Richtung des Flugzeugs zu verändern, errechnet der Computer die maximale Neigung nach links oder rechts, aber er wird das Flugzeug nie mehr als 67 Grad seitlich oder mit der Nase 30 Grad nach oben oder unten kippen lassen. Im Wortlaut des Scientific American heißt dies, "die Software spinne einen elektronischen Kokon, der das Flugzeug an der Überschreitung seiner strukturellen Grenzen hindert". Es bedeutet außerdem, wie die Piloten bemängeln, daß der Pilot Kontrolle abgibt. 1989 erlebten Piloten von British Airways sechs Zwischenfälle mit 747 Boeings, bei denen sie sich über ein vom Computer veranlaßtes Herunterfahren der Leistung hinwegsetzen mußten. Wäre es ihnen nicht möglich gewesen, den fehlerhaften Autopiloten auszuschalten - laut der Firmenleitung von Boeing handelte es sich um einen Programmierungsfehler -, hätte der Irrtum fatale Folgen haben können. Der Airbus A320 räumt den Piloten eine derartige Entscheidung trotzdem nicht ein.

Menschliche Piloten hatten den Eindruck, für ihre Kontrolle über das Flugzeug kämpfen zu müssen. Sollte der Computer ein Pilot oder ein Navigationssystem sein? Die Piloten witzelten, daß man statt des Computers genausogut einen Hund hätte ins Cockpit stecken können. Die Aufgabe des Hundes ist es, den Piloten zu beißen, wenn er die Armaturen zu berühren versucht, und die einzige Aufgabe des Piloten besteht darin, den Hund zu füttern. In der Tat werden Piloten in dem Fachchinesisch des automatisierten Fliegens zu "Systemmanagern".

Ich bin mir ziemlich sicher, daß der Computer auf dem Sitz des Kopiloten landen wird. Vieles wird er gänzlich außerhalb des Einflusses des Piloten tun. Aber der Pilot wird das Verhalten des Computers managen oder hüten. Und die beiden - Maschine und Mensch - werden sich in einer dauerhaften Auseinandersetzung befinden, wie alle selbständigen Dinge. Flugzeuge werden mittels Ko-Kontrolle geflogen werden.

Peter Litwinowicz, Grafiker bei Apple, gelang ein großer Softwarecoup. Er extrahierte Körper- und Gesichtsbewegungen eines lebendigen menschlichen Schauspielers und übertrug sie auf digitale Schauspieler. Er ließ einen menschlichen Darsteller auf eine etwas theatralische Weise einen trockenen Martini bestellen. Er bediente sich dieser Mimik und Gestik - die hochgezogene Augenbraue, das Grinsen um die Mundwinkel, den Kopfschwung -, um das Gesicht einer Katze zu kontrollieren. Die Katze brachte die Szene genauso rüber, wie es der Schauspieler getan hätte. Als Zugabe legte Litwinowicz die Mimik des Schauspielers auf einen Zeichentrick-Charakter, dann auf eine starre klassische Maske, und schließlich brachte er einen Baumstamm damit zum Leben.

Menschliche Schauspieler werden nicht arbeitslos sein. Einige synthetische Figuren werden völlig autonom agieren, die meisten jedoch die Gestalt von Cyborgs besitzen. Ein Schauspieler wird eine Katze animieren, wogegen sich die künstliche Katze sträubt, und so dem Schauspieler hilft, eine bessere Katze zu werden. Ein Schauspieler kann in derselben Art von Ko-Kontrolle auf einem Cartoon "reiten", mit der ein Cowboy ein Pferd oder ein Pilot ein computergesteuertes Flugzeug reitet. Der grüne Körper einer Ninja Turtle kann auf eigenen Füßen durch die Welt sausen, aber der menschliche Schauspieler, der an der Kontrolle teilhat, sorgt hier und da für die passenden Feinheiten eines Lächelns oder legt letzte Hand an einen Brummton, indem er ihn höhnisch ausklingen läßt.

James Cameron, der Regisseur von Terminator II, erzählte vor nicht allzu langer Zeit einer Zuhörerschaft von Computergrafikspezialisten: "Schauspieler lieben Masken. Sie haben nichts dagegen, acht Stunden in der Maske zu sitzen, um geschminkt zu werden. Wir müssen sie zu Partnern bei der Erschaffung synthetischer Charaktere machen. Sie werden neue Körper und neue Gesichter bekommen, die ihnen Gelegenheit bieten, ihr Können zu erweitern."

Die Zukunft der Kontrolle: Partnerschaft, Ko-Kontrolle, Cyborg-Kontrolle. Das alles heißt, daß der Schöpfer die Kontrollfunktionen und sein Schicksal mit seinen Geschöpfen teilen muß.

Das Kapitel "Die Zukunft der Kontrolle" wurde leicht gekürzt dem Buch "Das Ende der Kontrolle" von Kevin Kelly entnommen, das im Bollmann Verlag erscheint. Die Veröffentlichung erfolgte mit der freundlichen Genehmigung des Verlages.