Netlife - das Schaffen eines Dschungels im Internet
Mit der Simulation Tierra soll die Evolution in die digitale Welt einziehen
Tom Ray hat die spektakuläre Simulation Tierra geschaffen, einen Versuch, die biologische Evolution in einer digitalen Ökosphäre mit Computerviren gleichenden Organismen nachzuahmen. Die nächste Etappe ist, Tierra im Internet zu installieren, um eine hinreichend große Ökosphäre zu erhalten. Leben in den Netzen wird eine neue Bedeutung erhalten - und vielleicht wächst im digitalen Dschungel ein Softwareleben heran, das auch nützlich sein kann.
Die Ausdehnung des Cyberspace (des Computerspeichers) auf der Erde ist bereits ziemlich groß und nimmt beständig zu. Seit kurzem ist ein großer und wachsender Teil dieses Speichers durch Inter-Netzwerke verbunden worden. Dies schafft eine radikal neue Situation, deren Potentiale noch nicht erforscht wurden. Wo wir bislang eine große Zahl von kleinen, isolierten Speicherbruchstücken hatten, sehen wir jetzt einen sehr großen Cyberspace. Trotzdem wurden die potentiellen Anwendungsbereiche dieses Raums bislang weder in ihrer Gänze erkannt und noch viel weniger realisiert. Obwohl sie miteinander vernetzt sind, agieren die meisten Computerspeicher während eines Großteils der Zeit weiterhin als isolierte Einheiten. Es ist an der Zeit, mit den Anwendungen des Cyberspace als einer Ganzheit zu experimentieren.
Neue Experimente im Bereich des Künstlichen Lebens haben zum äußerst bemerkenswerten Ergebnis geführt, daß Leben im Cyberspace existieren kann. Selbstreplizierende Maschinencode-Programme können durch natürliche Selektion in Computerspeichern evolvieren. Obgleich Tausende von Menschen auf der ganzen Welt dieses lebendige System auf ihrem Computer hatten, existierten diese Programme bislang nur als kleine Lebensinseln. Jeder einzelne Computer hat einen ökologischen Raum dargestellt, der vergleichbar mit dem organischen Äquivalent eines Mikro- oder Picoliters an Flüssigkeit ist, die einige Tausend replizierender Moleküle enthält. Das Evolutionspotential für die Entwicklung von komplexen und schönen Lebensformen ist durch die Beschränkung auf solch winzigen Räume enorm reduziert. Die Existenz eines weitaus größeren Cyberspace regt zur Schaffung eines Schutzgebietes biologischer Diversität für digitale Organismen auf dem Internet an.
Thomas Ray, ein Biologie, der in den Regenwäldern Costa Ricas forschte und noch immer großes Interesse an der Erhaltung biologischer Ökosysteme besitzt, geht davon aus, daß ein System dann lebendig ist, wenn es sich selbst replizieren kann und zu einer offenen Evolution fähig ist. Ende der 80er Jahre reifte in ihm das Projekt, ein künstliches Ökosystem auf dem Computer zu entwickeln, dessen Lebewesen aus Computerbefehlen bestehen, die im Speicher eines Computers leben, sich replizieren, mutieren, sterben und um Prozessorzeit und Speicherplatz kämpfen. 1990 liefen die ersten Tests auf einem Laptop - und es entwickelten sich aus der "geimpften" digitalen Ursuppe tatsächlich neue "Organismen" und "Parasiten", die sich in einer Art Wettrüsten befanden und sich den stets verändernden Bedingungen anpaßten. Doch Tierra war nur auf einem isolierten Computer installiert - einer Pfütze, die zu klein ist, um eine wirkliche Evolution in einer digitalen Ökosphäre zu entfalten. Die Gründe, die Ray dazu trieben, Tierra auf vernetzten Computern laufen zu lassen, breitet er in seinem Text über Netlife aus.
Evolutionsstrategien
Das zur Diskussion gestellte Projekt soll eine sehr große, komplexe und verbundene Region des Cyberspace schaffen, die mit digitalen Organismen geimpft wird, denen es möglich ist, sich frei durch natürliche Selektion zu entwickeln. Das Ziel besteht darin, ein digitales Äquivalent zur kambrischen Explosion der Diversität zu etablieren, in dem mehrzellige digitale Organismen (parallele MIMID-Prozesse) spontan an Diversität und Komplexität zunehmen. Wenn dieser evolutionäre Prozeß erfolgreich sein sollte, dann werden wir durch ihn die natürliche Form paralleler und verteilter Prozesse entdecken und extrem komplexe digitale Informationsprozesse erzeugen, die die Möglichkeiten unserer parallelen und vernetzten Hardware vollständig ausschöpfen. Das Projekt wird durch die Überlassung freier CPU-Zyklen von Tausenden mit dem Netz verbundenen Maschinen unterstützt, indem das Schutzgebiet als Hintergrundprozeß geringer Priorität auf partizipierenden Knoten läuft. Der Evolutionsprozeß natürlicher Selektion kann komplexe und schöne Informationsverarbeitungssysteme ohne Steuerung durch einen intelligenten Überwacher herstellen (wie etwa Nervensysteme von Primaten). Intelligente Programmierer sind bis jetzt nicht in der Lage gewesen, Softwaresysteme zu schaffen, die nur den Leistungen von solchen primitiven Organismen wie Insekten gleichkommen. Neue Experimente haben gezeigt, daß die Evolution durch natürliche Selektion erfolgreich in genetischen Sprachen arbeiten kann, die auf Maschinencodes digitaler Computer basieren (Ray 1991a, 1991b, 1994c). Das eröffnet die Möglichkeit, die Evolution zur Erzeugung komplexer Software einzusetzen.
Idealerweise möchten wir Software herstellen, die die volle Kapazität unserer besten Hardware, insbesondere der parallelen und vernetzten Computersysteme, ausschöpft. Es bleibt jedoch eine offene Frage, ob die Evolution eine solche Komplexität im Medium des Computers erreichen kann und, wenn dies der Fall sein sollte, wie dieses Ziel erreicht werden soll. Erfolgreiche Entwicklungen in der Evolution von Maschinencodes haben normalerweise mit Programmen unter hundert Bytes gearbeitet. Wie können wir die Evolution dazu veranlassen, solche einfachen Algorithmen in Software von riesiger Komplexität zu verwandeln?
Vielleicht erhalten wir einige Hinweise zur Lösung dieses Problems, wenn wir die vergleichbare evolutionäre Verwandlung bei organischen Lebensformen untersuchen. Das Leben erschien auf der Erde ungefähr vor 3,5 Milliarden Jahren, aber es verharrte in der Form von einzelligen Organismen bis zur kambrischen Periode vor etwa 600 Millionen Jahren. Zu dieser Zeit durchlief das Leben eine abrupte Verwandlung von einfachen, mikroskopisch kleinen und einzelligen Formen ohne Nervensystem zu komplexen, vielzelligen Formen mit Nervensystemen, die hochentwickeltes Verhalten koordinieren konnten. Also müßten wir vielleicht Millionen von Jahren darauf warten, unser Ziel erreichen zu können. Ich habe die mit der Evolution zusammenhängenden biologischen Probleme der Diversität und Komplexität studiert (Ray 1994a) und bin dabei zu folgendem Resultat gelangt:
Die Evolution von Komplexität ereignet sich im Kontext einer ökologischen Gemeinschaft von interagierenden evolvierenden Arten. Solche Gemeinschaften brauchen große und komplexe Räume, um existieren zu können. Eine große und komplexe Umwelt, die aus teilweise isolierten Lebensräumen besteht, deren Umweltbedingungen sich unterscheiden und sich zufällig verändern, würde für ein schnelles Anwachsen der Diversität und Komplexität am förderlichsten sein.
Diese Überlegungen führten zum Vorschlag, ein großes und komplexes ökologisches Schutzgebiet für digitale Organismen zu schaffen. Mit seiner Größe, seiner topologischen Komplexität und seinen sich dynamisch verändernden Formen und Bedingungen ist das globale Computernetzwerk der ideale Lebensraum für die Evolution von komplexen digitalen Organismen.
Einige häufig gestellte Fragen über die Evolution von Software sind: Wir können wir eine Evolution so steuern, daß nützliche Anwendungssoftware entsteht? Wie können wir den durch die Evolution hergestellten Code valuieren, um sicher zu gehen, daß die Anwendung korrekt funktioniert? Diese Fragen offenbaren einen begrenzten Blick darauf, wie die Evolution der Software eingesetzt und wozu sie benutzt werden kann. Ich werde im Folgenden diesbezüglich eine ziemlich radikale Perspektive formulieren.
Die Evolution wäre keine angemessene Technik zur Erzeugung von Rechensoftware oder von jeder Art Software, wo präzise Berechnungen erforderlich sind. Die Evolution wäre hingegen geeigneter für verschwommene (fuzzy) Probleme wie beispielsweise Mustererkennung. Wenn man beispielsweise einen Welpen erhält, den man zu einem Wachhund heranziehen will, dann kann man nicht die neurale Verschaltung oder den genetischen Code überprüfen, sondern man kann sehen, ob er lernt, Fremde anzubellen und freundlich zur eigenen Familie und zu Freunden zu sein. Das ist der Anwendungsfall, den die Evolution liefern kann. Wir brauchen nicht den Code zu überprüfen, sondern es sollte die Verifikation der Leistung durchgeführt werden.
Überdies werden Versuche, die frühe Evolution in Richtung auf eine erwünschte Anwendung zu steuern, ihr kreatives Potential unterdrücken. Wenn die Evolution durch natürliche Selektion einmal einen Ansatz für eine Anwendung geschaffen hat, dann kann die Steuerung durch künstliche Selektion (Zucht) die Qualität der Anwendung verbessern. Wir sollten jedoch nicht versuchen, die Evolution zu steuern, um an erster Stelle die Anwendung zu erzeugen. Vielmehr sollten wir darauf warten, was die Evolution uns anbietet. Schließlich wissen wir nicht notwendigerweise, was genau wir wollen.
Computerzeitschriften klagen die Suche nach der nächsten "killer software" ein, einer Software, die jeder will, aber an die bislang noch niemand gedacht hat. Die Märkte für die existierenden größeren Anwendungen (Wortprozessoren, Datenarchive etc.) sind bereits saturiert. Das Wachstum der Software-Industrie hängt von der Erfindung völlig neuer Anwendungen ab. Das impliziert, daß es Software-Arten gibt, die jeder will, aber die bislang noch nicht erfunden wurden. Wir müssen nicht die Evolution einsetzen, um bessere Versionen von bereits existierenden Anwendungen herzustellen. Wir sollten der Evolution eher gestatten, für uns neue Anwendungen zu finden. Um diesen Prozeß deutlicher zu machen, überlege man, wie wir Anwendungen durch organische Evolution handhaben.
Einige der Anwendungen, die durch organische Evolution zustandekamen, sind: Reis, Roggen, Weizen, Karotten, Fleisch- und Milchkühe, Schweine, Hühner Hunde, Katzen, Baumwolle, Tabak, Nerze, Schafe, Seidenraupen, Hefe und Penicillin. Wenn wir diesen Organismen niemals begegnet wären, hätten wir auch niemals an sie gedacht. Wir haben sie in Anwendungen verwandelt, weil wir das Potential in einigen Organismen erkannten, das spontan innerhalb eines sich frei durch natürliche Selektion evolvierenden Ökosystems von Organismen entstanden ist.
Wenn die Seidenraupe niemals existiert hätte, aber wir irgendwie eine vollständige Beschreibung von Seide gefunden hätten, dann würde es zwecklos sein, die Evolution irgendeines existierenden Geschöpfes so zu beeinflussen, daß es Seide herstellt. Viel produktiver ist es, die von Organismen durch die Evolution bereits hergestellten Gaben anzuschauen, um neue Anwendungen für existierende Organismen herauszufinden. Zucht mag notwendig sein, um die Anwendung für die Praxis tauglich zu machen. Getreide, Hunde und Rinder sind beispielsweise stark gezüchtete Organismen, die in ihrer gegenwärtigen Form von größerer Nützlichkeit sind als in der ihrer wilden Vorfahren.
Stellen Sie sich einen Augenblick lang vor, daß eine Gruppe von irdischen Biologen auf einem Planeten zu dem Zeitpunkt angekommen wäre, an dem dessen kambrische Explosion der Diversität gerade begonnen hatte. Nehmen wir an, daß diese Biologen mit einer Liste der oben angeführten Nutzorganismen (Reis, Getreide, etc.) und ihrer genauen Beschreibung eingetroffen sind. Könnten diese Biologen in den evolutionären Prozess eingreifen, um die Herstellung eines dieser Organismen zu beschleunigen? Das ist nicht nur unwahrscheinlich, sondern alle Versuche, in den Prozess einzugreifen werden wahrscheinlich die Diversifikation selbst verhindern.
Es wäre widersinnig zu behaupten, daß Menschen die Evolution nützlicher komplexer Organismen ausgehend von ihren einfachen einzelligen Vorfahren dirigieren könnten. In Wirklichkeit können wir uns nicht einmal vorstellen, welche Möglichkeiten es gibt, und noch viel weniger wissen, wie sich diese realisieren lassen, wenn wir sie erfassen könnten. Glücklicherweise ist unser Einwirken nicht notwendig. Die Evolution durch natürliche Selektion wird ein reiches Spektrum an komplexen Organismen hervorbringen. Wir können sie inspizieren und jene mit möglichen Nutzanwendungen Züchtungs- und Domestizierungsprogrammen unterziehen.
Natürliche Evolution im digitalen Medium ist eine neue Technologie, über die wir wenig wissen. Die Hoffnung liegt darin, Software mit einer hochgezüchteten Funktionalität evolvieren zu lassen, die über alles hinausgeht, was bislang von Menschen hergestellt wurde. Doch wie lange könnte dies dauern? Die Evolution im organischen Medium kennt man als einen langsamen Prozess. Sicher besteht die Möglichkeit, daß die Evolution im digitalen Medium zu langsam sein wird, um ein sinnvolles Instrument zur Herstellung von Software zu sein, aber einige Beobachtungen können Mut vermitteln.
Rechenprozesse im Computer laufen erstens in elektronischer Geschwindigkeit ab und sind relativ schnell. Während der kambrischen Revolution produzierte die Evolution zweitens, wie bereits gesagt, eine solch schnelle Inflation der Komplexität und Diversität, daß sie eben als "Explosion" bezeichnet wurde. Es muß noch ein dritter Punkt ausgeführt werden. Lassen Sie uns dazu ein Gedankenexperiment ausführen.
Stellen Sie sich vor, daß wir Roboter sind. Wir wurden aus Metall hergestellt und unsere Gehirne wurden aus großen integrierten Silizium-Schaltkreisen oder einem anderen Halbleiter zusammengesetzt. Stellen Sie sich weiterhin vor, daß wir keine Erfahrung mit kohlenstoffbasiertem Leben besitzen. Wir haben es niemals gesehen, niemals davon gehört oder selbst über es nachgedacht. Nehmen wir jetzt an, daß ein Roboter mit einem Kolben die Szene betritt, der Methan, Ammoniak, Wasserstoff, Wasser und ein paar aufgelöste Mineralien enthält. Dieser Roboter fragt unsere akademische Versammlung: "Glauben Sie, wir könnten aus diesem Material einen Computer bauen?" Die Theoretiker in der Gruppe würden sicherlich ja sagen und einige Lösungsansätze für das Problem vorschlagen. Doch die Ingenieure würden sagen: "Warum sollten wir uns darum kümmern, wenn Silizium für Informationsverarbeitung weitaus besser geeignet ist als Kohlenstoff."
Aus unserer organozentrischen Perspektive könnten die Roboteringenieure naiv erscheinen, aber in Wirklichkeit haben sie, wie ich meine, recht. Kohlenstoffbasierte Chemie ist ein schlechtes Medium für Informationsverarbeitung. Dennoch verkörpert der Evolutionsprozess eine solch mächtige Tendenz zur Generierung von informationsverarbeitenden Systemen, daß er dazu in der Lage war, kohlenstoffbasierte Dinge für das Verarbeiten von Information aufzubereiten, die die Schönheit und Komplexität des menschlichen Geistes hervorbringen. Was könnte eine derartig mächtige Neigung zur Informationsverarbeitung in einem Medium bewirken, das primär für diesen Zweck geschaffen wurde? Wahrscheinlich gelangt es schneller zu einer hochgezüchteten Informationsverarbeitung als die Evolution in der kohlenstoffbasierten Evolution, und wahrscheinlich würde es eine vergleichbare Funktionalität mit einer größeren Ökonomie von Form und Prozess erreichen.
Tierra
Die Installation von Tierra auf einem Netzwerk wird ein virtuelles Unternetzwerk schaffen, in dem digitale Organismen sich frei bewegen und kommunizieren können. Dieses Netzwerk wird eine komplexe Topologie von Verbindungen enthalten, die die Topologie des Internet widerspiegeln, in das es eingebettet ist. Zusätzlich wird es komplexe Muster der "Verfügbarkeit von Energie" (Zugriff auf CPU-Zyklen) geben, da die Installationen von Tierra als Hintergrundprozesse niedriger Priorität laufen und wegen der heterogenen Natur der wirklichen Hardware, die mit dem Netz verbunden ist. Ein kleine Version dieses Konzepts wurde bereits in Form einer CM5-Version von Tierra implementiert, die zur Simulation der Netzwerkversion dient.
Man bedenke, daß jeder Knoten des Netzes dazu neigt, einem täglichen Aktivitätszyklus zu unterliegen, der die Gewohnheiten der an diesem Knoten arbeitenden Benutzer widerspiegelt. Die Verfügbarkeit von CPU-Zeit für den Tierra-Prozess wird die Aktivität der Benutzer spiegeln, da Tierra nur die Rechenzeit eralten wird, die von den Benutzern nicht für andere Arbeiten benötigt wird. Statistisch wird es während der Nacht, wenn die Benutzer schlafen, eher mehr für die digitalen Organismen verfügbare "Energie" geben. Aber dies wird zu einem guten Teil von den Gewohnheiten der individuellen Benutzer abhängen und sich von Tag zu Tag ändern.
Für digitale Organismen wird es einen harten selektiven Druck geben, sich auf Knoten mit einer hohen Versorgung mit Energie anzusiedeln. In einer ersten Annäherung wird dies zu täglichen Wanderungen um den Planeten führen, wo sie jeweils auf der dunklen Hälfte bleiben. Sie müssen jedoch einige direkte sensorische Fähigkeiten entwickeln, um auf lokale Abweichungen von den erwarteten Mustern zu reagieren. Wenn reiche Energieressourcen auf einem lokalen Unternetz entdeckt wurden, dann kann es eher von Vorteil sein, sich lokal auf diesem Unternetz zu verbreiten als über große Entfernungen. Folglich tritt vermutlich eine Selektion ein, um die "Orientierung" und Entfernungen von Bewegungen innerhalb des Netzes zu steuern.
Alle diese Bedingungen sollten die Evolution von "sensorischen" Fähigkeiten verstärken, die Energiezustände und die räumliche Struktur im Netz zu erfassen, aber auch die Evolution der Fähigkeit, zeitliche Muster in denselben Gegebenheiten festzustellen. Zusätzlich zur Fähigkeit, diese Muster wahrzunehmen, benötigen die digitalen Organismen die Fähigkeit, ihre Handlungen und Bewegungen in Reaktion auf wechselnde Bedingungen zu koordinieren. Kurz, die digitalen Organismen müßten imstande sein, in Reaktion auf sich dynamisch verändernde Umstände intelligent durch das Netz zu navigieren.
Ein primäres Hindernis für die Evolution von Komplexität im System Tierra lag darin, daß in der relativ einfachen Installation in einem einzigen Knoten ein zwanzig oder vierzig Byte großer Algorithmus, der sich schnell und effizient kopiert, nicht von einem viel komplexeren Algorithmus übertroffen werden kann, der für seine Replikation dank seiner Größe viel mehr Zeit benötigt. Es gibt einfach keinen Zwang, mehr zu tun, als sich schnell zu kopieren. Die heterogenen und wechselnden Muster der Verfügbarkeit über Energie und der vernetzten Topologie des Netzwerkes werden jedoch komplexeres Verhalten belohnen. Die Hoffnung besteht, daß dies die Evolution in die Richtung größerer Komplexität drängen wird. Wenn diese Tendenz einmal eingesetzt hat, sollten die Interaktionen zwischen den zunehmend schlaueren Organismen selbst zu einer weiteren Steigerung von Komplexität führen.
Die in diesem Projektvorschlag verteidigte Strategie besteht darin, die natürliche Selektion den Großteil der Arbeit bei der Steuerung der Evolution und der Produktion komplexer Software machen zu lassen. Diese Software wird "wild" sein, da sie frei in der digitalen Schutzzone der Biodiversität lebt. Um die Früchte zu ernten und sinnvolle Anwendungen zu schaffen, werden wir einige der wilden digitalen Organismen domestizieren müssen, genauso wie unsere Vorfahren vor vielen tausend Jahren damit begonnen haben, die Vorfahren der Hunde und des Getreides zu domestizieren.
Der Prozeß muß mit einer Beobachtung beginnen. Digitale Naturforscher müssen den digitalen Dschungel erforschen, indem sie die Naturgeschichte, die Ökologie, das Verhalten, die Physiologie, die Morphologie und viele andere Aspekte der Biologie der Lebensformen des digitalen Ökosystems beobachten und diese Beobachtungen veröffentlichen. Der Großteil dieser Arbeit wird akademischer Natur sein, wie die der modernen Tropenbiologen, die unsere organischen Dschungel erforschen (was ich zwanzig Jahre lang gemacht habe).
Zufällig werden diese digitale Biologen jedoch einen interessanten Informationsprozeß ausmachen, für den sie eine Anwendung sehen. Zu diesem Zeitpunkt werden einige Individuen eingefangen und zur näheren Untersuchung in Laboratorien oder zur Aufzucht in Farmen gebracht. Manchmal wird man das Züchten zusammen mit der Gentechnologie betreiben (Einführung eines handgeschriebenen Codes oder Übertragung eines Codes von anderen digitalen Organismen). Das Ziel wird darin bestehen, die Leistung des Prozesses zu verstärken, für den es eine Anwendung gibt, während man gleichzeitig das regellose wilde Verhalten vermindert. Einige digitale Organismen werden sich besser als andere domestizieren lassen, wie dies auch bei organischen Organismen der Fall ist (Alligatoren lassen sich nicht domestizieren, dennoch können wir sie wegen ihrer Haut halten).
Wenn ein digitaler Organismus einmal bis zu dem Punkt hin gezüchtet und/oder genetisch geformt wurde, daß er als Anwendung für Endverbraucher dienen kann, werden sie wahrscheinlich kastriert werden müssen, um sie von einer unerwünschten Fortpflanzung abzuhalten. Sie werden auch in Umgebungen eingesetzt werden, die frei von jenen Mutationen sind, die sich in den Code einschreiben, wenn sie in der Schutzzone leben. Durch die Kontrolle der Reproduktion und den Schutz vor Mutation wird ihre Evolution am Ort des Endverbrauchers gestoppt. Ebenso könnte der nicht-replizierende interpretierte virtuelle Code in einen Code übersetzt werden, der direkt auf Host-Maschinen operiert, um deren Arbeit zu beschleunigen.
Die in der Schutzzone der Biodiversität lebenden Organismen werden sich wesentlich im öffentlichen Bereich befinden. Jeder, der will, kann sie beobachten und versuchen, sie zu domestizieren. Die Beobachtung, Entwicklung und genetische Manipulation von digitalen Organismen wird die Entwicklung vieler neuer Technologien erfordern. An dieser Stelle kann die freie Wirtschaft ins Spiel kommen. Die eingefangene, domestizierte, manipulierte und kastrierte Software, die zum Endverbraucher geliefert wird, wird ein verkäufliches Produkt sein, wobei die Gewinne an die Firma gehen, die die Arbeit geleistet hat, die Software von der digitalen Schutzzone auf den Markt zu bringen
Es scheint auf der Hand zu liegen, daß Organismen, die in der netzbasierten Schutzzone der Biodiversität evolvieren, Verhaltensweisen zur effizienten Navigation im Netz entwickeln. Dies legt nahe, daß der offensichtlichste Anwendungsbereich für diese Organismen im Einsatz als autonome Netzagenten liegt. Viel weniger wahrscheinlich ist es, daß diese Art der Evolution Software zur Steuerung von Robotern oder zur Stimmen- bzw. Bilderkennung herstellen wird, da die netzbasierten Organismen normalerweise nicht den hierfür bedeutsamen Informationsflüssen ausgesetzt werden. Aber weil wir hier sicher nicht erkennen können, wohin die Evolution im digitalen Bereich führen wird, müssen wir aufmerksam, phantasievoll in unseren Interpretationen ihrer Fähigkeiten und offen für neue Möglichkeiten der Anwendung bleiben.
Literatur: Kurt Thearling and Thomas S.Ray (1994): Evolving multi-cellular artificial life. Rodney A.Brooks and Pattie Maes (eds.): Artificial Life IV conference proceedings. Pp. 283-288. The MIT Press, Cambridge.
Thomas S.Ray (1991a): An approach to the synthesis of life. C.Langton, C.Taylor, J.D.Farmer and S.Rasmussen (eds.): Artificial Life II. Santa Fe Institute Studies in the Sciences of Complexity, vol. X, 371-408. Redwood City, CA: Addison-Wesley.
ders. (1991b): Evolution and optimization of digital organisms. K.R.Billingsley, E.Derohanes, H.Brown (eds.): Scientific Excellence in Supercomputing: The IBM 1990 Contest Prize Papers. Athens, GA, 30602. The Baldwin Press, The University of Georgia, 489-531.
ders. (1994a): An evolutionary approach to synthetic biology: Zen and the art of creating life. Artificial Life 1(1/2), 195-226.
ders. (1994b): A proposal to create a network-wide biodiversity reserve for digital organisms. Erhältlich durch anonymous ftp: tierra.slhs.udel.edu (128.175.41.34) und life.slhs.udel.edu (128.175.41.33) als tierra/doc/reserves.tex
ders. (1994c): Evolution, complexity, entropy, and artificial reality. Physica D 75, 239-263.
Aus dem Englischen übersetzt von Florian Rötzer