Künstliches Leben und virtuelle Agenten

Zur digitalen Evolution intelligenter Netzwelten

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Life Sciences und Informatik wachsen zu neuen Zukunftstechnologien zusammen. Nach der Künstlichen Intelligenz (KI) ist Künstliches Leben (KL) eine neue Forschungsrichtung der Informatik, die Eigenschaften der biologischen Evolution in Computermodellen untersucht und als Software oder Hardware bei technischen Problemlösungen einsetzt.

Neben Robotik und Biocomputing, die Lebensformen in Computerhardware simulieren, werden lern- und anpassungsfähige Softwareprogramme von zentraler Bedeutung sein. So werden die komplexen Computer- und Kommunikationsnetze zukünftig nur noch mit Hilfe von virtuellen Organismen ('Agenten') bewältigt werden können, die sich den Wünschen und Zielen menschlicher Nutzer selbstständig anpassen. In einer künstlichen Evolution wird sich ein weltweites elektronisches Ökosystem herausbilden, in dem virtuelle Lebensformen wie Kooperation und Symbiose zur besseren Informationsbewältigung beitragen, aber ebenso wildwüchsiger Parasitismus (z.B. Computerviren) anzutreffen ist. Mittlerweile werden bereits virtuelle Agenten diskutiert, die mit Formen von Intelligenz und Emotion ausgestattet sind. Damit stellt sich die ethische Frage, welche dieser technischen Entwicklungen menschliche Nutzer verantworten können.

Komplexe Evolution natürlichen Lebens

Komplexe Systeme, intelligente Computer und Selbstorganisation. Ein Gespräch mit Klaus Mainzer.
Künstliches Leben. Thomas Ray über die Grundlagen und Aussichten des Künstlichen Lebens und sein System Tierra.

Die Evolution des Lebens ist Beispiel einer komplexen Selbstorganisation. Die Physik bietet viele Beispiele von komplexen Systemen, deren Elemente sich unter geeigneten Nebenbedingungen zu neuen Ordnungen selbständig zusammenfügen. Da wir das einzelne Verhalten z.B. der vielen Atome und Moleküle in einer Flüssigkeit nicht kennen können, beschreiben wir das Gesamtverhalten eines komplexen Systems mit den Gesetzen der statistischen Physik.

Ein alltägliches Beispiel ist ein Regentropfen auf einem Blatt mit seiner perfekten glatten Oberfläche. Da das System thermodynamisch einen Zustand niedrigster Gesamtenergie einnehmen muß, minimiert der Tropfen die Ausdehnung seiner Oberfläche und bildet so seine Form. Bekannt sind auch die Eiskristalle, zu denen sich Wassermoleküle in der Nähe des Gefrierpunktes zusammenfügen. Bei abgeschlossenen ('konservativen') Systemen in der Nähe des thermischen Gleichgewichts sprechen wir von einer konservativen Selbstorganisation. In offenen ("dissipativen") Systemen können verschiedene Ordnungsstrukturen fern des thermischen Gleichgewichts durch Stoff- und Energieaustausch mit ihrer Umwelt entstehen (dissipative Selbstorganisation). Dabei wirken hochgradig nichtlineare Mechanismen. Beispiele sind Wolkenbilder am Himmel oder Strömungsbilder eines Flusses, die von regulären Mustern bis zu chaotischen Wirbeln reichen. Wenn die Energiezufuhr eines Lasers stetig erhöht wird, entstehen ebenfalls typische Wellenmuster - vom regulären Laserstrahl bis zur chaotischen Lichtturbulenz. Aus der Chemie sind Spiralen und Ringwellen von Gemischen bekannt, die durch äußere Stoff- und Energiezufuhr aufrecht erhalten werden.

Solche offenen physikalischen und chemischen Systeme realisieren Eigenschaften, die wir auch lebenden Systemen zuschreiben. Es findet ein Stoff- und Energieaustausch mit der Umwelt statt, der das System von Tod und Erstarrung im thermischen Gleichgewicht fernhält und die Ordnung des Systems aufrecht erhält. Die Ordnungen entstehen durch "Selektion" und "Kooperation" der Systemteile bei geeigneten Bedingungen. Geringste Fluktuationen können zu globalen Veränderungen des Gesamtsystems führen.

Auch biologische Systeme bauen ihre Ordnung selbständig aus ihren Teilen unter geeigneten Nebenbedingungen auf: Neue Zellen gehen aus vorhandenen durch Teilung hervor. Aus der befruchteten Eizelle entwickelt sich so schließlich ein neuer Organismus. Allerdings reichen zur Erklärung die Gesetze der Thermodynamik nicht aus. Bei der zellulären Selbstorganisation sind die Anweisungen für den Aufbau des Systems in den Bausteinen selbst (d.h. der molekularen DNS-Struktur der Zelle) verschlüsselt. Man spricht daher von einer genetisch kodierten Selbstorganisation der biologischen Evolution im Unterschied zur thermodynamischen Selbstorganisation. Auch das ökologische Zusammenleben von Populationen läßt sich mit komplexen dynamischen Systemen erfassen. Ökologische Systeme sind nämlich komplexe offene Systeme von Pflanzen oder Tieren, die in gegenseitigen (nichtlinearen) Kopplungen mit ihrer Umwelt fern des thermischen Gleichgewichts leben. Ihre ökologischen Lebensräume sind labile Gleichgewichte am Rande des Chaos. Nur beständiges Fitnesstraining vermag sie vor dem Absturz zu bewahren.

Der menschliche Organismus ist selber ein komplexes zelluläres System, in dem beständig labile Gleichgewichte durch Stoffwechselreaktionen aufrecht erhalten werden müssen. Eine der aufregendsten fachübergreifenden Anwendungen komplexer Systeme ist das menschliche Gehirn. Dazu wird das Gehirn als ein komplexes System von Nervenzellen (Neuronen) aufgefaßt, die über Synapsen elektrisch oder neurochemisch wechselwirken. In ihren Wellenmustern vermuten einige Forscher fraktale und chaotische Strukturen, die der nichtlinearen Dynamik unseres Wahrnehmens, Fühlens und Denkens zugrunde liegen. Die biologische Evolution hat im Laufe von Millionen von Jahren unterschiedlich komplexe neuronale Netzwerke und Lernverfahren entwickelt und ausgetestet. Nach der thermodynamischen und genkodierten Selbstorganisation sprechen wir dann von der neuronalen Selbstorganisation der biologischen Evolution.

Komplexe Evolution künstlichen Lebens

Diskrete Vereinfachungen von atomaren, molekularen und zellulären Zuständen genügen häufig, um die hochgradige Nichtlinearität einer Systemdynamik im Computermodell zu simulieren. Ein erfolgreicher Ansatz sind die zellulären Automaten. Es handelt sich um komplexe Systeme aus vielen Zellen mit endlich vielen Zuständen, die man sich anschaulich als Quadrate eines Schachbretts mit unterschiedlichen Färbungen vorstellen kann. Bei einem 2-dimensionalen zellulären Automaten hängen die Zustände der Zellen von den Nachbarzellen in der Ebene ab. So ist z.B. bei der Kreuzform der von-Neumann-Umgebung jede Zelle ein Automat mit 5 Inputs der 4 benachbarten Zellen und dem Zellzustand selber. Damit läßt sich das dendritische Wachstum von Kristallen simulieren. Bei der Entstehung einer Schneeflocke aus einer kalten Kernzelle folgen die Dendriten den kälteren Zonen in einer umgebenden Flüssigkeit. Die lokale Regelanwendung berücksichtigt den dabei auftretenden Vorgang der Wärmedissipation. Der zelluläre Automat simuliert also die natürliche Dynamik im diskreten Modell.

Oszillierende Ringwellen und Spiralen in erregbaren Medien, wie sie z.B. in der Chemie bei der BZ-Reaktion auftreten, lassen sich ebenfalls durch zelluläre Automaten simulieren. In diesem Fall sind für die Zellen die drei Zustände 'erregt', 'refraktär, nicht erregbar' und 'nicht erregt, aber erregbar' zu unterscheiden. Entsprechende Regeln beschreiben die Entwicklung und Oszillation solcher Wellen durch Abfolge dieser Zustände über ein schachbrettartiges Feld.

Eine bemerkenswerte Anwendung liefert auch die Kardiologie. Etabliert sich im Herzmuskel aufgrund von geschädigtem und nicht mehr erregbarem Gewebe eine Spiralwelle, so wird die Ausbreitung von Aktionspotentialen stark beeinträchtigt. Spiralwellen sind lebensbedrohlich und können Herzkammerflimmern auslösen. Man versucht sie daher etwa durch Defibrillation zu löschen. Im Modell eines zellulären Automaten läßt sich die Entstehung einer Spiralwelle an einem Hindernis genau studieren.

Bereits John von Neumann bewies in den 50er Jahren, daß zelluläre Automaten unter bestimmten Voraussetzungen in der Lage sind, einzelne Lebenskriterien wie z.B. die Selbstreproduktion zu simulieren. Allerdings scheiterte eine technische Realisation lange an von Neumanns starker Forderung, daß selbstreproduzierende Automaten die Komplexität einer universellen Turing-Maschine haben sollten. In der präbiologischen Evolution hatten die ersten sich selbst reproduzierenden Makromoleküle und Organismen sicher nicht den Komplexitätsgrad eines solchen Supercomputers.

Daher entwickelte C. G. Langton (1986) einfachere zelluläre Automaten ohne die Fähigkeit universeller Berechenbarkeit, die sich spontan in bestimmten Perioden wie Organismen reproduzieren können. Anschaulich erinnern ihre PC-Bilder an einfache zelluläre Organismen mit kleinen Schwänzen, aus denen sich ähnliche kleine Organismen bilden. Schließlich bedeckt eine Kolonie solcher Organismen den Bildschirm. Während sie sich an den Außenrändern reproduzieren, werden die mittleren bei der Selbstproduktion von ihren eigenen Nachkommen blockiert. Wie bei einem Korallenriff bilden sie ein totes zelluläres Skelett, auf dem das virtuelle Leben weitergeht.

Die Zelldifferenzierung eines wachsenden Organismus läßt sich im dynamischen System durch nichtlineare Differentialgleichungen (Diffusions- und Reaktionsgleichungen) für wachstumsfördernde und hemmende Stoffe simulieren. Mit LINDENMAYER-Algorithmen kann virtuelles Wachstum im Computer erzeugt werden (z.B. für Gametophyten des Farns Miscrosorium linguaeforme). Entsprechende PC-Bilder zeigen eine verblüffende Ähnlichkeit mit Fotos des biologischen Organismus.

Mit zellulären Automaten und genetischen Algorithmen lassen sich auch wesentliche Aspekte der Evolution simulieren. Die Codenummer eines Automaten mit ihren verschlüsselten Befehlen wird als Genotyp eines virtuellen Organismus verstanden. Der Phänotyp dieses virtuellen Organismus zeigt sich in den zellulären Mustern, die bei unterschiedlichen Anfangsbedingungen erzeugt werden. Zufälliger Austausch von 0 und 1 (z.B. durch einen Würfelmechanismus) entspricht einer Mutation. Verschiedene Rekombinationen von Teilsträngen der Codenummern sind zugelassen. In jeder Generation werden die erzeugten Automaten danach selektiert, wie sie am besten bestimmte Probleme gelöst haben. 'Survival of the fittest' kann z.B. in Klassifikationsaufgaben bestehen. Die Evolution einer Automatenpopulation bedeutet also, daß genetische Algorithmen mit Mutation, Rekombination und Selektion zur Optimierung von Automatengenerationen führen.

Zelluläre Automaten lassen sich als diskrete Modelle kontinuierlicher dynamischer Systeme anwenden. Sie eignen sich daher für Computersimulationen komplexer Systemdynamik. Von komplexen dynamischen Systemen wissen wir, daß sich lebende Organismen einerseits von der Erstarrung in zuviel Ordnung im thermischen Gleichgewicht fernhalten müssen, aber andererseits auch nicht in zuviel Chaos auflösen dürfen. Das würde den Komplexitätsgraden von zellulären Automaten als Simulationen dynamischer Systeme entsprechen. Systeme fern des thermischen Gleichgewichts, aber am Rande des Chaos haben den höchsten Komplexitätsgrad. Systeme mit hochgradiger Regularität wie z.B. Kristalle in der Nähe des thermischen Gleichgewichts oder Systeme mit chaotischer Irregularität wie Moleküle in einem Gas haben geringe Komplexität. Lebende und lernende Organismen wie das hochstrukturierte Molekülsystem der DNS oder das hochausdifferenzierte menschliche Gehirn hätten die höchsten bekannten Komplexitätsgrade fern von der Erstarrung der Systeme im Gleichgewicht. Dem kritischen Phasenübergang von geordneten zu chaotischen Systemen entspricht der Übergang zu immer aufwendigeren Berechnungsproblemen auf Computern.

Nach diesem Prinzip wurden in den letzten Jahren mehrere Evolutionsspiele erprobt. In TIERRA von Thomas Ray strebt eine Population von 'creatures' einem ökologischen Gleichgewicht zu, das von den Möglichkeiten der jeweiligen virtuellen Umwelt abhängt. Um die Variabilität zu erhöhen, schlägt der Autor eine Erweiterung des Evolutionsspiels auf das Internet vor. Auch POLY WORLD oder SIM LIFE simulieren die Dynamik virtueller Ökosysteme.

Die Komplexität der Lebensformen läßt sich heute durch eine Liste von Kriterien bestimmen, die von der genkodierten Selbstorganisation mit Selbstreproduktion, Mutation und Metabolismus bis zur neuralen Selbstorganisation mit reaktivem und adaptivem Verhalten, Lernfähigkeit, Emotion und Bewußtsein reichen. Einzelne Kriterien sind bereits in Softwareprogrammen simulierbar, die von sich selbst reproduzierenden KL-Systemen (z.B. zelluläre Automaten) und genetischen Evolutionsstrategien bis zu wissensbasierten KI-Systemen, adaptiven und lernfähigen neuronalen Netzen reichen. Die Neuroinformatik untersucht die Bau- und Lernverfahren von Gehirnen, um sie als 'Blaupausen' für lernfähige technische neuronale Netze zu nutzen.

Komplexe Evolution virtueller Agenten

Wissen, Lernfähigkeit und Intelligenz sind aber keineswegs an das Nervensystem und Gehirn eines einzelnen Organismus gebunden. Tierpopulationen (z.B. Ameisen- und Termitenkolonien) entwickeln kollektive Problemlösungs- und Konstruktionsverfahren (z.B. Transportnetze und Termitenbauten), zu denen einzelne Tiere nicht fähig sind. In dem Computermodell MANTA (Modelling an ANTnest Activity) bevölkern Software-Ameisen eine schachbrettartige Fläche, auf deren Quadrate sie ihre mehr oder weniger starken 'Duftmarken' als elektronische Signale hinterlassen. Ausgestattet mit unterschiedlichen Reaktionsmöglichkeiten entwickeln sie elektronische (statt chemischer) Diffusionsfelder, mit denen sie untereinander kommunizieren, auf Umweltsituationen reagieren und eine arbeitsteilige Ordnung mit Larven, Arbeits-, Transport- und Versorgungs-tieren entwickeln.

Auch die menschliche Gesellschaft läßt sich als ein vernetzter Superorganismus mit nichtlinearer Eigendynamik verstehen. Mit seinen technischen Computer- und Informationssystemen wird er die Fähigkeiten des einzelnen Individuums in vielen Bereichen überflügeln und eine neue kollektive Intelligenz entwickeln. Internet und World Wide Web sind nur der Einstieg in die digitale Evolution intelligenter Netzwelten. Die im Netz verteilte Intelligenz ist seit den 80er Jahren Thema der 'Distributed Artificial Intelligence' (DAI).

Die Informationsflut in den komplex vernetzten Computer- und Kommunikationssystemen kann allerdings von einem einzelnen Nutzer nicht mehr bewältigt werden. Dazu bedarf es der Unterstützung mehr oder weniger adaptiver und lernfähiger Softwareprogramme ('Agenten'), die selbständig ('autonom') sich den Wünschen und Zielen des menschlichen Nutzers z.B. bei der Auswahl von Netzinformationen anpassen. Da diese virtuellen Agenten mit simulierten Eigenschaften lebender Systeme ausgestattet werden, verbindet sich an dieser Stelle die DAI mit der AL- ('Artificial Life') bzw. KL-Forschung. Analog zur künstlichen Evolution einer Automatenpopulation könnte eine Population von Softwareagenten ihre Fitnessgrade verbessern oder selektiert werden, je nachdem wie erfolgreich sie die gestellten Aufgaben löst oder sich einer ständig verändernden Netzumwelt anzupassen in der Lage ist.

Virtuelle Agenten können stationär am Arbeitsplatz des menschlichen Nutzers wie persönliche Assistenten wirken und selbstständig z.B. die Email Post nach den gelernten Nutzerwünschen auswählen. Sie können aber auch als mobile Agenten ins World Wide Web geschickt werden, um an verschiedenen Orten selbständig z.B. Informationsrecherchen vorzunehmen. Ein praktischer Vorteil mobiler Agenten ist die Minimierung von Online-Zeit und damit von Kosten. Als 'geklonte' Softwarewesen können sie zudem in beliebiger Vielzahl an verschiedenen Orten gleichzeitig arbeiten.

In einem offenen elektronischen Dienstleistungsmarkt können auch stationäre mit mobilen Agenten verbunden werden. Der Anbieter einer Dienstleistung (z.B. einer Datenbank) stellt einen stationären Agenten quasi wie einen elektronischen Bibliothekar zur Verfügung, der auf die Wünsche des geschickten mobilen Agenten eingeht. Der mobile Agent könnte z.B. bei erfolgloser Suche nach einer bestimmten Information vor Ort selbständig entscheiden, eine damit zusammenhängende Information zu suchen, auf die ihn vielleicht der Anbieteragent aufmerksam gemacht hat. Die Reaktionen und Kommunikationen der Agenten erfolgen häufig in der Programmiersprache Java. Mit wachsender Komplexität der Computer- und Kommunikationssysteme werden virtuelle Agenten für das Netzmanagement ebenso unverzichtbar sein wie mikrobielle Organismen für die Lebensfähigkeit des menschlichen Körpers. Bei ungelösten Sicherheitsproblemen könnten sie sich leider auch als gefährliche Computerviren verselbständigen.

Je nach Aufgabenstellung sind virtuelle Agenten unterschiedlich spezialisiert. Neben den persönlichen elektronischen Assistenten, die sich autonom den veränderten Wünschen der Nutzer anpassen, wird es Netzagenten geben, die in den heterogenen Multimediasystemen des Netzes (Datenbanken, Textsysteme, Grafiksysteme, etc.) Informationen sammeln. Wissensagenten werden sie filtern und integrieren, andere weiterleiten und speichern, Sicherheitsagenten im Sinne eines virtuellen Immunsystems schützen, etc. Prinzipiell könnten virtuelle Agenten mit einer Skala von mehr oder weniger starken Fähigkeiten ausgestattet werden. In der bisher realisierten schwachen Agententechnologie entscheiden stationäre oder mobile Softwareprogramme autonom über vorgegebene Ziele, reagieren auf veränderte Netzsituationen und tauschen Informationen aus. Ein wirtschaftliches Beispiel sind Investoragenten, die aufgrund von Entscheidungsregeln über gute oder schlechte Börsennachrichten den An- und Verkauf von Wertpapieren zur Zusammensetzung eines günstigen Portfolio vorschlagen. Diese Agententechnologie läßt sich als Erweiterung aktiver Datenbanken verstehen, die bereits autonom mit regelbasierten Programmen über die Anwendung von Geschäftsregeln (z.B. Benutzungsrechte), laufende Informationserweiterung oder Informationssicherung entscheiden können.

In einer starken Agententechnologie sind virtuelle Agenten lernfähig und flexibel, verfolgen eigene Ziele, verfügen über eine Motivationsstruktur ('Emotionen') und registrieren ihre Identität ('Bewußtsein'). Lernfähigkeit und Flexibilität läßt sich bereits durch Hybridsysteme realisieren, die z.B. die Architektur und Lernalgorithmen von neuronalen Netzen mit den flexiblen und unscharfen Klassifikationsregeln von Fuzzy-Systemen verbinden. Aufgrund von Beispielen erlernt dieser neuronale fuzzy Agent ein Benutzerprofil mit mehr oder weniger unscharfen Präferenzen. Die Entwicklung dieser lernfähigen und flexiblen Hybridagenten ist also durch Gehirnforschung, Neuroinformatik und Psychologie inspiriert.

Weiterführende Eigenschaften wie Emotionalität und Bewußtsein werden in der Informatik keineswegs verfolgt, um virtuelle Homunculi im World Wide Web zu schaffen. Wir wissen vielmehr aus der Gehirnforschung und Psychologie, daß komplexe und langwierige Problemlösungen beim Menschen ohne Motivation, Emotion und Intuition nicht möglich sind. Zudem könnte Affective Computing zu einer erheblichen Verbesserung des Interface von Netz und Nutzer beitragen. Ein persönlicher Softwareagent könnte aus den emotionalen Reaktionen des Nutzers erkennen, welche Präferenzen bei der täglichen Flut von Informationen und Ereignissen vorzunehmen sind, ohne daß sie explizit angegeben werden müßten.

Emotionen wie z.B. Ärger, Mißfallen oder Freude lassen sich durch komplexe Muster von physiologischen Signalen charakterisieren, die z.B. von Muskelkontraktionen, Blutdruck, Hautleitfähigkeit und Atmung bis zur Gesichts- und Stimmenveränderung reichen. Anstelle von Maus und Keyboard treten mit Sensoren ausgestattete Systeme zur Erkennung emotionaler Muster. So könnte uns z.B. ein Softwareagent daran erinnern, daß wir vor Wochen beiläufig auf einen "aufregenden Artikel" stießen, der für eine aktuelle Problemlösung einschlägig ist. Man denke aber auch an das verbesserte Interface für Kranke und Behinderte (Extremfall Stephen Hawking), die nicht mit Händen und Gliedmaßen arbeiten können.

Wenn virtuelle Agenten mit Motivationen und Intuitionen ausgestattet werden sollen, müssen Emotionen in Softwareprogrammen modelliert werden. Das konnektionistische Modell CATHEXIS (1996) synthetisiert komplexe Emotionen aus basalen Emotionstypen (Ärger, Freude, Furcht etc.), deren Intensität von neuronalen, sensomotorischen, motivierenden und kognitiven Effekten und den gegenseitig hemmenden oder verstärkenden Wechselwirkungen der Emotionstypen abhängen. Reaktionen werden durch Überschreiten von Schwellenwerten ausgelöst. Nach der modernen Gehirnforschung sind Denken und Fühlen deshalb eng verbunden, da die entsprechenden Gehirnareale wie Cortex und limbisches System eng vernetzt sind. Einige Systeme modellieren daher die Schaltzentralen des limbischen Systems (Amygdala bzw. Mandelkerne) als emotionales Netzwerk und den Cortex als kognitives Netzwerk. Die Stimuli des emotionalen Netzwerks verändern die Lernraten des kognitiven Netzwerks, das selber "lähmend" oder "anregend" auf das emotionale System zurückwirkt.

Softwareagenten, die mit solchen neuronalen Netzen ausgestattet sind, schlagen Problemlösungsstrategien ein, die an solche von Menschen erinnern. Wenn ein Suchraum für Lösungen zu groß und unstrukturiert ist, verläßt man sich lieber auf ein 'gutes Gefühl' (Intuition), das mit ähnlichen Entscheidungen in der Erinnerung (Speicher) verbunden wurde. Tatsächlich verlassen sich menschliche Experten mehr auf die Intuition als auf regelbasiertes Wissen. Softwareagenten mit emotionaler Intelligenz würden erfolgreicher durch das World Wide Web navigieren.

Häufig wird eingewendet, daß Softwareprogramme nie empfinden werden. Tatsächlich modelliert ein Softwareprogramm nur die Gesetze emotionaler Dynamik. Auch Galileis Fallgesetz modelliert nur die Dynamik des freien Falls, ohne selber zu fallen. Ein geeignetes System, das mit affektiver Software ausgestattet ist, wird aber eigene emotionale Zustände durchaus registrieren ('bewußt erleben') können. Es könnte auch seine eigene Erfolgs- oder Mißerfolgsgeschichte speichern und aus diesem 'Selbstbewußtsein' Motivationen für zukünftige Handlungen ableiten. Der biochemische Gehirnapparat der natürlichen Evolution ist nur ein Beispiel für solche Systeme. Menschliche Emotionen sind allerdings hochkomplex und hängen von persönlichen Entwicklungen ab. Daher ist nicht zu erwarten, daß Softwareagenten wie Menschen empfinden werden. Es ist aber auch ethisch nicht wünschenswert, da es 'affective computing' um technisch erfolgreiche Problemlösung im Dienst des Menschen geht. Sie läßt sich bereits bei einer Ausstattung mit emotionalen Fragmenten erreichen.

Die künstliche Evolution von virtuellen Agentenpopulationen bietet neue bahnbrechende Forschungsperspektiven. Es ist historisch bemerkenswert, daß ein Science Fiction Autor wie Stanislaw Lem bereits in den 60er Jahren von 'Personoiden' als Softwarewesen gesprochen hat, die in den virtuellen Welten von Computerprogrammen wie BAAL 66, CREAN IV oder JAHVE 09 leben. Heute gehören Artificial Life und virtuelle Agenten bereits zur Realität unserer existierender Netzwelten. Es liegt an uns, ob diese elektronischen Ökosysteme den Absturz ins Chaos oder krebsartigen Wildwuchs vermeiden und sich als humane Dienstleistung entwickeln werden.

Prof. Dr. Mainzer ist Lehrstuhlinhaber für Philosophie und Wissenschaftstheorie und Mitglied des Instituts für Interdisziplinäre Informatik an der Universität Augsburg. Er ist Vorsitzender der Deutschen Gesellschaft für Komplexe Systeme und Nichtlineare Dynamik. Bücher u.a.: Computer - Neue Flügel des Geistes? (21995); Thinking in Complexity. The Complex Dynamics of Matter, Mind, and Mankind (31997); Gehirn, Computer, Komplexität (1997).