Das einfache Komplexe
Der Mathematiker John Casti vom Santa Fe Institut diskutiert die Möglichkeiten einer experimentellen Computertheorie anhand einer künstlichen Börse und eines digitalen Ökosystems. Künstliches Leben und Multi-Agenten-Systeme sind Untersuchungsbereiche einer Theorie komplexer Systeme.
Die Spuren der Komplexität
In der Umgangssprache wird der Begriff komplex normalerweise verwendet, um eine Person oder einen Gegenstand zu beschreiben, der aus vielen miteinander interagierenden Komponenten besteht und dessen Verhalten und/oder Struktur einfach nur schwer zu verstehen ist. Das Verhalten der nationalen Wirtschafssysteme, des menschlichen Geistes und des Ökosystems eines Regenwaldes sind gute Beispiele für komplexe Systeme. Diese Beispiele zeigen, daß ein System manchmal strukturell komplex wie eine mechanische Uhr sein kann, aber sich einfach verhalten kann. Das einfache, regelmäßige Verhalten einer Uhr ermöglicht es, daß sie als Zeitmesser dienen kann. Andererseits gibt es Systeme wie ein zweiarmiges Pendel, dessen Struktur sich ganz einfach verstehen läßt, aber dessen Verhalten man unmöglich vorhersagen kann. Natürlich sind manche Systeme wie das Gehirn sowohl hinsichtlich ihres Verhaltens als auch hinsichtlich ihrer Struktur komplex.
Wie diese Beispiele zeigen, sind komplexe Systeme keineswegs neu. Es gab sie bereits, als unsere Vorfahren aus dem Meer kamen. Neu hingegen ist, daß wir vielleicht das erste Mal in der Geschichte über das Wissen und, noch wichtiger, die Mittel verfügen, solche Systeme in einer kontrollierten, wiederholbaren wissenschaftlichen Weise zu untersuchen. Und hoffentlich wird uns diese neu entdeckte Fähigkeit schließlich zu einer brauchbaren Theorie solcher Systeme führen. Erst seit kurzem gibt es billige und leistungsstarke Computer. Zuvor waren wir in unseren Möglichkeiten behindert, komplexe Systeme wie ein nationales Wirtschafssystem oder das menschliche Immunsystem zu untersuchen, weil es einfach nicht möglich, zu teuer oder zu gefährlich war, mit dem System als Ganzem umzugehen. Wir waren darauf beschränkt, Bestandteile solcher Prozesse herauszulösen, die man in einem Laboratorium oder unter anderen kontrollierten Bedingungen beobachten konnte. Doch mit der Ankunft heutiger Computer können wir in unseren Rechenmaschinen vollständige Surrogate dieser Systeme in Silizium bauen und diese als-ob Welten als Laboratorien benutzen, in denen wir die Arbeits- und Verhaltensweisen der komplexen Systeme des Alltagslebens beobachten können.
Wenn man ein System komplex nennt, dann sollte man Merkmale angeben können, die komplexe Systeme von jenen unterscheiden, die in gewisser Hinsicht einfach sind. Hier sind die wichtigsten dieser Zeichen der Komplexität:
Instabilität
Komplexe Systeme neigen dazu, viele Verhaltensweisen zu besitzen und oft zwischen ihnen als Ergebnis kleiner Veränderungen bei einigen Faktoren hin und her zu wechseln, die das System steuern. Beispielsweise fließt Wasser oder Öl ungehindert durch ein Rohr, wenn die Fließgeschwindigkeit gering ist. Wenn die Geschwindigkeit jedoch über ein kritische Maß hinaus erhöht wird, das von der Viskosität der Flüssigkeit abhängt, treten Wirbel und Strudel auf. Und wenn man die Geschwindigkeit noch weiter erhöht, setzt die schäumende chaotische Bewegung einer voll entwickelten Turbulenz ein.
Irreduzibilität
Komplexe Systeme treten als ein geschlossenes Ganzes auf. Sie können nicht untersucht werden, wenn man sie in ihre Komponenten zerlegt und die isolierten Teile beobachtet. Das Verhaltens des Systems wird von der Interaktion zwischen den Teilen bestimmt und jedes "Zerlegen" des Systems in Teile zerstört eben jene Aspekte, die ihm seinen individuellen Charakter geben.
Ein gutes Beispiel ist das bekannte Problem der Proteinfaltung. Jedes Protein wird als Kette von Aminosäuren erzeugt, die wie Perlen auf einem Halsband aufgereiht sind. Wenn ein Protein einmal gebildet worden ist, entfaltet es sich zu einem einzigartigen dreidimensionalen Gebilde, das seine Funktion im lebenden Organismus ausübt und das ganz durch die eindimensionale Sequenz der Aminosäuren gekennzeichnet ist. Aber um zu erkennen, was das fertige Gebilde sein wird, kann man nicht einfach die Frage, wie sich das Protein faltet, in eine Reihe von kleineren Subproblemen auflösen, indem man das Protein an verschiedenen Stellen abschneidet und beobachtet, wie sich diese Unterketten von Aminosäuren falten, und dann die Lösungen dieser individuellen Subprobleme wieder irgendwie zusammenfügt. Um zu erkennen, wie sich ein Protein falten wird, muß es als ein einziges, vollständiges Ganzes untersucht werden.
Anpassungsfähigkeit
Komplexe Systeme sind oft aus vielen intelligenten Agenten zusammengesetzt, die auf der Grundlage von unvollständigen Informationen über das ganze System Entscheidungen treffen und handeln. Überdies können diese Agenten ihre Entscheidungsregeln auf der Grundlage solcher Informationen ändern. Ein Fahrer in einem Netzwerk von Straßen oder ein Händler auf einem Finanzmarkt sind dafür ein gutes Beispiel, da der Agent in beiden Fällen nur unvollständige Informationen über das System erhält, dessen Bestandteil er ist - Verkehrsverhältnisse beim Fahrer, Preise und Marktentwickelungen beim Händler -, und auf der Grundlage dieser Informationen handelt. Als Ergebnis dieser Handlungen gewinnen beide Informationen darüber, was der Rest des Systems - die anderen Fahrer oder Händler - machen. Dann kann der Agent dementsprechend seine Entscheidungsregln abändern. Kurz, komplexe Systeme besitzen die Fähigkeit, ihre Umwelt zu erkennen und ihre Reaktionen auf sie im Licht neuer Informationen zu verändern.
Nebenbei möchte ich betonen, daß Menschen nicht die einzigen Agententypen sind, die hierzu gehören. Auch Moleküle, Verbände und lebendige Zellen zeigen sich als intelligente und anpassungsfähige Agenten, die ihr Verhalten in Reaktion auf Veränderungen ihrer Umwelt ändern können.
Emergenz
Komplexe Systeme verhalten sich überraschend. Sie erzeugen Verhaltensmuster und Eigenschaften, die nicht aus der Kenntnis ihrer isolierten Teile vorhergesagt werden können. Diese sogenannten emergenten Eigenschaften sind wahrscheinlich das herausragendste Unterscheidungsmerkerkmal komplexer Systeme. Jeder Wasserhahn veranschaulicht diese allgemeine Idee, denn die Bestandteile des Wassers - Wasserstoff und Sauerstoff - sind leicht entzündliche Gase, aber deren Verbindung ist es nicht. Die Eigenschaften, flüssig und nicht-brennbar zu sein, sind emergente Eigenschaften, die aus der Interaktion der Wasserstoff- und Sauerstoffagenten resultieren.
Ein ähnliches Phänomen ergibt sich, wenn man eine Menge von unabhängigen Zufallsquantitäten wie die Größe aller Menschen von New York betrachtet. Auch wenn die einzelnen Größenangaben in dieser Menge sehr unterschiedlich sind, wird die Verteilung der Größen die bekannte Glockenkurve der elementaren Statistik ergeben. Diese charakteristische glockenförmige Struktur kann man so betrachten, als ob sie auf der Interaktion der Bestandteile emergieren würde. Nicht eine einzige der individuellen Größen muß mit der durchschnittlichen Wahrscheinlichkeitsverteilung zusammenfallen, da eine solche Verteilung eine Population voraussetzt. Aber wenn man sie intergieren läßt, indem man sie addiert und ihren Durchschnitt errechnet, sagt uns das Zentrale Limestheorem der Wahrscheinlichkeitstheorie, daß der Durchschnitte und die Streuung um ihn die glockenförmige Verteilung annehmen muß.
Wenden wir uns nun, mit diesen Ideen im Gedächtnis, einigen Systemen zu, die diese Eigenschaften besitzen.
Eine künstliche Börse
1988 lebten Brian Arthur, ein Wirtschaftswissenschaftler aus Stanford, und John Holland, ein Computerwissenschaftler aus Michigan, zusammen in einem Haus in Santa Fe, während sie beide beim Santa Fe Institut arbeiteten. In stundenlangen Gesprächen am Abend mit vielen Weinflaschen kamen Arthur und Holland auf die Idee, eine künstliche Börse in einem Computer zu realisieren, die man zur Beantwortung einer Reihe von Fragen verwenden könnte, die Menschen in der Welt der Finanzen seit Jahrzehnten gestellt und irritiert hatten.
- Kommt der Durchschnittspreis eines Wertpapiers beim sogenannten Grundwert zur Ruhe, der durch den diskontierten Dividendenfluß bestimmt wird, den man erwarten kann, wenn man das Wertpapier über eine unbestimmt lange Zeit behält?
- Ist es möglich, sich technische Handelsregeln auszudenken, die den Profit systematisch größer machen, als wenn man einer einfachen Strategie des Kaufens und Behaltens folgt?
- Erreicht der Markt schließlich ein stabiles Kauf- und Verkaufsmuster? Wird er also in anderen Worten stabil?
Die herkömmliche Weisheit im Bereich der Finanzen geht davon aus, was Arthur und Holland wußten, daß der gegenwärtige Preis eines Wertpapiers einfach die diskontierte Erwartung des künftigen Preises zuzüglich der Dividende ist, wenn man die verfügbaren Informationen über die Börse zur Zeit besitzt. Dieses theoretische Verfahren der Preisbildung basiert auf der Annahme, daß es eine objektive Methode gibt, die aktuellen Informationen zur Bestimmung der Erwartung zu benutzen. Aber diese Informationen bestehen normalerweise aus alten Preisen, Handelsvolumen, ökonomischen Indikatoren und ähnlichem. Daher kann es viele vertretbare, auf vielen unterschiedlichen Annahmen basierende Methoden für die statistische Auswertung dieser Informationen geben, um den künftigen Preis vorherzusagen.
Die einfache Beobachtung, daß es nicht einen besten Weg zur Auswertung der Informationen gibt, führte Arthur und Holland zu der nicht sehr überraschenden Schlußfolgerung, daß deduktive Methoden für die Vorhersage von Preisen bestenfalls eine akademische Fiktion seien. Sobald man die Möglichkeit einräumt, daß nicht alle Händler im Markt zu ihren Vorhersagen auf dem selben Weg kommen, beginnt der deduktive Ansatz der klassischen Finanztheorie zusammenzubrechen. Ein Händler muß Annahmen darüber machen, wie andere Investoren ihre Erwartungen bilden und wie sie sich verhalten werden. Er muß versuchen, die Psychologie des Marktes zu erfassen. Aber das führt zu einer Welt subjektiver Überzeugungen und zu Überzeugungen über diese Überzeugungen, kurz: nicht zu einer Welt der Deduktion, sondern zu einer der Induktion.
Um die oben formulierten Fragen zu beantworten, baten Arthur und Holland den Physiker Richard Palmer, den Finanzwissenschaftler Blake LeBaron und den Kaufmann Paul Tayler um Hilfe beim Aufbau ihres elektronisches Marktes, wo sie tatsächlich Gott spielen konnten, indem sie die Strategien der Händler, Marktparameter und all das verändern konnten, was man bei wirklichen Transaktionen nicht kann. Dieser Ersatzmarkt besteht aus:
- a) einer festgesetzten Menge von Wertpapieren eines einzigen Unternehmens;
- b) einer Anzahl von Händlern(Computerprogramme), die mit Aktien dieser Börse während jeden Zeitabschnitts handeln können;
- c) einem Spezialisten, der den Börsenpreis von innen durch die Beobachtung von Angebot und Nachfrage festsetzt und Kaufs- und Verkaufsaufträge verknüpft;
- d) einer äußeren Kapitalanlange (Bonds), in die Händler mit verschiedenen Interessensabstufungen Geld investieren können;
- e) einem Dividendenfluß der Börse, der einem Zufallsmuster folgt.
Was die Händler anbelangt, so unterstellt das Modell, daß jeder einzelne die Marktaktivitäten mittels einer Menge an Deskriptoren zusammenfaßt, die eine verbale Beschreibung wie "Der Markt ist letzte Woche jeden Tag besser geworden", "Der Markt ist unruhig" oder "Der Markt ist heute lethargisch" beinhalten. Bezeichnen wir diese Deskriptoren als A, B, C usw. Aus der Perspektive des Deskriptoren treffen die Händler Entscheidungen über den Kauf oder Verkauf von Wertpapieren anhand von Regeln wie folgender: "Wenn der Markt die Bedingungen A, B und C erfüllt, dann KAUFEN, aber wenn die Bedingungen D, G, S und K gegeben sind, dann BEHALTEN." Jeder Händler verfügt über eine Reihe von solchen Regeln und verhält sich in jedem gegebenen Zeitabschnitt jeweils nur nach einer. Diese Regel betrachtet der Händler als seine gegenwärtig am besten zutreffende Regel.
Da Kaufen und Verkaufen am Markt stattfinden, können die Händler ihre verschiedenen Regeln auf zwei unterschiedliche Weisen neu bewerten: 1) indem sie der Entscheidung für eine gegebene Regel, die sich in der Vergangenheit als profitabel gezeigt hat, eine höhere Wahrscheinlichkeit zuordnen, und/oder 2) indem sie erfolgreiche Regeln verknüpfen, um neue zu erzeugen, die auf dem Markt überprüft werden können. Dieser Prozeß wird durch den Einsatz von sogenannten genetischen Algorithmen ausgeführt, die nachahmen, wie die Natur die genetischen Anlagen von weiblichen und männlichen Angehörigen einer Art kombiniert, um ein neues Genom zu erzeugen, das eine Kombination der zwei Elternteile ist.
Der Durchlauf einer solchen Simulation weist den Händlern anfänglich zufällig eine Reihe von Prädiktoren zu und beginnt mit einer bestimmten Geschichte von Börsenkursen, Interessenabstufungen und Dividenden. Die Händler wählen dann zufällig eine von ihren Regeln aus und folgen ihr, um den Prozeß des Kaufens und Verkaufens zu starten. Als Folge der ersten Handelsrunde ändern die Händler ihre Bewertung der "Qualität" ihrer Regelmenge, erzeugen (möglicherweise) neue Regeln und wählen dann die beste Regel für die nächste Spielrunde. Und so schreitet der Prozeß von Runde zu Runde mit Kaufen, Verkaufen, Geldanlage in Bonds, Veränderung und Erzeugung von Regeln, Bewertung, wie gut die Regeln sind, und ganz allgemein mit Handlungsweisen fort, die denen von Händlern auf wirklichen Finanzmärkten gleichen. Der Gesamtfluß der Aktivitäten auf diesem Markt wird in Abbildung 1 veranschaulicht.
Ein typischer Augenblick dieses künstlichen Marktes ist auf Abbildung 2 dargestellt. Im Uhrzeigersinn von oben links beginnend zeigt das erste Fenster die Geschichte des Börsenpreises und der Dividende. Der gegenwärtige Preis der Aktie ist durch die schwarze Linie und der aktuelle Grundwert durch den oberen Rand der grauen Region dargestellt. Der Bereich, in dem die schwarze Linie weit über die graue Region hinausragt, repräsentiert so einen überteuerten Preis, während der Markt dort einen Crash durchgemacht hat, in dem die schwarze Linie in den grauen Bereich hineinragt. Das obere rechte Fenster stellt das gegenwärtige relative Vermögen der Händler dar, während das linke untere Fenster ihren gegenwärtigen Besitz an Aktien zeigt. Das linke untere Fenster zeigt das Handelsvolumen, wobei das Verkaufsvolumen grau und Kaufvolumen schwarz gekennzeichnet ist. Die Gesamtanzahl der möglichen Handelsaktivitäten ist daher das Minimum dieser zwei Zahlen, da für jede erworbene Aktie eine zum Kauf angebotene Aktie existieren muß. Die verschiedenen Schalter auf dem Bildschirm dienen zur Veränderung von Parametern.
Nach vielen Runden des Handels und der Veränderung der Entscheidungsregeln entwickelt sich eine Art Ökologie von Prädiktoren, wobei unterschiedliche Händler unterschiedliche Regeln für ihre Entscheidungen anwenden. Überdies kann beobachtet werden, daß der Börsenpreis immer in einer zufälligen Fluktuation um seinen Grundwert mündet. Aber innerhalb dieser Fluktuationen kann man ein vielfältiges Verhalten feststellen: überhöhte Preise und Zusammenbrüche des Marktes, psychologische "Marktstimmungen", Überreaktionen auf Preisbewegungen und all das, was man mit den Spekulationsmärkten in der wirklichen Welt verbindet.
Wie auf wirklichen Märkten koevolviert die Population von Prädiktoren auf dem künstlichen Markt und weist nichts darauf hin, daß sie in einem Prädiktor für alle Umstände mündet. Die optimale Methode zu jeder Zeit hängt hingegen auf kritische Weise davon ab, was jeder andere in diesem Moment macht. Zusätzlich können wir Regeln in der Prädiktorpopulation auftauchen sehen, die sich in der Trendverfolgung wechselseitig verstärken oder einer technischen Analyse gleichen.
Doch wenden wir uns jetzt der Biologie zu und betrachten ein anderes Beispiel eines komplexen adaptiven Systems in Aktion.
Die Ankunft der Anpassungsfähigsten
Eine der hartnäckigsten Fragen, denen sich die Wissenschaft zuwendet, sind sicher die "Ursprungsprobleme" wie der Ursprung des Universums, des Lebens, der Sprache und der Menschen. Die Schwierigkeit besteht natürlich darin, daß es sich dabei um einmalige Ereignisse handelt, während die wissenschaftliche Methode auf die Möglichkeit angewiesen ist, kontrollierte und wiederholbare Experimente durchzuführen. Der Computer aber hat unsere Perspektive auf diese Fragen verändert, da er die Durchführung solcher Experimente im Bereich der Ursprungsfragen in Ersatzwelten ermöglicht.
Unlängst haben sich Walter Fontana von der Universität Wien und Leo Buss von der Yale University folgende Frage gestellt: Wenn wir davon ausgehen, wir können ein Duplikat der Erde vor 4 Millionen Jahren erzeugen und zum Laufen bringen, welche biologische Organisationsformen und Strukturen sollten wir dann in dieser zweiten Erde sehen können oder, etwas prosaischer ausgedrückt, was würde erhalten bleiben, wenn wir das Band ein zweites Mal ablaufen lassen? Können wir vernünftigerweise erwarten, wieder so etwas wie Zebras, Ameisenkolonien und Miezekätzchen zu sehen? Oder würden die Launen der Evolution diese zweite Erde dazu veranlassen, Arten und biologische Organisationsformen hervorzubringen, die völlig verschieden von den heute auf der Erde existierenden sind? Was ist, kurz gesagt, beim Leben kontingent und was notwendig?
Um sich dieser Frage zu stellen, ließen sich Fontana und Buss von den Strukturen der theoretischen Computerwissenschaft inspirieren. Sie erkannten vor allem, daß biologische Entitäten, angefangen von den Molekülen bis hin zu ganzen Organismen, keine passiven Objekte sind, die von den Gesetzen der natürlichen Selektion herumgeschoben werden. Jede solche Entität ist gleichzeitig ein solches passives Objekt und ein aktiver Agent, der auf andere derartige Objekte einwirken kann, um derartige Objekte zu erzeugen oder zu zerstören. Die Computerwissenschaft hat sich schon jahrelang mit solchen Entitäten beschäftigt und dafür eine formale Struktur mit dem Namen Lambda-Kalkül verwendet. Das ist ein logischer Rahmen, der Regeln enthält, wie solche neue Entitäten erzeugt werden und wie sich ihre sogenannten "Normalformen" vereinfachen lassen.
In ihren Experimenten schufen Fontana und Buss eine Ursuppe solcher Entitäten, in der sie einige Hundert von diesen zufällig in einer Art elektronischer Testbehälter aufeinander treffen und miteinander interagieren ließen. Die Regeln des Lambda-Kalküls wurden angewendet, um die Endergebnisse der vielen zufälligen Interaktionen zu bestimmen und herauszubekommen, welche neuen Entitäten die folgenden Generationen überleben würden. Was stellte sich heraus?
Zuerst geschah etwas ziemlich Enttäuschendes. Nach vielen Zusammenstößen waren die Entitäten in der Suppe alle gleich und bestanden aus Teilen, die sich einfach selbst replizieren. Fontana und Buss entdeckten, daß sich diese genetische Machtübernahme der Möglichkeit der Entitäten verdankte, direkt und ohne die Hilfe anderer Entitäten im System Kopien von sich zu erzeugen. Damit also Interessanteres aus der Suppe herauskommt, führten sie ein Verbot einer solchen autonomen Selbstreplikation ein. Nach Tausenden von Zusammenstößen in der Suppe offenbarte die Untersuchung darauf ein ganz unterschiedliches Ergebnis.
Die Suppe enthielt jetzt viele verschiedenen Typen (Arten?) von Entitäten, von denen ein substantieller Teil an einem sich selbst erhaltenden Netzwerk wechselseitiger Erzeugungsformen beteiligt war. Überdies hatten alle Entitäten eine gemeinsame Struktur, die bestimmten Mustern gleicht und als eine Art biologischer Grammatik dargestellt werden kann. Daher hat sich das System weit über die anfängliche Zufallsmischung hinaus entwickelt. Und schließlich gehorchten die Transformationsbeziehungen zwischen den Entitäten einer kleinen Zahl von Gesetzen. Zusammen ergeben diese Eigenschaften eine Antwort auf die Frage, was bestehen bleibt, wenn das Band noch einmal abgespielt würde. Wir sollten nicht erwarten, bestimmte Objekte zu sehen, sondern bestimmte Arten von Organisationsstrukturen. Während also Zebras in dieser zweiten Welt nicht erscheinen werden, würden die Familie und die Strukturen des Ökosystems, zu dem Zebras gehören, mit großer Wahrscheinlichkeit entstehen, wobei jedoch andere Tiere die in der wirklichen Welt von Zebras eingenommene Rolle spielen.
Wenn man die künstliche Börse mit den elektronischen Ökosystemen vergleicht, erkennt man die Leistungskraft der Komplexitätstheorie, sich experimentellen Fragen zuzuwenden, die die Wissenschaft bislang nicht erforschen konnte. Das betrifft Fragen, wie verschiedene Moden sich auf dem Finanzmarkt ablösen oder welche Organisationsstrukturen wir auf einer zweiten Erde in der Andromeda-Galaxis zu sehen erwarten können. Das hier geltende Prinzip geht von der Geschichte der Physik aus, die uns gezeigt hat, daß die Möglichkeit, Experimente im Labor durchzuführen, ein erster Schritt auf dem Weg zur Bildung einer wissenschaftlichen Theorie über jede Art von Phänomenen ist. Wissenschaftler, die sich mit komplexen Systemen beschäftigen, befinden sich jetzt in der Situation, in der die Physiker sich zur Zeit Galileis befanden. Zum ersten Mal in der Geschichte können wir tatsächlich Experimente an wirklichen komplexen Systemen durchführen. Und kann mit dieser Möglichkeit eine ausgereifte Theorie solcher Strukturen noch weit entfernt sein?
Literaturhinweise:
Casti, J.: Complexification. HarperCollins, New York 1994
Casti, J.: Would-Be Worlds. Wiley, New York 1996
Rieck, C.: Evolutionary Simulation of Asset Trading Strategies, in: Many-Agent Simulation and Artificial Life. E. Hillebrand and J. Stender (eds.), IOS Press, Amsterdam 1994, pp. 112-136
Arthur, W.B. et al.: An Artificial Stock Market. Santa Fe Institute Working Paper, Santa Fe, NM, in press.
Fontana, W. and L. Buss: What would be Conserved if "the Tape Played Twice"? Proc. Nat. Acad. Sci USA, 91: 757-761, 1994
Aus dem Englischen übersetzt von Florian Rötzer