Komplexe Systeme, intelligente Computer und Selbstorganisation
Ein Gespräch mit Klaus Mainzer, Professor für Philosophie und Wissenschaftstheorie an der Universität Augsburg
Das menschliche Gehirn ist zum Vorbild für komplexe lernfähige und selbstorganisierende Systeme geworden. Ist die Theorie der Komplexität eine wissenschaftliche Mode? Werden Biocomputer allmählich wirklich intelligent? Ist es sinnvoll, den Begriff der Selbstorganisation auf soziale Systeme zu übertragen? Lassen sich aus der Theorie der Selbstorganisation Handlungsanweisungen und Ideale ableiten?
Klaus Mainzer, Physiker und Mathematiker, lehrt an der Universität Augsburg Philosophie und Wissenschaftstheorie und ist Vorsitzender der Deutschen Gesellschaft für Komplexe Systeme und Nichtlineare Dynamik. In zahlreichen Aufsätzen und Büchern hat er sich mit der Theorie komplexer Systeme, den erkenntnistheoretischen Fragen computergestützter Mathematik, der Philosophie des Geistes auf dem Hintergrund der Künstlichen Intelligenz und dem Paradigma der Selbstorganisation beschäftigt.
Zuletzt sind erschienen: Gehirn, Computer, Komplexität (Springer Verlag, Berlin); Thinking in Complexity (Springer Verlag, Berlin); Computer - Neue Flügel des Geistes? (De Gruyter, Berlin) sowie Symmetries of Nature (De Gruyter, Berlin).
Dabei spielen die Computer eine wichtige Rolle. Die nichtlinearen Probleme sind zwar schon seit Ende des letzen Jahrhunderts bekannt, aber wir sind erst heute auf Grund der ungeheuren Rechenleistungen dieser neuen technischen Systeme in der Lage, überhaupt eine solche Approximation durchzuführen und sie dann auch in den entsprechenden Computerbildern zu visualisieren, wie sie uns alle bekannt sind. Die nichtlineare Dynamik ist der entscheidende neue Aspekt. Theoretisch, wie gesagt, schon bekannt seit Ende des Jahrhunderts, aber jetzt eigentlich erst für uns auch greifbar durch die großen Rechenleistungen der Computer.
Zunächst einmal gibt es also die physikalischen Rahmenbedingungen - die thermodynamische Selbstorganisation fern des thermischen Gleichgewichts. Das hat das Gehirn mit vielen anderen Systemen gemeinsam, z.B. mit dem Laser. Der Laser ist auch ein offenes System, das im Energieaustausch mit der Umgebung steht und sich dadurch immer weiter vom Gleichgewicht entfernen kann. Lebende Systeme halten sich durch Nahrungsaufnahme fern von der Erstarrung und vermeiden so den Tod im thermischen Gleichgewicht. Aber was unterscheidet das Gehirn von diesen Systemen?
Neben der thermodynamischen Selbstorganisation, die schon in der unbelebten Natur vorkommt, tritt bei der biologischen Evolution, also bei der Entstehung des Lebens, noch etwas anderes hinzu. Die Evolution hat es verstanden, eine neue Form der Selbstorganisation auszubilden - und das ist die kodierte Selbstorganisation, wie wir sie bei der Selbstreplikation der DNS von biologischen Systemen kennen. Das ist auch eine Selbstorganisation, fern des thermischen Gleichgewichts, so wie beispielsweise beim Laser, aber der Unterschied ist, daß dieses komplexe System, in diesem Fall ein zelluläres System, in der Lage ist, sich selbst zu replizieren. Das ist eine neue Qualität der Selbstorganisation.
Komplexe lebende Systeme entstehen unter den eben beschriebenen thermodynamischen Randbedingungen. Das Gehirn ist auch ein komplexes zelluläres System, aber es hat wieder eine neue Form der Selbstorganisation entwickelt: es ist in der Lage, sich selbständig in kurzer Zeit zu adaptieren und Informationen zu verarbeiten. Und das Entscheidende ist, daß es lernen kann.
Es gibt also drei Formen der Selbstorganisation komplexer Systeme. Erstens die thermodynamische Selbstorganisation, z.B. die Kristalle im Gleichgewicht oder der Laser fern des thermischen Gleichgewichts. Zweitens gibt es die biologische Selbstorganisation im Sinne der kodierten Selbstrepoduktion der DNS. Und drittens entsteht mit der Entwicklung der Nervenzellen und der Nervensysteme die Möglichkeit, das System durch Lernprozesse zu strukturieren, an die Umwelt anzupassen und entsprechende Verhaltensstrategien zu entwerfen.
Künstliche Intelligenz
Wir haben dafür ein ganz aktuelles Beispiel: die Schachpartie mit Deep Blue. Das steht im Grunde in der Linie der klassischen KI. Deep Blue hat den Vorteil, daß er ungeheuer schnell ungeheuer viele Informationen durchrechnen kann, aber er arbeitet völlig anders als die menschliche Intelligenz. Die menschliche Intelligenz ist zwar viel langsamer, aber sie ist in der Lage, große Muster auf einen Schlag zu erkennen. Und hier kommt die Komplexität herein.
Man hat nun versucht, sich mit den neuronalen Netzen, wie sie seit den 80er Jahren entwickelt werden, immer stärker an der Arbeitsweise des menschlichen Gehirns zu orientieren. Man geht nicht mehr davon aus, daß ein zentrales umfassendes Programm mit allen Einzelheiten und vielen Möglichkeiten vorgegeben ist, sondern man versucht, ein neuronales Netz, also ein komplexes System von technischen Neuronen, zu entwickeln, die auf Grund ihrer nichtlinearen Wechselwirkung in der Lage sind, selbstorganisierend zu lernen. Das ist schon ein anderer Ansatz, wobei ich gleich hier an dieser Stelle bemerken möchte, daß alle heutigen neuronalen Netze noch weitgehend auf den klassischen programmgesteuerten Systemen, d.h. auf den klassischen Computern, simuliert werden. Das Ziel aber ist, eine neue Hardware zu entwickeln, d.h. also wirklich Systeme zu bauen, die unabhängig von programmgesteuerten Computern mit ihren riesen Rechenleistungen sind und tatsächlich den biologischen Systemen näherkommen, um so die entsprechenden Problemlösungsleistungen zu realisieren.
Wenn man das System aber abkühlt, dann springen diese Dipole in eine Richtung und zeigen ein reguläres Muster. Das empfinden wir makroskopisch dann als Magnetisierung. Daran hat Hopfield sich orientiert. Er hat denselben mathematischen Formalismus genommen und ihn nur psychologisch interpretiert. Statt der energetischen Wechselwirkungen, die die Festkörperphysiker untersuchen, setzte er die Hebbschen Lernregeln ein. Erregte Neuronen verstärken ihre Verbindungen. Ein solches System ist in der Lage, aus einem verrauschten Bild von einer Figur, beispielsweise von einem Buchstaben (A), diesen in einem Phasenübergang zu erkennen. Das System sieht dieses verrauschte Muster, erinnert sich an seine Trainingsphase, in der ihm dieses reguläre Muster beigebracht worden ist, und in einem Phasenübergang reproduziert es dieses Muster: es erkennt dieses Muster. An solchen einfachen Vorgängen aus der statistischen Mechanik sind die neuronalen Netze orientiert.
Man muß allerdings hinzufügen, daß die Systeme von Hopfield noch relativ einfach waren. Die daraus weiterentwickelten neuronalen Netze sind sehr viel raffinierter und berücksichtigen teilweise sogar den Aufbau von unserem Kortex. Man weiß ja aus der Gehirnforschung, daß unser Kortex aus mehreren neuronalen Schichten besteht, die untereinander verschaltet und vernetzt sind. Dadurch ist dieses natürliche System in der Lage, in komplexer Weise Informationen zu verarbeiten und in Wahrnehmungen, Gefühle oder Gedanken zu verwandeln. Man versucht daher mehrschichtige neuronale Netze auch technisch einzusetzen, um damit komplexere Aufgaben zu erledigen. Und die neuronalen Netze zeigen ja mittlerweile beachtliche Anwendungsmöglichkeiten bei Überwachungsaufgaben, bei der Voraussage beispielsweise von Börsenentwicklungen und und und ...
Das Entscheidende bei den neuronalen Netzen ist, daß sie nicht fest verdrahtete Einzelteile oder Module sind. Die McCulloch-Netze bestehen nur aus logischen Schaltern, die in komplexer Weise vernetzt sind und so logisches Denken simulieren können. Was sie aber nicht können, ist Lernen. Das heißt, sie können nicht selbständig ihre synaptischen Verbindungen, also ihre Schaltungen, verändern. Das aber können die neuronalen Netze schon. Das ist dann doch eine wesentliche Gemeinsamkeit.
Zusammengefaßt: Wir wissen aus der Gehirnforschung, daß beispielsweise menschliche Gefühle durch neuronale Verschaltungsmuster erklärt werden können. Wir sind in der Lage, Wahrnehmungsprozesse des Menschen mit komplexen Verschaltungs- oder Erregungsmustern natürlicher neuronaler Netze zu korrelieren. Jetzt stellt sich die Frage, ob es möglich wäre, diese Zustände, also besonders die emotionale Seite des menschlichen Denkens, zu simulieren. Es hat sich ja beispielsweise beim Wettkampf mit Deep Blue gezeigt, daß die emotionale Intelligenz des Menschen eine entscheidende Rolle spielt. Wir Menschen sind in der Lage, auf Grund emotionaler Bewertungen und Motivationen ganz anders zu reagieren, als solche technischen Systeme. Wenn wir in der Gehirnforschung diese Prozesse und die neuronalen Verschaltungsmuster kennen, wäre es dann auch denkbar, daß wir technische Systeme zu entwickeln vermögen, die genau dies auch simulieren oder leisten können?
Die meisten Philosophen sagen, daß das genau die Grenze ist, die von den technischen Systemen nicht erreicht wird. Ich sehe das anders. Wenn wir die nichtlineare Dynamik der emotionalen Zustände und letztendlich der Bewußtseinsbildung kennen, dann besteht meiner Auffassung nach nicht der geringste Zweifel, daß bei sich selbstorganisierenden technischen Systeme solche emotionalen Zustände und Zustände von Bewußtsein möglich sind. Sie könnten dann bewußt innere und äußere Zustände wahrnehmen und auch in diesem Sinne Schmerz empfinden. Derartige Systeme sind nach meiner Auffassung keineswegs an die Biochemie des Gehirns gebunden, das von der Evolution mehr oder weniger zufällig hervorgebracht wurde. Wenn wir die in ihm ablaufenden Wechselwirkungsgesetze, also die neuronale Dynamik, kennen, dann ließen sie sich wenigstens prinzipiell in geeigneten Medien realisieren.
Wenn wir an die Technikgeschichte denken, dann bestanden eine technische Realisationen nie darin, daß wir die Natur einfach imitiert haben. Der Mensch lernte nicht dadurch fliegen, daß er sich mit einem Federkleid, nach dem Vorbild der Vögel, in die Lüfte erheben wollte, sondern er hat seine technischen Maschinen entwickelt, indem er die Gesetze der Aerodynamik ausgenutzt hat. In unserem Fall wären dann einfach die Gesetze der Gehirnforschung zu berücksichtigen.
Ein wichtiger Punkt, der auch von Philosophen häufig eingewendet wird, ist, daß man letztendlich immer auf irgendeine Software zurückgreift und daß diese Software immer nur syntaktisch sei. Daraus begründet sich dann der Einwand, daß eine syntaktische Software, die nur aus der Manipulation von Symbolen besteht, selber nicht fühlen könne. Ich habe mir das Argument mal durch den Kopf gehen lassen. Im Grunde scheint mir das ziemlich trivial zu sein. Also eine Software kann nicht fühlen. Das wäre so, als würde ich behaupten, Galilei's Fallgesetz kann nicht fallen oder die Gesetze der Aerodynamik können nicht fliegen. Die Software dieser Gesetze ermöglicht aber reale Vorgänge, nämlich technische Systeme, die fliegen und fallen, und die dann, wenn wir die Gesetze kennen würden, auch fühlen können.
Wir können heute diese technischen Systeme noch nicht bauen, weil wir die für die Gehirnforschung, als auch die für die Neuroinformatik entsprechenden Gesetze noch nicht kennen. Aber ich sehe von der wissenschaftstheoretischen Seite keine Einwände, warum aus irgendwelchen prinzipiellen Erwägungen heraus solche Systeme nicht möglich sein können. Was von der philosophischen Seite allerdings zu fragen wäre, ist die ethische Perspektive, d.h. ob wir eine solche Entwicklung überhaupt wollen, ob wir fühlende Systeme oder Systeme mit Bewußtsein entwickeln sollen.
Die Theorie der Selbstorganisation als soziale Theorie
Zunächst einmal ist es ein Faktum der jetzigen wissenschaftlichen Entwicklung, beispielsweise der Ökonomie oder auch der mathematischen Soziologie, daß man die Theorie der nichtlinearen komplexen Systeme mit Erfolg benutzt, um beispielsweise die Dynamik von Wirtschaftssystemen zu beschreiben und zu erklären. Unsere Wirtschaftswissenschaftler sind bisher immer nur von linearen, berechenbaren Systemen mit einfachen Gleichgewichten ausgegangen. Das sind Systeme, die zwar lösbar, aber die für die Praxis wertlos sind, weil sie einfach von unrealistischen Voraussetzungen ausgehen. Tatsächlich handelt es sich bei einem ökonomischen System sozusagen um die schon angesprochenen Mehrkörperprobleme von vielen Agenten, die miteinander wechselwirken.
Adam Smith, der Vater der Marktwirtschaft, sprach von der unsichtbaren Hand, nach der sich Anbieter und Nachfrager selbstorganisieren und in ein Gleichgewicht bringen, eben in das Marktgleichgewicht von Angebot und Nachfrage. Allerdings ging er von der Wunschvorstellung aus, daß dann, wenn dieses Gleichgewicht einmal erreicht ist, auch das Stadium des Wohlstandes einer Nation eintreten werde, und das geschieht durch die "invisible hand", also durch Selbstorganisation. Wir wissen heute alle, daß diese Dynamik auch ganz anders verlaufen kann. Diese offenen Systeme sind hoch sensibel gegenüber geringsten Veränderungen, wie wir dies aus der Chaostheorie wissen. Man spricht vom Schmetterlingseffekt. Börsenkrach und andere Beispiele zeigen, wie sich kleinste lokale Veränderungen in solchen Systemen zu großen Katastrophen oder Veränderungen aufschaukeln können.
Zunächst einmal ist für uns alle eine Botschaft aus den komplexen Systemen für die Gesellschaft abzuleiten. Diese komplexen Systeme sind hoch empfindlich, d.h. geringste Veränderungen können, wie eben schon erwähnt, zu globalen Veränderungen des Gesamtsystems führen. Das wirft ganz neue Fragen der Verantwortlichkeit auf. Denken Sie daran, daß einzelne Manager durch ihr Versagen Tausende von Arbeitsplätzen aufs Spiel setzen können, daß durch das Versagen einiger Ingenieure, beispielsweise bei der Entwicklung von komplexen ISDN-Systemen, technische Katastrophen ausgelöst werden können usw.
Kurzum, es ist keineswegs so, daß wir nach dem Studium die Hände in den Schoß legen können und sagen müssen, daß alles sowieso nicht mehr vorausberechenbar sei. Das stimmt nicht. Im Gegenteil können wir die zukünftigen Szenarien sehr viel besser beschreiben. Wir können eine Reihe von Zukunftsszenarien unter verschiedenen Nebenbedingungen entwickeln, um dann durch politische oder wirtschaftspolitische Entscheidungen zu versuchen, solche Nebenbedingungen anzusteuern, von denen wir wissen, daß eine hohe Wahrscheinlichkeit besteht, daß sich das System in der einen oder anderen Richtung entwickeln kann.
Aber grundsätzlich müssen wir uns in der Politik und in der Wirtschaft von den Vorstellungen verabschieden, daß es den guten Herrscher im Sinne Platons oder die allwissende Partei gibt. Wir müssen uns von den Vorstellungen der Kommandowirtschaft, daß also ein Zentralprozessor (programmierbarer Computer) alles Wissen hat und es nur noch darauf ankommt, dieses Wissen effektiv umzusetzen, verabschieden, denn genau so funktionieren die komplexen Systeme nicht.
Es ist also auch ein psychologisches Problem, das zu lösen ist. Wenn ich die Reaktionen in der politischen Öffentlichkeit sehe, dann geistert bei uns immer noch die Vorstellung herum, daß der starke Mann oder die starke Frau endlich mal Ordnung schaffen könnte. Aber das ist eine Illusion. Die gute Absicht pervertiert im komplexen System. Gutes zu meinen und zu wollen, reicht nicht aus. Die nichtlineare Dynamik mit ihren Effekten, die nicht voraussehbar sind, ist eine Botschaft, die der Öffentlichkeit vermittelt werden muß. Wir brauchen zwar Mut für die Entscheidung, aber auch Sensibilität im Umgang mit solchen komplexen Systemen. Das sind keine programmierbaren Maschinen. Die Wirtschaft ist keine Maschine, die wir mit Transmissionsriemen irgendwie in eine Richtung bringen können, sondern diese Systeme haben eher mit der Aerodynamik zu tun, mit der Bildung von Wolken und mit lebenden Organismen, die sich nicht so einfach wie eine Kuckucksuhr dirigieren lassen.
Mein Buch "Thinking in Complexity" wurde in der Zeitschrift "Nature" im letzen Jahr von Ian Stewart, einem englischen Mathematiker, besprochen, der zum Schluß feststellte, und das hat mir sehr gut gefallen, daß Nichtlinearität und Komplexität sicher keine universelle Antwort darstellen, aber häufig eine bessere Denkweise. Wir haben damit ein Instrument, um Nebenbedingungen der Politik sehr viel genauer und feiner zu studieren. Wir haben neue Instrumente, um zukünftige Szenarien zu entwerfen. Aber was aus dieser systemtheoretischen Betrachtung mit Sicherheit nicht folgt, sind ethische oder politische Vorstellungen. Wir können nicht more geometrico ein ideales Menschenbild oder eine ideale Politik ableiten. Das gehört ja geradezu zum Tenor der komplexen Systeme, daß wir entsprechende Vorgaben geben müssen, daß wir sagen müssen, was wir eigentlich wollen. Und sich die Selbstorganisation der Natur unkritisch zum Vorbild zu nehmen, würde ich für verheerend halten.
Es gibt bei einigen Naturwissenschaftlern tatsächlich die Tendenz, alles für gut zu halten, was aus der Evolution kommt. Die Evolution hat teilweise mit ungeheuren Verlusten und chaotisch gearbeitet, und sie war nicht mit jedem Versuch erfolgreich. Ich könnte lakonisch sagen, sie hatte auch die Zeit zu experimentieren. Wir aber können uns in der Population Mensch, in der wir ja alle selber betroffen sind, auf solche Experimente der Evolution nicht verlassen. Die ethischen Vorstellungen, an denen wir uns zu Recht orientieren, etwa die Achtung vor den Menschenrechten, sind weder genetisch vorgegeben, noch sind sie neurologisch oder soziobiologisch angeboren. Das sind ethische Postulate, die sich im Laufe der kulturellen Entwicklung unserer Population Mensch entwickelt und auf Grund der Erfahrungen schließlich so durchgesetzt haben. Ich kann nur sagen "Gott sei Dank", daß sie sich so durchgesetzt haben. Das sind Lernprozesse der Kultur, die keineswegs durch biologische, neurologische oder auch mathematische Gesetze vorgegeben sind.
Man muß berücksichtigen, daß wir es hier nicht mit der Wechselwirkung der Gene, also von chemischen Makromolekülen, zu tun haben, sondern mit Wechselwirkungen von bewußten, intentional orientierten Lebewesen. Diese unterscheiden sich von den Wechselwirkungen, wie wir sie beispielsweise aus Ameisenpopulationen oder Termitenvölkern kennen. Kurz und gut: Richtig ist der formale Aspekt, daß wir auch die Kulturgeschichte als Dynamik eines komplexen Systems verstehen können, aber falsch wäre die Übertragung der biologischen Gesetzmäßigkeit.
URL dieses Artikels:
https://www.heise.de/-3412778
Copyright © 1997 Heise Medien