Digitaler Methoden-Kanon

Rainer Hegselmann über Philosophie und Computersimulation

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Der Philosoph Rainer Hegselmann (geb. 1950) war bis zu seiner Emeritierung im Jahr 2015 Professor an der Universität Bayreuth und ist seit 2010 Direktor des Bayreuther Forschungszentrums Modellierung und Simulation sozialökonomischer Phänomene (MODUS). Bekannt wurde er unter anderem durch sein Buch "Moral und Interesse - Zur interdisziplinären Erneuerung der Moralwissenschaft".

Herr Hegselmann, Sie arbeiten seit einigen Jahren auf dem Gebiet: Können Sie uns den Zusammenhang zwischen Philosophie, Computersimulation und Wissenschaft darlegen?

Rainer Hegselmann: Es gibt eine ganze Reihe akzeptierter oder auch umstrittener philosophische Methoden, so zum Beispiel die logische Analyse, die historisch oder systematisch angelegte Rekonstruktion, die transzendentale Deduktion oder auch die kohärentistische Suche nach Überlegungsgleichgewichten. Computersimulation gehört weder zu den akzeptierten noch zu den umstrittenen philosophischen Methoden.

Den meisten Philosophen dürfte schon die Idee, Modellbildung und Simulation in philosophischen Problemkontexten einzusetzen, völlig abwegig erscheinen - ein klarer Fall, in dem etwas einfach zu absurd ist, um umstritten zu sein. Das wird sich aber, denke ich, sehr rasch ändern: Schon bald wird die Computersimulation zum Methoden-Kanon einer Philosophie gehören, die auf der Höhe der Zeit sein will. Sowohl im Bereich der theoretischen, wie im Bereich der praktischen Philosophie gibt es Probleme, zu deren Bearbeitung Computersimulationen wichtige Beiträge leisten können.

Es gibt sehr unterschiedliche Typen von Simulationsmodellen. Vor rund 70 Jahren wurden die ersten computergestützten Simulationsmodelle entwickelt. Ihr Einsatz erfolgte zunächst vor allem in den Natur- und Ingenieurwissenschaften. Zwar gab es schon in den 60er Jahren des letzten Jahrhunderts erste (aber eben doch nur vereinzelte) Anwendungen von Computersimulationen in den Sozial- und Wirtschaftswissenschaften. In den letzten 15 bis 20 Jahren hat der Einsatz von Computersimulationen auch in den Sozial- und Wirtschaftswissenschaften dann dramatisch zugenommen. Und heute gibt es eben mehr und mehr Computersimulationen auch in der Philosophie.

Welche speziellen philosophischen Fragestellungen halten Sie für besonders geeignet, um mit Computersimulationen untersucht zu werden?

Rainer Hegselmann: Es gibt einen bestimmten Typus von Simulationsmodellen, der für die Philosophie besonders interessant ist. Das sind die sogenannten agentenbasierten Modelle. Damit sind Modelle gemeint, die soziale Dynamiken bis auf die Ebene einzelner Individuen, einzelner Akteure, einzelner - wie man dann sagt - "Agenten" auflösen.

Diese softwaremäßig geschaffenen Agenten verfügen über bestimmte Fähigkeiten. Sie haben eine mehr oder weniger gute kognitive Ausstattung, die ihnen erlaubt, ihre Umwelt einschließlich der anderen Agenten wahrzunehmen. Sie reagieren, möglicherweise sogar mit einer gewissen Vorausschau auf das, was geschieht. Und sie mögen aus Erfolg oder Misserfolg ihre Lehren ziehen. Kurz: Agentenbasierte Modelle sind ein Ansatz, um die Interaktionen von Individuen (oder, etwas philosophischer ausgedrückt: von Subjekten), wie wir es sind, zu modellieren und dann am Modell zu untersuchen.

Bestimmte Interaktionen sind dabei von direktem philosophischen Interesse. Man denke etwa an den Erkenntnisprozess: Im Erkenntnisprozess sind individuelles Räsonnement und Austausch mit anderen miteinander verwoben. Wir sind epistemisch praktisch immer auf andere mit ihren anders gelagerten Expertisen angewiesen. Erkenntnistheoretische Untersuchungen, die Funktionsweise, Bedeutung und Folgen des kognitiv-sozialen Austausches explizit in das Zentrum ihrer Analysen stellen, sind heute unter dem Namen soziale Erkenntnistheorie (social epistemology) bekannt.

In ihr geht es zentral darum, soziale Praktiken, Prozeduren und Arrangements, die im Erkenntnisprozess wirksam sind, unter dem Gesichtspunkt zu evaluieren, wie gut und effizient sie für die Wahrheitsfindung, -annäherung oder auch -verbreitung sind. Zu diesem Zweck lassen sich Simulationsmodelle entwickeln, die im Hinblick auf unterschiedliche epistemische Arrangements (beziehungsweise Praktiken) ein systematisches Experimentieren im Verbund mit wahrheitsorientierten Effizienzanalysen erlauben. Es wird möglich, die Effekte alternativer Weisen des kognitiv-sozialen Austausches, kognitiver Arbeitsteilung bzw. Netzwerk- und Gruppenbildung unter Agenten mit unterschiedlichen epistemischen Präferenzen, Interessen und Fertigkeiten zu analysieren.

Geben Sie doch mal ein einfaches Beispiel eines Modells dessen, was Sie "kognitiv-sozialen Austausch" nennen.

Rainer Hegselmann: Ein sehr geläufiges Phänomen sind Meinungsverschiedenheiten - und zwar auch solche unter Individuen, die sich für gleich vernünftig, gleich gut informiert und gleichermaßen sachverständig halten. Also etwas, was häufig als peer disagreement bezeichnet wird. Es liegt nahe, in einer solchen Situation zu empfehlen, sich doch aufeinander zuzubewegen, jedenfalls in Grenzen.

Unterstellen wir Meinungen, die sich in reellen Zahlen ausdrücken lassen (also zum Beispiel Wahrscheinlichkeiten für irgendetwas), dann könnte man sagen, jeder solle doch seine Meinung fortschreiben - im Sinne einer Durchschnittsbildung über diejenigen Meinungen, die in einem bestimmten Epsilon um seine eigene Meinung liegen (also nicht zu weit entfernt davon) und die sich damit "irgendwie" innerhalb der Grenzen dessen bewegen, was man selbst für vernünftig hält.

Wohin würde eine dieser Empfehlung folgende Praxis führen, wenn das - Diskussionsrunde für Diskussionrunde - alle immer wieder tun? Würden wir schließlich einen Konsens erreichen können?

Rainer Hegselmann: Ein Computermodell, das genau diesen Prozess modelliert, ist als das Bounded-Confidence-Modell bekannt geworden. In und mit ihm kann man die Effekte der angesprochenen epistemischen Empfehlung studieren.

Die Analyse zeigt, dass es (abhängig vom Wert für Epsilon) zu Konsens, zu Polarisierung, aber auch zu einer völligen Zersplitterung kommen kann. Und wenn man schon eine Polarisierung hat, dann kann ein größeres Epsilon - also größere Offenheit für andere - die Polarisierung sogar noch verschärfen. Geht man in die Details der aus der Empfehlung resultierenden Dynamik, dann lässt sich auch genau verstehen, wie es dazu kommt.

Konnten mit Modellbildung und Simulation bestimmte philosophische Annahmen bereits bestätigt oder widerlegt werden?

Rainer Hegselmann: Es ist häufig eine gute Idee, Computersimulationen einfach als computerunterstützte Gedankenexperimente zu betrachten: Wir haben bestimmte intuitiv-informale Überzeugungen oder Ideen. Modellierung diszipliniert. Sie erzwingt, dass wir unsere Überzeugungen oder Ideen explizit und präzise machen. Selbst wenn sie das dynamische Zusammenspiel von ganz wenigen Faktoren betreffen, sind unsere Intuitionen bezüglich der Resultate in der Regel ausgesprochen schlecht.

Das kann man sich schon an dem (eben angesprochenen) ganz einfachen Bounded-Confidence-Modell klarmachen: Wer würde erwarten, dass, intutitiv gesprochen, mehr Offenheit zu schärferer Polarisierung führen kann? Wer würde erwarten, dass sich ein Konsens, der sich bei einem bestimmten Grad an Offenheit ergibt, bei größerer Offenheit nicht ergeben hätte?

Es gibt im Bereich der social epistemology auch sehr viel kompliziertere Modelle. Sie betreffen epistemische Netzwerke und ihre Dynamik, kognitive Arbeitsteilung oder auch die Aggregation von Urteilen in Jury-Entscheidungen. In allen diesen Modellen kommt es immer wieder zu (jedenfalls ex ante) gegenintuitiven Effekten, die unsere intuitiven Erwartungen widerlegen.

Lässt sich mit Ihrer Methode etwas zu Problemen der praktischen Philosophie, zu Problemen der Moralphilosophie sagen?

Rainer Hegselmann: Es gibt heute zahlreiche Modelle ganz unterschiedlicher Art, in denen es um die Genese, die Verbreitung, aber auch die Erosion von Normen, Moral, Kooperation, Altruismus, Fairness oder auch Vertrauen und Vertrauenswürdigkeit geht. Diese Modelle sind unmittelbar moralphilosophisch relevant. Sie wurden allerdings zu erheblichen Teilen in Disziplinen wie Politikwissenschaften, Ökonomie, Soziologie, Psychologie, oder auch Biologie entwickelt.

Diese Modelle zeigen, dass die Züge und Facetten dessen, was wir umgangssprachlich Moralität nennen, unter vielen Bedingungen eine Verbreitungschance haben, sofern die Agenten über Mittel und Wege verfügen, die sicherstellen, dass Moralität keine Verliererstrategie ist. Es reicht, wenn moralische Agenten die Unmoralischen mit einer gewissen Zuverlässigkeit erkennen und ihnen ausweichen können. Aber wie gesagt: Eine Verliererstrategie darf Moralität nicht sein. Hume würde das begrüßen und sagen, das habe er schon immer gesagt. Kant würde natürlich sagen, er habe schon immer gesagt, darauf käme es nun überhaupt nicht an.

Was sagen Ihre Forschungsergebnisse über unsere Gesellschaft aus? Wo unterscheiden sich Ihre Versuchsanordnungen von der Realität? Ist eventuell die Forschungsmethode der Computersimulation im Moment noch zu abstrakt und unterentwickelt, um tatsächlich bei konkreten Problem kognitive Hilfestellung leisten zu können?

Rainer Hegselmann: Es gibt verschiedene Arten von Computermodellen, konstruiert und entwickelt für ganz verschiedene Zwecke. Die von mir hier angesprochenen Modelle stehen meist in der Tradition radikal vereinfachenden Modellierens. Diese Modelle zielen überhaupt nicht auf die quantitative und exakte Voraussage oder Erklärung von Reale-Welt-Phänomenen. Ihr Zweck ist vielmehr ein qualitatives Verstehen von Mechanismen.

Zweck und Design dieser Modelle sind damit völlig verschieden von Klimamodellen, Modellen für das Crash-Verhalten von Automobilen oder für die Aerodynamik von Flugzeugen. Also von Modellen, die vergleichsweise weitgehend auf sehr gut gesichertem empirischem Wissen und auf wohlfundierten Theorien aufgebaut sind. Was demgegenüber mein Bounded-Confidence-Modell betrifft, so empfände ich es nicht als diskriminierend, das Ganze als eine computergestützte Spekulation über Meinungsdynamiken zu beschreiben - aber eben eine kontrollierte und systematische Spekulation.

Es erlaubt ein detailliertes Verständnis eines einzelnen Mechanismus: Meinungsrevisionen, bei denen diejenigen anderen berücksichtigt werden, deren Meinung nicht zu weit entfernt liegen. Diesen Mechanismus gibt es. Er wirkt nicht immer und nicht in allen - aber jedenfalls manchmal und bei manchen. Reale-Welt-Meinungsdynamiken werden vermutlich durch einen ganzen Mix von Mechanismen getrieben.

Es gibt erstens keine Garantie, dass nur Mechanismen am Werke sind, die durch einfache Modelle verstanden werden können. Zweitens gibt es keine Garantie, dass die Dynamik sich überlagernder und interferierender einfacher Mechanismen verstehbar ist.

Aber wo unser einfacher Mechanismus den dominanten Einfluss hat, dort kann das Modell jedenfalls für qualitative Erklärungen und Prognosen genutzt werden. Im übrigen ist es bereits ein kognitiver Gewinn, wenn man einen Mechanismus versteht, der nie "in Reinkultur" wirkt - denn auch dies liefert immerhin noch ein partielles Verständnis von Reale-Welt-Phänomenen. Mehr wird in vielen Bereichen vermutlich nie möglich sein.