Prinzipiell unsichere Prognosen

Trotz Supercomputer - warum das Verhalten der Natur so wenig vorhersehbar ist

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Vorhersagen sind schwer - besonders wenn es um die Zukunft geht. Diese simple Weisheit will uns die Technik allzu oft vergessen machen. Immer neue Supercomputersysteme berechnen den Zustand der Welt auf Meter und Grad genau - und doch, genaues weiß man eigentlich nicht, man muss sich auf „könnte“ beschränken. Die Diskrepanzen werden in der aktuellen Klimadiskussion besonders deutlich: Während Forscher die Klimaerwärmung für einzelne deutsche Landstriche auf 0,5 Grad genau vorhersagen, gelingt es anderen nicht, das Wetter für den übernächsten Tag genau zu bestimmen.

Dass dies ein prinzipielles Problem von Computersimulationen der realen Welt ist, beschreibt der US-Mathematiker James McWilliams in einer aktuellen Veröffentlichung der US-Akademie der Wissenschaften. McWilliams bezieht sich dabei speziell auf Atmosphären- und Ozeanmodelle (atmospheric and oceanic simulation, AOS), zieht aber auch allgemein interessante Schlussfolgerungen.

Solche AOS-Modelle finden vor allem in der Wetter- und Klimaforschung Einsatz, aber auch für spezielle Probleme etwa im Zusammenhang mit Turbulenzen, Wolken oder Gravitationswellen. Sie haben den Vorteil, dass man mit ihnen Phänomene bearbeiten kann, die rein mathematischer Verfolgung noch nicht zugänglich sind. Ihre Gemeinsamkeit besteht aber auch darin, dass sie die Wirklichkeit nur selten genau abbilden, selbst wenn man sie zuvor speziell auf bestimmte natürliche Gegebenheiten getuned hatte. Das führt dazu, dass zum Beispiel Prognosen, die den Einfluss des Menschen auf das Weltklima untersuchen, sich zwar plausibel in eine bestimmte Richtung entwickeln - trotzdem jedoch quantitativ selbst in wichtigen Parametern um einige zehn Prozent unterschiedliche Resultate liefern.

Das liegt, meint McWilliams, an einer Computersimulationen immanenten, nicht reduzierbaren Unfähigkeit, die Natur nachzustellen. Das hat seine Ursache unter anderem darin, dass die zu betrachtenden Einflüsse zeitlich und örtlich von stark unterschiedlicher Dimension sind. Ströme in Atmosphäre und Ozean verändern sich auf dem Zeitniveau zwischen Jahreszeit und Jahrtausend und Entfernungen um tausende von Kilometern, während sich Flüssigkeiten in Zeitrahmen von Millimetern und Millisekunden mischen und dissipieren. Selbst mit optimistischstem Blick auf künftige Supercomputer scheint es unmöglich, in Zukunft all diese Faktoren angemessen zu berücksichtigen.

Das führt zu zwei wichtigen Einschränkungen: AOS-Modelle werden besonders ungenau, wenn man zeitlich und örtlich an ihre Auflösungsgrenzen heranrückt. Und sie enthalten künstliche Vereinfachungen, bei der Erzeugung des Modells fix gewählte Parameter, die sich nicht auf grundlegende Prinzipien zurückführen lassen.

Grad an Unsicherheit ist schon seit ersten Simulationen Ende der 70-er erstaunlich konstant

Vor allem bei Problemen vom Komplexitätsgrad einer Klimasimulation verzichtet man zudem darauf, alle theoretisch möglichen Kopplungen einzelner Parameter mit einzubeziehen. Wenn sich eine bestimmte Größe ändert, verändert das davon abhängige Größen, werden die Winter wärmer, wird zum Beispiel weniger geheizt, der Kohlendioxidausstoß verringert sich. Es ist kaum möglich, in einer Computersimulation bis zum bitteren Ende alle derartigen Kopplungen zu betrachten. Zumal ihr Einfluss auf das Ergebnis oft eher gering ist - das weiß man nur vorher nie genau.

Was AOS-Simulationen zusätzlich erschwert, ist der so genannte Schmetterlingseffekt - in einem dynamischen Modell können sich selbst kleinste, unter der Grenze der Messgenauigkeit liegende Größen mit der Zeit derart aufschaukeln, dass sie das Verhalten des ganzen Systems beeinflussen.

Diese Probleme, das zeigt McWilliams in seiner Arbeit mathematisch auch an Beispielen, sind nicht prinzipiell lösbar. Das zeigt etwa der IPCC-Report (vgl. Klimaschutz ist machbar) sehr schön: er gibt für eine verdoppelte Kohlendioxid-Konzentration in der Atmosphäre eine um drei Grad erhöhte mittlere Erdoberflächentemperatur an. Und zwar mit einer Sicherheit von +/- 50 Prozent. Dieser Grad an Unsicherheit ist schon seit ersten Simulationen Ende der 70-er erstaunlich konstant geblieben - obwohl die Supercomputer von damals kaum mit heutigen PCs mithalten können.

Es handelt sich also nicht um ein Problem der reinen Rechenkraft. Kennt man ihre Grenzen, kann man die Modelle aber besser bewerten. Und man kann ein paar Sicherheitsmechanismen einbauen. Es hat sich zum Beispiel als praktisch erwiesen, ganze Simulations-Ensembles zu berechnen. So lässt sich besser feststellen, welcher Grad an Ungenauigkeit einem bestimmten Modell eigen ist. Doch selbst wenn man dies weiß, kann man nicht einfach das „mittlere“ Modell als das genaueste betrachten - es ist ebenso möglich, dass das Modell an den Grenzen des Ensembles die Realität am besten wiedergibt.

McWilliams fordert deshalb, dass bei der Bearbeitung von Simulationen nicht nur die Eingangsvoraussetzungen systematisch verändert werden (wie es heute oft der Fall ist), sondern auch die Art und Weise der Einbeziehung der Parameter - selbst wenn dies weit höhere Anforderungen an die Konstruktion solch eines Modells stellt.