Nix genaues weiß man nicht

Klima-Vorhersagen sind prinzipiell ungenau - daran können auch immer ausgefeiltere Modelle nichts ändern

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

In den vergangenen dreißig Jahren hat sich eine Menge getan: die Supercomputer der 70-er werden heute von Standard-Desktop-PCs übertroffen. Unser Verständnis, der mit Wetter und Klima verbundenen Vorgänge in der Erdatmosphäre, hat sich deutlich verbessert. Und nicht zuletzt sind mittlerweile auch weit mehr Forscher mit der Frage befasst, welche Folgen der Anstieg des Kohlendioxid-Gehalts der Lufthülle der Erde in Zukunft haben mag.

Doch trotzdem können wir die Trends quantitativ nicht wirklich mit Sicherheit benennen. Klar ist immerhin, dass statt 280 Kohlendioxid-Molekülen pro Million wie noch vor Beginn der industriellen Revolution der CO2-Anteil heute bei 380 ppm liegt. Ernstzunehmende Prognosen gehen davon aus, dass sich dieser Wert bis zum Ende des Jahrhunderts mindestens verdoppeln wird und womöglich gar auf 1000 ppm steigt.

Aber wie beeinflusst diese, zum großen Teil vom Menschen verursachte Veränderung das Klima? Darüber ist man sich heute nicht wesentlich sicherer als vor 30 Jahren. Damals ermittelten Forscher, dass eine Verdopplung des CO2-Gehalts höchstwahrscheinlich zu einem weltweiten Temperaturanstieg um 1,6 bis 4,5 Grad führen wird. Der letzte Klimabericht des IPCC (siehe: Klimaschutz ist machbar) bringt hier nicht wesentlich genauere Erkenntnisse: Nur die untere Grenze hat sich leicht auf 2 Grad plus erhöht. Die Wahrscheinlichkeit, dass die Wirklichkeit von dieser Prognose abweicht, liegt bei immerhin einem Drittel.

In der aktuellen Ausgabe des Wissenschaftsmagazins Science untersuchen nun zwei Forscher der University of Washington, warum es der Wissenschaft nicht gelingt, diese Temperaturverteilungs-Kurve zu schärfen. Bisher hatte man dafür vor allem drei Gründe vermutet: Erstens unser mangelhaftes Verständnis der dem Klima zugrunde liegenden Prozesse, insbesondere im Zusammenhang mit der Wolkenbildung, zweitens die komplexen Interaktionen der einzelnen physikalischen Prozesse und drittens die chaotische Natur des kompletten Systems, die auch aus kleinen Änderungen einzelner Parameter starke Variationen generiert - der berühmte Flügelschlag des Schmetterlings. Diese Probleme könnte man allerdings prinzipiell angehen, mit genaueren Modellen, mehr Rechenkapazität und besseren Beobachtungen.

In Science zeigt das Forscherteam nun aber, dass es auch eine fundamentale Erklärung gibt, die sich selbst mit immer schlauerer Technik nicht umgehen lässt. Die Wissenschaftler betrachten dazu die Beziehung zwischen den prinzipiellen Unsicherheiten physikalischer Prozesse (die der Materie immanent sind) und der daraus folgenden Gestalt der Wahrscheinlichkeitsverteilung für die künftige Temperaturänderung auf der Erde. Damit können die Forscher auf rein mathematischem Wege zeigen, dass sich bei einer Temperaturerhöhung etwa um 3,6 Grad die Unsicherheitsfaktoren um eine ganze Größenordnung erhöhen. Das ist auch anschaulich nachvollziehbar: Verändert sich die mittlere Temperatur um einen solchen Betrag, ändert sich auch ein großer Teil der Berechnungsgrundlagen in einer Weise, die für uns heute einfach unvorhersehbar ist.

Dass die Wahrscheinlichkeitsverteilung der Temperaturveränderung so einen langen Schwanz hin zu höheren Temperaturen haben muss, führen die Forscher, wieder mathematisch, darauf zurück, dass die Feedback-Prozesse bei den kommenden Veränderungen sich sehr asymmetrisch auswirken. Der einzige Weg, die tatsächliche Entwicklung zu ermitteln, folgert ein begleitender Artikel in Science, bestünde denn auch darin, dumm genug zu sein, die Kohlendioxid-Konzentration wirklich derart zu steigern. Ob unsere Nachfahren allerdings glücklich damit sein werden, den heutigen Forscherstreit auf ihre Kosten endlich gelöst zu sehen? Die Wahrscheinlichkeitsverteilung dafür hat ihr Maximum vermutlich in der Nähe der Nullmarke.