Die Temperatur steigt weiter

Jeweils über das Jahr und (fast) den ganzen Planeten gemittelte Abweichung der Temperatur vom Mittelwert der Jahre 1951 bis 1980. Das gleitende Mittel über fünf Jahre ist als rote Linie eingezeichnet. Letztere Darstellung wird gewählt um die längerfristige Entwicklung zu betonen. Bild: GISS

Die Energie- und Klimawochenschau: Von Temperatur- und Windrekorden, Gabriels unerwartete Absage an den Kapazitätsmarkt und neue Entwicklungen in der Offshore-Technologie, die Geldbeutel und Schweinswale schonen könnten

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Wieder ein neuer Temperaturrekord. 2014 war das wärmste Jahr seit Beginn der flächendeckenden Wetteraufzeichnungen. Darin sind sich die US Behörde für Ozeane und Atmosphäre (NOAA), das Goddard Institute for Space Studies (GISS), der japanische Wetterdienst und auch die Climatic Research Unit der University of East Angelia in Großbritannien einig, die eng mit dem dortigen Wetterdienst zusammenarbeitet. 2014 eingeschlossen lagen damit neun der zehn wärmsten Jahre seit Beginn der Aufzeichnungen im 21. Jahrhundert. Das zehnte ist 1998 gewesen, ein Jahr mit einem besonders warmen El-Niño-Ereignis.

Sechs Monate (Mai, Juni, August, September, Oktober und Dezember) waren jeweils die wärmsten jemals beobachten. Besonders bemerkenswert ist, dass 2014 kein El-Niño-Jahr war und dennoch einen neuen Rekord aufgestellt hat. Das war laut NOAA das erste Mal seit 1990 der Fall. Während eines El-Niño-Ereignisses sind weite Teile des tropischen Pazifiks und angrenzende Regionen besonders warm, was den globalen Durchschnitt nach oben drückt. Im ersten Halbjahr 2014 hatte es zwar längere Zeit so ausgesehen, als würde sich ein solches Ereignis entwickeln, was dann jedoch nicht eintrat. Erst im November und Dezember waren Anzeichen eines schwachen El Niños auszumachen.

Wie inzwischen schon seit vielen Jahren war auch 2014 die Erwärmung in der Arktis besonders ausgeprägt. Kühler als normal waren im Jahresmittel nur weite Teile des Ostens der USA und einige Regionen in der Antarktis. Da die Arktis in den Messdaten immer noch unterrepräsentiert ist (siehe Die Erwärmungspause fällt aus) - einige der oben zitierten Gruppen berücksichtigen die Arktis so gut wie gar nicht, die anderen nur eingeschränkt -, ist davon auszugehen, dass die globale Erwärmung noch etwas ausgeprägter ist, als die verschiedenen hier wiedergegebenen Darstellungen vermuten lassen.

Wie wird die "globale Temperatur" berechnet? Alle Gruppen greifen auf teils unterschiedliche, teils überlappende Datensätze zurück. Die Japaner benutzen zum Beispiel einen in den USA zusammengetragenen Klimadatensatz, und zwar des Global Historical Climatology Network bis zum Jahre 2000. Für die Zeit danach nehmen sie einen gemeinsam mit dem Deutschen Wetterdienst gepflegten Datensatz.

Das Gleiche wie oben, nur dass als Referenzperiode hier das ganze 20. Jahrhundert genommen wurde. Bild: NOAA

Pflegen heißt in diesem Zusammenhang, laufend aktualisieren, die Daten auf Inkonsistenzen überprüfen, später gemeldete Korrekturen einarbeiten, Informationen über die Messstationen auswerten und dokumentieren und manches mehr.

Beim GISS werden die geografischen Koordinaten der Messstationen zum Beispiel mit nächtlichen Satellitenaufnahmen abgeglichen. Wenn auf den gleichen Koordinaten starke Lichtquellen verzeichnet werden, lässt das darauf schließen, dass die entsprechende Messreihe einen zusätzlichen Trend enthält, der durch das Wachstum der Städte hervorgerufen wird. In diesen ist es für gewöhnlich merklich wärmer als im Umland. Entsprechend muss dieser vom Städtewachstum hervorgerufene zusätzliche Trend entweder aus den Daten eliminiert oder die Messreihe gänzlich für die globale Analyse verworfen werden.

Hier wurde die Periode 1981 bis 2010 als Referenz gewählt. Die blaue Linie bildet das fließende Fünf-Jahres-Mittel ab, die rote den linearen Trend über die gesamte Zeitreihe. Bild: Japanischer Wetterdienst

Warum eigentlich Anomalie? Mit Anomalie ist die Abweichung von einem beliebigen Referenzwert gemeint, wobei das bei den Meteorologen meist der Mittelwert über eine bestimmte 30-Jahre-Periode ist. An einer beliebigen Messstation werden die täglichen Messungen über einen Monat gemittelt und dann vom Mittelwert über alle entsprechenden Monate der Referenzperiode subtrahiert. So erhält man die sogenannte Anomalie.

Das Besondere daran ist, dass diese mittlere Abweichung der Temperatur über weite Entfernungen korreliert. Während die aktuelle Temperatur sehr kleinräumig variieren kann, reicht im Extremfall zum Beispiel auf See ein einziger solide berechneter Anomaliewert für die Oberflächentemperatur des Meeres aus, um repräsentativ für ein Planquadrat von fünf mal fünf Grad zu sein.

Die japanischen Meteorologen beschreiben auf ihrer Internetseite recht übersichtlich, wie sie bei der Berechnung der Mittelwerte vorgehen. Außerdem veröffentlichen sie eine interaktive Karte der Messstationen, deren Zeitreihen in ihre Berechnungen eingehen. Eine Liste der hiesigen Klimastationen findet sich auf den Seiten des Deutschen Wetterdienstes, der im Übrigen bei der Aufarbeitung globaler Klimadaten eng mit dem japanischen Wetterdienst zusammen arbeitet.

Wie oben, Referenzperiode 1961 bis 1990. Die britischen Forscher gehen weiter als die anderen Gruppen zurück. Wie man an den in der ersten Grafik eingezeichneten grünen Fehlerbalken sehen kann, werden die Unsicherheiten um so größer, je weiter man in der Vergangenheit zurück geht. Das liegt an der unsicheren Datenbasis im 19. Jahrhundert. Bild: Climatic Research Unit

Beim GISS hält man traditionell an der Periode 1951 bis 1980 fest, In Europa wird meist 1961 bis 1990 genommen, NOAA nimmt als Referenz das ganze 20. Jahrhundert und die Japaner haben mit 1981 bis 2010 gerechnet. Wie man an den Temperatur-Grafiken der verschiedenen Gruppen sehen kann, bedeutet das lediglich eine Verschiebung der Nulllinie. Auf die Berechnung des Erwärmungstrends aus den den Grafiken zugrunde liegenden Daten hat das keinerlei Einfluss.

Welche Referenzperiode genommen wird, beeinflusst aber in gewisser Weise die Auswahl der Messstationen. Es können natürlich nur solche genommen werden, an denen selbst oder in deren Nachbarschaft in der Referenzperiode durchgehend gemessen wurde, so dass ein Mittelwert für diese Zeit gebildet werden kann. Damit fallen insbesondere viele arktische und antarktische Messreihen raus, je weiter man mit seiner Referenzperiode in der Zeit zurückgeht.

Übrigens: Die vier gezeigten Grafiken bilden alle weitgehend die gleichen Daten ab und wirken doch recht unterschiedlich. Das liegt zum einen daran, dass die Nulllinie in jeder anders definiert ist und dass zum anderen die Abstände auf der Zeitachse recht unterschiedlich gedehnt sind. Ein gutes Beispiel dafür, dass bei jeder Grafik genau geschaut werden sollte, wie die Achsen beschriftet sind und was tatsächlich dargestellt ist. Der erste rein optische Eindruck kann oft täuschen.

Deutliche Worte von Gabriel

Das Handelsblatt nannte es am gestrigen Dienstag einen "Frontalangriff" auf die Branche. Bundeswirtschaftsminister hat sich in ungewohnt deutlichen Worten gegen die Einführung eines Kapazitätsmarktes ausgesprochen. Damit stößt er insbesondere dem Bundesverband der Energie- und Wasserwirtschaft (BDEW) vor dem Kopf, in dem neben den großen Stromkonzernen auch zahlreiche Stadtwerke zusammen geschlossen sind.

Der BDEW hat im letzten September ein Konzept vorgelegt, wonach erstens die Betreiber neuer Grünstrom-Anlagen zur eigenständigen Vermarktung ihres Stroms gezwungen werden sollen, für deren Ausbau zudem ein fester Korridor fixiert wird, der mit dem Netzausbau synchronisiert werden soll (siehe auch: Wer braucht die neuen Stromtrassen?). Zweitens wollen sie, dass Kraftwerksbetreiber für das zur Verfügungstellen von Leistung bezahlt werden. Das heißt, Geld gebe es nicht nur für den eingespeisten Strom, sondern auch für das Vorhalten jederzeit abrufbarer Leistung.

Gabriel, bisher eher als Kohlefreund in Erscheinung getreten, der dem ersten Forderungsteil des BDEW durchaus nicht abgeneigt scheint, meint dazu gegenüber dem Handelsblatt, die Unternehmen wollten "existierende Überkapazitäten auf Kosten der Stromverbraucher (...) konservieren". Man dürfe sich nicht "aus Feigheit" auf Kapazitätsmärkte einlassen. Dadurch würde ein neues Umlagesystem geschaffen, vor dem die energieintensive Industrie "große Angst" habe, zitiert ihn das Blatt.

Der BDEW hatte sich zuletzt Mitte des Monats beschwert, dass viele Unternehmen mit fossilen Kraftwerken kaum noch Gewinne machen können. Das habe eine Umfrage im Verband ergeben. 69 Prozent von ihnen haben geklagt, dass sich die "eigene (fossile) Stromerzeugung negativ oder sehr negativ auf das Geschäftsergebnis auswirkt". Mit den regenerativen Anlagen sind die meisten hingegen offensichtlich zufrieden. Aber auch Kraft-Wärme-Kopplung (KWK) bereitet Probleme. Fast ein Drittel der Befragten nenne die eigenen KWK-Anlagen unwirtschaftlich. 50 Prozent bezeichnet sie als kostendeckend.

Windrekord in Dänemark

Und zu guter Letzt die gute Nachricht der Woche. In Dänemark wurde 2014 ein neuer Windenergierekord aufgestellt. Windräder deckten im Jahresmittel 39,1 Prozent des Strombedarfs ab, berichtet die Internet-Plattform Euractiv und merkt an, dass die ein neuer Weltrekord sei.

In Deutschland ist man davon hingegen noch weit entfernt. Hier brachten es die Erneuerbaren zusammen im vergangenen Jahr auf einen Abdeckungsgrad von rund 30 Prozent des Netto-Bedarfs. Genaue Zahlen stehen noch aus.

Von Netzzusammenbrüchen wurde aus Dänemark derweil nichts berichtet. Vielmehr gehört das dortige Netz zu den weltweit stabilsten. Der Branchenverband der Stromunternehmen beklagt sich allerdings, dass der Windstrom die Marktpreise drückt. Er fordert, den Verkehrssektor möglichst schnell zu elektrifizieren und auch mehr mit Strom zu heizen. In Dänemark wird schon jetzt in manchen Kraft-Wärme-Anlagen Strom zum zusätzlichen Heizen eingesetzt, was bei so viel Windstrom im Netz sicherlich sinnvoll ist, um Angebotsspitzen auszunutzen und CO2-Emissionen einzusparen.

Zumal der Anteil des Windstroms weiter wachsen wird. Dänemark strebt 50 Prozent an, und will dazu zunehmend auch Offshore bauen. Da trifft es sich gut, dass Vestas, der größte Anlagenbauer des Landes und zugleich die Nummer eins auf dem Weltmarkt, mit seiner neuen 8-Megawattanlage in Serie geht. Die ersten dieser Anlagen werden sich allerdings vor der britischen Küste drehen, wie das Magazin Recharge berichtet. Einige Unternehmen würden bereits an 10-MW-Anlagen tüfteln. Und vielleicht wird der Offshore-Ausbau künftig ja auch deutlich günstiger. Zum Beispiel wenn sich ein neues Konzept eines zweiblättrigen horizontalen Rotors als praktikabel erweisen sollte, von dem das gleiche Blatt berichtet.

Oder wenn sich eine neue Technik für Offshore-Fundamente durchsetzt. Bisher wird meist ein einfaches Rohr mit viel Aufwand und Lärm rund 20 Meter in den Untergrund getrieben. Das ist teuer und für die in der Nordsee insbesondere vor Sylt lebenden Schweinswale wegen des extremen Geräuschpegels gefährlich. Ein holländisches Unternehmen hat jetzt ein dreibeiniges Fundament entwickelt, das unter Wasser aus einem Gitterturm besteht. An dessen drei Füßen befinden sich senkrechte Rohre, die mit Vakuumpumpen evakuiert werden. Dadurch senken sie sich rund acht Meter in den Untergrund ab. Hier gibt es auf YouTube ein Video, das das Konzept und seine Installation beschreibt. Der staatseigene dänische Energiekonzern Dong Energi, der einen Prototyp im letzten Herbst vor der deutschen Küste installiert hat, hofft damit die Kosten für Offshore-Windstrom um rund 4 Cent pro Kilowattstunde verringern zu können. Und die Schweinswale hätten auch was davon.