www.timber-online.net

Meldungen // Forstverein
 // Wald
Klima und Wetter © pixabaygrößer

Klimawandel auch im täglichen Wetter festzustellen

von Lars Jaeger, Baar bei Zug, Schweiz

Die Durchschnittstemperaturen auf der Erde steigen. Darüber kann es keinen Widerspruch mehr geben, zu deutlich zeigen uns dies Satellitenmessungen seit vielen Jahren.

Auch der Anstieg der atmosphärischen CO2-Konzentration um ein Prozent pro Jahr ist unumstritten. Dieser entspricht den Emissionen der globalen Industriegesellschaft von ca. 36 Gigatonnen. Ein Zusammenhang zwischen beiden liegt auf der Hand: Er entspricht sowohl paläontologischen Zeitreihen wie den gängigen (und einfachsten) Klimamodellen, die unter dem Begriff «Treibhauseffekt» populär zusammengefasst werden. Bei Letzterem geht es um den Erwärmungseffekt der Erde, der darauf zurückzuführen ist, dass Sonnenlicht (elektromagnetische Strahlung zwischen ca. 400 und 750 Nanometer Wellenlänge) von der Atmosphäre durchgelassen wird, die von der Erde zurückgestrahlte Infrarot-Strahlung durch CO2 (und in geringeren Mengen von anderen Gasen wie Methan, CH4, Lachgas, N2O, und Ozon, O3) aber von der Rückstrahlung in den Weltraum abgehalten wird. Der „natürliche Treibhauseffekt“, d.h. der Effekt vor Beginn der industriellen Emission von CO2 in die Atmosphäre, sorgt dafür, dass die Temperatur auf der Erde mit durchschnittlich 15 Grad um 33 Grad höher liegt als es das Ergebnis aufgrund eines einfachen physikalischen Strahlungsgleichgewichts ohne die Atmosphäre wäre (Stefan-Boltzmann-Gesetz: Jeder Körper gibt Strahlung ab - je wärmer er ist, desto mehr. Die Erde hat daher genau die Temperatur, bei der sich die einfallende Sonnenstrahlung und die von der Erde wieder abgegebene Wärmestrahlung ausgleichen). Der menschengemachte Treibhauseffekt durch CO2-Emissionen macht «nur» ca. 1,2 % des gesamten irdischen Treibhauseffekts aus, mit den anderen emittierten Treibhausgasen kommen noch einmal ca. 1 % dazu. Das klingt nach wenig, aber entspricht ziemlich genau den gemessenen 0.7 Grad Erhöhung im Vergleich zum vorindustriellen Level (2.2 % von 33 Grad).


Soweit so gut: Leider ist dieses einfache Klimamodell genau dies: (zu) einfach. Tatsächlich spielen noch viele andere Komponenten in die Dynamik des globalen Klimas hinein, die die «auf der Hand liegende» Erklärung konterkarieren könnten:

• die Schwankungen in der Sonnenaktivität und der Stärke des Sonnenwinds

• die Wolkenbedeckung (Wasserdampf ist das bedeutendste Treibhausgas, weitaus mächtiger als CO2, seine Menge wird aber vom Menschen anders als beim CO2 kaum direkt beeinflusst)

• der Gasaustausch zwischen Ozean und Atmosphäre,

• Meeresströmungen (Nordatlantische Oszillation, El Nino-Südliche Oszillation),

• der Anteil am Eis auf der Erdoberfläche (Eis-Albedo-Rückkopplung: Das Tauen von Gletschern oder das Abschmelzen der Polkappen reduziert das Rückstrahlvermögen, die sogenannte Albedo, der Erde, wodurch sich die Erde noch mehr erwärmt),

• Vulkanausbrüche (mit starken Gasfreisetzungen),

• etc.


Zu allem Überfluss wirken bei all dem im Klimasystem wichtige Rückkopplungsmechanismen und selbstverstärkende Prozesse, d.h. es gibt in ihm zumeist keine einfachen (linearen) Zusammenhänge (ein Beispiel ist obige Eis-Albedo-Rückkopplung, aber auch, dass mit der globalen Temperaturerhöhung einerseits der Wasserdampfgehalt in der Atmosphäre steigt, andererseits die eingefrorenen Methangase in der Arktis freigesetzt werden, was beides den Treibhauseffekt verstärkt und die Temperaturen noch stärker ansteigen lässt; es sind solche Effekte, die die Angst vor den so genannten „Kipp-Punkten“ hervorrufen). Bedeutende Teile dieser Zusammenhänge werden von den Klimaforschern noch nicht ausreichend verstanden. So gab es in der Vergangenheit unseres Planeten tatsächlich immer wieder Klimawandel, bei denen CO2 nur einer von vielen Einflussfaktoren und dabei teils sogar kaum kausal wirksam war. Eine einfache (lineare) Beziehung zwischen atmosphärischem Treibhaus-Gehalt und Temperatur gibt es scheinbar nicht (auch wenn die Beziehung in den letzten 150 Jahren empirisch ziemlich gut hielt). Wir brauchen also noch bessere Modelle zum Verständnis des globalen Klimas und des politisch so heiss diskutieren Klimawandels.


Betrachten wir diese Modelle etwas genauer. Es gibt drei grundsätzliche Sorten: 1. Einfache „konzeptionelle Klimamodelle“ für grundlegende Untersuchungen des Klimasystems (wie das Treibhausmodell). 2. «Modelle mittlerer Komplexität» (engl. «Earth System Models of Intermediate Complexity» kurz EMIC) zur (eher heuristischen) Erforschung von Klimaänderungen über längere Perioden in der Vergangenheit oder die Vorhersage des langfristigen Klimawandels in der Zukunft. 3. Die «komplexen Modelle» für die globale Zirkulation (engl. «General Circulation Models», GCM, oder auch «Earth System Models», ESM). Diese sind Weiterentwicklungen der numerischen Wettervorhersage und entsprechen mathematischen Modellen der Zirkulation in der planetarischen Atmosphäre und/oder den Ozeanen. Sie verwenden die Navier-Stokes- Gleichungen der allgemeinen Fluiddynamik auf einer rotierenden Kugel mit entsprechenden thermodynamischen Variablen für verschiedene Energiequellen (wie Strahlung, latente Wärme). Diese sehr komplexen Gleichungen werden dann mittels numerischer Computeralgorithmen auf einem die Erde überdeckenden Gitter gelöst, wofür die stärksten verfügbaren Supercomputer benötigt werden. Eine wichtige Bestimmungsgröße der GCM-und ESM-Modelle ist die Größe ihrer Gitter, d.h. ihre räumliche und zeitliche Auflösung. In den besten heutigen Modellen beträgt erstere ca. 50-100 km.


Die Klimamodelle und ihre Parameter werden über die historischen Messdaten von ca. 1850 bis heute laufen gelassen. Damit sind diese Modelle allerdings noch nicht unbedingt «fit», um auch zukünftige Temperaturen oder Regenmengen korrekt vorherzusagen. Sie müssen ihre Robustheit und Qualität «out of sample» zeigen (also mit Daten, die sie bei ihrer Kalibrierung noch nicht kennengelernt haben). Die leistungsfähigsten und aussagekräftigsten Klimamodelle sind heute GCM- oder ESM-Modelle, die ozeanische und atmosphärische Dynamiken miteinander verkoppeln. Um ihre vielen verschiedenen Versionen zu vereinheitlichen und ihre Ergebnisse besser vergleichen zu können, wurde vor ca. 25 Jahren das «Coupled Model Intercomparison Project (CMIP)» gegründet. Es handelt sich dabei um eine internationale Kollaboration, die von der «Working Group on Coupled Modelling (WGCM)» des Weltklimaforschungsprogramms (WCRP) eingerichtet wurde. Die CMIP-Modelle werden in Phasen entwickelt, momentan ist die sechste Phase («CMIP6») in Bearbeitung (in seinem letzten Report von 2014, dem «AR5», stützt sich der «Intergovernmental Panel on Climate Change (IPCC)» stark auf dessen fünfte Phase, «CMIP5»). Allerdings sind auch die neusten Klimamodelle noch immer alles andere als perfekt. Zwar haben die Klimaforscher in den letzten Jahren mit Hilfe immer leistungsfähigerer Computer rapide Fortschritte gemacht, doch ist beispielsweise das räumliche Auflösungsvermögen der CMIP5-Modelle noch immer unzureichend, um lokale Begebenheiten wie Berge, Ufergegebenheiten, Flüsse, lokale Wolkenbildung etc. ausreichend einzubeziehen. Um diese zu erfassen, nähern die Forscher die Begebenheiten innerhalb einer Gitterzelle mit entsprechenden Parametrisierungen an, was natürlich reichlich Raum für Unsicherheiten bietet. Auch sind die globale Wolkenbildung und die Wechselwirkung der Atmosphäre mit den Ozeanen noch nicht ausreichend genau verstanden und in die Modelle eingearbeitet. Dazu kommt ein grundlegendes Problem: Um ihre Modelle zu testen, benötigen die Forscher lange Zeitreihen von Klimadaten (Temperatur, Feuchtigkeit, etc.), darunter Daten, die das Model nach seiner Kalibrierung noch nicht kennt. Und um das Modell zuletzt in seiner Qualität zu beurteilen, müssen seine Prognosen mit den tatsächlich eintretenden Ereignissen abgeglichen werden. So kann es Jahre und Jahrzehnte dauern, bis ein Modell als verlässlich (oder unverlässlich) gilt, Zeit, die wir aufgrund des sich rapide ändernden Klimas vielleicht gar nicht haben. Die wichtigste Frage, die Klimamodelle zu beantworten haben (neben den Zukunftsprognosen), ist die nach den Ursachen für den Klimawandel. Sind dafür die industriellen Treibhausgase wie CO2 oder CH4 verantwortlich, oder gibt es vielleicht doch natürliche Schwankungen in unserem Klima, die andere Gründe haben, die mit Treibhausgasen wenig zu tun haben (z.B. durch eine noch nicht modellierte Variabilität der Sonneneinstrahlung)? Diese Frage liegt im Kern der politischen Debatte und aller künftiger Klimadiskussion. Um sie zu beantworten, enthalten die Klimamodelle «externe Parameter», die den Einfluss der von uns emittierten industriellen Gase explizit beschreiben. Diese werden dann mit den Ergebnissen von Modellen ohne externe Parameter, also nur mit den natürlichen, von Menschenhand nicht beeinflussten Faktoren verglichen. Die Gretchenfrage ist also, ob die Modelle mit externen Parametern die tatsächliche Entwicklung unsere Klimas signifikant besser beschreiben können als die ohne. Stand der Dinge ist hier (gemäß dem letzten IPCC Report): Es sieht ganz so aus. Die Modelle mit externen Parametern besitzen eine hohe statistische Signifikanz, weitaus höher als die ohne, auch wenn sie uns noch keine 100 %-ige Sicherheit geben. Auch bleiben wichtige Faktoren (z.B. der genaue Einfluss der Wolken und die Bedingungen ihrer Bildung) weiterhin unzureichend berücksichtigt. Es müssen also einerseits die Modelle weiter verbessert werden, was aufgrund der komplexem und chaotischen geologischen Dynamik auf unserem Planeten zu den anspruchsvollsten wissenschaftlichen Problemen überhaupt gehört (zurzeit arbeiten die Klimawissenschaftler an der CMIP6-Serie, die noch einmal eine ganze Reihe an weiteren Faktoren einbringt bzw. noch genauer modelliert), andererseits brauchen wir noch mehr Daten, mit denen wir diese testen. Nun zeigt sich aber vielleicht ein ganz neuer Weg, die Modelle in ihrer Aussage- und Prognosekraft zu testen. Bisher haben die Klimaforscher mit ihren Modellen Aussagen über die langfristige Entwicklung des globalen wie regionalen Klimas gemacht (die sie dann mit den tatsächlich gemessenen Werten vergleichen): Wie entwickelt sich die Temperatur der Erdoberfläche im weltweiten Durchschnitt über die Zeit? Was sind die zu erwartenden jährlichen Regenfallmengen in Mitteleuropa über die nächsten Jahre und Jahrzehnte? Kurzfristige Wetterbedingungen sollten dabei keine Rolle spielen, unterliegen diese doch zu vielen Zufälligkeiten, d.h. die konkreten Daten sind statistisch zu variabel, um eine ausreichend hohe Aussagekraft zu besitzen. «Wetter ist nicht gleich Klima», heißt es bei den Klimaforschen, oder: «Klima ist das, was man langfristig erwartet, Wetter, was man kurzfristig erhält». So kann es durchaus in Nordamerika im Oktober mal -37 Grad haben (wie 2019 in Utah gemessen), woraufhin sich «Klimaskeptiker» genüsslich (und oft auch sehr dämlich) fragen, «wo denn der Klimawandel bleibt». Klimaforscher von der ETH Zürich haben in einer aufsehenerregenden Publikation [1] jedoch gezeigt, dass sich signifikante Klimasignale, also der Trend zur Erwärmung, wie er auch von den CMIP-Modellen beschrieben wird, auch aus täglichen Wetterdaten wie Oberflächenlufttemperatur und Luftfeuchtigkeit herauslesen lassen! Dafür ist aber eine globale Betrachtung der Daten notwendig: Während regionale Daten auf täglicher Basis zu stark fluktuieren und damit mögliche Signaturen des Klimawandels verschleiern, mittelt sich die Variabilität auf der globalen Ebene auch in täglichen Daten heraus. Die globalen Tagesmittelwerte erweisen sich als relativ stabil. Die extrem kalten Bedingungen in Nordamerika im Oktober und die ungewöhnlich heißen Bedingungen in Australien zur gleichen Zeit gleichen sich in der globalen Statistik aus. Beschrieben also bisher die Modelle die langfristigen Klimaeffekte auf globaler wie regionaler Basis, so lassen sich mit ihnen durchaus auch die kurzfristigen Wettereffekte auf globaler Basis beschreiben, so könnte der Tenor der Studie heißen, oder wie es der Leiter der Forschergruppe Reto Knutti formuliert: «Wetter auf globaler Ebene trägt wichtige Klimainformationen in sich.» Konkret wandten die Zürcher Forscher die so genannte «Fingerprint»-Methode an: Zunächst modellierten sie mit den Klimamodelle und ihren externen Parametern (konkret mit den CIMP5-Modellen) die jährliche globale Durchschnittstemperatur und die zehnjährige irdische Energiebilanz. Dann trainierten sie auf der Basis der gleichen CIMP5-Modelle Regressionsmodelle zur Vorhersage dieser durchschnittlichen Temperatur- und Energiebilanzdaten aus den räumlichen täglichen Mustern von Oberflächentemperatur und/oder Luftfeuchtigkeit. Das Ergebnis waren «Karten von Regressionskoeffizienten», die den Zusammenhang zwischen den globalen Klimawerten (Temperatur und Energiebilanz) und den global verteilten Wetterdaten abbilden und ihrerseits einen «Fingerabdruck» der verwendeten Klimamodelle darstellen (mit Hilfe dieser Regression ließ sich das starke Rauschen in den Daten unterdrücken und eventuelle Signale ließen sich besser hervorausfiltern). Diese können dann mit den Beobachtungen abgeglichen werden. Zuletzt verglichen die Forscher die Ergebnisse aus den Modellen mit den externen Faktoren gegenüber solchen ohne externe, also nur mit natürlichen Faktoren.


Das Ergebnis war eindeutig: Der Klimawandel ist tatsächlich auch in den täglichen Wetterdaten eindeutig erkennbar! Gemäß der Studie ließ er sich sogar in jedem einzelnen Tag seit 2012 erkennen (mit 97.5 % Konfidenz). Seine Signatur lässt sich mit den verfügbaren globalen Klimamodellen gut erfassen, was deren Qualität untermauert. Im Übrigen gilt dies auch, wenn der globale Temperaturanstieg herausgerechnet wird. Dies ist ein großer Schritt in der Entwicklung noch aussagekräftigerer Klimamodelle, die spätestes mit dem nächsten Bericht der IPCC (vorgesehen für 2022) weiter an Bedeutung in der politischen und gesellschaftlichen Debatte um den Klimawandel gewinnen werden. Auch wenn wir immer noch keine 100 %-ige wissenschaftliche Sicherheit haben, dass der Klimawandel menschenverursacht ist, so schließt sich doch allmählich die Türe für alternative, natürliche Erklärungen. Zu warten, bis die Konfidenzen der Modelle noch höher sind, bevor man politisch reagiert, wäre völlig unangemessen. Wäre es nicht sogar vielmehr angemessen zu handeln, selbst wenn die Modelle «Entwarnung» bei den Auswirkungen der anthropogenen Veränderungen unserer Biosphäre signalisieren würden, aber auch das eben noch mit einer vergleichbaren Unsicherheit wie die, mit der uns die Modelle heute aufzeigen, dass der menschengemachte Klimawandel stattfindet? Es sieht so aus, als ob sich wenigstens diese Frage schon bald nicht mehr stellen wird.

[1] Sippel, S., Meinshausen, N., Fischer, E.M. et al. Climate change now detectable from any single day of weather at global scale. Nat. Clim. Chang. 10, 35–41 (Jan 2, 2020) doi:10.1038/s41558-019- 0666-7


Lars Jaeger hat Physik, Mathematik, Philosophie und Geschichte studiert und mehrere Jahre in der Quantenphysik sowie Chaostheorie geforscht. Er lebt in der Nähe von Zürich, wo er – als umtriebiger Querdenker – zwei eigene Unternehmen aufgebaut hat, die institutionelle Finanzanleger beraten, und zugleich regelmäßige Blogs zum Thema Wissenschaft und Zeitgeschehen unterhält. Überdies unterrichtet er unter anderem an der European Business School im Rheingau. Die Begeisterung für die Naturwissenschaften und die Philosophie hat ihn nie losgelassen. Sein Denken und Schreiben kreist immer wieder um die Einflüsse der Naturwissenschaften auf unser Denken und Leben. Im September 2019 erschien sein neuestes Buch „Mehr Zukunft wagen!“ beim Gütersloher Verlagshaus.


Autor: Maierhofer
30.06.2020, 16:20 MEZ

Artikel druckenArtikel mailen