Techmax 31: Digitale Zwillinge der Erde

Wie Forschung physikalische Klimamodelle entwickelt

Simulation einer Wetterlage mit zwei Klimamodellen. Das Modell mit Zellen von 2,5 km Breite (rechts) erfasst die Wolkenstrukturen viel feiner als das Modell mit 80-km-Zellen (links). Das ermöglicht genauere Klimavorhersagen.
© F. Ziemen, DKRZ

„Es ist eindeutig, dass der Einfluss des Menschen die Atmosphäre, die Ozeane und die Landflächen erwärmt hat“, stellt der Sachstandsbericht 6 (AR6) des Weltklimarats IPCC fest: „Eine globale Erwärmung von 1,5 °C und 2 °C wird im Laufe des 21. Jahrhunderts überschritten werden, außer es erfolgen in den kommenden Jahrzehnten drastische Verringerungen der CO2– und anderer Treibhausgasemissionen.“ Solche Kernaussagen sind das Ergebnis einer weltweiten Zusammenarbeit von 270 Forschenden aus verschiedenen Spezialgebieten. Mit dabei ist Jochem Marotzke, Direktor am Max-Planck-Institut für Meteorologie in Hamburg. Der AR6-Bericht basiert auf vielen Messdaten, Beobachtungen sowie Klimamodellen, wie sie Marotzke mit seiner Abteilung entwickelt.

Die Lage ist ernst, aber Jochem Marotzke legt Wert darauf, der jungen Generation Mut zu machen.  Es sei nicht zu spät, betont er, wir können etwas gegen die weitere Klimaerwärmung tun. Physikalische Gesetze schaffen die Grundlage, dass wir eine lebensfeindliche Heißzeit verhindern können. „Es wäre also ein  fataler Fehler, in eine Angstlähmung zu verfallen, denn dann handelt man nicht.“ Handeln müssen wir aber, denn eines ist klar: Solange wir Menschen weiter Kohlenstoffdioxid ausstoßen, wird es wärmer. Je schneller wir unseren Ausstoß an Treibhausgasen in  der Gesamtbilanz auf „Netto-Null“ herunterschrauben können, desto früher wird auch die Erderwärmung gestoppt. Netto-Null heißt, dass der dann noch vorhandene Treibhausgas-Ausstoß der Menschheit vollständig mit nachhaltigen Maßnahmen ausgeglichen wird.

Energieflüsse im Modell

Wer in das Gebiet der Klimamodelle eintauchen will, muss zuerst verstehen, wie das komplexe Klimasystem der Erde grundsätzlich funktioniert. Und wie der Mensch es beeinflusst. Dabei hat die Physik ihren Auftritt, denn beim Erdklima geht es global gesehen um eine Bilanz von Energieflüssen. Diese lassen sich in Watt pro Quadratmeter ausdrücken. Axel Kleidon, Klimaforscher am Max-Planck-Institut für Biogeochemie in Jena, hat ein physikalisches Modell mit drei Fällen aufgestellt. Für die Energiezufuhr sorgt die Sonne. Ihre Strahlung trifft auf die Erdatmosphäre, mit einem globalen Mittelwert von 342 W/m2 (Abb. A, Fall A). Davon werden durch Schnee und Eis auf der Erdoberfläche und durch Wolken 102 W/m2, also knapp 30 %, zurück ins Weltall reflektiert. Es verbleiben somit 240 W/m2, die auf den Erdboden treffen und ihn aufwärmen. Sobald sich ein Gleichgewicht eingestellt hat, strahlt der Boden die 240 W/m2, umgewandelt in Form von Infrarotstrahlung, wieder ins Weltall ab. In diesem  Fall A würde sich die Bodentemperatur theoretisch bei einem globalen Mittelwert von –18 °C einpendeln. Das kann man mit Hilfe der sogenannten Schwarzkörper-Strahlung ausrechnen, die das Stefan-Boltzmann-Gesetz beschreibt. Ohne Treibhauseffekt wäre die Erde also eingefroren. „Tatsächlich würde sie sogar noch kälter werden“, sagt Jochem Marotzke. Die einfache Abschätzung berücksichtigt nämlich nicht, dass die durch Eis und Schnee hellere Oberfläche mehr Sonnenstrahlung als heute ins All zurückreflektieren würde. Dieses Rückstrahlvermögen heißt Albedo, und eine „Schneeballerde“ hätte eine viel größere Albedo als die heutige Erde.

Abb. A: Energiebilanz im einfachen Klimamodell. Die Fälle der Energiebilanz in der Erdatmosphäre werden von A bis C genauer. Die drei Säulen pro Fall zeigen jeweils von links nach rechts: Solarstrahlung, Abstrahlung des Bodens, Konvektion. Die Konvektion ist nur im Fall C berücksichtigt, der rote Pfeil symbolisiert die Wärmeenergie der Luft, der blaue Pfeil die im Dampf gespeicherte latente Wärme. Fall C ergibt eine global gemittelte Bodentemperatur von durchschnittlich 17 °C, was schon sehr nahe an den realen 15 °C ist.
© A. Kleidon, R. Wengenmayr / CC BY-NC-SA 4.0

Davor rettet uns der natürliche Treibhauseffekt, zusammen mit den Wolken. „Das wirkt wie ein warmer Mantel um die Erde“, sagt Marotzke. Wenn das Licht der Sonne in die Atmosphäre eindringt, absorbieren zunächst Ozon und Wasserdampf einen Teil davon, sodass im globalen Mittel nur 165 W/m2 den Boden erreichen (Abb. A, Fall B). Der eigentliche Treibhauseffekt entsteht, sobald die vom Boden ausgesandte Infrarotstrahlung sich auf den Weg ins Weltall macht. Sie trifft nun wieder auf Wassermoleküle, CO2 und weitere Treibhausgase. Moleküle, die aus drei und mehr unterschiedlichen Atomen bestehen, absorbieren wie kleine Antennen Energie aus der langwelligen Infrarotstrahlung. Diese Energie geben sie über Stöße an die Nachbarmoleküle in der Luft ab, und deren stärkere Bewegung lässt die Temperatur der Atmosphäre steigen. Obwohl Treibhausgase nur Spurengase geringer Konzentration in der Atmosphäre sind, entfalten sie so eine große Wirkung. Sie senden nun selbst mehr Infrarotstrahlung zur Erdoberfläche zurück, im globalen Mittel 347 W/m2. Als Folge erwärmt sich der Boden immer weiter, strahlt aber auch stärker im Infraroten ab. Schließlich stellt sich bei einer Bodenabstrahlung von 512 W/m2 ein neues Gleichgewicht in der Strahlungsbilanz ein. Dadurch steigt nun allerdings die Lufttemperatur am Boden auf einen globalen Mittelwert von 35 °C!

Das ist viel zu warm im Vergleich zur realen Erde. Es fehlt noch ein dritter, stark kühlender Mechanismus der Atmosphäre und der Erdoberfläche (Abb. A, Fall C): die Konvektion. Ihre Bedeutung erkannte der japanisch-amerikanische Klimaforscher Syukuro Manabe, als er  Anfang der 1960er-Jahren erste, noch sehr einfache Klimamodelle entwickelte. Im Jahr 2021 erhielt er gemeinsam mit Klaus Hasselmann, dem Gründungsdirektor des Max-Planck-Instituts für Meteorologie, für Pionierarbeiten zur Klimaforschung den Nobelpreis für Physik. Konvektion entsteht, weil vom Boden aufgewärmte Luft wie ein Heißluftballon aufsteigt, sich in der Atmosphäre abkühlt und wieder herunterfällt. Dieser Kreislauf transportiert Wasserdampf hinauf zu den Wolken. Wenn Wasser aus dem Boden verdampft, nimmt es sehr viel Energie auf. Diese latente Wärme plus die Wärme in der aufgeheizten Luft werden dem Boden entzogen und kühlen ihn. So gelangen im Gleichgewicht zusätzliche 112 W/m2 in die Atmosphäre. Damit pendelt sich der globale Mittelwert der Bodentemperatur bei rund 17 °C ein. Kleidons einfache Abschätzung kommt dem tatsächlichen Wert von etwa 15 °C erstaunlich nahe. Der Fall C beschreibt das Klimasystem der Erde in einem Gleichgewicht vor dem Zeitalter der Industrialisierung. Danach begann der Mensch, immer mehr fossile Brennstoffe wie Kohle, später auch Erdöl und Erdgas, zu verbrennen. Dadurch gelangten zusätzliche Treibhausgase in die Atmosphäre, vor allem CO2. Dessen Konzentration ist seit 1750 durch menschliche Aktivitäten um etwa die Hälfte angestiegen.

Entscheidende Rückkopplungen

„Dieser Treibhausgas-Ausstoß des Menschen wirkt wie eine zusätzliche Wärmedecke um die Erde“, sagt Marotzke. Entsprechend verschiebt sich das Gleichgewicht in der Bilanz der Strahlungsflüsse. Was da genau geschieht, will die Klimaforschung herausfinden. Entscheidend sind die Rückkopplungen im Klimasystem. Eine Rückkopplung ist die Albedo der Erdoberfläche, die abnimmt, wenn die hellen Eisflächen im wärmeren Klima schrumpfen. Sie beschleunigt somit die Erderwärmung, was durch einen positiven Rückkopplungsparameter beschrieben wird. Der aktuelle IPCC-Bericht nennt dafür einen geschätzten Zahlenwert von +0,35 W/(m2 • K). Den stärksten positiven Rückkopplungsparameter mit +1,3 W/(m2 • K) bringen zusätzlicher Wasserdampf und die Temperaturzunahme der Luft in die Bilanz ein. Wolken kommen mit +0,42 W/(m2 • K) dazu. Gäbe es also nur diese positiven Rückkopplungen im Klimasystem, dann würde die Erde tödliches Fieber bekommen.

Abb. B: Das Stefan-Boltzmann-Gesetz beschreibt, welche Wärmestrahlung ein idealer schwarzer Körper in Abhängigkeit von der Temperatur abstrahlt. Für die Erde ist das zwar eine Idealisierung, kommt aber ihrem Verhalten sehr nahe. Eingezeichnet sind hier die Strahlungsleistungen bei -18 °C (ohne Treibhausgase) und den 17 °C nach dem einfachen Modell von Abb. A, Fall C. Die tatsächliche, global gemittelte Bodentemperatur liegt bei ungefähr 15 °C, also etwas darunter.
© R. Wengenmayr / CC BY-NC-SA 4.0

Dem wirkt aber ein starker Kühlmechanismus entgegen: die negative Planck-Rückkopplung. Sie gleicht mit geschätzten -3,22 W/(m2 • K) alle positiven Rückkopplungen mehr als aus. Das gilt auch für den Effekt der zusätzlichen Treibhausgase aus auftauenden Permafrostböden. Unter Berücksichtigung der Rückkopplungen von Biosphäre und Geologie, die ebenfalls negativ wirken, kommt der AR6-Bericht in der Bilanz auf einen geschätzten Rückkopplungswert von -1,16 W/(m2 • K). Hinter dieser Rettung steckt die schon erwähnte Schwarzkörper-Strahlung. Damit lässt sich beschreiben, wie sich das Abstrahlverhalten der Erde mit der Temperatur (T) verändert. Die Formel dafür liefert die Physik in Form des Stefan-Boltzmann-Gesetzes: Danach steigt der in den Kosmos zurückgestrahlte Energiefluss mit T4 an! An diese Kurve (Abb. B) können wir bei der aktuellen, globalen Mitteltemperatur von 17 °C am Boden eine Gerade anlegen. Diese hat dann eine Steigung, die dem Wert 3,22 W/(m2 • K) der Planck-Rückkopplung entspricht.

Eine entscheidende Frage in diesem Zusammenhang ist, ob es im Klimasystem sogenannte „Kippelemente“ gibt und wo sie liegen. Ein Teil der Klimaforschenden geht davon aus, dass etwa die Permafrostböden oder das Eisschild von Grönland zu den Kippelementen zählen. Übersteigt die Klimaerwärmung einen gewissen Punkt, könnten diese unumkehrbar zu schmelzen beginnen. Welche Kippelemente es im Klimasystem möglicherweise gibt und bei welchem Anstieg der mittleren globalen Temperatur sie umkippen könnten, wird kontrovers diskutiert.

Die Klimasensitivität

Hier kommt eine wichtige Größe ins Spiel: die Gleichgewichts-Klimasensitivität, abgekürzt ECS für „Equilibrium Climate Sensitivity“. Dieser Begriff geht auf eine Pionierarbeit zum Treibhauseffekt zurück, die der schwedische Physiker und Chemiker Svante Arrhenius 1896 veröffentlichte. Im Kern geht es um die Frage, wie sich die umhüllende Wärmedecke verhält, wenn das Klima wärmer wird. „Die Wirkung der ECS können wir uns in einem Gedankenexperiment vorstellen, in dem wir die CO2-Konzentration in der Atmosphäre verdoppeln“, sagt Marotzke: „Dann stellt sie die global gemittelte Erwärmung der Erdoberfläche dar, die sich langfristig im neuen Gleichgewicht einstellt.“

Eine der großen Herausforderungen besteht darin, den Wert der ECS einzugrenzen. Viele Jahre lang blieb sie hartnäckig  in einer Spanne zwischen 1,5 und 4,5 °C stecken. Der AR6-Bericht konnte nun endlich diese Unsicherheit verkleinern, auf eine wahrscheinliche Spanne von 2,5 bis 4 °C. Diese Reduktion um 1,5 °C klingt nach nicht viel. Sie ist aber ein großer Schritt, um genauere Aussagen darüber machen zu können, wie viel Treibhausgase die Menschheit noch ausstoßen darf, um das Pariser Klimaziel von 1,5 °C einhalten zu können. Auf jeden  Fall wird das knapp! Der globale Mittelwert der Bodentemperatur ist seit Beginn verlässlicher Wetteraufzeichnungen bereits um 1,2 °C angestiegen, in Deutschland seit 1881 sogar schon um 1,6 °C.

Das einfache physikalische Modell der Strahlungsbilanz (Abb. A) kann die mittlere Oberflächentemperatur verblüffend gut errechnen. Will man aber genauere Aussagen treffen, etwa über regionale Veränderungen, dann braucht man Klimamodelle. Davor beantwortet Jochem Marotzke noch die Frage, warum CO2 eine so dominante Rolle im Treibhaus der Erde spielt. Schließlich sorgt Wasserdampf für einen stärkeren Treibhauseffekt. „Der Wasserdampf ist aber sozusagen der Sklave des CO2“, entgegnet der Forscher. Ursache ist dessen kurze Aufenthaltsdauer im Klimasystem. Das Wasser in der Luft wird ungefähr alle zehn Tage komplett erneuert. „Das CO2 hingegen hat eine viel längere Verweildauer“, erläutert er. „Ein Viertel davon bleibt für Jahrhunderte in der Luft!“ Deshalb steuert das CO2 in seiner Trägheit das Klima, während der schnelllebige Wasserkreislauf sich an die Temperaturveränderung anpassen muss.

Schnell folgt langsam

Diese Erkenntnis, dass im Klima ein schnelles System immer einem langsamen folgen muss, geht vor allem auf Klaus Hasselmann zurück. Der Nobelpreisträger baute darauf zwei bedeutende Pionierarbeiten auf. Darin untersuchte er das Zusammenspiel der Ozeane mit der Atmosphäre. Der riesige Wasserkörper der Meere reagiert sehr langsam auf Klimaveränderungen, er ist das Langzeitgedächtnis. Damit diktieren die langsamen Ozeane der viel schneller reagierenden Atmosphäre langfristige Klimatrends. Man kann das mit einem Menschen vergleichen, der einen unerzogenen Hund an der Leine hält. Der Hund rennt wild hin und her und lässt dadurch den Menschen scheinbar ziellos herumtorkeln. Wenn man länger zuschaut, sieht man jedoch, wie das langsame System Mensch das schnelle System Hund allmählich in die Richtung zwingt, in die der Mensch will. Wie aber kann man einen solchen Trend bereits im chaotischen Bewegungsmuster des Pärchens Mensch-Hund ausmachen, wenn er für das bloße Auge noch gar nicht erkennbar ist? Das entspricht der Frage, die sich Hasselmann gestellt hat: Wie kann man den menschlichen Klima-Handabdruck zweifelsfrei nachweisen, obwohl er sich als winziges Signal im chaotischen Rauschen der täglichen Wetterschwankungen verbirgt? Dieser Nachweis gelang dem Forscher in seiner zweiten Pionierarbeit.

Wie funktionieren Klimamodelle?

„Klimamodelle kann man sich als digitale Zwillinge der Erde vorstellen“, führt Marotzke in sein Forschungsgebiet ein (Abb. C). Die Modelle können aber nicht jedes Wassertröpfchen oder gar Molekül nachbilden, das würde alle Supercomputer weit überfordern. Stattdessen besteht der digitale Zwilling aus einem erdumspannenden, dreidimensionalen Netz aus mathematischen Zellen. Diese Zellen erfassen die Atmosphäre, den Boden bis in eine Tiefe von etwa zehn Metern, sowie den Wasserkörper der Ozeane. Für jede Zelle wird bilanziert, welche Energie und welche Masse hinein- und wieder herausströmt. „Es geht also um Energie- und Impulsänderungen, um die Erhaltungssätze der Physik“, sagt der Forscher. Damit lässt sich ausrechnen, wie sich der Energie- und Impulsinhalt jeder Zelle ändert. „Aus dem Energieinhalt können wir die Temperatur ausrechnen, aus der Temperatur die Dichte und daraus den Luftdruck“, erklärt er weiter. Das führt wiederum zu den Windgeschwindigkeiten. In der Atmosphäre wird es allerdings dadurch kompliziert, dass Phasenübergänge stattfinden können: Wasser verdampft, kondensiert wieder zu Tröpfchen oder friert sogar aus.

Abb. C: Module eines Klimamodells, wie sie am MPI für Meteorologie entwickelt und eingesetzt werden. Die einzelnen Elemente (farbige Boxen) werden über den Austausch von Energie, Impuls, Wasser und Kohlenstoff miteinander gekoppelt. Das „O.-A.-Koppler“-Modul (rot) simuliert den besonders wichtigen Austausch zwischen Ozean und Atmosphäre. Physikalische, biologische, chemische und geologische Prozesse werden berücksichtigt. Eine zentrale Rolle spielt der Kohlenstoffkreislauf (braune Pfeile, s. auch Geomax 22).
© MPI für Meteorologie / CC BY 4.0

Das Computerprogramm rechnet nun in Zeitschritten die Mittelwerte für alle Zellen aus. Hierin unterscheiden sich Klimamodelle nicht von Wettermodellen. Allerdings müssen Klimamodelle in der Regel einige Jahrzehnte bis Jahrhunderte erfassen. Deshalb ist ihr Netz an Zellen viel grobmaschiger, um die Rechenleistung der Computer nicht zu sprengen. Als Folge fallen feine, aber wichtige Elemente des Klimasystems durch das Raster. Forschende müssen Schätzungen einsetzen, was die Genauigkeit reduziert. Außerdem starten Klimamodelle nicht mit Wetterdaten für einen Tag X, wie Wettermodelle. Stattdessen werden sie mit Annahmen über die Entwicklung von Treibhausgasen gefüttert. Diese beruhen auf verschiedenen Szenarien der gesellschaftlichen Entwicklung. Der AR6-Bericht arbeitet mit fünf Szenarien: Im extremen „Weiter-so“-Szenario steigt der CO2-Ausstoß der Menschheit ungebremst an, im günstigsten Szenario kann sie diese Emissionen sehr bald auf Netto-Null reduzieren. Im ersteren Fall würden wir am Ende des 21. Jahrhunderts bei einer um fast fünf Grad aufgeheizten Erde im Vergleich zur Mitte des 19. Jahrhunderts landen. Das Ergebnis wäre ein radikal veränderter Planet mit einigen Regionen, die wahrscheinlich nicht mehr bewohnbar wären.

Blick in die Zukunft

Aber woher weiß man, wie gut ein Klimamodell funktioniert? Dazu muss es als Test die Klimaentwicklung der Vergangenheit simulieren (s. Geomax 19). Heutige Klimamodelle können das sehr genau. Ihre Problemzone ist die immer noch geringe Auflösung, typische Zellengrößen liegen bei 150 km. Das erschwert auch Aussagen über regionale Klimaentwicklungen. Deshalb forschen die Hamburger an hochauflösenden Klimamodellen, die mit viel feineren Zellen auch kleinräumige Prozesse in der Atmosphäre physikalisch genau beschreiben können. Im Projekt „Sapphire“ konnte ein Team um Cathy Hohenegger und Daniel Klocke am Institut schon großräumige Klimavorgänge in einer Auflösung von 2,5 Kilometern und noch feiner simulieren. Damit wird auch die Simulation von Wolken realistischer, die eine wichtige Rolle im Klima spielen (vgl. Titelbild). Eine schlankere Programmierung und leistungsfähigere Computer machen dies möglich.

In Zukunft werden Klimamodelle die Erde immer kleinräumiger erfassen können. Sie erlauben damit genauere Aussagen über die Folgen des menschlichen Handabdrucks im Klima. Das betrifft zum Beispiel regionale Zunahmen von Extremwetterlagen (s. Geomax 25). Eines ist klar: Jedes eingesparte Kilogramm CO2 ist eine Investition in die Zukunft!

 

Abbildungshinweise:
Titelbild: © F. Ziemen, DKRZ
Abb. A: © A. Kleidon, R. Wengenmayr / CC-BY-NC-SA 4.0
Abb. B: © R. Wengenmayr  / CC-BY-NC-SA 4.0
Abb. C: ©  MPI für Meteorologie/ CC BY 4.0

Der Text wird unter CC BY-NC-SA 4.0 veröffentlicht.

TECHMAX 31, Herbst 2022; Autor: Roland Wengenmayr; Redaktion: Tanja Fendt