Was Forscher für Deutschland vorraussagen

Supercomputer am Werk

Globale Klimamodelle unterschiedlicher Auflösung Bild vergrößern
Globale Klimamodelle unterschiedlicher Auflösung

Diese Hürde hat REMO längst genommen. Das Regionale Klimamodell ist am Hamburger Max-Planck-Institut extra für die Simulation des Klimas in Deutschland entwickelt worden. Es arbeitet mit dem globalen Modell ECHAM5/MPI-OM zusammen. „Um die Auswirkungen globaler Klimaänderungen auf Regionen in Europa zu untersuchen, werden regionale Klimamodelle in globale Klimamodelle eingebettet", erklärt Daniela Jacob die Vorgehensweise, die als nesting oder dynamic downscaling bezeichnet wird. „So ist es möglich, wie mit einer Lupe, eine spezielle Region viel detaillierter zu untersuchen und eine Brücke zu schlagen zwischen globalen Klimaänderungen und möglichen lokalen Konsequenzen."

Das Herzstück von REMO sind 10X10 Kilometer große "Würfel", die jeweils eine Höhe von 100 Metern haben. In solche Puzzlesteine wird die Troposphäre über Deutschland (die unterste Schicht der Atmosphäre einschließlich des Erdbodens) für die Klimasimulationen virtuell zerlegt. Für jeden dieser Würfel berechnet ein Supercomputer am Deutschen Klimarechenzentrum dann ein ganz spezielles lokales Klima mit Informationen zur Temperatur oder zum Niederschlag.

Sind alle Puzzleteile zu einem feinmaschigen Gitter zusammengefügt, entsteht ein umfassendes Gesamtbild der zukünftigen Klimatrends in Deutschland. Mit seiner räumlichen Auflösung von zehn Kilometern ist REMO 20-mal genauer als alle globalen Klimamodelle, die meist nur eine Auflösung von 200 Kilometern besitzen. REMO liefert daher lokale Prognosen, die es in dieser Detailliertheit und Genauigkeit bisher noch nie gab.

Trotz aller Qualitätstests und vieler Verbesserungen sind die Klimaforscher mit ihren Modellen aber noch längst nicht zufrieden. Denn noch immer gibt es in den Berechnungen einige Unsicherheitsfaktoren. Einer davon ist die Rolle der Aerosole im Klimasystem (siehe auch GEOMAX 10 "Staub im Klimarechner - warum Forscher kleinste Teilchen zählen"). Aerosole sind winzige Schwebteilchen oder Tröpfchen, die aus natürlichen Quellen oder durch Aktivitäten des Menschen, wie die Verbrennung fossiler Energieträger, freigesetzt werden. Sie wirken bei der Wolkenbildung mit und beeinflussen so den Energiefluss in der Atmosphäre. In den vergangenen rund 100 Jahren haben sie die Durchschnittstemperaturen auf der Erde vermutlich um mindestens 0,4 °C gesenkt und damit der globalen Erwärmung entgegengewirkt. Doch ob dieser Kühleffekt für alle Aerosole und unter allen Bedingungen gilt, konnten die Forscher bisher nur teilweise klären.

Ziel der Klimaforscher ist es, ihre Modelle in den nächsten Jahren Stück für Stück zu optimieren. Am Ende soll ein komplexes Supermodell stehen, das alle Vorgänge in der Atmosphäre, der Biosphäre, in den Ozeanen und den Eisflächen berücksichtigt, und auch den Einfluss des Menschen auf das Klimageschehen offenlegt.

Doch je umfassender die Modelle werden, desto mehr Rechnerkapazitäten sind nötig, um die Klimasimulationen durchführen zu können. Da kommt es den Forschern gerade recht, dass am Klimarechenzentrum ein neuer Supercomputer (HLRE2) installiert worden ist, dessen Leistungsfähigkeit die des alten Systems um das rund 60-fache übertrifft: Mit einer Spitzenleistung von 144 Teraflop pro Sekunde - das sind 144 Billionen Rechenoperationen pro Sekunde - gehört er zu den weltweit größten Supercomputern, die für wissenschaftliche Zwecke eingesetzt werden.

Daniela Jacob und ihre Kollegen setzen darauf, dass HLRE2 ihnen hilft, die Prognosen zum Klimawandel und seinen Folgen noch wesentlich genauer und realistischer zu machen. Denn je präziser die Modellrechnungen sind, desto konkreter werden die Empfehlungen der Wissenschaftler für eine wirksame Klimaschutzstrategie.

Zur Redakteursansicht
loading content