El Niño und La Niña

Der Computer spielt mit Würfeln

Zwei Mechaniker bei Wartungsarbeiten auf einer Messboje im Pazifik. Bild vergrößern
Zwei Mechaniker bei Wartungsarbeiten auf einer Messboje im Pazifik.

Die „Luftdruckschaukel“, die sich über dem Pazifik bildet, wenn das Klima zwischen El Niño und La Niña hin und her „schwingt“, wurde übrigens bereits in den 20er Jahren des vergangenen Jahrhunderts entdeckt, lange bevor die Wissenschaftler ihre Bedeutung für das Weltklima kannten. Sie erhielt seinerzeit den Namen Southern Oszillation (Südliche Oszillation, SO). Da sie als wesentlicher Bestandteil von El Niño gilt, sprechen die Wissenschaftler heute meist vom El Niño/Southern Oszillation-Phänomen oder kurz ENSO-Phänomen.

Zur Erforschung dieses Phänomens haben vor allem amerikanische Wissenschaftler 1985, kurz nach der El Niño-Phase von 1982/83, ein Messnetz aus vielen Bojen innerhalb eines etwa 10.000 Kilometer breiten Gürtels längs des Äquators von Indonesien bis Südamerika installiert. Die Bojen gleichen großen Rettungsringen, die in rund 4000 Meter Tiefe vertäut sind. An den Ankerketten sind Sensoren befestigt, die Temperatur und Strömung in unterschiedlichen Wassertiefen messen. Über der Wasseroberfläche werden Lufttemperatur und Luftbewegungen registriert. Die Daten werden kontinuierlich gesammelt, zu Weltraum gestützten Satelliten gefunkt und dann den Wissenschaftlern weltweit zur Verfügung gestellt.

„Wir holen uns etwa alle fünf Tage einen Datensatz aus dem Internet“, erklärt Mojib Latif, der seit rund 20 Jahren das ENSO-Phänomen erforscht. Er und seine Hamburger Kollegen haben sich darauf spezialisiert, ausgeklügelte Computermodelle zu entwickeln, mit denen sie das Weltklima, darunter auch El Niño- und La Niña-Ereignisse, simulieren können. „Unser Ziel ist es, das Klimageschehen besser zu verstehen“, sagt Latif.

Dabei ist es dem Team zugleich gelungen, die El Niño-Vorhersagen entscheidend zu verbessern: Die Hamburger Klimaforscher waren weltweit die einzigen, die den bisher stärksten El Niño, den „El Niño Grande“ von 1997/98, bereits sechs Monate vor Eintreten der ersten Wetterveränderungen vorhersagen konnten. Das Klimamodell, das sie dabei verwendeten, entwickelten sie gemeinsam mit Kollegen des Europäischen Zentrums für mittelfristige Wettervorhersage in Reading, England.

Ähnlich wie bei der Wettervorhersage, „füttern“ die Forscher ihr Computermodell mit Beobachtungsdaten, beispielsweise den Wasser- und Lufttemperaturen oder den Windgeschwindigkeiten der letzten ein bis zwei Jahre, und berechnen daraus quasi das „Klima der Zukunft“. Um eine möglichst hohe räumliche Auflösung zu erreichen, teilen sie das Modell der Erde und Atmosphäre zuvor in Würfel. Für jeden einzelnen berechnet der Computer dann – nach den Gesetzen der klassischen Physik – ein „lokales“ Klima. „Da steckt nicht so viel Intelligenz dahinter, sondern vor allem eine wahnsinnig hohe Rechnerleistung“, sagt Mojib Latif.

So gesehen bestimmt letztlich der Computer die Genauigkeit der Klimaanalyse. Für eine exakte Abbildung der Natur müssten die Forscher das Modell in unendlich viele kleine Würfel teilen. In diesem Fall würde der Computer dann aber auch unendlich lange benötigen, um das Klima zu berechnen. Die Forscher müssen sich deshalb mit einer räumlichen Auflösung von 250 Kilometern begnügen; und selbst dann braucht der Rechner immer noch 100 Tage, um das Klima für die nächsten 100 Jahre zu simulieren.

Erstellen von Klimamodellen (die Kantenlänge der Würfel entspricht der räumlichen Auflösung). Bild vergrößern
Erstellen von Klimamodellen (die Kantenlänge der Würfel entspricht der räumlichen Auflösung).
Zur Redakteursansicht
loading content