LOGO maxwissen

Datenschutzhinweis: Mit dem Klick auf den Play-Button starten Sie ein YouTube-Video. Vorher werden keine Daten an YouTube übertragen.

YouTube-Link: https://youtu.be/QRp8bKS81Ag

Jasmonsäure ist ein wichtiger Bestandteil der Pflanzensprache. Diese Substanz signalisiert der Tabakpflanze, dass sie von Schädlingen attackiert wird. Forscher am Max-Planck-Institut für chemische Ökologie in Jena untersuchen die Verteidigungsstrategien der Pflanzen, um so eines Tages Kulturpflanzen züchten zu können, die keine Insektenvernichtungsmittel mehr zum Schutz benötigen. Mehr Infos: www.ice.mpg.de

[Dauer des Videos: 4 min]

Datenschutzhinweis: Mit dem Klick auf den Play-Button starten Sie ein YouTube-Video. Vorher werden keine Daten an YouTube übertragen.

Datenschutzhinweis: Mit dem Klick auf den Play-Button starten Sie ein YouTube-Video. Vorher werden keine Daten an YouTube übertragen.

YouTube-Link: https://youtu.be/52TOK4NWETQ

Wilde Tabakpflanzen sind von vielen Feinden umgeben, die ihnen sozusagen an die Blätter wollen. Der unangenehmste von ihnen ist der Tabakschwärmer (Manduca sexta). Dabei ist der Falter auch überlebenswichtig für die Pflanze: Er bestäubt nämlich die Blüten. Wissenschaftler vom Max-Planck-Instittut für chemische Ökologie in Jena untersuchen in den trockenen Gebieten von Utah, USA, wie sich die Tabakpflanzen gegen den Tabakschwärmer wehren. Sie nutzen dabei Verstärkung: Räuberische Wanzen. Weitere Infos: www.ice.mpg.de

[Dauer des Videos: 6 min]

Datenschutzhinweis: Mit dem Klick auf den Play-Button starten Sie ein YouTube-Video. Vorher werden keine Daten an YouTube übertragen.

Datenschutzhinweis: Mit dem Klick auf den Play-Button starten Sie ein YouTube-Video. Vorher werden keine Daten an YouTube übertragen.

YouTube-Link: https://youtu.be/kzfupX-QGP4

Ian Baldwin vom Max-Planck-Institut für chemische Ökologie in Jena erforscht, welche Strategien Pflanzen entwickeln, um sich gegen Schädlinge zu wehren. Die Tabakpflanze z.B. bildet den Signalstoff Jasmonsäure, wenn sie von Heuschrecken angeknabbert wird. So aktiviert sie Abwehrsystem gegen die Freßschädlinge. Mehr Infos: www.ice.mpg.de/ext/molecular-ecology.html?&L=1

[Dauer des Videos: 5 min]

Datenschutzhinweis: Mit dem Klick auf den Play-Button starten Sie ein YouTube-Video. Vorher werden keine Daten an YouTube übertragen.

Datenschutzhinweis: Mit dem Klick auf den Play-Button starten Sie ein YouTube-Video. Vorher werden keine Daten an YouTube übertragen.

YouTube-Link: https://youtu.be/5t7xgr_sg98

Am Max-Planck-Institut für Polymerforschung in Mainz will Eva-Katrin Sinner eine künstliche Nase entwickeln, die nicht nach den Prinzipien der Physik funktioniert, sondern nach dem biologischen Vorbild der Natur. Dabei lässt sie sich von den Riechsinneszellen echter Nasen inspirieren. Die Biologieprofessorin erforscht, was beim Riechen auf der Skala einzelner Moleküle an den Membranhüllen der Nervenzellen geschieht. Das will sie mit künstlichen Zellmembranen nachahmen. Erste Erfolge kann sie schon vorweisen, wofür sie 2007 einen Forschungspreis erhielt. Ihre Strategie, die Tricks der Evolution technisch nachzuahmen, nennt sich Biomimetik.

[Dauer des Videos: 7 min]

Datenschutzhinweis: Mit dem Klick auf den Play-Button starten Sie ein YouTube-Video. Vorher werden keine Daten an YouTube übertragen.

Datenschutzhinweis: Mit dem Klick auf den Play-Button starten Sie ein YouTube-Video. Vorher werden keine Daten an YouTube übertragen.

YouTube-Link: https://youtu.be/tSGLYQ_6s-Q

Gerüche lösen starke Emotionen in uns aus: Angst und Freude, Ekel und Verlangen, Abscheu und Zuneigung. Es mag Gerüche geben, die von Natur aus abstoßend wirken (beispielsweise der Gestank von verrottendem Fleisch), die meisten Gerüche jedoch bewerten wir je nach persönlicher Erfahrung und kulturellem Hintergrund, und mit vielen Gerüchen verbinden wir Erinnerungen, die unsere Wahrnehmung und Bewertung des Geruchs beeinflussen. Mit Hilfe unserer Nase können wir Tausende von Gerüchen unterscheiden. Die Riechzellen, sie heißen auch „olfaktorische Sinneszellen“, werden über Gerüche aktiviert. Fast alle dieser Nervenzellen befinden sich in einem kleinen Bereich im Dach der Nasenhaupthöhle, im Riech-Epithel. Hier sitzen Millionen von Riechzellen. Die Signale werden von dort über den Riechnerv direkt an das Gehirn weitergeleitet.

[Dauer des Videos: 3 min]

Datenschutzhinweis: Mit dem Klick auf den Play-Button starten Sie ein YouTube-Video. Vorher werden keine Daten an YouTube übertragen.

Smog in Shanghai

© ClipDealer

Rund 1,5 Millionen Einwohner hatte Rom um 300 n.Chr. unter Kaiser Diokletian – vermutlich. Denn so genau weiß man das nicht. Die Schätzungen der Geschichtsschreiber sind wenig präzise, sie reichen von 450.000 bis hin zu dreieinhalb Millionen. Völlig neue Maßstäbe in Sachen Stadtbevölkerung setzte Ende des 19. Jahrhunderts London: Hier wurde erstmals die fünf Millionen-Marke erreicht. Kaum 50 Jahre später zählte New York City mit seinen Vororten und Satellitenstädten bereits erstaunliche zehn Millionen Menschen – eine Grenze, ab der die Vereinten Nationen eine Stadt als Megacity bezeichnen.

Seit einiger Zeit führt nun Tokio die Hitliste der größten Städte an: Über 35 Millionen Bürger wohnen und arbeiten in diesem gigantischen Ballungsraum, der Wirtschaftsmotor, aber auch kulturelles und politisches Zentrum Japans ist. Weit abgeschlagen folgen Mexiko-City (19,4 Mio.), New York (18,7 Mio.), São Paulo (18,3 Mio.) und Mumbai, das ehemalige Bombay (18,2 Mio.). Geradezu beschaulich und bescheiden wirken dagegen die größten deutschen Stadtregionen wie das Ruhrgebiet mit „nur“ 5,3 Millionen oder Berlin mit rund 3,4 Millionen Einwohnern.

Die aktuell 20 Megacities der Erde sind aber nur die Spitze eines „Verstädterungseisbergs“, so der Stadtforscher Eckhart Ribbeck von der Universität Stuttgart. Denn seit dem Jahr 2007 leben weltweit erstmals mehr Menschen in Städten als auf dem Land. Wissenschaftler sprechen von einer „urbanen Wende“. Sie gehen zudem davon aus, dass der Verstädterungs- und Megacity-Boom noch lange nicht zu Ende ist. Denn während die Bevölkerung in den Metropolen der Industrienationen – wenn überhaupt – oft nur noch langsam ansteigt, sieht dies in den weniger entwickelten Ländern meist ganz anders aus. Auf der Suche nach Arbeit, Wohlstand oder einem Dach über den Kopf strömen dort noch immer unzählige Menschen in die Städte. So ist mit 4,3 Prozent seit dem Jahr 2000 der Zuwachs bei der Anzahl der Stadtbewohner in Afrika fast viermal so hoch wie in Europa (1,2 Prozent).

Zu den am schnellsten wachsenden Megacities gehört Lagos. Seit Mitte des 20. Jahrhunderts ist die Einwohnerzahl von Nigerias „heimlicher Hauptstadt“ auf das 50-fache des Ausgangswerts gestiegen: von 280 Tausend auf heute rund 13,7 Millionen. Schätzungen zufolge wird sich der heutige Ballungsraum von Lagos, wo zehn Prozent der nigerianischen Gesamtbevölkerung auf 0,4 Prozent der Fläche des Landes leben, bis 2020 zu einer Metropolregion mit 25 Millionen Einwohnern ausgedehnt haben. Damit wäre Lagos eine der drei bevölkerungsreichsten Städte der Welt. In anderen Megacities wie Mumbai, Dhaka, Karatschi oder Kalkutta ist die Bevölkerungsentwicklung ähnlich rasant. Zudem setzen längst weitere asiatische, afrikanische und südamerikanische Großstädte zum Sprung über die zehn Millionen-Marke an (Abb. B). Kinshasa, Teheran oder Lahore beispielsweise werden laut UN-Prognosen spätestens 2030 ebenfalls zu den Megacities gehören.

Städte und Großräume weltweit mit mehr als fünf, acht oder zehn Millionen Einwohnern, Grafik

Abb. B: Städte und Großräume weltweit mit mehr als fünf, acht oder zehn Millionen Einwohnern (nach UN-Angaben 2004)
© Kraas

Dicke Luft über Paris

Doch dieses Wachstum in den Ballungsräumen sorgt für viele Probleme. So entstehen knapp 80 Prozent aller Emissionen in urbanen Regionen. Alleine 25 Millionen Tonnen pro Jahr umfassen beispielsweise die Verkehrsemissionen in Los Angeles, der Stadt mit dem höchsten Verkehrsaufkommen der Welt. Tag für Tag quälen sich hier Millionen Autos durch die Häuserschluchten und geben Schwermetalle, giftige, klimaschädliche Gase und Ruß in die Atmosphäre ab (Abb. C). Hinzu kommen noch die Schadstoffe aus den unzähligen Industriebetrieben und privaten Haushalten.

Verkehrsstau in Bangkok

Abb. C: Verkehrsstau in Bangkok
© kzachmann/pixelio.de

Im EU-Forschungsprojekt MEGAPOLI (Megacities: Emissions, urban, regional and Global Atmospheric POLlution and climate effects, and Integrated tools for assessment and mitigation) wollen Wissenschaftler die Wechselwirkung zwischen Megacities, Luftqualität und dem Klima untersuchen. Welche Bedeutung haben die urbanen Emissionen für die lokale, regionale und schließlich die globale Luftqualität? Wie beeinflussen sich Luftqualität, regionales Klima und globaler Klimawandel wechselseitig? Und lassen sich Instrumente entwickeln, um die Luftverschmutzung von Megacities vorherzusagen? In den Blick nehmen wird das Projekt alle Megacities weltweit und dabei auf schon vorliegende Datensätze zurückgreifen; detailliertere Messungen sollen in Paris, London, dem Rhein-Ruhr-Gebiet sowie der Po-Ebene durchgeführt werden.

Eigentlich zählt Paris gerade mal gut zwei Millionen Einwohner. Doch mit über zwölf Millionen Menschen in einem Umkreis von circa 20 Kilometern rund um den Stadtkern „qualifiziert sich der Großraum Paris spielend als ‚Megacity‘“, wie Frank Drewnick vom Max-Planck-Institut für Chemie in Mainz meint. Der Chemiker hat in den vergangenen Jahren zusammen mit Stephan Borrmann und anderen Max-Planck-Kollegen untersucht, wie „dick“ die Luft über Paris wirklich ist. Den Forschern ging es dabei nicht nur um so genannte Spurengase wie CO2 oder Stickoxide, sondern auch um die winzigen, in der Atmosphäre schwebenden Teilchen oder Tröpfchen, die so genannten Aerosole. Sie entstehen unter anderem bei der Verbrennung von fossilen Brennstoffen und bestimmen zusammen mit den Spurengasen nicht nur die Chemie in der Atmosphäre, sondern haben auch großen Einfluss auf das Klima und die menschliche Gesundheit. Daher ist es wichtig, diese Substanzen sowie ihre Bildungs- und Umwandlungsprozesse besser zu verstehen.

Doch warum haben sich die Forscher gerade Paris für ihre Schadstoffmessungen ausgesucht? Drewnick erklärt das wie folgt: „Der große Vorteil von Paris als Modellregion ist, dass sie sich in einem topographisch einfachen Terrain befindet, das weitgehend flach ist. Hinzu kommt, dass die Umgebung von Paris sehr dünn besiedelt ist, so dass lokale Einflüsse auf die Messungen im Umland der Stadt relativ gering sind.“ Im Rahmen zweier Messkampagnen im Sommer 2009 und im Winter 2010 begaben sich die Max-Planck-Forscher auf Spurensuche. Ihre Bodenstation (LoLa) in einem Vorort im Nordosten von Paris lag aufgrund der vorherrschenden Südwestwinde genau in der Abluftfahne von Paris und bot perfekte Bedingungen für die Untersuchungen der Schadstoffwolke. Darüber hinaus gab es ein mobiles Forschungslabor auf einem Kleintransporter (MoLa), das für Mess-Fahrten durch die Stadt und über die Dörfer genutzt wurde. Und an Bord des Spezialflugzeugs ATR-42, das die Forscher bei Zick-Zack-Flügen direkt durch die Emissionswolke schickten, befand sich ein eigens für die Messkampagnen entwickeltes Instrument: Das Aircraft-based Laser Ablation Aerosol Mass Spectrometer, kurz ALABAMA, liefert detaillierte Einblicke in die chemische Struktur der verschiedenen Aerosole.

Wenn Smog krank macht

Auf diese Weise haben die Chemiker eine Fülle an Daten gewonnen, eine Art chemischen Fingerabdruck der Luftverschmutzung in Paris, der zurzeit in mühevoller Kleinarbeit ausgewertet wird. Erste Ergebnisse liegen aber bereits vor. So konnten sowohl die Größe als auch die unterschiedlichen Zugbahnen der Emissionswolke – in Abhängigkeit von der Windrichtung – präzise bestimmt werden. Die Forscher identifizierten zudem verschiedene Typen von Aerosolpartikeln. Zumeist handelte es sich dabei um organisches Material, Ruß und Teilchen aus der Biomasseverbrennung. Mit steigender Entfernung vom Stadtkern ergab sich dabei, wie erwartet, eine deutliche „Verdünnung“ der Schadstoffe in der Luft (Abb. D).

Querschnittsmessungen durch die Abluftwolke von Paris

Abb. D: Querschnittsmessungen durch die Abluftwolke (gelbe Bereiche) von Paris in 25 und 40 Kilometern Entfernung von der Stadt (oben: Spurengase; unten: Partikel)
© Max-Planck-Institut für Chemie

Mit einer anderen Beobachtung hatten die Forscher dagegen nicht gerechnet: „Ein überraschendes Ergebnis ist, dass der Einfluss einer Metropole wie Paris auf die lokale Luftqualität im Umland offenbar recht gering ist. Vor allem bei den Aerosolpartikeln dominieren dort andere Einflüsse wie der Ferntransport oder lokale Quellen wie etwa die Holzverbrennung. Dies ermöglicht neue Ansätze, um die Luftqualität vor Ort zu verbessern“, erklärt Drewnick. In den kommenden Monaten hat das Team noch reichlich zu tun. Es wird sich weiter mit den Messdaten beschäftigen, sie analysieren und interpretieren. Dabei gilt es unter anderem herauszufinden, wie Aerosolpartikel „altern“, welche Schlussfolgerungen sich aus dem Vergleich der Sommer- und Wintermessungen ergeben und wie sich der Schadstoff-Cocktail aus Ruß, Staub und Spurengasen auf das lokale Klima auswirkt.

Mit dem Thema Luftverschmutzung in Megacities beschäftigt sich auch Bhola Ram Gurjar, Professor am Indian Institute of Technology in Roorkee. Er leitet dort eine indische Partnergruppe des Max-Planck-Instituts für Chemie. Ihm und seinen Kollegen geht es weniger um die Zugbahnen von Emissionswolken oder die Veränderung der Schadstoffe darin, sondern um die Folgen von schlechter Luftqualität auf die Gesundheit der Menschen. Um diese bestimmen zu können, haben die Wissenschaftler zunächst die Emissionen der 18 wichtigsten Megacities weltweit untersucht. Je nach Verkehrsaufkommen, Anzahl und Art der Industriebetriebe sowie den Lebensgewohnheiten der Menschen ergab sich für jede Megacity eine charakteristische Form der Luftverschmutzung. Peking, Shanghai oder Los Angeles emittierten danach am meisten CO2. In Dhaka, der Hauptstadt Bangladeschs, fanden die Forscher dagegen die höchsten Schwefeldioxidkonzentrationen. Karatschi in Pakistan, die indischen und ägyptischen Metropolen Delhi und Kairo sowie erneut Dhaka waren Spitzenreiter in Sachen Feinstaubbelastung.

Zusammen mit Jos Lelieveld, Direktor am Max-Planck-Institut für Chemie, entwickelte Gurjar ein mathematisches Modell, Ri-MAP (Risk of Mortality-Morbidity due to Air Pollution), das Vorhersagen trifft, wie viele zusätzliche Todesfälle ein bestimmter Grad der Luftverschmutzung fordert, verglichen mit einem Leben in sauberer Atmosphäre. Danach bieten Osaka-Kobe, Tokio und São Paolo die gesündeste Luft, während sie in Dhaka, Peking und Kairo besonders schädlich ist. Ri-MAP enthüllte sogar, wie viele zusätzliche Todesfälle in den 18 untersuchten Megacities auf das Konto der Luftverschmutzung gehen. Ergebnis: In Karatschi kosten die Schadstoffe 15.000 Menschen das Leben, in Dhaka 14.700 und in Kairo 14.100 – pro Jahr. Zum Vergleich: In New York oder Tokio sind es weniger als 500 (Abb. E).

Der Index der Luftverschmutzung in verschiedenen Städten vergleicht die gemessenen Schadstoffkonzentrationen mit Grenzwerten der UNO, Grafik

Abb. E: Der Index der Luftverschmutzung vergleicht die gemessenen Schadstoffkonzentrationen mit Grenzwerten der UNO.
© Max-Planck-Institut für Chemie

„Die Analyse zeigt eine eindeutige Tendenz: Das von der Luftverschmutzung ausgehende Gesundheitsrisiko ist in den Megastädten der Entwicklungsländer größer als in denen der Industrienationen“, sagt Bhola Ram Gurjar. „Die Risikoschätzungen mögen nicht perfekt sein, doch wir sind der Meinung, dass sie bei der Aufstellung von Richtlinien zur Schadstoffkontrolle hilfreich sein können.“ Die Forscher arbeiten nun daran, ihr Modell weiter zu verbessern und noch praxistauglicher zu machen. So wollen sie beispielsweise künftig weitere Schadstoffe wie Schwermetalle, Ozon oder winzige Staubteilchen berücksichtigen. Und irgendwann ist auch ein Abgleich der Modellrechnungen mit den amtlichen Todesstatistiken der Megastädte geplant. Halten die Ri-MAP-Zahlen diesem Härtetest stand, wäre ein wichtiges Ziel der Wissenschaftler erreicht.

Doch die Luftverschmutzung ist nur eine der Schattenseiten von Megastädten. Sie verbrauchen u.a. durch die Versiegelung von Flächen enorme Ressourcen und sind darüber hinaus von den Auswirkungen des Klimawandels besonders betroffen: Vier Fünftel aller Megastädte befinden sich in direkter Küsten- und Flussnähe und sind somit der Gefahr von Überschwemmungen ausgesetzt. Und während als ökonomische Lenkungszentralen noch immer eindeutig die Megacities der Industrieländer dominieren (New York, London, Tokio), wandeln sich die Metropolen in den Schwellen- und Entwicklungsländern angesichts von Umweltverschmutzung, Naturkatastrophen und extremer Armut in tickende Zeitbomben. Schon heute lebt vielerorts mehr als die Hälfte der Megacity-Bürger in nicht genehmigten, so genannten informellen Siedlungen. Ein Großteil davon sind Elendsviertel, die sich häufig wie ein Ring um die Kernstädte mit ihren zum Teil imposanten Skylines ziehen (Abb. F).

Die Verwaltungen der meisten Megacities – selbst der wirtschaftlich prosperierenden wie São Paolo, Mumbai oder Kalkutta – sind, so der Marburger Forscher Günter Mertins, damit überfordert für Hunderttausende neue Einwohner jedes Jahr kurzfristig ausreichend Wohnraum, eine adäquate Infrastruktur, Ver- und Entsorgungssysteme sowie Gesundheits- und Bildungseinrichtungen bereitzustellen. Fehlende Infrastruktur, eklatanter Trinkwassermangel, ungeklärte Abwässer, wilde Mülldeponien und vergiftete Böden gehören in den Slums zum Alltag und sorgen für verheerende Lebensbedingungen.

Slum in Mumbai

Abb. F: Slum in Mumbai
© Dieter Schütz/pixelio.de

In Afrika leben 72 Prozent der Stadtbevölkerung, das sind 300 Millionen Menschen, in solchen Slums. Nur durchschnittlich jeder fünfte Haushalt ist dort an die Wasser- und Stromversorgung angeschlossen, lediglich sieben Prozent an ein Abwassersystem. Den Ärmsten in den Megastädten fehlt es am Notwendigsten. Einer Studie des International Journal for Equity in Health zufolge leiden in 15 Ländern des subsaharischen Afrika mehr Stadt- als Landkinder an Mangelernährung. Hinzu kommen große Gesundheitsgefahren, etwa in Form von Infektionskrankheiten wie Diarrhöe oder Cholera. Letztere sind vor allem auf verschmutztes, mit Bakterien und Viren verseuchtes Wasser und mangelnde sanitäre Einrichtungen zurückzuführen.

Megacities bestimmen aber nicht nur ihre eigene Zukunft, sondern auch die des Planeten. Längst arbeiten deshalb Forscher aus aller Welt daran, die zum Teil sehr unterschiedlichen Herausforderungen der Megastädte – von ihrer Regierbarkeit über die Ressourceneffizienz bis hin zum Umgang mit Risiken wie dem Klimawandel – zu identifizieren und zu lösen. Ob es am Ende in Zusammenarbeit mit Politik und Wirtschaft gelingt, die Probleme der Megacities in Griff zu bekommen, wird sich jedoch erst in einigen Jahrzehnten zeigen.

Abbildungshinweise:
Abb. A: Shanghai-Smog © ClipDealer
Abb. B: Megacities © Kraas
Abb. C: Verkehrsstau Bangkok © kzachmann/pixelio.de
Abb. D: Messung Abgaswolke © MPI für Chemie
Abb. E: Luftverschmutzung Megacities © MPI für Chemie
Abb. F: Slum in Mumbai © Dieter Schütz/pixelio.de

Der Text wird unter CC BY-NC-SA 4.0 veröffentlicht.

GEOMAX Ausgabe 17, Frühjahr 2011; Autor: Dieter Lohmann; Redaktion: Christina Beck

Symbolische Illustration zur Klimaerwärmung: Der Planet Erde als schmelzende Eiscreme

© Imago Photo / Adobe Stock

Im Jahr 1889 ist der französische Romanautor Jules Verne wieder einmal seiner Zeit voraus. In seinem Buch „Der Schuss am Kilimandscharo“ planen seine Protagonisten, die Erdachse gerade zu rücken und damit die Jahreszeiten abzuschaffen. Das eigentliche Ziel ist jedoch eine Veränderung des Klimas: Schmilzt durch die Erd- und Klimakorrekturen das Eis der Arktis, kann man die in der Region vermuteten riesigen Kohlevorräte abbauen. Bewerkstelligt werden soll dies alles durch einen einzigen Schuss mit einer Riesenkanone. Der gewaltige Rückstoß, so haben die Berechnungen der Abenteurer ergeben, würde für die gewünschte Wirkung sorgen. Dass dadurch auch dramatische Änderungen des Meeresspiegels und verheerende Überschwemmungen auftreten könnten, nehmen sie billigend in Kauf. Trotz massiver Proteste in der Öffentlichkeit wird das Projektil abgefeuert. Aber der Plan scheitert, die Erdachse bleibt wie sie ist.

Waren technische Eingriffe in das Klima unseres Planeten zu Zeiten von Jules Verne noch reine literarische Gedankenspiele, so werden sie heute tatsächlich wissenschaftlich geplant und erprobt – bisher allerdings im kleinen Maßstab. Dass sich Politiker und Wissenschaftler überhaupt ernsthaft Gedanken zu diesem Thema machen, hat vor allem einen Grund: den fortschreitenden Klimawandel. Prognosen gehen davon aus, dass die global gemittelten Temperaturen bis Ende des 21. Jahrhunderts je nach Szenario um bis zu 5,4 °C steigen könnten – mit dramatischen Folgen wie dem Verschwinden der Eisschilde, steigenden Meeresspiegeln und zunehmenden Wetterextremen. Erhöht sich die Temperatur höchstens um 1,5 °C, wären viele Auswirkungen des Klimawandels weniger gravierend. Dieses Ziel kann nach Einschätzung des Weltklimarats noch erreicht werden, wenn die Treibhausgasemissionen sehr schnell sinken (Abb. A) und der Atmosphäre große Mengen an Kohlenstoffdioxid (CO2) entzogen werden. Damit setzt der Weltklimarat bereits auf Methoden des Climate Engineering, um die Erderwärmung zu begrenzen. Und wenn alle Versuche, die Treibhausgasemissionen drastisch zu reduzieren scheitern sollten – könnte dann Climate Engineering der einzige Plan sein, um die Folgen des menschengemachten Klimawandels abzumildern?

Weltweiter CO2-Ausstoss bis 2017 und Reduzierungs-Empfehlung des Weltklimarats, Grafik

Abb. A: Prognosen gehen davon aus, dass der weltweite Energiebedarf bis zum Jahr 2040 um 30% steigen wird. Gleichzeitig muss die Menschheit ihre Treibhausgas-Emissionen bis 2050 auf Null reduzieren, um das 1,5-Grad-Ziel zu erreichen.
© M. Janson, statista.com

Die Temperatur der Erdatmosphäre wird durch drei Größen bestimmt: die einfallende kurzwellige Sonnenstrahlung, der Anteil dieser Strahlung, der sofort wieder reflektiert wird (z. B. durch Wolken, Partikel in der Atmosphäre oder Polareis) und drittens die Infrarot-Strahlung. Sie entsteht, wenn die Planetenoberfläche die Sonnenergie in Form langwelliger Wärmestrahlung wieder an die Atmosphäre abgibt. Diese lnfrarot-Strahlung bewirkt den Treibhauseffekt, da Treibhausgase einen Teil dieser Strahlung absorbieren und dann wieder in alle Richtungen abstrahlen. Der Anteil, der nach unten abgestrahlt wird, trägt zur Erwärmung der Erde bei. Zum Problem wird der Treibhauseffekt, wenn der Gehalt an absorbierenden Gasen in der Atmosphäre zu stark steigt und sich die globale Durchschnittstemperatur immer weiter erhöht. Mittlerweile gibt es eine Reihe von Vorschlägen, um mit Climate Engineering die menschengemachte Erderwärmung mit technischen Mitteln zu begrenzen (Abb. B). Sie verfolgen dabei zwei Wege: Mit einigen Methoden soll CO2 aus der Atmosphäre entfernt und langfristig an Land oder im Ozean gespeichert werden (Carbon Dioxide Removal, CDR). Andere Verfahren greifen dagegen in den Strahlungshaushalt der Erde ein. Sie sehen vor, Teile der wärmenden Sonnenstrahlung, die auf die Erde trifft, abzuschirmen (Radiation Management, RM). Zum jetzigen Zeitpunkt gibt es keine CDR- oder RM-Methode, die im ausreichend großen Maßstab eingesetzt werden könnte, um die Erderwärmung zu stoppen. Viele der vorgeschlagenen Ideen sind unter Wissenschaftlern und in der Öffentlichkeit umstritten. Es gibt wissenschaftliche, rechtliche, ethische oder politische Bedenken gegen Feldexperimente und gegen den Einsatz der Methoden. Und es sind noch jede Menge Fragen zum Climate Engineering offen: Wie gut funktionieren die unterschiedlichen Methoden tatsächlich? Wann wären sie einsatzbereit? Und vor allem: Welche Klimawirkungen und Umweltrisiken haben die Verfahren, wenn sie im großen Maßstab eingesetzt werden?

Ideen zum Climate Engineering, Grafik

Abb. B: Begriffe und gängige Abkürzungen beim Climate Engineering (CE): Der Carbon Dioxid Removal Ansatz (CDR) entfernt CO2 aus der Atmosphäre mit Methoden wie Direct Air Capture oder schnell wachsende Pflanzen. Abgetrenntes CO2 wird gespeichert (Carbon Capture and Storage, CCS) oder weiterverwendet (Carbon Capture and Usage, CCU). Biomasse-Kraftwerke könnten frei werdendes CO2 sofort wieder speichern (Bioenergie-CCS, BECCS). Der zweite Ansatz, Radiation Management (RM), greift in den Strahlungshaushalt ein und verringert die Erwärmung durch künstliche Wolkenbildung oder reflektierende Aerosole (z. B. Sulfatpartikel).
© Artwork: R. Erven, GEOMAR / CC BY-NC-ND 4.0

Den Übeltäter einfangen

Um die CO2-Konzentration zu reduzieren, könnten unter anderem Direct-Air-Capture-Systeme aufgestellt, schnell wachsende Pflanzen angebaut oder große Flächen aufgeforstet werden. Die Direct-Air-Capture-Systeme filtern CO2 mit Bindemitteln aus der Umgebungsluft und verflüssigen es anschließend. Das abgetrennte CO2 wird entweder weiterverwendet oder unterirdisch gespeichert. Allerdings müssten enorme Luftmengen gefiltert werden, da der CO2-Anteil in Luft nur 0,04 % beträgt. Dafür wären große Anlagen nötig, die viel Energie verbrauchen. Werden schnell wachsende Pflanzen angebaut, könnte die Energie bei deren Verbrennung in Biomasse-Kraftwerken genutzt und das frei werdende CO2 sofort gespeichert werden. Ein großes Problem beim Anbau von solchen „Energiepflanzen“ oder der großflächigen Aufforstung ist der Verbrauch von Flächen, Wasser und Dünger – Ressourcen, die für Nahrungspflanzen nicht mehr zur Verfügung stehen. Ein anderer Vorschlag sieht vor, Bioabfälle wie Pflanzenreste, Gülle oder Klärschlamm in eine Art Pflanzenkohle umzuwandeln. In Ackerböden eingearbeitet, verbessern die Materialien die Bodeneigenschaften und der enthaltene Kohlenstoff wird über lange Zeit gespeichert.

Fast ein Viertel der emittierten CO2-Menge löst sich natürlicherweise im Oberflächenwasser der Ozeane. Bei dem Vorgang entstehen u.a. Kohlensäure und Oxoniumionen, die den pH-Wert des Meerwassers von 8,2 (vorindustriell) auf derzeit 8,1 absenken. Dieser Versauerung des Ozeans wirken die natürlich vorkommenden Carbonationen im Meerwasser entgegen. Sie stammen aus dem Sediment am Meeresboden oder werden über Flüsse (Verwitterung von kalkhaltigen Gesteinen) eingetragen. Die Carbonationen können die Oxoniumionen binden. Bei der beschleunigten Verwitterung wird dieser Vorgang verstärkt: Silikat- oder Carbonat-Gesteinsmehle werden in Minen abgebaut und ins Oberflächenwasser des Ozeans geleitet. Durch die zugeführten Carbonationen kann der Ozean wieder vermehrt CO2 aus der Atmosphäre binden. Um einen globalen Effekt zu erreichen, bräuchte man enorme Mengen an Gestein und die Methode ist insgesamt kosten- und energieintensiv. Außerdem ist noch nicht untersucht, wie sich die Einleitung von Gesteinsmehlen im großen Maßstab auf das Meeresökosystem auswirkt. Manche der Gesteine bestehen auch aus eisenhaltigen Mineralsalzen, die im Meer als Dünger wirken können: das Plankton wächst schneller und betreibt mehr Fotosynthese, wodurch mehr CO2 in Biomasse umgewandelt wird. Dieser Effekt wird bei der künstlichen Eisendüngung ausgenutzt. Allerdings lagert sich nur ein kleiner Teil der Biomasse im Sediment am Meeresgrund ein, wo der Kohlenstoff dann für einige Jahrzehnte gespeichert wäre. Und um einen spürbaren Effekt zu erreichen, müsste der gesamte südliche Ozean permanent gedüngt werden. Aufgrund der negativen Effekte einer Überdüngung dürfte sich diese Methode nicht durchsetzen. Eine Variante der Eisendüngung ist der künstliche Auftrieb, bei dem mit Pumpen das mineralstoffreiche Tiefenwasser in höhere, lichtdurchflutete Bereiche befördert wird, um dort das Planktonwachstum anzuregen.

Strahlung zurückwerfen

Die meisten Methoden des Strahlungsmanagements (RM) verändern den Einfall der kurzwelligen Sonnenstrahlung, indem sie die Reflexion erhöhen. Ob diese Methoden die Erderwärmung abschwächen, aufhalten oder gar rückgängig machen könnten und mit welchen Risiken sie verbunden sind, untersuchen Wissenschaftler wie Hauke Schmidt und Ulrike Niemeier vom Max-Planck-Institut für Meteorologie in Hamburg. Zusammen mit Forschenden aus vielen Ländern der Welt, u.a. Großbritannien, USA, China, Frankreich und Norwegen arbeiten sie daran, mögliche Auswirkungen von Climate Engineering besser zu verstehen. Um keine unnötigen Gefahren für Mensch und Natur heraufzubeschwören, führen die Forscher ihre Experimente nicht im Großlabor Erde durch, sondern gehen den möglichen Folgen des RM mit Supercomputern auf den Grund. „Wir wollen mit Hilfe von Computersimulationen die Unsicherheit reduzieren, die bezüglich der Wirksamkeit und der potenziellen Nebenwirkungen der vorgeschlagenen Methoden bestehen“, erklärt Schmidt.

Die Wissenschaftler haben sich drei Methoden aus dem Radiation Management herausgepickt, um sie auf ihre Tauglichkeit zu prüfen: Spiegel im Weltraum, künstliche Wolkenbildung und Injektion von Schwefeldioxid in die Stratosphäre. Bei der künstlichen Wolkenbildung wird Meerwasser in großen Mengen zerstäubt und in bestehende Wolken über den Ozeanen gesprüht. So entstehen nicht nur viel mehr, sondern auch viel kleinere Wassertröpfchen. Die Wolken werden heller und reflektieren das Sonnenlicht besser. Die Vision, Schwefeldioxid als Schutzschild gegen die Sonnenstrahlung zu nutzen, ist bereits über 30 Jahre alt und stammt von dem Klimawissenschaftler Michail Budyko. Im Jahr 2006 hat der Atmosphärenforscher und Chemie-Nobelpreisträger Paul Crutzen, der lange Zeit am Max-Planck-Institut für Chemie in Mainz geforscht hat, diese Idee erneut aufgegriffen und bekannt gemacht.

Ein Schutzschild aus Schwefeldioxid

Inspiriert wurden Crutzen und seine Mitstreiter unter anderem durch ein Naturereignis, das sich im Jahr 1991 ereignete: den Ausbruch des Pinatubo-Vulkans auf der philippinischen Insel Luzon. Rund 17 Millionen Tonnen Schwefeldioxid wurden dabei hoch in die Atmosphäre geschleudert. Durch verschiedene chemische Reaktionen entstanden dabei in der Stratosphäre große Mengen an Sulfatpartikeln, die das Sonnenlicht teilweise reflektierten. In der Folge drang weniger Sonnenstrahlung durch die Erdatmosphäre zur Erdoberfläche und die bodennahen Luftschichten kühlten sich ab. In den zwei Jahren nach der Pinatubo-Eruption gab es nach Berechnungen von Klimaforschern einen globalen Temperaturabfall von bis zu 0,4 °C. Crutzen schlug vor, die Möglichkeit, die Stratosphäre mit Millionen Tonnen Schwefelwasserstoff oder Schwefeldioxid zu impfen, genauer zu untersuchen. Die Gase könnten mithilfe von Ballonen oder als Zusatz zum Flugzeug-treibstoff in die Stratosphäre gebracht werden. Da die Sulfatpartikel mit der Zeit in die Troposphäre absinken, müssten diese Maßnahmen allerdings regelmäßig wiederholt werden. Viele Billionen US-Dollar jährlich könnte der Sulfat-Schleier Schätzungen zufolge kosten.

Um die Effekte der RM-Maßnahmen zu erforschen, kommen unterschiedliche Klimamodelle zum Einsatz. Im internationalen Projekt GeoMIP wurden verschiedene Szenarien, die auf verschiedenen Entwicklungen der zukünftigen Treibhausgasemissionen basieren, berechnet. Eines davon geht beispielsweise von einem ungebremsten Anstieg der Emissionen aus – und damit von einer Vervierfachung der CO2-Konzentration in der Atmosphäre im Vergleich zum vorindustriellen Niveau. Die Wissenschaftler vergleichen die Ergebnisse ihrer Simulationen und suchen nach „robusten“ Resultaten. Gemeint sind damit Wirkungen und Folgen des jeweiligen Ansatzes, die in allen Modellen auftauchen und deshalb als weitgehend gesichert gelten können.

Global gemittelte Bodentemperatur von drei Simulationen, Grafik

Abb. C: Global gemittelte Bodentemperatur von drei Simulationen. Blau: Klimaszenario mit der Annahme eines mittelstarken Anstiegs der Treibhausgase (RCP 4.5), Schwarz: Szenario mit den Werten der Treibhausgase des Jahres 2020, Rot: Klimaszenario mit den Ausgangsbedingungen des „blauen“ Klimaszenarios und Injektionen von Schwefeldioxid. Die Erderwärmung wird vermindert und die Klimabedingungen des Jahres 2020 bleiben erhalten. Wird die Injektion im Jahr 2050 abgebrochen, steigt die globale Bodentemperatur in weniger als 10 Jahren um 0,5 °C
© U. Niemeier, MPI für Meteorologie / CC BY-NC-SA 4.0

Mittlerweile haben die Forschenden viele Modellrechnungen vorgenommen und es liegen auch Ergebnisse zu Sulfat-Aerosolen in der Stratosphäre vor. „Da der Vorschlag, Schwefeldioxid in die Stratosphäre einzutragen, dem natürlichen Beispiel großer Vulkaneruptionen folgt, kann man bei dieser Methode wohl am ehesten davon ausgehen, dass sie tatsächlich einen Abkühlungseffekt hat“, sagt Hauke Schmidt. Den Modellen zufolge wird die abkühlende Wirkung umso größer, je mehr Schwefeldioxid man in einem solchen Experiment in die Stratosphäre einbringt. Eine Verdoppelung der Dosis führt allerdings nicht zu einem doppelt so großen Effekt, sondern nur zu einer moderaten Steigerung der Abkühlung, so die Resultate. Das liegt daran, dass bei stärkerem Impfen die Sulfatpartikel mit der Zeit verklumpen, schwerer werden und aus der Stratosphäre absinken. Die Simulationen der Wissenschaftler zeigen, dass man mit Schwefeldioxid-Injektionen im großen Maßstab das Temperaturniveau von 2020 halten könnte (Abb. C). Doch in der Umsetzung dürfte das schwierig werden. „Wenn wir bis zum Jahr 2100 trotz steigender CO2-Emissionen das Klima von 2020 allein mithilfe von Schwefeldioxid halten wollten, dann müsste die Menschheit jährlich fünf bis achtmal so viel Schwefeldioxid in die Stratosphäre bringen, wie 1991 beim Ausbruch des Pinatubo frei wurden“, erklärt Ulrike Niemeier.

Unerwünschte Nebenwirkungen

Die Simulationen liefern jedoch nicht nur Hinweise zur Effektivität der RM-Verfahren, sie decken auch die Nebenwirkungen auf: Sollte es wirklich gelingen, die Temperatur auf ein vorindustrielles Niveau zu bringen, würde der Niederschlag zwischen drei und sechs Prozent abnehmen. Besonders ausgeprägt wäre dieser Trend über dicht besiedelten Landmassen, Europa und Nordamerika eingeschlossen. „Das heißt, wir würden tatsächlich ein ganz neues Klima erzeugen“, sagt Schmidt. Wie sich dieses auf die Landwirtschaft und die Nahrungsmittelversorgung der wachsenden Weltbevölkerung auswirken würde, ist noch unklar. Und die Modellrechnungen zeigen auch, dass durch Schwefeldioxid-Injektionen im großen Maßstab Luftströme in den Tropen zusammenbrechen würden. „Welche Konsequenzen das für das Weltklima hat, können wir noch gar nicht absehen. Klar aber ist, dass es durch das Schwefeldioxid zu großräumigen Änderungen der Luftströmungen kommen wird“, sagt Niemeier. Außerdem ist bis jetzt zu wenig darüber bekannt, wie sich die Abschattung durch den Sulfat-Schleier auf den globalen Wasserkreislauf oder das Pflanzen-wachstum auswirkt. Oder ob die Aerosole den Ozonabbau in der Stratosphäre verstärken. „Inzwischen ist uns aber auch klar, dass die Nebenwirkungen von RM-Methoden klein sind, verglichen mit den Bedingungen bei einem ungebremsten Klimawandel. Mit RM sind die Temperaturen erträglicher und Wetterextreme seltener und weniger heftig“, gibt die Wissenschaftlerin zu bedenken.

Schwierige Entscheidungen

Dürfen solche Verfahren wie das Ausbringen von Sulfat-Aerosolen eingesetzt werden? Wer entscheidet über ihre Nutzung? Wer bestimmt die Temperatur auf der Erde? Müssen alle Staaten der Erde zustimmen oder kann es auch Alleingänge einzelner Länder geben? Wer bezahlt die Maßnahmen und wer haftet für möglicherweise gravierende (Umwelt-) Folgen? Wissenschaftler wie Hauke Schmidt und Ulrike Niemeier sehen ihre Aufgabe darin, die Vor- und Nachteile von Methoden des Climate Engineering zu beschreiben. Die naturwissenschaftlichen Erkenntnisse helfen Gesellschaft und Politikern, zusammen mit ethischen, sozialen und rechtlichen Argumenten über den Einsatz von CE-Verfahren zu diskutieren. Bislang gibt es keine international verbindlichen Regeln, welche Methoden des Climate Engineering zulässig sind. Das muss auf Grundlage des jeweiligen Völkervertrags- und Völkergewohnheitsrecht entschieden werden. Rechtswissenschaftler haben bei den Verfahren zur CO2-Entnahme generell weniger rechtliche Bedenken als bei den RM-Methoden. Dabei gilt für alle Staaten der Präventionsgrundsatz: wer CE-Verfahren einsetzt, muss Absprachen mit anderen Ländern treffen oder die Umweltverträglichkeit prüfen lassen. Aus Sicht der Ethik spricht u. a. gegen die Weiterentwicklung der CE-Methoden, dass dadurch die Risiken der Treibhausgas-Emissionen zunehmend ignoriert werden könnten, weil „Plan B“ greift. Für die Weiterentwicklung spricht die Tatsache, dass die Folgen des Klimawandels vor allem unsere Nachkommen treffen werden. Im Sinne einer Verantwortung für die nächsten Generationen sollten die CE-Methoden wenn nötig einsatzbereit sein. Mögliche negative Auswirkungen von CE-Verfahren auf Artenvielfalt, Ozonschicht, Wasserreserven oder Ernährungssicherheit zeigen weitere Wertekonflikte auf.

Noch ist offen, ob Climate Engineering jemals im großen Maßstab eingesetzt werden wird. Letztlich hängt dies vom Potenzial und den Risiken der einzelnen Methoden ab, sowie dem Aufwand, sie umzusetzen. Sicher ist, dass je nach Region und Zustand des Klimas verschiedene Methoden zum Einsatz kommen müssten. Einig sind sich die meisten Klimaforscher auch in einem weiteren Punkt: Das Klimasystem ist extrem komplex und es lässt sich kaum vorhersagen, wie es im Detail auf das Climate Engineering reagieren würde. Daher ist es unabdingbar und der bessere Plan, die Treibhausgas-Emissionen drastisch zu reduzieren und damit die Ursache der Erderwärmung zu bekämpfen.

 

 

Abbildungshinweise:
Titelbild: © Imago Photo / Adobe Stock
Abb. A: © M. Janson, statista.com
Abb. B: © Artwork: R. Erven, GEOMAR / CC BY-NC-ND 4.0
Abb. C: © U. Niemeier, MPI für Meteorologie / CC BY-NC-SA 4.0

Der Text wird unter CC BY-NC-SA 4.0 veröffentlicht.

GEOMAX Ausgabe 18, aktualisiert 11/2020; Text: D. Lohmann, T. Fendt; Redaktion: T. Fendt

Filamente von Vimentin in einer Zelle, Aufnahme mit einem Licht- und einem STED-Mikroskop

Filamente von Vimentin in einer Zelle. Das Protein ist ein Element des Zellskeletts von Wirbeltieren. Das Bild im Hintergrund wurde konventionell aufgenommen, das im Sichtfeld des Mikroskops mit einem STED-Mikroskop, das die Beugungsgrenze der klassischen Lichtmikroskopie durchbricht.
© MPI für biophysikalische Chemie

Im 16. Jahrhundert notierte der italienische Arzt Girolamo Fracastoro, dass zwei hintereinander angeordnete optische Linsen ein Objekt näher und vergrößert erscheinen lassen sollten. Damit beschrieb er wahrscheinlich zum ersten Mal ein Mikroskop. Optische Linsen kannte man damals schon als Brille. Fracastoros Idee, sie gezielt zur Vergrößerung kleiner Gegenstände einzusetzen, war jedoch neu. Es sollte aber noch bis zum Anfang des 17. Jahrhunderts dauern, bis die ersten Lichtmikroskope gebaut wurden. Wann das genau geschah, ist unklar. Historisch gesichert ist jedenfalls, dass der niederländische Brillenmacher Hans Janssen und sein Sohn Zacharias im Jahr 1608 auf der Frankfurter Messe ein Mikroskop vorführten. Ein Jahr später präsentierte Galileo Galilei in Rom sein erstes Gerät.

Allerdings waren diese ersten Lichtmikroskope kaum brauchbar, denn sie litten unter fehlerhaften Linsen. Der Durchbruch gelang erst dem Niederländer Antonie van Leeuwenhoek mit einem radikal vereinfachten Design: Sein Mikroskop bestand nur aus einer einzigen Linse, es war also eigentlich eine Hochleistungslupe. Dafür hatte van Leeuwenhoek diese Linse mit einer zuvor unerreichten Präzision geschliffen. Bei fast 300-facher Vergrößerung entdeckte der Niederländer die damals völlig unbekannte Welt der Mikroben. Die Menschheit verdankt dem Lichtmikroskop einen gigantischen Zuwachs an Wissen über unsere Welt. Ohne Mikroskopie wäre zum Beispiel die moderne Medizin nicht denkbar.

Im 19. Jahrhundert wurden die Lichtmikroskope immer leistungsfähiger. Doch stieß ihre Technik an eine Grenze: Die Vergrößerung ließ sich nicht beliebig steigern. Der Jenaer Physikprofessor Ernst Abbe und der englische Physiker Baron Rayleigh erkannten fast zur gleichen Zeit: Sobald feine Objektdetails ungefähr so eng beieinander sitzen wie es der Wellenlänge des Lichts entspricht, kann ein Mikroskop sie nicht mehr voneinander getrennt abbilden. Schuld daran sind die Welleneigenschaften des Lichts. Eine Optik kann es nicht unendlich scharf bündeln: Die Brennpunkte der Strahlen blühen unweigerlich zu „Brennflecken“ auf. Diese Flecken sind mindestens eine halbe Wellenlänge des eingesetzten Lichts groß. Alle feineren Strukturen innerhalb dieser Flecken sind im Mikroskopbild nicht mehr erkennbar.

Ernst Abbe begründete 1873 wissenschaftlich präzise, dass die Auflösung eines optischen Mikroskops nie über die „halbe Wellenlänge des blauen Lichts um ein Nennenswertes hinausgehen wird“. Blaues Licht hat die kürzeste Wellenlänge im sichtbaren Spektrum, die Hälfte davon entspricht rund 200 Nanometern (Milliardstel Meter). Wegen dieses „Abbe-Limits“ können Lichtmikroskope Objekte, die kleiner sind, nicht mehr abbilden. Dazu gehören zum Beispiel die meisten Viren. Es gilt auch für alle Moleküle des Lebens, selbst wenn viele davon außerordentlich groß sind. Besonders für die Biowissenschaften musste es demnach ein schöner Traum bleiben, durch das Mikroskop den Tanz der Moleküle in lebenden Zellen – also live – enträtseln zu können.

Stefan Hell

Exkurs: Stefan Hell hat in den Nenner der Abbe’schen Formel den Wurzelterm eingeführt. Demnach verkleinert sich ∆x, der Abstand zwischen zwei gerade noch zu unterscheidenden Punkten, wenn die Intensität I des Lasers steigt, der die Emission der angeregten Fluoreszenzmoleküle induziert. So kann man berechnen, wie weit sich durch die technischen Tricks die Auflösungsgrenze senken lässt.
© MPI für biophysikalische Chemie

Abbes Theorie bietet praktisch nur eine Möglichkeit, die Auflösung eines Mikroskops zu steigern: Man verkürzt die Wellenlänge des Lichts. Leider wird aber das Glas der Linsen schon für ultraviolettes Licht undurchsichtig. Daran scheiterte eine weitere Steigerung der optischen Auflösung von Lichtmikroskopen. Erst im 20. Jahrhundert zeigte die aufkommende Quantenphysik einen Ausweg auf: Teilchen sind zugleich Wellen, und Elektronen sind wesentlich kurzwelliger als Licht. Zudem lassen sich die Strahlen solcher elektrisch geladener Teilchen mit „Linsen“ aus elektrischen und magnetischen Feldern fokussieren. So konnten Elektronenmikroskope die Nanowelt erschließen und sogar einzelne Atome abbilden. Allerdings benötigen sie meistens Vakuum und mit Metall bedampfte Proben. Das überlebt keine Zelle. Inzwischen gibt es zwar auch schonendere Verfahren, aber auch diese eignen sich nicht für lebende Objekte. So mussten die Forscher akzeptieren, dass sie molekulare Details nur an toten Präparaten untersuchen können. Damit können sie aber die komplizierten Lebensprozesse nur mühsam auf indirekte Weise entschlüsseln.

Lange galt das Abbe-Limit als ultimative Grenze der Lichtmikroskopie – genauer gesagt, der Fernfeld-Mikroskopie. Fernfeld heißt, dass das Objektiv des Mikroskops viele Lichtwellenlängen vom Objekt entfernt ist. Tatsächlich konnte die sogenannte Nahfeld-Mikroskopie in den 1980er-Jahren erstmals das Abbe-Limit bei sichtbarem Licht durchbrechen. Sie rückt mit einer Präzisionssteuerung eine spitzenförmige Optik auf wenige Nanometer an das Objekt heran – also viel weniger als die Lichtwellenlänge. Allerdings sind ihre Abbildungseigenschaften kompliziert und kaum auf Zellen und Gewebe anwendbar. Deshalb blieb die optische Nahfeld-Mikroskopie eine Spezialanwendung.

Wie sich die Grenzen der Auflösung überwinden lassen

Die Abbe-Grenze der Fernfeld-Mikroskopie durchbrach erst Ende der 1990er-Jahre ein junger deutscher Physiker erfolgreich. Wer mit Stefan Hell, Direktor am Max-Planck-Institut für biophysikalische Chemie in Göttingen, darüber spricht, hört eine Lebensgeschichte, die eines lehrt: Auch in den Naturwissenschaften muss man grundlegend neue Ideen oft mit Mut, Optimismus und großer Zähigkeit durchsetzen. Hell hat diese Steherqualität. Als er vor rund zwanzig Jahren als junger Physiker zunächst in Heidelberg versuchte, etablierte Wissenschaftler von seinen Ideen zu überzeugen, scheiterte er. „Das war einfach zu radikal“, sagt Hell im Rückblick. Schließlich bekam er 1997 am Göttinger Max-Planck-Institut die Chance, als Nachwuchswissenschaftler seine Idee zu verwirklichen. Nach drei Jahren war klar, dass es tatsächlich funktioniert. Heute ist Hell ein international berühmter Wissenschaftler, der u.a. 2006 den Innovationspreis des Bundespräsidenten erhalten hat. Wie aber funktioniert seine radikal neue Idee?

Um das zu verstehen, müssen wir nochmals zurück in das 19. Jahrhundert und Ernst Abbe über die Schulter schauen. Abbe experimentierte damals mit Beugungsgittern. Diese Glasplättchen mit ihren sehr feinen, parallel eingeritzten Linien gehören heute zum Schulunterricht in Physik. Damals waren sie wissenschaftliches Neuland. Der Abstand der Linien liegt im Wellenlängenbereich von sichtbarem Licht, also bei einigen Hundert Nanometern. Fällt Licht durch so ein Gitter, dann bricht es dessen parallele Wellenfront in kleine Kreiswellen auf. Diese wandern in den Raum jenseits des Gitters. Steht dort ein Leuchtschirm, dann überlagern sie sich auf ihm zu einem hellen Fleck in der Mitte und einer Reihe kleinere Lichtflecken links und rechts (Exkurs).

Exkurs: Abbe’sche Auflösungsgrenze von Fernfeld-Lichtmikroskopen

Abbe'sche Auflösungsgrenze von Fernfeld-Lichtmikroskopen, Grafik

© Grafik: Roland Wengenmayr / CC BY-NC-SA 4.0

Von links fällt eine ebene Lichtwelle auf ein Beugungsgitter als Objekt, das hier drei Öffnungen hat. In den Öffnungen bricht die Lichtwelle in einzelne Kreiswellen auf. Diese überlagern sich auf dem Weg zur Öffnungslinse des Mikroskops. In den Maxima tun sie das konstruktiv, dazwischen löschen sie sich aus. Die gelben Pfeile deuten die Positionen des Hauptmaximums und der beiden ersten Nebenmaxima an. Letztere fängt das Objektiv im linken Fall gerade noch ein, das Mikroskop bildet das Gitter erkennbar ab. Bei engerem Gitter und unveränderter Wellenlänge des Lichts (rechts) spreizen die Nebenmaxima sich zu weit für das Objektiv auseinander. Das Mikroskopbild enthält keine Information mehr.

Dieses sogenannte Beugungsbild enthält die Bildinformation über das Gitter. Abbe erkannte, dass man mindestens die beiden ersten Flecke, die „Nebenmaxima“ neben dem Hauptfleck, als Information braucht, damit das Bild das Aussehen des Beobachtungsobjekts erkennbar wiedergibt. In diesem Fall wäre das Objekt also das Beugungsgitter. Je näher dessen Gitterlinien zusammenrücken, je feiner es wird, desto weiter spreizen sich aber die Nebenmaxima auseinander. Abbe erkannte, dass dieser Zusammenhang nicht nur für optische Gitter gilt, sondern für alle Beobachtungsobjekte. Daraus folgerte er: Die Objektivöffnung eines Mikroskops, die sogenannte Apertur, muss grundsätzlich die ersten Nebenmaxima des am Beobachtungsobjekt gebeugten Lichts erfassen können. Nur dann enthält das Mikroskopbild eine Mindestinformation über das Objekt. Ansonsten sieht man im Okular nur gleichförmige Helligkeit.

Nano-Lampen bringen Licht ins Dunkel

Stefan Hell war klar, dass er die Gesetze der Wellenoptik nicht aushebeln kann. Er akzeptierte sie. Stattdessen konzentrierte er sich auf die Beobachtungsobjekte. Und hier konnte er eine Besonderheit der Biowissenschaften ausnutzen. Ernst Abbes Beugungsgitter werden – wie auch viele Objekte unter dem Mikroskop – passiv von einer Lichtquelle beleuchtet. In der biomedizinischen Forschung werden interessante Moleküle aber mit einem fluoreszierenden Farbstoff als Marker versehen – sie leuchten also aktiv selbst. Fluoreszenz heißt, dass eine Lichtquelle die Farbstoffmoleküle dazu anregt, selbst wie winzige Nano-Lampen in einer charakteristischen Farbe, also Wellenlänge, zu leuchten. Und das funktioniert auch in lebenden Zellen.

„Proteine zum Beispiel kann man nur optisch unterscheiden, wenn sie an einen Farbstoff gebunden sind“, begründet Hell die Bedeutung dieser Methode. Er kam auf die Idee, mit Hilfe diese molekularen Lampen die Abbesche Beugungsgrenze zu durchbrechen. Seine Basis war eine etablierte Mikroskoptechnik, bei der ein sehr scharf gebündelter Laserstrahl die Probe abrastert. Sie erzeugt so Punkt für Punkt ein Bild. Diese Technik erreicht eine besonders hohe Auflösung. Sie unterliegt aber noch dem Abbe-Limit: Die Optik lässt den Laserstrahl durch Beugung an ihrer Öffnung auf mindestens den 200-Nanometer-Fleck aufblühen. In diesem Fleck fluoreszieren alle dort befindlichen Farbstoffmoleküle. Ihre Nano-Leuchtpunkte verschwimmen im Mikroskopbild zu einem gemeinsamen Punkt.

Damit wäre also noch nichts gewonnen. Nun aber kommt Hell`s Idee ins Spiel, und die klingt verblüffend einfach: „Man muss die fluoreszierenden Moleküle einfach in einem größeren Bereich des Beleuchtungsflecks dunkel schalten“, sagt der Physiker, „dann bekommt man eine höhere Auflösung.“ Dieses „Ausknipsen“ der meisten leuchtenden Moleküle im äußeren Ring des Flecks ist der entscheidende Trick: Nur in einem sehr schmalen Bereich in der Mitte des Strahls leuchten dann noch Moleküle (Abb. B). Dieser „Restbereich“ lässt sich so klein machen, dass „es nach unten eigentlich keine Grenze gibt“, sagt Hell. „Und bei den Molekülen, die im Lichtfleck noch angeregt sind“, fährt er fort, „weiß ich genau, wo die sind.“

Funktionsweise des STED-Mikroskops, Grafik

Abb. B: STED-Mikroskop: Der Laserstrahl rastert eine Probe mit Farbstoffmolekülen (Punkte unten) ab. Der ausgeleuchtete Fleck ist wegen der Abbe-Grenze immer mindestens 200 Nanometer breit. Links: Der Ausschaltestrahl hat ein Profil der Lichtintensität wie ein Donut. Er unterdrückt die Fluoreszenz der Moleküle (blau). Mitte: Das breite Profil des Einschaltestrahls erinnert an eine zerlaufende Eiskugel, er lässt alle Farbstoffmoleküle im ausgeleuchteten Fleck fluoreszieren (rot). Rechts: Beide Strahlen sind überlagert und lassen die Moleküle auf einem Fleck leuchten, der nun viel kleiner als 200 Nanometer ist.
© MPG

Wie aus Rasterpunkten am Computer Bilder entstehen

Die Information über den präzisen Ort der noch leuchtenden Moleküle liefert nicht das dem Abbe-Limit unterworfene Bild, sondern die Position des Laserstrahls. Das ermöglicht die moderne Scannertechnik, wie sie auch in den berühmten Rastertunnel-Mikroskopen eingesetzt wird. Die Position des Laserstrahls steuern Piezokristalle, die elektrische Signale ultrapräzise in winzigste mechanische Bewegungen umwandeln, auf Nanometer genau. So lassen sich die Rasterpunkte am Computer tatsächlich zu einem lichtmikroskopischen Bild zusammensetzen, das nur wenige Nanometer kleine Strukturen scharf abbildet (Abb. C). Es ist damit viel schärfer, als es das Abbe`sche Beugungslimit erlauben würde. Sogar Videosequenzen sind möglich.

Der Laserstrahl eines STED-Mikroskops rastert eine Probe ab.

Abb. C: STED-Mikroskop: Das Bild zeigt, wie der Laserstrahl die Probe abrastert.
© MPG

Nun ist noch die Frage offen, wie das Dunkelschalten der Farbstoffmoleküle funktioniert. Dabei hilft die Quantenphysik. Im einfachsten Fall ist es ein Effekt, den Albert Einstein 1916 vorhersagte. Er heißt stimulierte Emission. Atome und Moleküle besitzen erlaubte Quantenzustände, in denen sich Elektronen einer bestimmten Wellenlänge aufhalten dürfen. Da Wellenlänge und Energie in der Quantenwelt direkt miteinander verknüpft sind, bilden diese Quantenzustände eine Energieleiter für Elektronen. Fällt ein Elektron von einem höheren Zustand, sozusagen einer höheren Sprosse, in einen niedrigeren Zustand näher am Atomkern, dann setzt es Energie in Form eines Lichtquants (Photon) frei. Dessen Wellenlänge passt exakt zu dem Energiesprung. Dieser Vorgang heißt Emission und passiert immer dann, wenn Materie leuchtet. Normalerweise springen die Elektronen irgendwann zufällig auf die untere Leitersprosse. Bei der stimulierten Emission jedoch rüttelt ein vorbei fliegendes Photon mit exakt passender Wellenlänge an einem Elektron auf der höheren Sprosse und lässt es auf die tiefere Sprosse der Energieleiter fallen. Die Anregungsenergie des Moleküls nimmt ein dabei erzeugtes Zwillingsphoton mit (siehe TECHMAX 06).

Wie der Laser Nano-Lampen an- und ausknipst

Das Prinzip Zwillingsphotonen zu erzeugen, nutzt der Laser. Stefan Hell allerdings setzt es genau für das Gegenteil ein: Bei ihm sorgt ein Laserstrahl für einen prasselnden Regen an Photonen auf den 200-Nanometer-Lichtfleck. Ihre Wellenlänge passt exakt zu dem Quantensprung, mit dem die Elektronen wieder in den Grundzustand gebracht werden können. Mit dieser stimulierten Emission werden die fluoreszierenden, also spontan leuchtenden Farbstoffmoleküle einfach „ausgeknipst“. Nur auf einem engen Fleck in der Mitte bleiben sie verschont, so dass sie ungestört fluoreszieren können.

Während also ein erster energiereicher Lichtstrahl für die Anregung der Fluoreszenzmarker sorgt, wird ein zweiter eingesetzt, um die angeregten Fluoreszenzmarker wieder abzuregen, bevor sie Fluoreszenzlicht emittieren. Der Trick, um die höhere Auflösung zu erreichen, besteht darin, diesen zweiten Strahl ringförmig über den ersten zu legen (Abb. B). Dadurch werden vor allem Marker aus dem Außenbereich des ersten Strahls abgeregt und die Fläche des Fluoreszenzflecks verkleinert sich. Dort können die Fluoreszenzmoleküle noch immer ungestört leuchten. Das Lichtfeld der beiden ineinander geschachtelten Strahlen erinnere an „einen Donut“, schmunzelt Hell. Dabei lässt sich das Loch in der Mitte beliebig klein machen – es unterliegt nicht mehr dem Abbe`schen Limit. Auf diese Weise haben die Forscher inzwischen eine Auflösung von weit unter 20 Nanometern erreicht – und damit die vermeintliche Auflösungsgrenze der Lichtmikroskopie um mehr als das Zehnfache unterboten.

Hell`s Gruppe gelangen so erstmals, faszinierende Bilder zum Beispiel von Filamenten des Zellskeletts (Abb. A = Titelbild). Der Max-Planck-Forscher hat seine Methode „STED-Mikroskop“ getauft. STED steht dabei für das englische Stimulated Emission Depletion. Derzeit entstehen immer neue Varianten des Verfahrens. Sie nutzen andere Quanteneffekte zum „Dunkelschalten“ der Farbstoffmoleküle. Inzwischen hat eine bekannte deutsche Firma auch eine kommerzielle Version des STED-Mikroskops auf den Markt gebracht, das nun Einzug hält in zahlreiche Labore. Und so wird uns Stefan Hell`s Idee ganz sicher, neue, tiefe Einsichten in die Nanowelt des Lebens vermitteln.

 

Abbildungshinweise:
Titelbild: © MPI für biophysikalische Chemie
Exkurs: © R. Wengenmayr / CC BY-NC-SA 4.0
Abb. B und C: © MPG
Abb. D: © MPI für biophysikalische Chemie

Der Text wird unter CC BY-NC-SA 4.0 veröffentlicht.

TECHMAX Ausgabe 15, Herbst 2011; Autor: Roland Wengenmayr; Redaktion: Christina Beck

 

Eine Überarbeitung dieser BIOMAX-Ausgabe (erschienen 2011) wird geprüft. Die gedruckten Hefte sind vergriffen. Das PDF steht zur Verfügung.

 

© Dan Higgins, Douglas Jordan, USCDCP

Erst seit gut hundert Jahren wissen wir, dass es sie gibt: Viren. Jene winzigen Gebilde, die sich zwar wie biologische Systeme vermehren, dafür aber unbedingt auf eine Wirtszelle angewiesen sind. Viren verfügen über keinen Mechanismus, der ihre genetische Information abliest und in Proteine umsetzt, und müssen sich deshalb der zellulären Übersetzungsmaschinerie bedienen. Seit Jahrzehnten streiten die Forscher daher, ob sie zur belebten oder zur unbelebten Natur zu zählen sind. Biologen pflegen diese Frage ganz unterschiedlich zu beantworten. Einige zitieren gerne den angesehenen Immunologen und Nobelpreisträger Sir Peter Medawar: Für ihn war ein Virus eine in Eiweiß verpackte schlechte Neuigkeit.

Eine neue Sorte Krankheitserreger

Auf die Spur der Viren kamen gegen Ende des 19. Jahrhunderts nicht Humanmediziner, sondern Pflanzenforscher. Tabak war zu diesem Zeitpunkt in Europa eine wertvolle Einnahmequelle, die europäischen Kulturen aber durch eine Krankheit bedroht: die Tabakmosaikkrankheit. Der deutsche Bakteriologe Adolf Mayer hatte die krankhafte Blattscheckung 1886 erstmals beschrieben und damit den Namen geprägt. Er vermutete ein Bakterium als Krankheitserreger. Die unabhängigen Untersuchungen von Martinus Beijerinck in Holland und Dmitri Ivanovski in Russland zehn Jahre später brachten allerdings ein überraschendes Ergebnis: Der Presssaft erkrankter Tabakpflanzen war nach dem Durchgang durch einen Bakterienfilter zwar frei von Bakterien, blieb aber infektiös. Während Ivanowski ein sehr kleines Bakterium für die Krankheitsursache hielt, spekulierte Beijerinck, dass es sich um etwas „zwischen einem lebenden Organismus und chemischen Molekülen“ handeln müsse.

Abb. A: Kristallnadeln des Tabakmosaikvirus unter dem Lichtmikroskop.
© MPG

Um der Natur des neuartigen Krankheitserregers auf die Spur zu kommen, musste man ihn isolieren. Wendell M. Stanley von der heutigen Rockefeller University in New York gelang 1935 die Kristallisation des Erregers: Die feinen Kristallnadeln waren unter dem Lichtmikroskop gerade noch sichtbar (Abb. A). Und obwohl die winzigen Nadeln keine Stoffwechselaktivität erkennen ließen, blieben sie hoch infektiös. Stanley benutzte für das Gebilde das lateinische Wort für Gift: Virus. Zwar konnte er noch nicht wissen, dass jede Nadel aus einer großen Anzahl von Viren bestand, doch seine Schlussfolgerung blieb korrekt. Als 1940 das erste Elektronenmikroskop entwickelt wurde, lieferte dieses die Bestätigung für Stanleys Befund: Das Virus besteht in erster Linie aus einer Proteinhülle, die eine Ribonukleinsäure umschließt. Das klang tatsächlich eher nach einem Chemie-Baukasten als nach einem Organismus, und so verwundert es nicht, dass Stanley für seine Forschung 1946 den Nobelpreis für Chemie erhielt – und nicht etwa den für Medizin.

Abb. B: Gerhard Schramm (vorne) mit Mitarbeitern der Arbeitsstätte für Virusforschung an der Ultra-Zentrifuge, 1940er-Jahre
© MPG

Die Entdeckung erregte weltweit Aufsehen, auch in Berlin. Hier nahm seit 1937 eine zunächst lockere Kooperation allmählich feste Formen an. Es entstand eine Arbeitsstätte für Virusforschung der Kaiser-Wilhelm-Institute für Biochemie und Biologie, die nach dem Zweiten Weltkrieg im Max-Planck-Institut für Virusforschung in Tübingen aufging. Gemeinsames Modellobjekt der Gruppe war – das Tabakmosaikvirus. Die Berliner Forscher machten sich zunächst daran, den Baustoff Protein näher zu untersuchen (Abb. B). Ihre Versuche deuteten an, dass die infektiöse Wirkung nicht vom Protein auszugehen schien. Doch erst 1956 konnten Gerhard Schramm und Alfred Gierer zeigen, dass die Infektiosität des Virus tatsächlich auf die Ribonukleinsäure zurückzuführen ist. In der Fachzeitschrift Nature vom 14. April 1956 schrieben die Forscher: „We have now obtained evidence that after complete removal of the protein, the ribonucleic acid itself is still infectious.“

Die Information zur Virusvermehrung ist an die Nukleinsäure (je nach Virus handelt es sich dabei um RNA oder DNA) gebunden. Das Virusgenom kodiert dabei für drei verschiedene Proteintypen: Proteine, die das infektiöse Virus abbauen, damit die virale Nukleinsäure freigesetzt wird; Proteine zum Verpacken des Genoms, damit es zu weiteren Wirtszellen transportiert werden kann und Proteine, die Strukturen oder Funktionen der Wirtszelle an die Bedürfnisse des Virus anpassen. Da entscheidende Schritte bei der Virusvermehrung mit Hilfe der Maschinerie der Wirtszelle erfolgen, ist es ausgesprochen schwierig, wirksame antivirale Medikamente zu entwickeln (siehe Exkurs). Am besten lassen sich Viruserkrankungen durch Vorbeugung unter Kontrolle bringen, indem man ihre potenziellen Wirte impft.

Exkurs: Die Aufnahme eines Rasterelektronenmikroskops zeigt einen pandemischen Virusstamm, der 18 Stunden nach der Infektion eine menschliche Lungenzelle zerstört.
© MPI für Infektionsbiologie

Neue Strategien gegen Influenza

Bislang stehen zur Verhütung und Behandlung einer Grippeinfektion ausschließlich Impfstoffe und antivirale Medikamente zur Verfügung, die gegen das Virus selbst gerichtet sind. Aufgrund seiner hohen Wandlungsfähigkeit müssen Impfstoffe jedoch immer wieder an das aktuell zirkulierende Virus angepasst werden. Gängige Grippemedikamente versagen immer häufiger, weil Influenzaviren dagegen resistent geworden sind. Forscher vom Max-Planck-Institut für Infektionsbiologie in Berlin konnten mit Hilfe der RNA-Interferenz unter den zirka 24.000 Genen des Menschen insgesamt 287 Gene aufspüren, die für sogenannte Wirtszellfaktoren kodieren. Diese Proteine sind für die Vermehrung des Virus unerlässlich und könnten sich daher als Angriffspunkt für neuartige Virustatika eignen, Medikamente, die diese Wirtszellfaktoren blockieren. In diesem Fall wäre kaum mit einer Resistenzentwicklung zu rechnen. Auch bisher unbekannte Influenza-Subtypen ließen sich damit bekämpfen.

Wie sichert das Virus sein Überleben?

Das Überleben des Virus hängt maßgeblich von seinem Wirt ab: Wird dieser ausgelöscht, so auch das Virus mit ihm. Im Normalfall sorgt deshalb eine ständige wechselseitige Anpassung dafür, dass das Virus seinen Wirt durch die im Zuge der Infektion ausgelöste Krankheit nicht zu sehr schädigt. Nur schlecht angepasste Erreger töten ihre Wirte; erfolgreiche Viren bevorzugen hingegen die sanfte Tour. Wie zum Beispiel das Polyomavirus. Mehr als drei Viertel der Weltbevölkerung tragen dieses Virus, merken aber in der Regel nichts davon. Denn das Virus hat sich im Verlauf der Evolution hervorragend an den Menschen als seinen Reservoir- oder Hauptwirt angepasst. Wissenschaftler bezeichnen diese Strategie als „infect and persist„.

Wie gelingt eine solche Anpassung? Sie ist das Ergebnis der genetischen Variabilität eines Organismus und damit seiner Fähigkeit, veränderte Proteine herzustellen. Genetische Variabilität entsteht durch Mutationen oder den Austausch von genetischem Material zwischen zwei Individuen. Über das Ergebnis einer einzelnen Mutation hat der Organismus allerdings keine Kontrolle: sie kann hilfreich, aber eben auch schädlich sein. Die schädlichen Effekte lassen sich aber durch eine hohe Reproduktionsrate kompensieren. Bakterien und Viren nutzen diese Methode. RNA-Viren besitzen die höchsten Mutationsraten, die je gemessen wurden (5 x 10-5 Nukleotid-Änderungen pro Nukleotid und Replikationszyklus). Dabei ist es letztlich unerheblich, dass diese Mutationen im Genom der Viren im Grunde auf Kopierfehlern während der Replikation innerhalb der Wirtszellen beruhen. Was zählt, ist allein der für die Arterhaltung daraus resultierende positive Effekt: die extreme Steigerung der Anpassungsfähigkeit.

Mutationen ermöglichen es Viren auch, auf einen gänzlich neuen Wirt überzuspringen. Der AIDS-Erreger hat vermutlich bereits mindestens zweimal erfolgreich die Artengrenze überwunden. Denn tatsächlich handelt es sich bei HIV um eine veränderte Form des Simianen Immundefizienz-Virus (kurz SIV). 2005 konnten Wissenschaftler erstmals Antikörper gegen SIV bei freilebenden Schimpansen nachweisen. Die Forscher vermuten, dass die Schimpansen sich wiederum im westlichen Zentralafrika mit SIV oder einem Vorläufer dieses Virus‘ bei anderen Affenarten infiziert haben. Dem Ebola-Virus ist ein solcher Wirtssprung noch nicht gelungen. Natürlicher Hauptwirt des Erregers sind verschiedene Arten von Flughunden in Afrika.

Die Übertragung des Virus vom Reservoirwirt auf den Menschen ist bislang ein eher seltener Vorgang, der, wenn er eintritt, allerdings drastische Folgen hat: 2003 starben im Kongo 128 von 143 infizierten Personen, d.h., nahezu 90% der Erkrankten. Diese hohe Sterblichkeit deutet darauf hin, dass das Virus (noch) nicht an den Menschen angepasst und neu in die Population eingedrungen ist. Die Verbreitungsstrategie des Ebola-Virus wird als „hit and run“ bezeichnet. Der Wirt scheidet sehr schnell als Basis für eine langfristige Virusvermehrung und als erneutes Ziel einer Infektion aus und steht nur während einer sehr begrenzten Zeit für das Virus zur Verfügung.

Alle Jahre wieder: Die Grippe kommt

Die meisten Viren, die uns befallen, werden von der Immunabwehr gestoppt. Nach einer einmal überstandenen Infektion entwickeln wir ein sogenanntes Immungedächtnis, das eine erneute Infektion mit demselben Erreger verhindert. Auch dieses Problem muss ein Virus umgehen. Denn wenn erst einmal jedes Mitglied einer Population eine Immunität entwickelt hat, findet es keinen Wirt mehr, in dem es sich reproduzieren kann. Die hohe Mutationsrate begünstigt beispielsweise bei Influenzaviren die ständige Veränderung bestimmter Oberflächenproteine, die für eine erfolgreiche Wirtsinvasion von Bedeutung sind. Sie werden unter dem Druck der in der menschlichen Bevölkerung vorhandenen Immunität selektiert. Dieses Phänomen der Antigen-Drift ist die molekulare Erklärung für die jährlich im Winter neu auftretende Grippe-Epidemie.

Auf der Grundlage der genomischen Unterschiede werden die Grippeviren in die Typen A, B und C klassifiziert. Typ A ist verantwortlich für die meisten menschlichen Grippefälle. Ob das Virus erfolgreich in eine Wirtszelle eindringen kann, hängt vor allem von der Feinstruktur zweier Oberflächenproteine ab: dem Hämagglutinin, das die Anheftung des Virus an die Zelle und den Zelleintritt mittels Endocytose ermöglicht, und einem Enzym, der Neuraminidase, das an der Freisetzung der neuen Viruspartikel beteiligt ist. Die beiden Proteine existieren in diversen Varianten, die mit H1 bis H16 und N1 bis N9 bezeichnet werden. Jedes Jahr treten diese Viren in neuer H-N-Kombination auf. H1N1 und H3N2 sind die derzeit gängigsten Subtypen des menschlichen Grippevirus vom Typ A.

Um im Kampf gegen die Grippe zu bestehen, müssen die Impfstoffe an die neuen Erreger angepasst werden. Das ist ein Wettlauf gegen die Zeit, bei dem die Forscher inzwischen auf Computer setzen: Er soll verdächtige Strukturen im Virengenom aufspüren, mit denen sich der nächste Auslöser einer weltweiten Grippewelle verrät, noch ehe die Grippesaison begonnen hat. Doch welche Mutation macht das Virus wirklich gefährlich? Zunächst lernt der Rechner die „Täterprofile“ bereits bekannter Viren kennen. Füttern die Forscher den Computer anschließend mit den genetischen Informationen eines Grippevirus, von dem noch niemand weiß, wie gefährlich es ist, so gleicht der Rechner auf der Basis eines statistischen Lernverfahrens die neuen Daten mit dem bekannten Wissen ab. Er ordnet die Information so, dass sich die aktuellen Eingabewerte möglichst stark den erlernten Mustern annähern. Als Antwort liefert er dann einen Zahlenwert, der Aussagen erlaubt zu: Wie stark ähnelt die neue Gensequenz den Strukturen eines erfolgreichen Virus? Wie wahrscheinlich ist es also, dass eine Krankheit ausbricht? Noch können die Forscher keine aktuellen Voraussagen für die neue Grippesaison liefern, denn noch werden die Programme optimiert.

Die Daten für derartige Analysen erhalten sie aus der weltgrößten Viren-Gendatenbank GISAID (engl. Global Initiative on Sharing All Influenza Data). Sie liegt auf den Servern des Max-Planck-Instituts für Informatik in Saarbrücken. Forscher aus aller Welt speisen ihre Ergebnisse aus der Genanalyse von Influenza-Viren seit einigen Jahren hier ein. Die aktuelle Version von GISAID bietet grundlegende Analysemethoden, die helfen, den Ursprung neuartiger viraler Varianten zu ergründen (Abb. C). Im September 2008 und Februar 2009 wurden die Virusstämme, die die Grundlage für die Impfstoffproduktion für die folgende Grippesaison der südlichen bzw. nördlichen Hemisphäre bilden, von der WHO unter Verwendung der GISAID Daten ausgesucht.

Abb. C: Evolution des Grippe-Virus H3N2: Stammbaum für die Gensequenz des Oberflächenproteins Hämagglutinin. Die Farbe der Endknoten gibt den Zeitpunkt an, zu dem eine bestimmte Sequenzvariante aufgetreten ist. Damit können Wissenschaftler die Entstehung der verschiedenen Virusstämme verfolgen und Prognosen zu möglichen neuen Varianten abgeben.
© MPI für Informatik

Die Karten werden neu gemischt

Im April 2009 brach in Mexiko und den USA eine neue, schwere Form der Grippe aus. GISAID ermöglichte es, die Genomsequenzen des neuen Virus mit anderen zirkulierenden Virenstämmen zu vergleichen, und lieferte Hinweise auf dessen Ursprung: Die Sequenz des neuen Virus besitzt große Ähnlichkeit mit Sequenzen, die aus Proben von Schweinegrippe sowohl aus den USA als auch aus China stammen, sowie der Sequenz von einem Truthahn. Das deutet darauf hin, dass hier eine ungewöhnliche Reassortierung (Neukombination genetischer Einheiten) von Viren aus mindestens zwei verschiedenen Stämmen stattgefunden hat. Forscher bezeichnen das als Antigen-Shift. Möglich wird dieser Austausch, weil das RNA-Genom des Virus in acht verschiedene Segmente aufgeteilt ist, die unabhängig voneinander repliziert werden. Beim Zusammenbau neuer Viruspartikel in der Wirtszelle kommt es nur darauf an, von jedem Segment ein Exemplar einzubauen – das System kann nach dem Entfernen der Virushülle nicht mehr unterscheiden, welches Segment von welchem Virus-Subtyp stammte, es nimmt schlichtweg das, was gerade „zur Hand“ ist (Abb. D).

Abb. D: Wenn verschiedene Virus-Varianten in einem Organismus zusammenkommen (Koinfektion) kann es zu einer Vermischung genetischer Information zwischen zwei ähnlichen Viren kommen. Man bezeichnet das als Reassortment oder Reassortierung. Die Wahrscheinlichkeit für ein Reassortment steigt signifikant an, wenn verschiedene Populationen (z.B. Menschen und Schweine oder Hühnervögel) mit verschiedenen Virusvarianten in großer Zahl und Dichte die Möglichkeit zur gegenseitigen Infektion haben.
© MPG / CC BY-NC-SA 4.0

In einem einzigen Schritt kann das Virus somit seine Eigenschaften drastisch verändern. Das Immunsystem hat ihm dann kaum etwas entgegenzusetzen. Eine absolute Neuheit hat damit Milliarden Menschen als mögliche Opfer – sie kann zum Auslöser einer Pandemie werden. So wie zwischen 1918 und 1920, als die Spanische Grippe weltweit geschätzte 20 Millionen Todesopfer forderte. Auch hierbei handelte es sich um eine Reassortante, ein Mosaik-Virus. 1995 gelang es Forschern des Armed Forces Institute of Pathology in Washington, das Virus der Spanischen Grippe in der Gewebeproben-Datenbank des Instituts aufzuspüren. Jeffrey Taubenberger und sein Team konnten es aus der Gewebeprobe eines Soldaten isolieren, der 1918 an der Grippe gestorben war: Es ähnelte dem Erreger einer herkömmlichen Schweinegrippe, wies in seiner Außenhülle aber Proteine eines Vogelgrippe-Virus auf. Die Außenhülle enthielt allerdings nicht die todbringenden Bestandteile des Virus. Und obwohl Taubenberger und sein Team 2005 erstmals Genfragmente des Erregers aus den Gewebeproben eines Grippeopfers von 1918, das aus dem Permafrostboden Alaskas geborgen wurde, isolieren und wie ein Puzzle zu einem Virus-Erbgut zusammenzusetzen konnten, blieben die tödlichen Eigenschaften des Virus im Dunkeln.

Bestätigen konnten die Forscher allerdings die Theorie, dass Wasservögel ein Reservoir für alle Grippestämme der Erde zu bilden scheinen. Beim Auslöser der Spanischen Grippe handelt es sich ganz offensichtlich um ein Vogelgrippe-Virus, das es durch einige wenige genetische Veränderungen geschafft hatte, auf den Menschen überzuspringen. Abweichungen bei nur 25 bis 30 der 4000 Aminosäuren verwandelten das Virus in einen Massenmörder. Einzelne genetische Merkmale dieses Erregers sind inzwischen auch bei H5N1 zu finden – dem Erreger der sogenannten Geflügelpest, der auch für den Menschen tödlich sein kann. H5N1 hat sich inzwischen an Entenvögel angepasst und tötet diese nicht mehr. Es könnte deshalb nicht nur unter Wildvögeln zirkulieren, sondern durch diese – wie durch ein trojanisches Pferd – auch weiter verbreitet werden. Wissenschaftler am Max-Planck-Institut für Ornithologie in Radolfzell untersuchen daher die Zugwege von Wasservögeln und ihre Bedeutung als Verbreiter von Krankheitserregern. Viele Fragen sind hier noch offen.

Abbildungshinweise 
Titelbild:  Influenza-Virus © Dan Higgins, Douglas Jordan, USCDCP
Abb. A: Kristallnadeln Virus © MPG
Abb. B: Ultrazentrifuge 1940er-Jahre © MPG
Abb. C: Virengendatenbank GISAID © MPI für Informatik
Abb. D: Reassortierung von Viren © MPG / CC BY-NC-SA 4.0
Exkurs: Neue Strategien gegen Influenza © MPI für Infektionsbiologie

Der Text wird unter CC BY-NC-SA 4.0 veröffentlicht.

BIOMAX Ausgabe 27, Sommer 2011; Autorin: Christina Beck