Die Print-Hefte sind ab Anfang September verfügbar. Vorbestellungen über den Warenkorb sind möglich.
Forschende machen sich neugierig und motiviert auf die Suche nach neuem Wissen. Und mit einer guten Portion Kreativität und Ausdauer können sie Neues entdecken und verstehen. Künstliche Intelligenz ist zunehmend ein wichtiges Hilfsmittel, um dieses Ziel zu erreichen. Doch könnte die KI auch selbst als Wissenschaftlerin agieren, zu Erkenntnissen gelangen oder Ideen, Konzepte und echtes Verständnis entwickeln?
Noch nicht einmal fünf Jahre alt und schon das Abitur gut bestanden: Deutsch 2, Geschichte 2, Mathe 2, Ethik 2, Informatik 2. Die Hochbegabte: die künstliche Intelligenz (KI) ChatGPT, die auf einem großen Sprachmodell (large language model, LLM) basiert. Und wie sich anhand von Aufgaben aus dem bayerischen Abitur zeigte, war die 2023 verfügbare Version GPT-4 bereits so weit entwickelt, dass sie als gute Schülerin durchging und die allgemeine Hochschulreife zugesprochen bekam. Doch bedeutet das, dass die KI tatsächlich intelligent ist, oder plappert sie nur wie ein gut trainierter Papagei die richtigen Phrasen im richtigen Moment? Dass sie bekanntes Wissen korrekt und verständlich wiedergeben kann, hat KI schon gezeigt. Aber kann sie auch für die menschliche Intelligenz entscheidende Eigenschaften wie Neugier, Motivation und Kreativität entwickeln, Aufgaben eigenständig bearbeiten und sich eine eigene Meinung bilden? Mit diesen Fragen beschäftigt sich der Physiker Mario Krenn. Am Max-Planck-Institut für die Physik des Lichts und an der Eberhard Karls Universität Tübingen arbeitet er an einer KI, die Wissenschaftlerinnen und Wissenschaftler unterstützt oder sogar eigenständig forscht.
Zu dieser Forschung gelangte Krenn über die Quantenoptik. Im Jahr 2014 arbeitete er als Doktorand im Labor des späteren Nobelpreisträgers Anton Zeilinger in Wien daran, in komplexen optischen Aufbauten Lichtteilchen mit besonderen Eigenschaften herzustellen. Doch an einer Aufgabe biss Krenn sich monatelang die Zähne aus. Zusammen mit weiteren Forschenden versuchte er sich einen experimentellen Aufbau zu überlegen, der Lichtteilchen herstellt, die eine ganz bestimmte Beziehung zueinander haben. Egal wie er Laser, Linsen, Spiegel, Kristalle und Detektoren in seinen Gedankenexperimenten, Skizzen und Berechnungen anordnete, das erwünschte Ergebnis blieb aus. Also entschied Krenn sich dazu, ein Computerprogramm zu entwickeln, das sich auf die Suche nach der Lösung für sein Problem machen sollte. Dazu stattete er das Programm mit physikalischem Grundwissen aus und stellte alle optischen Bauteile virtuell zur Verfügung. „Damals wie heute setzen wir dazu sogenannte Explorationsalgorithmen ein, die den riesigen abstrakten Raum an Kombinationen sehr effizient auf neue Lösungen durchsuchen“, sagt Krenn. Melvin, wie Krenn sein Programm taufte, simulierte also Millionen von Kombinationen der Bauelemente und hatte damit schnell Erfolg. „Das war ein verrückter Tag. Ich konnte das gar nicht glauben. Das Programm hatte in ein paar Stunden eine Lösung gefunden, nach der drei experimentelle und ein theoretischer Physiker monatelang gesucht hatten“, erzählt Krenn. Anschließend sorgte er dafür, dass Melvin dazulernen konnte. Dank eines Algorithmus des maschinellen Lernens erinnert sich das Programm an bereits simulierte Aufbauten und versucht, diese für die Lösung des neuen Problems wiederzuverwerten.
Ausgehend von diesem Erfolg untersucht Krenn, wie KI der Forschung helfen und zu neuen Erkenntnissen beitragen kann. Schon heute ist KI ein wichtiges Hilfsmittel: So kann beispielsweise AlphaFold, das auf tiefen neuronalen Netzen basiert, eine Proteinstruktur auf Grundlage der Aminosäuresequenz vorhersagen. Dies ermöglicht es, genau auf eine Anwendung zugeschnittene Proteine herzustellen. Und deren Potenzial ist riesig, etwa in der Medizin oder chemischen Industrie. Doch neues Verständnis hat AlphaFold bisher nicht produziert. So sagt das Programm zwar voraus, wie die Struktur eines Proteins einer bestimmten Aminosäuresequenz aussieht, erklärt aber nicht, warum es diese Form annimmt oder wie die Faltung abläuft.
Krenn wünscht sich aber eine KI, die mehr ist als eine Blackbox, die ein Ergebnis produziert. Daher untersucht er, wie KI auf unterschiedlichen Ebenen zu neuem Verständnis beitragen kann (Abb. A). In der ersten Dimension dient KI als Instrument, das Eigenschaften eines Systems aufdeckt, die sonst nur schwer oder gar nicht zu ergründen sind. Menschen können aus diesen Erkenntnissen dann wissenschaftliches Verständnis entwickeln. Dies gilt vor allem für die Simulation von natürlichen Prozessen, die auf Längen- und Zeitskalen ablaufen, die im Experiment nicht wahrnehmbar sind. In der zweiten Dimension dient die KI als Inspirationsquelle für neue Konzepte und Ideen, die menschliche Forschende verstehen und verallgemeinern können. So kann die KI Überraschungen in Datensätzen oder der Literatur finden. Oder unerwartete Konzepte entdecken, indem sie wissenschaftliche Modelle untersucht oder mit einprogrammierter Neugier oder Kreativität einen Datenraum exploriert. Und auch wenn die KI Lösungen für bestimmte Probleme beziehungsweise Aufgaben in interpretierbarer Form ausgibt, kann sie als Inspirationsquelle für die Entdeckung neuer Konzepte dienen. In diesen ersten beiden Dimensionen ermöglicht die KI also dem Menschen, neue wissenschaftliche Erkenntnisse zu gewinnen. In der dritten Dimension gewinnt die Maschine selbst neue Erkenntnisse und damit Verständnis und kann dieses auch weitergeben. In diese Dimension ist KI bisher nicht vorgedrungen.
Abb. A: KI kann auf drei Dimensionen zu neuem Verständnis beitragen. [ 1 ] Als Instrument, das Eigenschaften eines physikalischen Systems aufdeckt, die sonst nur schwer oder gar nicht zu ergründen sind. Bei der Haifischhaut hätte eine KI durch Simulationen die Experimente in einem Strömungskanal ersetzen können. [ 2 ] Als Inspirationsquelle, die überraschende Ideen und Konzepte findet. Die KI hätte etwa Forschende aus der Luft- und Raumfahrt auf die Beobachtungen des Wirbeltierforschers aufmerksam machen können, der die Rillen auf den Haifischschuppen entdeckte. [ 3 ] Als Agentin des Verständnisses, die selbst in der Lage ist, wissenschaftliches Verständnis zu entwickeln und weiterzugeben. So eine Agentin hätte auch ohne das biologische Vorbild der Haifischhaut auf derartige Rillen kommen können, um den Strömungswiderstand von Flugzeugen zu reduzieren.
© DLR (CC BY-NC-ND 3.0), Pascal Deynat/Odontobase (CC BY-SA 3.0), MPG (CC BY-NC-SA 4.0)
Mario Krenn arbeitet aktuell an einer KI als Inspirationsquelle. Zusammen mit seiner Kollegin Xuemei Gu entwickelte er SciMuse, die Wissenschafts-Muse: Ein System, das neue, personalisierte Forschungsideen vorschlägt. Dazu stützten sich die Forschenden einerseits auf GPT-4 und setzten andererseits auf einen selbst entwickelten Wissensgraphen (Abb. B). Der Wissensgraph enthält Informationen zum Inhalt und Einfluss von mehr als 58 Millionen wissenschaftlichen Artikeln. Während der Entwicklung von SciMuse nutzten die Forschenden entweder eine Kombination aus ihrem Wissensgraphen und GPT-4 oder GPT-4 alleine, um Forschungsvorschläge zu generieren. Dabei beinhalteten die Prompts für GPT-4 die Aufforderung zur Selbstreflexion: GPT-4 sollte drei Ideen entwickeln, reflektieren und zweimal verbessern. Und dann die am besten geeignete Projektidee als Endergebnis auswählen. Eine derartige Selbstreflexion ist in zahlreichen aktuellen LLM-KIs bereits enthalten, so auch in der GPT-4 Nachfolgerin o3. Diese sogenannten Reasoning-Modelle überprüfen ihre eigenen Ergebnisse schrittweise, bevor sie eine Antwort geben.
Abb. B: Im Wissensgraphen (links) repräsentieren die Kreise (Eckpunkte) wissenschaftliche Konzepte. Und jedes Mal, wenn zwei Konzepte gemeinsam in einem Titel oder der Zusammenfassung einer wissenschaftlichen Arbeit erscheinen, wird eine Verbindungslinie (Kante) gezogen. Der gelbe und der blaue Teilgraph repräsentieren die Arbeit zweier Forschender, für die ein gemeinsamer Forschungsvorschlag gesucht wird. Die Merkmale der Konzepte im Wissensgraphen (Mitte) beeinflussen das Interesse an den Forschungsvorschlägen erheblich. Auf Grundlage dieser Daten wurde ein maschinelles Lernmodell trainiert, um den Grad des Interesses allein auf der Grundlage dieser Eigenschaften vorherzusagen. Als Lernmodell wurde ein kleines neuronales Netz (rechts) mit einer verborgenen Schicht und einem Ausgabeneuron genutzt (s. Techmax 34, Abb. B).
© Verändert nach: Gu & Krenn (2024): Generation and human-expert evaluation of interesting research ideas using knowledge graphs and large language models; OpenReview.net / CC BY 4.0
Krenn und Gu legten im nächsten Schritt einhundert erfahrenen Max-Planck-Forschenden die KI-generierten, personalisierten Forschungsvorschläge vor. In einer Umfrage bewerteten diese das Interessensniveau der Vorschläge. Die Ergebnisse zeigten, dass die Forschungsvorschläge, die mittels einer Kombination von Wissensgraph plus GPT-4 erstellt wurden, nicht besser abschnitten als jene, die von GPT-4 alleine erzeugt wurden. Doch anhand der Bewertungen konnten die Forschenden klare Zusammenhänge zwischen Interessensniveau des Forschungsvorschlags und Eigenschaften nachweisen, die die zugrunde liegenden Konzepte im Wissensgraphen aufwiesen (Abb. B). Anhand dieser Zusammenhänge trainierte Krenns Team ein kleines neuronales Netz für die Vorhersage des Forschungsinteresses allein aus Daten des Wissensgraphen. Damit hatten sie die KI mit einem Gefühl für spannende Forschungsthemen ausgestattet und so SciMuse geschaffen. Dank dieses Gefühls kann SciMuse neue und hochinteressante Forschungsthemen aus Wissensgraphen auswählen und mit Hilfe moderner großer Sprachmodelle vollwertige Forschungsvorschläge formulieren.
GPT-4 konnte Krenns Team nicht auf die gleiche Weise mit Gefühl ausstatten. Denn während sie im selbst entwickelten Wissensgraphen bestimmte Eigenschaften ausmachen konnten, die das Interessensniveau beeinflussen, haben sie keinen Einblick in die Arbeitsweise von GPT-4. LLMs wie GPT-4 sind meist eine Blackbox, die so komplex ist, dass niemand genau versteht, wie sie auf ihre Ergebnisse kommt. Ein LLM basiert auf einem künstlichen neuronalen Netz, das auf die Verarbeitung und Erzeugung von natürlicher Sprache spezialisiert ist. Ein oftmals genutzter Ansatz, um ein LLM zu erzeugen, ist der generative vortrainierte Transformer (generative pre-trained transformer, GPT). Dieser ist darauf spezialisiert, Text zu verarbeiten und zu erzeugen. Dabei wird Text in numerische Repräsentationen (Token) umgewandelt. Jedes Token wird gemäß einer Worteinbettungstabelle (word embedding) in einen Vektor umgewandelt und so in Kontext gesetzt (Abb. C). Das künstliche neuronale Netz trainiert bei GPTs auf riesigen Datensätzen unmarkierten Textes (unüberwachtes Lernen). Zur Feinabstimmung wird überwachtes Lernen und Verstärkungslernen durch menschliches Feedback eingesetzt.
Abb. C: In der natürlichen Sprachverarbeitung ist eine Worteinbettung eine Darstellung eines Wortes. In der Regel handelt es sich bei der Darstellung um einen Vektor, der die Bedeutung des Wortes so kodiert, dass bei Wörtern, die im Vektorraum näher beieinander liegen, eine ähnliche Bedeutung zu erwarten ist. Der Vektor kann dabei vieldimensional sein, hier ist ein Beispiel in 2D dargestellt. Dabei werden Wörter gemäß ihrer Bedeutung in die Dimensionen Alter und Geschlecht eingeordnet.
© MPG
Wann forscht KI besser als wir?
Aktuelle große Sprachmodelle wirken schon erstaunlich intelligent. Im Fall der Reasoning-Modelle sprechen einige Fachleute sogar davon, dass diese Modelle nun logisch denken können. Kritiker bezweifeln dies und sehen den Schritt hin zur allgemeinen künstlichen Intelligenz (artificial general intelligence, AGI) noch in weiter Ferne. Unter AGI versteht man eine KI, die eigene Schlüsse zieht, sowie Bekanntes und Gelerntes auf neue Felder übertragen kann. Außerdem sollte eine AGI in einer natürlichen, das heißt einer komplexen und offenen Umgebung zurechtkommen. Wenn es um die Bewertung der Intelligenz einer KI geht, wird es schnell philosophisch. Denn es ist nicht ganz klar, was intelligent genau bedeutet. Schon heute überflügeln KIs den Menschen in zahlreichen Kategorien des rationalen Denkens. Doch bisher scheitern KIs daran, auf unerwartete Veränderungen zu reagieren oder ihr Gelerntes auf Gebiete anzuwenden beziehungsweise zu übertragen, die nicht ihrem Training entsprechen. Eine KI, die selbst als Wissenschaftlerin agieren soll, müsste genau das schaffen, um neue Erkenntnisse zu gewinnen und Verständnis zu entwickeln. Denn Verständnis setzt eine intuitive, modell- oder bildhafte Vorstellung eines wissenschaftlichen Zusammenhangs voraus. Diese Vorstellung ermöglicht es dann, qualitative Aussagen zu treffen, ohne genaue Berechnungen anzustellen.
Für die KI als Wissenschaftlerin sind außerdem auch Neugier, Kreativität und Motivation wichtig. Dazu braucht sie eine Beziehung zur realen Welt. Denn um spannende, das heißt bedeutende Probleme beziehungsweise Fragen zu identifizieren, muss sie wissen, was ihr selbst oder für die ganze Menschheit wichtig ist. Dieses sogenannte Weltwissen ist bei KIs bisher wenig ausgeprägt. Das liegt an den eingeschränkten Trainingsdaten, die KIs bisher zum Lernen nutzen. Zwar könnte man bei großen Sprachmodellen wie ChatGPT davon sprechen, dass sie sich durch die enorme Anzahl an verarbeiteten Texten Weltwissen angeeignet haben. Doch auch ihnen fehlt der vieldimensionale Bezug zur Welt, weil sie im Gegensatz zum Menschen keine verkörperten Intelligenzen sind: Sie können nicht physisch mit der realen Welt interagieren und auch nur sehr eingeschränkt Sinneseindrücke sammeln. Während also ein Mensch sowohl Auto fahren als auch wissenschaftliche Erkenntnisse gewinnen kann, ist dies für KIs momentan noch eine Herausforderung.
Mario Krenn bewertet die Fähigkeiten von KI als Wissenschaftlerin aktuell so: „Wir sind jetzt auf dem Niveau, auf dem wir Ideen erzeugen können. Und bei bestimmten Themen können unsere KI-Systeme bereits vollkommen neue Lösungen für wissenschaftliche Fragestellungen finden!“ Für die Zukunft ist er optimistisch und hofft, dass die KI ihre menschlichen Kolleginnen und Kollegen auf der Suche nach neuen Erkenntnissen bald kräftig unterstützt.
Abbildungshinweise:
Titelbild: © istockphoto.com / berya113
Abb. A: © DLR (CC BY-NC-ND 3.0), Pascal Deynat/Odontobase (CC BY-SA 3.0), MPG (CC BY-NC-SA 4.0)
Abb. B: © Verändert nach: Gu & Krenn (2024): Generation and human-expert evaluation of interesting research ideas using knowledge graphs and large language models; OpenReview.net / CC BY 4.0
Abb. C: © MPG
Der Text wird unter CC BY-NC-SA 4.0 veröffentlicht.
TECHMAX Ausgabe 39, August 2025; Text: Dr. Andreas Merian; Redaktion: Dr. Tanja Fendt
Zwei Podcast-Folgen beleuchten verschiedene Aspekte zum Einsatz künstlicher Intelligenz in der Medizin.
KI und bildgebende Verfahren
Zum Podcast (28 min) vom 9. Juli 2025 © detektor.fm / Max-Planck-Gesellschaft
Themen: Deep Learning // Explainable Artificial Intelligence // Auswertung von MRT-Bildern mit KI
KI in der Biomedizin
Zum Podcast (35 min) vom 12. Juni 2025 © detektor.fm / Max-Planck-Gesellschaft
Themen: Ethische Fragen beim Einsatz von KI im Gesundheitswesen // Oszillierende Neuronale Netze // KI hilft bei der Berechnung von biologischen Abläufen
Oben links: Klassisches Polyethylen mit einer reinen Kohlenwasserstoffkette. Rechts: PE-artiger Polyester mit „Sollbruchstellen“.
Unten: Ein PE-artiger Polyester, in diesem Beispiel Polyester-2,18 mit Ethylenglykol als Co-Monomer, wird in Wasser oder Alkohol zwischen 150 – 180°C für wenige Stunden erhitzt. Da langkettige Dicarbonsäuren hervorragend kristallisieren und sich Glykol gut destillieren lässt, werden die Edukte bei voller Qualität in nahezu quantitativer Ausbeute zurückerhalten.
© M. Häußler, MPI für Kolloid- und Grenzflächenforschung / CC BY-NC-SA 4.0
Testkörper werden eingespannt und mit einer Kraftmesszelle langsam gestreckt, bis sie reißen. Die dabei aufgenommene Spannungs-Dehnungs-Kurve gibt Aufschlüsse über die Materialbeschaffenheit.
© M. Häußler, MPI für Kolloid- und Grenzflächenforschung / CC BY-NC-SA 4.0
Durch Bioraffination von Pflanzenölen entsteht 1,18-Octadecandicarbonsäure, die teilweise zu 1,18-Octadecandiol reduziert wird. Die Alkohol- und Säureendgruppen der Monomere reagieren unter Veresterung miteinander. Da jedes Molekül zwei Endgruppen besitzt, wiederholt sich die Veresterung vielfach. Diese Polykondensation führt unter Abspaltung von Wasser zur Bildung des Polyesters-18,18.
© M. Häußler, MPI für Kolloid- und Grenzflächenforschung / CC BY-NC-SA 4.0
Der Bedarf an Kunststoffen wird sich bis 2050 verdoppeln. Doch noch immer werden über 90% davon aus Erdöl hergestellt – rechnet man den Altkunststoff mit ein. Allein durch die Produktion von Plastik wurden etwa im Jahr 2019 bereits 2,24 Gigatonnen CO2 freigesetzt – so viel wie durch 600 Kohlekraftwerke. Will Europa klimaneutral werden, bedarf es dringend neuer Kunststoffe, die sich ohne Qualitätsverlust in einem geschlossenen Kreislauf aus Produktion und Recycling halten lassen. Dafür entwickelt Manuel Häußler am Max-Planck-Institut für Kolloid- und Grenzflächenforschung einen vielversprechenden Ansatz.
Es begann im Jahr 1907 mit Bakelit. Bald folgten Polyvinylchlorid, Polyamid, Polyethylen, Teflon, Polystyrol, Polyurethan, Polyacrylnitril, Polypropylen und andere. Während die erste Hälfte des 20. Jahrhunderts noch ganz im Zeichen der Entwicklung von Polymeren stand, wuchs nach 1950 deren weltweite Produktion geradezu exponentiell. Rund 414 Millionen Tonnen waren es im Jahr 2023 – Tendenz weiter steigend. Kein Wunder, denn unzählige Produkte für Haushalt, Arbeitswelt und Freizeit wurden durch Kunststoffe erst möglich. Ob in der Medizin, bei Verpackungsmitteln, in Handwerk, Automobilindustrie, Elektronik oder Textilherstellung – kaum ein Bereich, in dem kein Plastik eingesetzt wird. Kein anderes Material ist so leicht, robust, wasserabweisend, vielfältig – und vor allem so preiswert! Je nach chemischer Zusammensetzung können Polymere hart oder weich sein, elastisch, transparent, isolierend, korrosions- und chemikalienbeständig. Holz, Metall, Keramik oder Glas können, was die vielfältige Performance betrifft, bei weitem nicht mithalten.
Durch Verwendung unterschiedlicher Monomere lassen sich die Eigenschaften von Kunststoffen maßschneidern. „Miniatur-LEGO“ nennt es Manuel Häußler. Doch mittlerweile sind die meisten dieser Polymer-Rezepte mehr als 70 Jahre alt. Kann das molekulare Design noch den heutigen Ansprüchen genügen? „Ganz klar nein, denn damals hat man das Recycling nicht mitbedacht“, sagt Häußler. Und so wachsen nicht nur stetig Bedarf und Produktion – sondern auch der Müll. Im Jahr 2023 fielen in Deutschland 5,58 Millionen Tonnen Kunststoffabfälle von gewerblichen und privaten Endverbrauchern an (Abb. A). Das sind fast 66 kg pro Person. 36 kg davon sind nur Verpackungsmüll – etwa die Hälfte des Körpergewichts eines Erwachsenen! Die gute Nachricht: Sehr wenig Plastik landet in Deutschland heute noch auf Deponien. Doch nicht einmal ein Prozent ist Teil eines echten geschlossenen Kreislaufs, ohne jegliche Qualitätsverluste. „Aber genau da müssen wir hin – und zwar mit jeder Art von Kunststoff“, betont Manuel Häußler.
Abb. A: Kunststoffabfälle in Deutschland. Mehr als die Hälfte der Kunststoffabfälle wurde im Jahr 2023 verbrannt – in speziellen Industriekraftwerken als Ersatzbrennstoff oder in Müllverbrennungsanlagen. Mit insgesamt 35,4% stofflicher Verwertung erreichte Deutschland eine der höchsten Raten in Europa.
© Quelle Zahlen: Conversio, Stoffstrombild Kunststoffe in Deutschland 2023, 2024; Grafik: HNBM
Polyethylen (PE) ist der am meisten verwendete Kunststoff überhaupt. Durch Zusatz von Prozesshilfen, Farbstoffen oder anderen Additiven lassen sich PE-Produkte in fast beliebiger Konsistenz, Optik und Größe herstellen. HDPE (High Density PE) ist wegen seiner hohen Dichte extrem robust und deshalb ideal für Flaschen, Verschlüsse, Kanister oder Fässer. Die flexiblere LDPE-Variante eignet sich für Folien, Tragetaschen oder Säcke. LDPE (Low Density PE) wird durch radikalische Polymerisation, HDPE durch katalytische Insertionspolymerisation von Ethylen hergestellt. Beide PE-Varianten bestehen jeweils aus sehr langen Kohlenwasserstoffketten (C2H4)n, man könnte sagen, es ist „schnittfestes Erdöl“. Und in diesen Ketten steckt das große Manko von PE. Denn einmal verknäult und im Spritzgussverfahren zu einer Plastiktüte oder -schale geformt, bieten sie Enzymen keinerlei Angriffspunkte, sind deshalb für Mikroorganismen unverdaulich. Gelangt Plastikmüll in die Umwelt, zerfällt er durch Einfluss von UV-Strahlung und Sauerstoff nur unendlich langsam in Mikro- und schließlich Nanoplastik. Aber er bleibt was er war – Plastik.
Zumindest in Deutschland wird Plastikmüll in großen Mengen in gelben Säcken und Tonnen gesammelt. In Sortieranlagen wird er geschreddert und etwa 20 verschiedene Kunststoffsorten können daraus einigermaßen sortenrein getrennt, und neu eingeschmolzen werden. Genau hier liegt aber auch das Problem: Selbst wenn die Sortierung nach Kunststoffsorten perfekt abläuft, so unterscheiden sich die einzelnen Plastikobjekte dennoch in ihrer Additivierung – beispielsweise gibt es erhebliche Unterschiede zwischen PE für technische Anwendungen und Lebensmittelverpackungen. Die Additive und Farbstoffe lassen sich beim mechanischen Recycling nicht abtrennen, aus einer blauen Weichspülerflasche kann also nie mehr eine weiße werden. Hinzu kommt die natürliche Materialalterung, welche die Polymerketten durch UV-Licht und Sauerstoff langsam aber sicher verändert und die Qualität reduziert. „Damit perfekte neue Produkte daraus entstehen, wird das Rezyklat mit viel frisch hergestelltem Kunststoff gemischt, quasi ’verdünnt‘, wofür erneut Erdöl eingesetzt werden muss“, erklärt Häußler. Und das ist keine nachhaltige Lösung. Eine Alternative für das mechanische Recycling ist das chemische Recycling. Dabei werden die Polymerketten wieder zu kleinen Molekülen gespalten, welche sich viel besser auftrennen und reinigen lassen. Das ist bei klassischen Polymeren wie PE aber sehr energieaufwändig: Um die stabilen Polymerketten zu spalten, muss das Material auf bis zu 700 °C erhitzt werden. Dabei entsteht eine komplexe Mischung, sogenanntes Pyrolyseöl, das dem ursprünglichen Erdöl ähnelt, und dadurch erst wieder die petrochemische Aufreinigung durchlaufen muss.
Manuel Häußler forscht an einem Ersatzstoff für Polyethylen. Sein Ziel: Nur noch einen Monomertyp für viele verschiedene Polymerqualitäten einzusetzen, die sich alle gemeinsam recyceln lassen. Dahinter stehen folgende Überlegungen: Polyethylene ähneln natürlichen Fettsäuren, die typischerweise zwölf oder mehr Kohlenstoffatome besitzen. Oxidiert zu Dicarbonsäuren (DCAs) wären sie perfekt, um etwa mit Diolen durch Polykondensation zu PE-artigen Polymerketten verestert zu werden. Wenn es gelänge, damit vergleichbare Kettenlängen aufzubauen wie beim klassischen PE, müssten auch die Eigenschaften ähnlich sein. Anders als Polyethylen ließen sich diese Kunststoffe aber nach Gebrauch einfach hydrolisieren und die langkettigen kohlenstoffreichen Monomere in den Kreislauf zurückführen. Gedacht, getan: Als Rohstoff setzte Häußlers Team Pflanzenöl ein, das großtechnisch raffiniert wurde, um damit 1,18-Octadecandisäure herzustellen. Aus dieser entsteht durch Veresterung mit einem langkettigen 1,18-Octadecandiol und anschließender Polykondensation der Polyester-18,18 (Abb. B).
Abb. B: Herstellung von Polyester-18,18. Durch Bioraffination von Pflanzenölen entsteht 1,18-Octadecandicarbonsäure, die teilweise zu 1,18-Octadecandiol reduziert wird. Die Alkohol- und Säureendgruppen der Monomere reagieren unter Veresterung miteinander. Da jedes Molekül zwei Endgruppen besitzt, wiederholt sich die Veresterung vielfach. Diese Polykondensation führt unter Abspaltung von Wasser zur Bildung des Polyesters-18,18.
© M. Häußler, MPI für Kolloid- und Grenzflächenforschung / CC BY-NC-SA 4.0
Der Kunststoff besteht aus cremeweißen Pellets, die sich – typisch für Plastik – vielseitig verarbeiten lassen. Im Spritzgussverfahren und mittels 3D-Druck stellte Häußlers Team daraus unter anderem mechanische Teststäbchen, aber auch komplexere Objekte wie Smartphone-Hüllen oder hitzestabile Espressotassen her. Inzwischen nimmt das Forschungsteam als Rohstoff buchstäblich Müll: Kleingehäckselte, auch minderwertige Kunststoffabfälle und Lebensmittelreste werden oxidiert und dann mithilfe bestimmter Hefen zu langkettigen Dicarbonsäuren fermentiert. Denn die Verwendung von Pflanzenölen ist zwar nachhaltig, aber auch kritisch zu sehen, weil sie als Speiseöle der Welternährung dienen.
„Die thermischen und mechanischen Eigenschaften des Polyesters-18,18 sind HDPE verblüffend ähnlich“, sagt Häußler. Speziell, was Verformbarkeit, Zugfestigkeit und Kristallinität angeht (Abb. C). Auch die Kettenlängen sind vergleichbar. „Das Material ist semikristallin und hat 50% bis 70% sich wiederholende, regelmäßige Kristallstrukturen.“ Die Eigenschaften des neuen Materials lassen sich über die Kettenlängen der Monomere gezielt steuern: Je länger die Alkanketten zwischen den Estergruppen, desto robuster wird das spätere Produkt: Es wird kristalliner, steifer, zugfester und auch härter. „Irgendwann, etwas jenseits von C30, verhält es sich wie ein klassisches Polyethylen und die Abbaubarkeit sinkt wieder deutlich“, erklärt der Forscher. Die Kettenlänge muss also gut austariert werden, damit der Nachhaltigkeitsvorteil nicht verloren geht.
Abb. C: Polymere im Test. Testkörper werden eingespannt und mit einer Kraftmesszelle langsam gestreckt, bis sie reißen. Die dabei aufgenommene Spannungs-Dehnungs-Kurve gibt Aufschlüsse über die Materialbeschaffenheit.
© M. Häußler, MPI für Kolloid- und Grenzflächenforschung / CC BY-NC-SA 4.0
Die Monomere können entweder sortenrein oder in bestimmten Mischungsverhältnissen eingesetzt werden. Ändert man die Verbindungsstellen, etwa indem auch Diamine verwendet werden und damit zufällig die eine oder andere Estergruppe durch eine Amidgruppe ausgetauscht wird, entstehen viele weitere Kombinationsmöglichkeiten. „Wir spielen ganz bewusst mit dem Einbringen von Heteroatomen. Man kann auch die Bildung von Wasserstoffbrücken fördern. Oder Seitenketten als Kristallisations-Brecher mit ins Spiel bringen, wodurch das Material weicher wird“, sagt er Chemiker. Nach Gebrauch könnten diese Kunststoffe prinzipiell in die gelbe Tonne, denn ihre Nah-Infrarotsignatur unterscheidet sich ausreichend von den anderen gut trennbaren Kunststoffen. In Sortieranlagen werden sie nach Schreddern des Plastikmülls von entsprechenden Sensoren erkannt und per Luftstoß aussortiert. „Das wird aber nicht gleich am Anfang passieren“, schätzt Manuel Häußler, „denn es lohnt sich nicht, eine Sortieranlage, durch die pro Jahr 100.000 Tonnen Kunststoff laufen, für anfangs nur wenige Tonnen neuen Kunststoff umzubauen.“ Ein entscheidender Vorteil: Gelangen die neuen Polymere in die Umwelt, kann daraus kein schädliches Mikroplastik entstehen, da sich schnell Biofilme aus verschiedensten Mikroben bilden, deren Enzyme die Ester spalten. Die freigesetzten Monomere werden von Bakterien und Pilzen dann in kurzer Zeit verstoffwechselt, weil die Dicarbonsäuren wie natürliche Fettsäuren abgebaut werden können. Trotzdem will er nicht, dass seine Kunststoffe in die Umwelt gelangen. „Ihr Charme liegt ja darin, dass sie vollständig und ohne Qualitätsverlust recycelbar sind“, sagt der Forscher.
Anders als PE mit seiner reinen Kohlenwasserstoffkette besitzen die langkettigen PE-artigen Polyester klar definierte „Sollbruch stellen“ – die Estergruppen – die das Polymer vollständig rezyklierbar machen. Ein weiterer Vorteil: Es lässt sich unter milden Bedingungen depolymerisieren (Kasten). Farbstoffe und weitere Additive können bei der Depolymerisation auch leicht abgetrennt werden und das Monomergemisch lässt sich im Prinzip sofort erneut verwenden und verestern. „Im Grunde zirkulieren wir zwischen Herstellung und Recycling lediglich ein Äquivalent Wasser: Bei der Esterbildung wird es entzogen – bei der Spaltung verbraucht“, sagt Häußler. Nirgendwo entsteht CO2.
In fünf bis zehn Jahren, denkt Häußler, sollte die neue Kunststoffklasse für Massenanwendungen marktreif sein – für Spezialanwendungen sogar schon viel früher. Den Anfang werden wohl High-Performance-Produkte wie Gegenstände aus dem 3D-Drucker machen. Bei deren Herstellung fällt bislang sehr viel Abfall an, weil die Materialien bei der Verarbeitung stets an Qualität verlieren. Druckerreste der neuen Polyester können hingegen nach dem solvolytischen Recycling ohne Qualitätsverlust wieder zum Drucken verwendet werden. „Auf längere Sicht werden es sicher auch diverse Verpackungsmaterialien oder Haushaltsprodukte sein, die über die Gelbe Tonne gesammelt werden können“, sagt der Chemiker. Aktuell spielen die Forschenden mit den Rezepturen, um die Anwendungsmöglichkeiten des PE-Ersatzes auszuloten (Abb. D).
Abb. D: Verschiedene Produkte aus PE-artigem Polyester.
© M. Häußler, MPI für Kolloid- und Grenzflächenforschung
Um zukunftsfähig zu sein, müssen neue Kunststoffe aus Häußlers Sicht vier Kriterien erfüllen: „Erstens: Herstellung aus unkritischen Rohstoffen. Zweitens: Vielseitigkeit in der Anwendung. Drittens: Abbaubarkeit in der Umwelt zur Vermeidung von Mikroplastik. Und viertens: vollständige Rezyklierbarkeit.“ Alle bisherigen Ansätze scheitern mindestens an einem Kriterium. Die PE-Alternativen erfüllen hingegen alle Kriterien in einem molekularen Konzept und erreichen dabei die Leistung herkömmlicher Kunststoffe. DCA-basierte Polymere haben das Potenzial für vielfältige High-Performance-Produkte – und damit für eine Plattformtechnologie. „Das ist auch die Voraus-setzung für den Markterfolg. Für tausende Produkte auch tausende verschiedene nachhaltige Polymertypen zu entwickeln, wäre völlig unrentabel“, betont Häußler. Werden wir dann bald in einer PE-freien Welt leben? Manuel Häußler ist vorsichtig: Im Moment seien die bestehenden Produktionskapazitäten für herkömmliche Kunststoffe einfach zu groß. Warum sollte die Industrie sie stilllegen? „Aber vielleicht schaffen wir es bis 2050, zumindest keine neuen erdölbasierten Produktionsanlagen mehr auf zubauen“, sagt er.
Abbildungshinweise:
Titelbild: © HNBM
Abb. A: © Quelle Zahlen: Conversio, Stoffstrombild Kunststoffe in Deutschland 2023, 2024; Grafik: HNBM
Abb. B: © M. Häußler, MPI für Kolloid- und Grenzflächenforschung / CC BY-NC-SA 4.0
Abb. C: © M. Häußler, MPI für Kolloid- und Grenzflächenforschung / CC BY-NC-SA 4.0
Abb. D: © M. Häußler, MPI für Kolloid- und Grenzflächenforschung
Kasten: © M. Häußler, MPI für Kolloid- und Grenzflächenforschung / CC BY-NC-SA 4.0
Der Text wird unter CC BY-NC-SA 4.0 veröffentlicht.
TECHMAX Ausgabe 38, Juli 2025; Text: Dr. Catarina Pietschmann; Redaktion: Dr. Tanja Fendt
Wenn es um Maßnahmen gegen den Klimawandel geht, stehen häufig technische Lösungen im Vordergrund: Maschinen, die CO₂ aus der Luft filtern, spezielle Baustoffe oder Speicheranlagen. Dabei gerät leicht aus dem Blick, dass die Natur selbst eine starke Verbündete im Kampf gegen den Klimawandel sein kann. Wälder, Moore und Ozeane nehmen seit Millionen von Jahren Kohlenstoffdioxid auf – und könnten auch jetzt eine zentrale Rolle im Kampf gegen die Erderwärmung spielen. Sönke Zaehle vom Max-Planck-Institut für Biogeochemie spricht mit Wissenschaftsjournalistin Alice Lanzke darüber, warum diese Senken so wichtig sind, wie sie sich verändern und was für ihren Schutz nötig ist.
Audiodatei | 20 min, Juni 2025
© MPG / CC BY-NC-ND 4.0
Inhalt: Forschende sind auf der Suche nach individuellen Therapien und neuen Medikamenten bei Depressionen.
Einem Forschungsteam am Max-Planck-Institut für Multidisziplinäre Naturwissenschaften ist es erstmals gelungen, den gesamten Prozess des Eisprungs in Follikeln einer Maus zu filmen. Was bedeutet das für die Fruchtbarkeitsforschung?
Themen im Podcast
Grundlagen Menstruationszyklus (min 0:56)
Was passiert beim Eisprung? (min 2:28)
Wie entstand der Film zum Eisprung in Folliken der Maus? (min 2:58)
Neue Erkenntnisse zum Eisprung (min 6:37)
Übertragung auf den Menschen (min 8:37)
Bedeutung der Erkenntnisse, weiterführende Forschungsfragen (min 10:00)
Zum Podcast (13 min) vom 8. Mai 2025 © detektor.fm / Max-Planck-Gesellschaft
Hintergrundinfos und Video (Eisprung)
Foto: © Christopher Thomas, Tabea Lilian Marx et al./ MPI für Multidisziplinäre Naturwissenschaften
„Ich bin total im Stress!“ – wer hat das nicht schon oft gehört. Ob in Schule, Studium oder Beruf: Lernstress vor Prüfungen, Termindruck im Job und manchmal sogar Freizeitstress, wenn man sich unter der Woche zu viel vorgenommen hat. Stress hat in unserer Gesellschaft ein ausgesprochen schlechtes Image. Zu Recht? „Ohne Stress wäre unser Leben ziemlich langweilig“, sagt der Biologe Mathias V. Schmidt vom Max-Planck-Institut für Psychiatrie in München. „Wir könnten unseren Alltag gar nicht bewältigen, wenn es keinen Stress gäbe und wir kein funktionierendes Stresssystem hätten.“
Stress ist also per se nichts Negatives. Das Stresshormon Cortisol etwa hilft uns dabei, morgens überhaupt aufstehen zu können – zu diesem Zeitpunkt ist die Cortisol-Konzentration im Blut erhöht. Sie sorgt dafür, dass wir mit Energie in den Tag starten. Abends sinkt sie wieder, damit wir zur Ruhe kommen. „Im Grunde helfen uns Stressreaktionen dabei, die ganz normalen Herausforderungen des Alltags zu bewältigen. Stress gehört zum Leben dazu“, sagt Mathias V. Schmidt. Problematisch wird es, wenn wir zu viel Stress haben – und zwar in Bezug auf Intensität und Dauer (Abb. A). Hält Stress zu lange an, kann unser Stoffwechsel nicht mehr in den Normalzustand zurückkehren. Ein solcher Dauerstress kann krank machen und psychische Erkrankungen wie zum Beispiel Depressionen auslösen. Auch besonders intensiver Stress, etwa durch traumatische Erlebnisse, kann zu solchen Erkrankungen führen. Mathias V. Schmidt untersucht unter anderem an Mäusen, wie verschiedene Arten von Stress auf Säugetiere wirken. Mäuse sind dafür gut geeignet, weil ihr Stresshormon-System und die Rezeptoren – die Andockstellen für Stresshormone in ihrem Gehirn – denen des Menschen sehr ähnlich sind. In seiner Forschung hat der Biologe unter anderem herausgefunden, dass sozialer Stress bei Mäusen einer der stärksten Stressoren überhaupt ist.
Abb. A: Ursachen von Stress. Auszug einer Befragung von volljährigen Personen in Deutschland im Frühjahr 2021: Große Stressfaktoren sind – wie schon vor der Corona-Pandemie – das Pensum an Anforderungen von Schule, Studium und Beruf sowie hohe Ansprüche an sich selbst. Stark an Bedeutung gewonnen hat durch die Pandemie die Sorge um erkrankte Nahestehende. Weitere Ursachen siehe Quelle.
© Quelle Zahlen: Techniker Krankenkasse (TK-Stressstudie, 2021); Grafik: HNBM
Sozialer Stress macht Mäuse vor allem dann krank, wenn er sich nicht kontrollieren lässt und unerwartet auftritt. Experimente lassen sich zum Beispiel so konstruieren, dass eine Maus bei Auseinandersetzungen immer verliert. Experten sprechen von „social defeat“ – „sozialer Niederlage“. Eine solche Maus entwickelt zwar keine Depression, zeigt aber krankhafte Veränderungen. So kann sie zum Beispiel apathisch oder fettleibig werden. Diese Ergebnisse seien auf den Menschen übertragbar, betont Schmidt: „Auch beim Menschen wirkt vor allem jener Stress besonders stark, der unkontrollierbar und unberechenbar ist, zum Beispiel bei Mobbing, das Menschen auf Dauer krank machen kann.“ Ein anderes Beispiel sei die Corona-Pandemie gewesen. Zu Beginn der Pandemie im Frühjahr 2020 war noch unklar, wie gefährlich der Erreger ist und wie man sich wirkungsvoll dagegen schützen kann. Die Menschen fühlten sich ständig einer unberechenbaren Gefahr ausgesetzt. „Durch diesen chronischen Stress hat die Zahl depressiver Symptome damals messbar zugenommen“, erklärt der Max-Planck-Forscher (Abb. B). Als dann die ersten Impfstoffe auf den Markt kamen und klar wurde, wie man sich schützen kann, nahm der Stress wieder ab. „Kontrollierbaren Stress können wir Menschen deutlich besser bewältigen.“ Prüfungsstress kann man beispielsweise minimieren, indem man frühzeitig beginnt, den Lernstoff in kleine Einheiten aufteilt und einen Zeitplan erstellt. Durch Simulieren der Prüfungssituation gewinnt man an Sicherheit. Zu bedenken ist aber auch, dass jeder Mensch anders auf Stressoren reagiert“, so der Wissenschaftler.
Abb. B: Mögliche Folgen von unkontrollierbarem Stress. Globale Prävalenz von schweren depressiven Störungen vor und während der COVID-19-Pandemie nach Alter und Geschlecht.
© Quelle: Lancet 2021; 398: 1700–12, Fig. 1 (Auszug); https://doi.org/ 10.1016/S0140-6736(21)02143-7 / CC BY 4.0
Anhaltender, unkontrollierbarer Stress und traumatische „Stresserlebnisse“ können also zu einer Depression führen. Welche Mechanismen dahinterstecken und welche Veränderungen im Stoffwechsel Depressionen auslösen, hat man bisher aber nur zum Teil verstanden. Vor 50 Jahren gingen Fachleute noch davon aus, dass Depressionen einzelne, klare Auslöser hätten. Gemäß dieser Vorstellung habe die Erkrankung ihre Ursache in veränderten biochemischen „Pfaden“ (engl. pathways), also einzelnen, klar umrissenen Stoffwechselwegen. Inzwischen ist die Forschung deutlich weiter: Tatsächlich können Depressionen viele verschiedene biologische Auslöser haben. Etwa ein Drittel des Risikos, an einer Depression zu erkranken, ist auch genetisch bedingt – Genomanalysen von Menschen mit Depressionen haben gezeigt, dass viele Gene an der Entstehung einer Depression beteiligt sind. Dieses genetische Risiko spielt mit den Risiken durch Stress zusammen, und könnte zum Teil erklären, warum Menschen resilient oder weniger resilient gegenüber Stresserfahrungen sind.
Ein Forschungsteam am Max-Planck-Institut für Psychiatrie ist genau dieser Frage nachgegangen, welche genetischen Varianten an der Reaktion auf Stress und dem Risiko, eine psychiatrische Störung zu entwickeln, beteiligt sein könnten. Dazu nutzten sie eine Substanz namens Dexamethason, die ähnlich wirkt wie das Stresshormon Cortisol und ebenso wie dieses eine molekulare und zelluläre Antwort, beginnend auf der Ebene der DNA, auslöst. Das Team untersuchte Zellen, die besonders empfindlich auf Stress reagieren. Dabei fanden sie über 500 Stellen im Erbgut (sog. Loci), die Reaktionen auf Stress zeigten, sowie 79 genetische Varianten, die die Expression von Genen und somit die molekulare Antwort auf Stress nur bei Behandlung mit Dexamethason beeinflussten. Diese Varianten stehen, wie große internationale Studien gezeigt haben, auch im Zusammenhang mit dem Risiko, eine psychiatrische Störung zu entwickeln.
Um herauszufinden, wie die Kombination der Varianten dieses Risiko beeinflusst, unterzog das Forschungsteam die Teilnehmenden der Studie einer Stressaufgabe. Dabei zeigte sich, dass eine höhere Anzahl dieser „stressreaktiven“ Genvarianten mit einem Anstieg des Cortisolspiegels bei den entsprechenden Probanden verbunden war. Dieser Unterschied wurde vor der Stressaufgabe nicht beobachtet, was heißt, dass diese Varianten nur in Stresssituationen von Bedeutung waren. Personen mit vielen dieser Genvarianten konnten ihr Stresshormon-System nach der Aufgabe nicht wieder schnell normalisieren und waren dadurch „unnötig“ lange gestresst. So zeigte ein weiterer Test, dass Personen mit mehr Risikovarianten bei Erschrecken intensiver reagierten und sich die Stärke der Schreckreaktion auch nach Wiederholen des Schreckreizes noch erhöhte. „Dabei hätte man eigentlich ein verringerte Reaktionen durch Gewöhnung erwartet“, erklärt Elisabeth Binder, Direktorin am Max-Planck-Institut für Psychiatrie.
„Die Genetik hat also einen Einfluss auf die Empfindlichkeit unserer Reaktion auf Stress. Der molekulare Mechanismus könnte erklären, warum belastende Lebensereignisse mal mehr oder weniger mit psychiatrischen Störungen korrelieren“, fasst Binder die Ergebnisse zusammen. Diese Erkenntnisse seien wichtig für die Vorhersage, welche Menschen ein höheres Risiko haben, als Reaktion auf Stress psychiatrische Störungen zu entwickeln, so die Forscherin weiter. Das könnte helfen, frühzeitig Hilfen anzubieten, um die Entwicklung von psychiatrischen Störungen zu vermeiden.
In zahlreichen Forschungsprojekten wird nach neuen Therapieansätzen für psychiatrische Störungen gesucht. Im Fokus der Untersuchungen steht dabei jenes Stresshormon-System, das unsere Anpassung an Stresssituationen koordiniert, die sogenannte Hypothalamus-Hypophysen-Nebennieren-Achse (HPA-Achse). Eine wichtige Schaltstelle in diesem System ist der Glukokortikoid- Rezeptor. Er kommt in nahezu allen Zellen vor und reguliert dort die Genexpression. Aber erst wenn das Stresshormon Cortisol an den Rezeptor bindet, kann dieser an die entsprechenden Kontrollstellen auf der DNA binden (Abb. C) und so die Transkription und damit die Biosynthese vieler verschiedener Proteine anstoßen, die für die Stressreaktion wichtig sind.
Abb. C: Schaltstelle für Stress. Glucocorticoid-Rezeptor (DNA-Bindungsdomäne), gebunden an einen DNA-Doppelstrang.
© molekuul.be / Adobe Stock
Die Empfindlichkeit des Glukokortikoid-Rezeptors gegenüber Cortisol wird durch eine Reihe von Molekülen, sogenannte Chaperone und Co-Chaperone moduliert. Chaperone beeinflussen die Aktivität anderer Proteine, indem sie diese bei der Faltung in ihre dreidimensionale Struktur unterstützen. Sie sind in verschiedenen Zelltypen und bei verschiedenen Proteinen aktiv. Das Chaperon mit dem Kürzel FKBP51 ist von besonderem Interesse, denn es setzt die Cortisol-Bindefähigkeit des Glukokortikoid-Rezeptors herab. Auf diese Weise sorgt es dafür, dass die Stressreaktion des Körpers wieder heruntergefahren wird, wenn der äußere Stress nachlässt, eine bedrohliche Situation beispielsweise vorüber ist. Das ist ein ganz natürlicher und wichtiger Mechanismus. Genomanalysen bei Menschen mit Stress-bedingten psychiatrischen Erkrankungen, wie der posttraumatischen Belastungsstörung (PTBS) und Depressionen, haben gezeigt, dass bei manchen von ihnen Veränderungen an genau jenem Gen vorliegen, das für das Chaperon FKBP51 kodiert. Möglicherweise wird FKBP51 deshalb vermehrt synthetisiert und dämpft den Glukokortikoid-Rezeptor dauerhaft. Das könnte, so die Annahme, bei depressiven Menschen zu Antriebslosigkeit und Niedergeschlagenheit führen. Auch Veränderungen der Interaktionen des Chaperons mit anderen für Nervenzellen wichtigen Proteinen könnten eine Erklärung dafür sein, warum manche Menschen mehr oder weniger stressresistent sind.
Chaperone sind ein hochinteressanter, potenzieller Angriffspunkt (engl. target) für neue Medikamente und damit verbunden die Therapie depressiver Menschen. Derzeit werden erste Chaperon-Antagonisten entwickelt, die die Aktivität der Chaperone oder deren Biosynthese hemmen. Die Herausforderung dabei: Es gibt viele verschiedene Chaperone, die in ganz verschiedenen Zellen und Geweben aktiv sind und die ganz unterschiedliche Stoffwechselreaktionen steuern. Das bedeutet, dass Chaperon-Antagonisten im Körper sehr gezielt in die für die Stressreaktion zuständigen Zellen eingeschleust werden müssten. Wie sich eine solche gezielte Form des „drug delivery“ technisch umsetzen ließe, ist noch Gegenstand der Forschung.
Aber es sind nicht immer die Gene, die dazu führen, dass manche Menschen nach einem traumatischen Erlebnis eine Depression entwickeln, während andere Menschen mit gleicher Erfahrung nicht erkranken. Tatsächlich spielen auch epigenetische Prozesse eine zentrale Rolle: Sie verändern beispielsweise das Muster der Methylgruppen an der DNA und damit die Aktivierbarkeit bestimmter Gene in bestimmten Zellen oder Organen (s. Biomax 23). So prägt die Epigenetik auch unser Stresssystem. Frühkindlicher Stress beispielsweise kann sich langfristig auf die psychische Gesundheit auswirken und das Risiko für die Entwicklung von Angststörungen und einer posttraumatischen Belastungsstörung erhöhen.
„Stress und Trauma in der Kindheit sind ein maßgeblicher Risikofaktor“, betont Elisabeth Binder. So gehen belastende Kindheitserfahrungen mit einem doppelt so hohen Risiko für depressive Störungen und einem 2,7-fach erhöhten Risiko für Angststörungen im Erwachsenenalter einher. Aber: „Ganz ohne Stress kann auch keine Resistenz aufgebaut werden“, betont die Medizinerin. Tatsächlich legt die Stressforschung der vergangenen Jahre nahe, dass Stressresistenz in der frühkindlichen Entwicklung erlernt wird. Durch seine Experimente an Mäusen hat Mathias V. Schmidt herausgefunden, dass es offenbar wichtig ist, in der Kindheit moderaten Stress zu erfahren. „Stresserfahrung ist essenziell, damit die Mäuse „lernen“, mit Stress umzugehen“, sagt Schmidt. Das sei höchstwahrscheinlich auch beim Menschen so. „Wer zum Beispiel überbehütet aufwächst, kann später den Stress, den Konflikte zwangsläufig mit sich bringen, schlechter bewältigen“, so der Forscher.
Dieses „Stress-Lernen“ findet sehr wahrscheinlich ebenfalls zu einem Teil auf der epigenetischen Ebene statt. „Wir gehen heute davon aus, dass das Erlernen von Stress in der frühkindlichen Entwicklung durch die Methylierung gesteuert wird“, sagt der Max-Planck-Forscher. Epigenetische Veränderungen fänden auch an den Histonen statt, jenen Proteinen, um die der DNA-Strang im Zellkern gewickelt ist. Durch Acetylierung der Histone kann die Wicklung verfestigt oder gelockert werden. Auch das beeinflusst, ob bestimmte Gene aktiviert oder unterdrückt werden. Mittlerweile gibt es konkrete Hinweise darauf, dass zahlreiche epigenetische Veränderungen einen Einfluss darauf haben, wie verschiedene Menschen auf Stress reagieren.
Um die Entwicklung psychiatrischer Erkrankungen zu verstehen, müssen somit neben den genetischen Analysen auch die epigenetischen Kodierungen identifiziert werden. Damit tun sich viele neue Wege für Therapien auf. Stress und Depressionen mögen ein komplexes Phänomen sein, doch die jüngsten Erkenntnisse liefern auch viele Ansatzpunkte für neue Medikamente. Schmidt: „Diese Entwicklungen stimmen mich zuversichtlich, dass wir in den nächsten Jahren große Fortschritte beim Verständnis des Stresses und bei der Entwicklung neuer Wirkstoffe gegen Depressionen und andere psychische Erkrankungen machen werden.“
Schau mir in die Augen – Pupillometrie als Diagnoseergänzung
Antriebslosigkeit ist eines der meist beobachteten Symptome der Depression. Ein Forscherteam des Max-Planck-Instituts für Psychiatrie hat herausgefunden, dass die geringere Pupillenreaktion bei Patienten und Patientinnen einen entsprechenden Hinweis darauf liefert. Bei gesunden Menschen erweitern sich die Pupillen bei der Erwartung auf eine Belohnung, wohingegen diese Reaktion bei Personen mit Depressionen weniger aus geprägt ist. Die Pupillenreaktion ist unter anderem ein Marker für die Aktivität im Locus Coeruleus, einer Gehirnstruktur mit der größten Ansammlung noradrenerger Neuronen im zentralen Nervensystem. Sie könnte als ergänzende Methode zur Diagnosestellung eingesetzt werden. Wenn beispielsweise ein Patient starke Beeinträchtigungen in der Pupillenreaktion zeigt, könnten Antidepressiva, die auf das noradrenerge System wirken, effektiver als andere Medikamente sein.
Abbildungshinweise:
Titelbild: © HNBM
Abb. A: © Quelle Zahlen: Techniker Krankenkasse (TK-Stressstudie, 2021); Grafik: HNBM
Abb. B: © Quelle: Lancet 2021; 398: 1700–12, Fig. 1 (Auszug); https://doi.org/ 10.1016/S0140-6736(21)02143-7 / CC BY 4.0
Abb. C: © molekuul.be / Adobe Stock
Abb. im Kasten: © MPI für Psychiatrie
Der Text wird unter CC BY-NC-SA 4.0 veröffentlicht.
BIOMAX Ausgabe 40, April 2025; Text: Christina Beck, Tim Schröder; Redaktion: Tanja Fendt