4. Zu warm, zu hoch, zu sauer Das Meer und der Klimawandel Noch nie war das arktische Eis so dünn Im Arktischen Ozean schmilzt den Eisbären der Lebensraum unter den Tatzen hinweg. Bereits im Sommer 2012 war die Eisfläche auf ein Rekordniveau von weniger als 3,5 Millionen Quadratkilometer zurückgegangen. Im Winter 2015 erreichte das Meereis gerade mal eine Ausdehnung von etwa 14,5 Millionen Quadratkilometern, ein Minusrekord seit Beginn moderner Satellitenaufzeichnungen im Jahre 1973. Die arktischen Packeismassen haben sich innerhalb weniger Jahrzehnte halbiert. Die Arktis könnte bereits im Sommer 2050 mit hoher Wahrscheinlichkeit eisfrei sein. Ende Dezember 2015 erreichte ein Warmluftvorstoß den Nordpol, was zu für diese Jahreszeit außergewöhnlichen Temperaturen um null Grad führte – ein neuer arktischer Hitzerekord. Der Klimawandel macht sich rund um den Nordpol am ehesten bemerkbar, weil mit der Eisschmelze auch die Albedo, das Rückstrahlvermögen der hellen Eisoberfläche, zurückgeht und die Sonnenenergie vom dunklen Meerwasser besser absorbiert wird. Das Wasser erwärmt sich weiter und das Eis schmilzt schneller, ein sich selbst verstärkender Rückkopplungseffekt. Die Meereisdecke schrumpft nicht nur, sie wird auch immer dünner. Dickes, mehrjähriges Eis findet sich seltener. Häufig besteht die Eisdecke aus dünnem, einjährigem Eis, auf dem sich Schmelzwasser großräumig ausbreitet. Die Kryosphäre, in der Wasser in gefrorenem Zustand vorliegt, ist insofern ein gewichtiges „Klimathermometer“ als sie ausgeprägten saisonalen Schwankungen unterliegt, den Energiehaushalt der Erde maßgeblich beeinflusst und der fortschreitenden Erderwärmung ein unverkennbares Gesicht gibt. Während die mittlere Lufttemperatur weltweit seit 1850 (also vor der industriellen Revolution) bis in die Gegenwart (2015) nur um ein einziges Grad Celsius angestiegen ist, übersteigt die bodennahe Lufttemperatur in der Arktis die globale Erwärmung bereits um das Zwei- bis Dreifache. Die aktuellen Klimamodelle können dieses als arktische Verstärkung bezeichnete Phänomen noch nicht korrekt abbilden. Anfang 2016 hat die Deutsche Forschungsgemeinschaft einen Sonderforschungsbereich „Arktische Klimaveränderungen“ eingerichtet, an dem mehrere Forschungsinstitute und Universitäten beteiligt sind, darunter das Leipziger Leibnitz-Institut für Troposphärenforschung und das Alfred-Wegener-Institut für Polar- und Meeresforschung Bremerhaven. Warum das Eis der Arktis so schnell schmilzt und was für Auswirkungen das auf das Wetter in Europa haben dürfte, sind dabei zentrale Fragen, die möglichst präzise beantwortet werden sollen. Mehrere Expeditionen in den Arktischen Ozean mit dem Forschungsschiff „Polarstern“ sind vorgesehen, so im Sommer 2017 bis zur Eiskante am Nordpol. Später soll die „Polarstern“ sogar im Eis einfrieren und 14 Monate lang durch das Eismeer driften. 1 Die Jahre 2014 und 2015 waren die wärmsten seit Beginn der Wetteraufzeichnungen im Jahre 1880, teilte die US-Behörde für Wetter- und Meeresforschung (NOAA) kürzlich mit. Die globalen Jahresmittelwerte der bodennahen Lufttemperaturen lagen um 0,8 ° Celsius über dem Mittel des 20. Jahrhunderts von 13,9 ° Celsius. Hinter den Rekordwerten steht nicht zuletzt eine Erhöhung der Oberflächentemperaturen der Ozeane, die um 0,6 ° Celsius über den Durchschnitt des vergangenen Jahrhunderts angestiegen sind. Die Auswertung der längsten Meeresmessreihe der Welt auf Helgoland hat ergeben, dass die Nordsee in den letzten 50 Jahren um 1,7 ° Celsius wärmer geworden ist. Die globalen Mittelwerte verbergen gravierende Temperaturunterschiede zwischen den polaren, gemäßigten und subtropischen Breiten, zwischen den Kontinenten und Ozeanen, aber auch in regionaler und lokaler Hinsicht. Zu den geographischen kommen die saisonalen Unterschiede im Jahreslauf. Weltweit möglichst gleichmäßig verteilte Messwerte müssen in komplizierten Rechenprozessen gewichtet und zusammengeführt werden, um einen überprüfbaren und damit glaubwürdigen Jahresmittelwert zu erhalten. Werfen wir einen Blick auf die nebenstehenden Grafiken! Die erste Grafik zeigt das Gleitende 12-Monatsmittel der globalen Oberflächentemperatur seit 1880. Genau gesehen ist die Abweichung vom Mittel der Jahre 1951 bis 1980 dargestellt. Gleitend bedeutet, dass nach Ablauf jedes Monats der Mittelwert der jeweils vorausgegangenen zwölf Monate neu berechnet und eingezeichnet wird. So erhält man eine um saisonale Schwankungen bereinigte Größe, die den Klimawandel seit Anfang des 20. Jahrhunderts deutlich erkennbar macht und jedes Jahr fortgeschrieben werden kann. Die zweite Grafik wurde von dem Wissenschaftlertrio Michael Mann, Raymond Bradley und Malcolm Hughes bereits 1998 veröffentlicht und ist als Hockeyschläger-Kurve bekannt geworden. Die Grafik veranschaulicht die Klimaentwicklung über das ganze letzte Jahrtausend, wobei die blau vermerkten Temperaturen der Vergangenheit auf sogenannten Proxies wie Baumringen, Eisbohrkernen, Korallen und historischen Schriften beruhen. Die auf direkten Messungen mit Thermometern basierenden Daten sind in der Grafik rot dargestellt. Während sich die blauen Daten wie ein flacher Schaft eines Hockeyschlägers durch die Jahrhunderte ziehen, weisen die roten Daten aus der Neuzeit wie bei einem Schlägerblatt steil nach oben. Nach Jahrhunderten natürlicher Temperaturvariabilität zeigt sich im 20. Jahrhundert eine gravierende Veränderung im Klimasystem. Die dritte Grafik ist die berühmte Keeling-Kurve. Die von Charles David Keeling 1957 auf dem Vulkan Mauna Loa auf Hawaii gestartete Messreihe dokumentiert den kontinuierlichen Anstieg des Kohlendioxidgehaltes in der Atmosphäre im Verlauf von über fünf Jahrzehnten und gibt zugleich die typischen Konzentrationsschwankungen – das „Atmen“ der Biosphäre – im Jahresrhythmus wieder. Zwischen 1958 und 2015 hat sich der Anteil des Treibhausgases CO2 von 317 ppm auf 400 ppm (Millionstel) erhöht. Das 400-ppm-Niveau ist eine Rekordmarke, die in den letzten zwei Millionen, wenn nicht gar 20 Millionen Jahren der Erdgeschichte nicht überboten worden ist. 2 Trotz seines geringen Anteils von „nur“ 400 Millionstel am Volumen der gesamten Atmosphäre, trägt Kohlendioxid als Treibhausgas am meisten zur globalen Erwärmung bei. Der Treibhauseffekt entsteht dadurch, dass die Lufthülle weitgehend durchlässig für die kurzwellige Sonneneinstrahlung, jedoch wenig durchlässig für die langwellige 3 Infrarotstrahlung ist, die von der warmen Erdoberfläche und der erwärmten Luft zurückgeworfen wird. Die Treibhausgase absorbieren die infraroten Strahlen und erwärmen die Erde wie in einem gläsernen Treibhaus. Ohne den natürlichen Treibhauseffekt läge die mittlere Temperatur der Erde nicht bei lebensfreundlichen 15 ° Celsius, sondern bei recht ungemütlichen -18 ° Celsius. Der menschengemachte Treibhauseffekt, verursacht vor allem durch das Verbrennen fossiler Brennstoffe wie Kohle, Erdöl und Erdgas, verstärkt die Erderwärmung und fördert den Klimawandel. Unsere Zivilisation hat bislang die Atmosphäre Jahr für Jahr um mehr als 10 Gigatonnen Kohlendioxid „bereichert“. Außer dem Kohlendioxid (CO2 ) gelten auch Methan (CH4 ), Lachgas (N2O ) und verschiedene Fluorkohlenwasserstoffe als bedeutsame Klimatreiber. Die eher kurzlebigen Emissionen stammen aus einer Vielzahl von Quellen, etwa Dieselmotoren und Heizkesseln oder aus der Viehhaltung. Fluorkohlenwasserstoffe werden als Kältemittel eingesetzt. Ein klimawirksames Gas ist schließlich auch der Wasserdampf, dessen Konzentration der Mensch allerdings kaum verändern kann. Unvorstellbar große Mengen Wasserdampf verdunsten von den Ozeanen, bewegen sich in der Atmosphäre, kondensieren und fallen als Niederschläge zu Boden. Warme Luft kann mehr Wasserdampf halten, was wiederum die Erwärmung verstärkt. Etwa die Hälfte des in die Atmosphäre emittierten Kohlendioxids gelangt in Form von Kohlensäure in die Weltmeere. Im Gegensatz zum Festland nimmt der Ozean mehr Kohlendioxid auf, als er abgibt. Das Meer gilt deshalb als CO2-Senke, während das Land eine starke CO2-Quelle darstellt. Meerwasser enthält fünfzigmal mehr Kohlenstoff als die Atmosphäre. Die größten Kohlenstoffreservoire – geschätzte 30 Millionen Gigatonnen – befinden sich im Sediment am Meeresboden. Die Veränderung des Weltklimas hat auf das Weltmeer vielfältige Auswirkungen, an vorderer Stelle die Erwärmung des Meerwassers und den damit verbundenen Anstieg des Meeresspiegels. Extremwetterlagen wie tropische Wirbelstürme dürften sich häufen, auch Meeresströmungen könnten sich verändern. Die zunehmende Versauerung des Oberflächenwassers wird den Reichtum des Lebens im Meer beeinträchtigen und die Artenvielfalt vermindern. Die Weltmeere haben eine gewaltige Wärmespeicherkapazität und bunkern mehr Wärme als bisher angenommen wurde. Peter Gleckler und seine Kollegen vom Lawrence Livermore National Laboratory in Kalifornien haben herausgefunden, dass sich die Speicherkapazität der Meere in den vergangenen 150 Jahren wesentlich erhöht hat. Sie nutzten aktuelle Messdaten von Argo-Treibbojen, die seit Anfang der 2000er Jahre überall in den Weltmeeren aus den obersten 2000 Metern Daten sammeln und sehr genaue Temperaturprofile liefern, und verglichen sie mit Tiefsee-Messungen aus den neunziger Jahren und zahlreichen weiteren Daten aus der Vergangenheit bis hin zu den Ergebnissen der ersten ozeanografischen Expedition mit der „Challenger“ 1872 – 1876. Sie konnten nachweisen, dass sich die Wärmeaufnahme in den letzten Jahrzehnten verdoppelt hat, 4 wobei die Tiefsee eine zunehmende Rolle spielt. Offen aber bleibt die Frage, wie viel Wärme das Weltmeer in Zukunft noch aufnehmen kann. Die Empfindlichkeit des Klimas gegenüber Veränderungen im Strahlungshaushalt der Erde, insbesondere der CO2-Konzentration in der Atmosphäre, wird durch die Klimasensitivität beschrieben. Ihre Größe wird in Grad Celsius pro Watt je Quadratmeter bestimmt, meist aber als die Erwärmung der global gemittelten Temperatur der Erde nach einer dauerhaften Verdopplung der CO2-Konzentration von vorindustriellen 280 ppm auf dann 560 ppm angegeben. Seit Entdeckung der wärmenden Wirkung von Kohlendioxid wurden viele verschiedene Werte für die Klimasensitivität publiziert. Als wahrscheinlichster Standardwert gelten 3 ° Celsius – die Unsicherheitsspanne beträgt 1,5 bis 4,5 ° Celsius. Die Klimasensitivität kann leicht mit der prognostizierten Erwärmung bis zum Jahr 2100 verwechselt werden. Obwohl sich die Zahlenwerte ähneln, könnte sich die CO2Konzentration bis zum Ende des Jahrhunderts bereits mehr als verdoppelt haben, andererseits hinkt das Klimasystem wegen der Trägheit der Ozeane in seiner Reaktion hinterher. Ein entscheidender Unterschied – die Erwärmung bis zum Jahr 2100 hängt von den Menschen ab. Bei einem entschlossenen Handeln im Klimaschutz sollte die Erwärmung weniger als 2 ° Celsius betragen. Blasen wir aber weiter viel zu viel Kohlenstoffdioxid in die Luft, könnte sich die Temperatur um 5 ° Celsius und mehr aufheizen. Das Verbrennen aller fossilen Brennstoffe auf der Erde würde zu einer CO2-Konzentration von etwa 1500 ppm führen, wobei sich die Luft über den Kontinenten um die 20 ° Celsius und über den Polen um die 30 ° Celsius erhöhen dürfte. Die Klimasensitivität hingegen ist eine vom Handeln des Menschen unabhängige physikalische Größe. Anfang 2016 stellte das Potsdam-Institut für Klimafolgenforschung eine interessante Studie vor. Der Mensch sei zu einer geologischen Kraft geworden, die die nächste Eiszeit verhindern werde. Die Wissenschaftler vom PIK haben den Code der Eiszeiten geknackt und in dem Verhältnis von Sonneneinstrahlung auf die Erde und der Kohlendioxidkonzentration in der Atmosphäre die Schlüsselfaktoren gefunden, um die letzten acht Eiszyklen der Erdgeschichte zu erklären. Schon eine moderate Störung des natürlichen Kohlenstoffhaushalts durch den Menschen kann die nächste Eiszeit um 100.000 Jahre verschieben. Schon heute bestimmt die Menschheit mit ihren Emissionen aus fossilen Brennstoffen die zukünftige Entwicklung unseres Planeten. Extremwetter auf dem Vormarsch In den letzten Jahrzehnten überschlugen sich die Meldungen zu Unwettern in aller Welt. So war 2005 ein Rekordjahr für verheerende Tropenstürme. Der Hurrikan Katrina überflutete die Stadt New Orleans, kostete über 1800 Menschen das Leben und verursachte einen Schaden von 108 Milliarden US-Dollar. Der Hurrikan Wilma war der intensivste Wirbelsturm, der bis dato im Atlantik registriert wurde. Der Tropensturm Vince entwickelte sich bei 5 Madeira und traf in abgeschwächter Form auf die iberische Halbinsel. 2005 wurden insgesamt 28 Hurrikans registriert. Kaum weniger ungestüm setzte sich die Serie in den Folgejahren fort. Der Hurrikan Sandy, gut 1800 Kilometer breit, wütete 2012 in der Karibik und an der US-Küste bis hin nach New York, forderte 210 Todesopfer und verursachte Schäden von 75 Milliarden US-Dollar. Der Supertaifun Haiyan 2013 war einer der stärksten Wirbelstürme, die seit dem Beginn verlässlicher Wetteraufzeichnungen beobachtet wurden. Mit Windböen von extremen 379 Kilometern pro Stunden richtete der Taifun auf den Philippinen ein Chaos an. 2015 war der Superzyklon Pam einer der mächtigsten je gemessenen Wirbelstürme im Südpazifik. Er traf mit voller Wucht auf den Inselstaat Vanuatu und richtete auch auf den Fidschis, den Salomonen und Kiribati schwere Zerstörungen an. Diese Häufung kann nicht nur Zufall sein. Sind die nie dagewesenen Wetterextreme Folgen des Klimawandels? Im Einzelfall lässt sich die globale Erderwärmung als Ursache nur schwer nachweisen. Zwischen den vielen Einzelereignissen aber wird ein Zusammenhang deutlich. Es geht zu wie bei einem Spiel mit gezinkten Würfeln. Eine Sechs kann es immer mal geben und man weiß nicht, wann es passiert. Häufen sich die Sechsen, wurde der Würfel manipuliert – in unserem Falle Erde und Meer spürbar erwärmt. Die Wetterbedingungen zwischen kalt und warm verteilen sich entlang einer Glockenkurve, die sich bei steigenden Temperaturen langsam nach rechts ins Heiße verschiebt. Die Zahl der kalten Tage verringert sich, während die Zahl der heißen zunimmt. Die Wissenschaft kann heute in vielen Fällen quantitative Aussagen machen und feststellen, inwieweit der vom Menschen ausgelöste Klimawandel die Wahrscheinlichkeit des Eintretens von Extremereignissen beeinflusst hat und welchen Anteil er an den gemessenen Rekordwerten hatte. Die Forscher stützen sich bei ihren Untersuchungen auf drei Pfeiler: elementare Physik, statistische Analyse und Computersimulationen. Warme Luft speichert Energie und mehr Wasser, bis es plötzlich abregnet. In den Temperatur- und Niederschlagsdaten finden sich statistisch klare Trends. Modellrechnungen bestätigen den Zusammenhang zwischen Erwärmung und Rekordwerten bei Temperatur und Niederschlag. 6 Während bei extremen Regenfällen und Hitzewellen ein direkter Zusammenhang erkennbar ist, sollte bei den tropischen Wirbelstürmen, den Hurrikanen, Taifunen und Zyklonen, zwischen Häufigkeit und Intensität unterschieden werden. Bei höheren Wassertemperaturen werden die Tropenstürme zwar stärker, aber nicht notwendigerweise häufiger. Vor dem Hintergrund einer globalen Erwärmung kann aus einem Unwetterereignis rasch ein nie zuvor beobachtetes Rekordereignis werden. Die tropischen Wirbelstürme dürften in Zukunft aller Wahrscheinlichkeit weiter Schlagzeilen machen. Die Ozeane sind wärmer geworden und erreichten 1975 im Durchschnitt 16,7 ° Celsius und waren damit etwa 0,3 ° Celsius wärmer als im Durchschnitt der Jahre 1981 bis 2010. Der Meeresspiegel steigt zwar langsam, aber sicher. Zugleich drängen immer mehr Menschen ans Meer. Die Küstenräume sind durch Sturmfluten und Wirbelstürme besonders gefährdet. Hurrikans schaden oft weniger durch den starken Wind, als vielmehr durch weiträumige Überschwemmungen verbunden mit Starkregen. Das Schadenspotential wird immer größer. Die globale Erwärmung zeigt sich im Meerwasser, an den Küsten, auf dem Festland und in der bewegten Atmosphäre unseres Planeten. Hitzewellen mit einigen Grad über dem langjährigen Durchschnitt plagen auch den Ozean und schädigen seine Ökosysteme. So hatte sich eine ungewöhnlich lang ausdauernde Warmwasserblase vom Winter 2013/2014 bis Ende 2015 über die Wasserfläche des Nordpazifiks ausgebreitet. Aufgrund seiner geringeren Dichte durchmischte sich das warme Oberflächenwasser kaum noch mit dem nährstoffreichen Tiefenwasser. Das führte zu einem Nähstoffmangel für das Phytoplankton, so dass mehrere Arten von Zooplankton und Fischen in kühlere Regionen abwanderten. Neueste Erkenntnisse und Vorhersagen zum Klimawandel belegen, dass der Trend in den polaren Regionen am stärksten ausgeprägt ist, dass die Temperaturunterschiede zwischen den Jahreszeiten abnehmen, während die täglichen Schwankungen zunehmen. Die hohen Breiten rücken bezüglich ihrer Temperaturzyklen näher an den Äquator. Stechmücken, die tropische Krankheiten übertragen können, erobern langsam gemäßigte Breiten. Das Schrumpfen der arktischen Eisfläche beeinflusst den Energieaustausch zwischen Ozean und Atmosphäre. Messdaten zeigen, dass die Höhenwinde der Nordhalbkugel in letzter Zeit um etwa 20 % schwächer geworden sind. Die Höhenwinde wirken auf die zonalen Windsysteme, insbesondere den ostwärts gerichteten polaren Jetstream (Strahlstrom), der große Schleifen nach Norden oder Süden schlägt. Nimmt die Strömung einen Bogen nach Süden, so dringt kalte Luft Richtung Äquator vor, während eine Nordschleife warme Luft zum Pol hin lenkt. Die Schleifen bestimmen die regionalen Wetterlagen und wandern normalerweise mit der Strömung. Die mittleren Breiten erleben dann wechselhaftes Wetter. Werden die zonalen Winde aber schwächer, dann kann der Jetstream zum Stillstand kommen, was langlebige, extreme Großwetterlagen mit Hitze und Trockenheit oder Starkregen mit Überflutungen zur Folge hat. Dahinter versteckt sich ein subtiler Resonanzmechanismus, der stehende 7 planetarische Wellen erzeugt und verstärkt. Seit dem Jahre 2000 sind solche Resonanzereignisse fast doppelt so oft aufgetreten wie zuvor. Parallel dazu hat sich die Arktis doppelt so schnell erwärmt wie der Rest des Planeten. Die regionalen Wetterextreme, seien es nun Hitzewellen oder Rekordregenfälle, dürften in den nächsten Jahren weiter zunehmen. Heftige Hitzeextreme mit Todesfällen, Ernteverlusten und Waldbränden wie 2010 in Russland, 2012 in den USA, 2013 in China und 2015 in Indien und Pakistan oder extremen Regenfällen mit drei Jahrhundertfluten seit 1997 in Deutschland und Rekordregen mit verheerenden Überschwemmungen im Jahr 2010 in Pakistan und in den USA können sich bald wiederholen. Die jährlichen Wärmerekorde der letzten Zeit sind mit einer Wahrscheinlichkeit von 95 Prozent, das heißt offensichtlich, vom Menschen verursacht. Am 21. Juli 2016 wurde in der Wetterstation der Stadt Mitribah in Kuwait ein neuer Weltrekord aufgestellt. Die Temperatur erreichte einen Spitzenwert von 54,0 ° Celsius, eine auch für die hitzegewohnten Anrainer des Persischen Golfs bedrohliche Größe. US-Forscher haben berechnet, dass bei einem ungebremsten Anstieg der Treibhausgase die Sommertemperaturen auf über 60 ° Celsius ansteigen dürften. Selbst für junge und gesunde Menschen wäre das nicht mehr zu ertragen. Die Region am Persischen Golf würde in absehbarer Zukunft unbewohnbar. Mit dem pazifischen Klimaphänomen El Niño hatten wir uns schon im Kapitel „Dynamische Erde und ruhelose See“ befasst. An dieser Stelle wollen wir der Frage nachgehen, inwieweit El Niño Extremwetter befördert und dabei der globale Klimawandel eine Rolle spielt. Das gekoppelte ozeanisch-atmosphärische Zirkulationssystem „El Niño-Southern Oscillation“, kurz ENSO, kann man sich als eine Klimaschaukel vorstellen, die in unregelmäßigen Intervallen von mehreren Jahren zwischen dem warmen El Niño (auch Christkind genannt) und der kalten La Niña (das Mädchen) hin und her schwingt. In den El Niño-Jahren kommt es zu einer ausgeprägten Erwärmung des tropischen Pazifik, die weltweit verheerende Wetterkapriolen auszulösen vermag. Aktuelle Beobachtungen weisen dem aus der Physik wohlbekannten Prinzip der Resonanz bei der Entstehung und Verbreitung der El NiñoSchwingungen eine tragende Rolle zu. Auch wenn das ENSO-Phänomen in seinen Einzelheiten kompliziert ist, sollten künftig verlässliche Vorhersagen möglich werden, um die betroffenen Menschen rechtzeitig auf bevorstehende Extremwetterlagen vorzubereiten. So wurde der jüngste El Niño 2015/16 von Wissenschaftlern über ein Jahr im Voraus mit 75 % Wahrscheinlichkeit angekündigt. Die Vorhersage gelang mit einem neuen Algorithmus, der sich auf eine Netzwerkanalyse der Lufttemperaturen im Pazifikraum stützte. Der El Niño von 2015/16 war zugleich der stärkste aller Zeiten. Und er lag im wärmsten Jahr seit Beginn zuverlässiger Wetteraufzeichnungen. Auch der Super-El-Niño des vergangenen Jahrhunderts 1997/98 wurde knapp überboten. Eine Korrelation zwischen superstarken El 8 Niños und den wärmsten Jahren der letzten Jahrzehnte ist unübersehbar. Extreme El Niños dürften bei ungebremstem Klimawandel häufiger werden. Die Erderwärmung könnte ein immer heftigeres Umschlagen der Wetterlagen von einem Extrem ins andere bewirken. Ein von der Weltbank im Jahre 2014 veröffentlichter Report des Potsdam-Instituts für Klimafolgenforschung untersuchte die soziale Vulnerabilität der Menschen in den vom Klimawandel besonders betroffenen Regionen. Der Bericht zeigt, dass es kaum eine von den Folgen des Klimawandels ausgenommene Region gibt und das Risiko für die Menschen dort am größten ist, wo mehrere Klimafolgen zusammenwirken. Der Bericht verdeutlicht zugleich, dass es vor allem die Armen der Welt trifft, von Lateinamerika und der Karibik über Afrika und den Mittleren Osten bis hin zu Ost- und Zentralasien. Die Ergebnisse geben Anlass zur Sorge: Ernteausfälle, Wasserknappheit, Auswirkungen auf die Gesundheit, Folgen für die Fischerei, für Tourismus und für Küstenschutz, häufige Korallenbleichen. Besonders Entwicklungsländer werden die Klimafolgen zu spüren bekommen und gerade ihnen fehlen die Mittel, um sich darauf einzustellen. Der stetige Anstieg des Meeresspiegels Eine robuste und verlässliche Risikoabschätzung des Meeresspiegelanstiegs in Vergangenheit und Zukunft versprechen zwei Studien, die Anfang des Jahres 2016 in der USFachzeitschrift „Proceedings of the National Academy of Sciences“ veröffentlicht wurden. Die Daten zum zukünftigen Meeresspiegelanstieg sind online frei verfügbar. Die eine Studie beschäftigte sich mit dem Meeresspiegelanstieg in der Zukunft, die andere untersuchte den Meeresspiegelanstieg in der Vergangenheit. Bemerkenswert, beide Studien liefern fast identische Meeresspiegelabschätzungen für das 21. Jahrhundert. Wenn der Ausstoß von Treibhausgasen nicht entschlossen gesenkt wird, dürfte der Meeresspiegel bis zum Ende des Jahrhunderts um 50 bis 130 Zentimeter steigen. Bei einer ambitionierten Klimapolitik wie sie das Pariser Klimaabkommen fordert, sollte der Meeresspiegelanstieg bis zum Jahre 2100 auf 20 bis 60 Zentimeter zu begrenzen sein. Die Aussagen für die Zukunft können nicht auf eine einzelne Zahl herunter gebrochen werden. Sie werden durch eine Unsicherheitsspanne ausgedrückt, eine Risikokalkulation, die vernünftige Einschätzungen zum schlimmsten wie auch zum günstigsten Fall möglich macht. Die Ursachen für das Anschwellen der Meere beruhen erstens auf der Ausdehnung des durch den Klimawandel erwärmten Meerwassers, zweitens auf der Schmelze der Hochgebirgsgletscher wie in den Alpen, in den Anden oder in Tibet und drittens auf dem Schrumpfen der Eisschilde auf Grönland und in der Westantarktis. Die thermische Expansion – die Ausdehnung des Wassers bei Erwärmung – ist ein alltäglicher physikalischer Effekt. In welchem Ausmaß die thermische Expansion zum globalen Meeresanstieg beigetragen hat, wurde bislang wohl unterschätzt. Nach neuen 9 Berechnungen beträgt ihr Anteil etwa drei Millimeter pro Jahr, doppelt so viel wie vorher angenommen. Dazu kommen noch in fast gleicher Höhe Masseverluste der Gletscher und der polaren Eisschilde – das macht zusammen etwa fünf Millimeter pro Jahr. Jüngere Satellitendaten zeigen ebenfalls steigende Tendenz. In den letzten 3000 Jahren ist der Meeresspiegel nie schneller gestiegen als heute. Während zwischen der Erwärmung und der thermischen Expansion des Meerwassers ein einfacher kausaler Zusammenhang besteht, sind die Folgen der Gletscherschmelze schwerer überschaubar. Für Länder wie beispielsweise Peru oder Pakistan werden negative Auswirkungen greifbar. So hat der Klimawandel nördlich der peruanischen Hauptstadt Lima bereits ein Viertel der Gletscher wegschmelzen lassen, die bislang die staubtrockene Region mit dem notwendigen Trinkwasser versorgt haben. Anhaltende Wasserknappheit ist nun die Folge. In Pakistan hat reichlich fließendes Wasser aus den nahen Hochgebirgen das Entstehen einer intensiven Landwirtschaft im Tal des Indus gefördert. Mehrfach wurde das Land schon von schweren Überflutungen heimgesucht. Wenn die Gebirgsgletscher weiter schwinden und die Bewässerung des Industals nicht mehr absichern, könnte auch hier das Wasser knapp werden. Zwei Drittel des Süßwassers der Erde sind in den mächtigen Eisschilden Grönlands und Antarktikas gespeichert. Die von Satelliten aus sichtbare Abschmelzfläche auf Grönland hat sich in den letzten Jahrzehnten um mehr als ein Viertel vergrößert, wobei sich mächtige Eisund Schmelzwasserströme ausbildeten. Je größer der Eisverlust ist, desto mehr sinkt die Eisoberfläche nach unten, wo es wärmer ist und sich der Eisverlust weiter verstärkt. In direktem Kontakt mit dem Meerwasser „kalben“ die Gletscher und schwimmen als Eisberge davon. Die riesigen Eispanzer des antarktischen Kontinents galten dem Klimawandel gegenüber lange wegen ihrer großen Masse und der direkten Lage am kalten Südpol als vergleichsweise stabil. Während auf Grönland die Eisschmelze an der Oberfläche eine wichtige Rolle spielt, ist das langsame Fließen des Eises in den Ozean für Antarktika bedeutsamer. Die vom Festland ins Meer ragenden und aufschwimmenden Eisschelfe reagieren sehr empfindlich, denn sie werden durch relativ warmes Meerwasser von unten aufgeschmolzen. Wenn sich der Untergrund, auf dem das Eis aufliegt, unterhalb der Wasserlinie befindet und gar ins Landesinnere abfällt, kann das zum Kippen des ganzen Systems führen. Von hinten drückt schwerkraftbedingt dickeres Eis nach und es kommt zu weiterem Eisverlust – ein sich selbst verstärkender Mechanismus. Das ewige Eis ist vergänglich. Ein Blick in die geologische Vergangenheit offenbart enorme Schwankungen des Meeresspiegels bei recht geringen Veränderungen des globalen Klimas. Vor 40 Millionen Jahren, im späten Eozän, war die Erde völlig frei von polaren Eiskappen. Die globale Mitteltemperatur lag bei 17 ° Celsius, aber der Meeresspiegel knapp 70 Meter höher als heute. Während des letzten glazialen Maximums vor 20.000 Jahren lag der Meeresspiegel dagegen 120 Meter tiefer und die globale Mitteltemperatur bei nur 10 ° 10 Celsius. Zwischen dem Klimawandel, der globalen Temperatur und dem Meeresspiegel besteht ein erkennbarer Zusammenhang. Als Faustregel kann gelten: Ändert sich die globale Mitteltemperatur nur um 1 °Celsius, so kann der Meeresspiegel langfristig um bis zu 20 Meter steigen oder sinken. Schon heute trägt Antarktika mit fast einem Millimeter zum jährlichen Meeresspiegelanstieg bei. Das scheint eher winzig zu sein, wenn man die spekulativen Prognosen vor Augen hat, die einen viele Meter hohen Meeresanstieg nach dem Abschmelzen aller Gletscher und Eisschilde und ein völlig verändertes Gesicht unseres Planeten heraufbeschwören. Das völlige Abschmelzen des grönländischen Eisschildes dürfte den Meeresspiegel im Laufe mehrerer Jahrhunderte um etwa sieben Meter ansteigen lassen. Der labile westantarktische Eisschild könnte noch einmal sieben Meter drauflegen. Das Abschmelzen der gesamten Antarktis würde im Laufe der Jahrtausende zu einem Meeresspiegelanstieg von 70 Metern führen. Der (un)aufhaltsame Anstieg des Meeresspiegels bedroht in erster Linie zahlreiche Inselstaaten, die kaum aus dem Ozean ragen, aber auch Länder mit breiter Küstenfläche und einem tief liegenden Hinterland wie die Niederlande oder Bangladesch. Malé, die Hauptstadt der Malediven, liegt nur einen Meter über dem Meeresspiegel. Die höchsten „Berge“ der Inselgruppe Tuvalu sind gerademal fünf Meter hoch. In Bangladesch wohnen 10 Millionen Menschen nicht höher als einen Meter über dem Meeresspiegel. In den unter NN liegenden Niederlanden übt man sich beim Bau schwimmender Inseln. Die Meere reagieren zunehmend sauer Sie haben sicher schon einmal etwas vom pH-Wert gehört und wissen wahrscheinlich auch was ein pH-Wert ist: Der pH-Wert beschreibt den Säuregrad einer Flüssigkeit auf einer Skala von 0 bis 14 und orientiert sich dabei an der Konzentration der Wasserstoff-Ionen im Wasser. Eine neutrale Flüssigkeit hat einen pH von sieben, liegt der pH darunter ist sie sauer, liegt er darüber ist sie basisch. Da die pH-Skala logarithmisch aufgebaut ist, nimmt der Säuregrad pro ganzer Zahl – also etwa zwischen 7 und 8 um den Faktor 10 zu. Die Deckschichten der Meere hatten in vorindustriellen Zeiten einen pH-Wert von 8,19, unter dem Einfluss des Menschen hat sich der pH bis heute um 0,12 Einheiten auf 8,07 verändert. Das scheint recht wenig zu sein, bedeutet aber wegen der logarithmischen Maßeinheit, dass sich die Konzentration der Wasserstoff-Ionen um etwa ein Drittel, also ganz erheblich erhöht hat, und das Meerwasser entsprechend saurer geworden ist. Die Menschheit schickt sich an, die Meere durch eine massive Zufuhr von Kohlendioxid in Sprudelwasser zu verwandeln. Beim Gasaustausch zwischen Luft und Meerwasser wird Kohlendioxid ins Meer gepresst, immerhin acht Milliarden Tonnen im Jahr. Sobald Wasser (H2O) mit Kohlendioxid (CO2) reagiert, entstehen Hydrogenkarbonat-Ionen (HCO3-) und Wasserstoff-Ionen (H+), die den pH-Wert absenken. Ein Teil der freigesetzten Wasserstoff11 Ionen (H+) verbindet sich mit den im Meerwasser reichlich vorhandenen Karbonat-Ionen (CO32-) zu Hydrogenkarbonat (HCO3-). In den Körperflüssigkeiten der Organismen laufen ähnliche Reaktionen ab. Das entstandene Hydrogenkarbonat (HCO3-) entzieht dem Meerwasser, aber ebenso den Körperflüssigkeiten der Organismen erhebliche Mengen an Karbonat-Ionen (CO32-). Viele Meeresorganismen wie Algen und Plankton, Muscheln, Schnecken oder Korallen brauchen Kalziumkarbonat (CaCO3), um ihre Kalkskelette aufzubauen. Die Versauerung der Ozeane wurde erstaunlicherweise noch vor wenigen Jahren lediglich in Fachkreisen diskutiert und von der Öffentlichkeit sogar positiv aufgenommen, weil doch ein Großteil des Treibhausgases Kohlendioxid im Meer verschwinde und die Atmosphäre entlaste. Die Aufnahme der Wärme durch die Ozeane verlangsamt die Erwärmung der Atmosphäre. Um den Preis des Meeresspiegelanstiegs fließt das Wasser, das abschmelzende Gletscher und Eisschilde abgeben, ins Meer. Im Gegensatz zum Land nimmt das Meer als „Senke“ mehr Kohlendioxid auf als es abgibt. Im Zuge der Ozeanversauerung werden menschengemachte CO2-Emissionen langfristig im Meer gespeichert. Der Ozean ist ein recht träges System. Bis er sich einmal durchmischt hat, dauert es tausend Jahre. Wegen seiner hohen Aufnahmekapazität für Kohlendioxid bestimmt er letztlich den atmosphärischen CO2-Gehalt. In einem zukünftigen Gleichgewicht zwischen Ozean und Atmosphäre wird das ozeanische Reservoir rund 80 % aller anthropogenen Emissionen aufgenommen haben. Bei Berücksichtigung der CO2-puffernden Wirkung der TiefseeKalksedimente könnten theoretisch sogar 95 % der anthropogenen CO2-Emissionen vom Ozean geschluckt werden. Praktisch jedoch wird eine stärkere Kohlendioxidabsorption durch das Meer beim Transport in die Tiefsee ausgebremst. In den oberen Schichten des Meeres nimmt pflanzliches Plankton Kohlendioxid auf. Wenn das Plankton abstirbt, sinkt es als Detritus in die Tiefe, wo es von Bakterien in anorganische Bestandteile zerlegt wird. Steigende Wassertemperaturen beschleunigen diese Remineralisierung und reduzieren den Transfer von Kohlenstoff in den tiefen Ozean. Die Ozeanversauerung wird auch als „böser Zwilling“ der Erderwärmung bezeichnet, bedroht sie doch die die marinen Organismen und Lebensgemeinschaften nicht weniger als die Klimaerwärmung die empfindlichen Ökosysteme an Land. Die Konsequenzen der Versauerung für sind heute tendenziell überschaubar, lassen aber kaum präzise Aussagen für einzelne Spezies oder ökologische Wechselbeziehungen zu, weil dazu Langzeitstudien an einer Vielzahl von Organismen notwendig wären. Wissenschaftler aus aller Welt haben unter Laborbedingungen mehrfach Experimente durchgeführt, bei denen sie marine Pflanzen und Tiere in angesäuertem Wasser gehalten haben, um sie unter veränderten Lebensbedingungen zu beobachten und zu testen. Sind aber Laboreffekte auf das offene Meerwasser übertragbar und relevant? 12 Um Antworten zu finden, hat sich Ulf Riebesell mit seinen Geomar-Kollegen aus Kiel als Forschungsinstrument die „Mesokosmen“ ausgedacht, überdimensionale Plastiksäcke mit einer Tiefe von 20 Metern und einem Volumen von 55 Kubikmetern Meerwasser samt Kleinlebewesen, die vor Spitzbergen, in den skandinavischen Fjorden, aber auch schon vor den Kanaren, den Kapverden und vor Hawaii verankert wurden. Die schwimmenden Reagenzgläser werden schrittweise mit immer größeren Mengen Kohlendioxid versetzt, so dass sie Säuregrade erreichen, die erst in 20, 40, 60, 80 oder 100 Jahren zu erwarten sind. Die Forscher verfolgten die Entwicklung der Lebensgemeinschaften und dabei besonders die Massenentwicklung des Phytoplanktons und die Entwicklung von Fischlarven. Die kleinsten Planktonorganismen, das Pico- und Nanophytoplankton, könnten zu den Gewinnern im Ozean der Zukunft gehören. Das besonders kleine Plankton wächst verstärkt und verbraucht zugleich die Nährstoffe, die sonst größeren Planktonarten zur Verfügung stehen. Der Boom an der Basis des Nahrungsgefüges geht zu Lasten der Kieselalgen, der Diatomeen, die zum Mikrophytoplankton zählen. Dass auch das Zooplankton unter dieser Veränderung leidet, ist naheliegend. Mit zunehmender Versauerung nimmt offenbar auch die Fähigkeit der Ozeane zur Speicherung von Kohlendioxid ab. Schwer vorherzusagen ist das Verhalten der mikroskopisch kleinen Kalkalgen, der Coccolithophoriden, bei sinkenden pH-Werten. Einerseits ist das Treibgas Kohlendioxid Lebenselixier der Algen, die daraus Biomasse aufbauen, andererseits wird in einem saureren Milieu die Ausbildung der Kalkschalen erschwert. Die weit verbreitete einzellige Kalkalge Emiliania huxleyi – sie wurde wegen ihrer klimatologischen Relevanz 2009 zur Alge des Jahres gekürt – zeigte in einem Langzeitversuch, dass sie sich über eine Dauer von 500 Generationen evolutionär an die Erwärmung und Versauerung des Meerwassers anpassen kann. Genetische Eigenschaften, um sich schnell an Kalkmangel und Wärmestress anpassen zu können, besitzen Korallen hingegen nicht. Sie haben lange Lebenszyklen von bis zu hundert Jahren und pflanzen sich auch durch Klonen fort. Die Kalkbildung ist für Korallen lebenswichtig und entscheidet über die deren Fortpflanzung. Der pH-Wert der Gewässer um das australische Große Barriere-Riff hat nach jüngsten Messungen vor Ort seit 1940 um 0,2 bis 0,4 Einheiten abgenommen. Die Versauerung schreitet hier noch schneller fort als im Weltmaßstab. Für Australien größte Touristenattraktion bedeutet dieser Trend nichts Gutes. Nach dem Super-El-Niño von 2015/16 ereignete sich zum dritten Mal eine Korallenbleiche, die weltweit das Korallenwachstum bremste. Mit dem langsamen Anstieg des Meeresspiegels der Vergangenheit haben die Korallenstöcke meist recht gut mithalten können. Zahllose Koralleninseln sind aufgrund ihrer Natur mit dem Meeresspiegel „im Tandem“ gewachsen. Die Zukunft der tropischen Korallenatolle sieht dagegen düster aus. Ausgebleichte Korallen verlieren ihre Regenerationsfähigkeit und erodieren durch Sturm und Brandung. 13 In versauertem Meerwasser benötigen viele Lebewesen für den Aufbau ihrer Skelette und Schalen mehr Energie. Manche Organismen können den Mehraufwand kompensieren, geraten aber dennoch in Nachteil zu anderen, die mit weniger Energie auskommen. Unter den Wirbellosen leiden neben den Korallen auch andere Weichtiere, wie Schnecken und Muscheln, als auch Stachelhäuter, wie Seesterne und Seeigel, unter der Versauerung, Krebstiere hingegen scheinen robuster zu sein. Der Klimawandel beeinträchtigt die Lebensgemeinschaften im Meer in einem schwer voraussehbaren Ausmaß. Auch marine Pflanzen und Tiere geraten in Stress, wenn sich ihre natürlichen Lebensbedingungen vorübergehend, schleichend oder gar abrupt verändern. Sinkende pH-Werte, erhöhte Temperaturen, mangelndes Lichtangebot, aber auch Fressfeinde, Krankheitserreger oder Nahrungskonkurrenten können sich als Stressoren erweisen, die das natürliche Gleichgewicht ins Wanken bringen. An dieser Stelle ist die Anpassungsfähigkeit der gestressten Individuen gefragt: Veränderungen der Wuchsform, des Stoffwechsels und der Ernährungsweise sind relativ schnelle phänotypische Anpassungen. Selektive Anpassungen über wenige Generationen entwickeln im Erbgut verankerte günstigere Eigenschaften weiter. Evolutionäre Prozesse im klassischen Sinn, das zufällige Auftauchen einer neuen passenden Mutation, werden in der Regel zu langsam sein, um mit Veränderungen des Lebensraums Schritt halten zu können. Lange Zeit nahm man an, dass mobile Fische, Tintenfische und Krebse kohlensäuretolerant seien und Veränderungen im Säure-Base-Haushalt leicht kompensieren könnten. Bei Laborund Freilandversuchen zeigten jedoch artübergreifend Fischlarven mit zunehmender Versauerung auffällige Verhaltensstörungen und schwammen zum Beispiel auf ihre Fressfeinde zu, anstatt zu flüchten. Saureres Meerwasser stört die Duftwahrnehmung und den Orientierungssinn von Fischen und könnte daher die Populationsdynamik, die RäuberBeute-Beziehungen und andere ökologische Wechselwirkungen beeinflussen. Viele durch Überfischung ohnehin gefährdete Arten sind durch den Klimawandel weiteren Bedrohungen ausgesetzt. Die Erwärmung und die Versauerung des Meerwassers lassen die Lebensräume vieler mariner Arten schrumpfen. Das liegt zum einen daran, dass wärmeres Wasser weniger Sauerstoff aufnehmen und speichern kann als kaltes, und zum anderen daran, dass Tiere bei höheren Temperaturen bei der Futtersuche und der Fortpflanzung mehr Energie verbrauchen. Der Klimawandel treibt die Meeresbewohner polwärts. So weichen aktive Fische in kühlere Gewässer und größere Tiefen aus. Beim Kabeljau und vielen anderen Fischarten kann diese Verschiebung des Lebensraumes schon heute beobachtet werden. In den Weltmeeren entstehen immer häufiger regelrechte „Sauerstofflöcher“ (englisch oxygen holes), die erst in letzter Zeit als potenzielle Nebenwirkung der zunehmenden Ozeanversauerung erkannt wurden. In einem saureren Milieu dürfte auch die Stärke des organischen Partikelregens zurückgehen, bei dem kohlenstoffreicher Ballast auf den Meeresgrund rieselt. Dieser organische Abfall wird schon in mittleren Wassertiefen von 14 Bakterien oxidiert, was schnell zu massiven Sauerstoffmangel führen kann. Vor allem in tropischen Gewässern zeigen sich negative Folgen für die Fischbestände und das Fischereiwesen. Erwärmung, Versauerung und Sauerstoffmangel verstärken sich in ihren Effekten gegenseitig. Die Kipp-Punkte des Erdgetriebes Der Klimawandel verändere unser robustes und stabiles Klimasystem kontinuierlich und ganz allmählich, könnte man meinen, wenn man bei einer oberflächlichen und zu kurzfristigen Betrachtung das Wirken der verhängnisvollen Kippvorgänge außer Acht lässt. Die Kippelemente – oder auch Kipp-Punkte – im Klimageschehen bezeichnen Bestandteile des Erdsystems von überregionaler Größe, die schon durch verhältnismäßig kleine externe Störungen in einen qualitativ neuen Zustand versetzt werden können und einmal angestoßen auch ohne äußeren Einfluss weiterlaufen. Fast immer wird dabei eine markante Schwelle überschritten: Das Klima kippt, ein Vorgang, der häufig unumkehrbar ist. Die Klimafolgenforschung befasst sich erst seit einem reichlichen Jahrzehnt mit den Kippvorgängen im Klimasystem. Eine Angabe präziser Schwellenwerte für die anfälligen Kippelemente ist derzeit nicht möglich. Trotz der zweifellos noch vorhandenen Unsicherheiten und Unschärfen steht jedoch heute schon fest, dass eine ungebremste Erderwärmung unumkehrbare Schäden anrichten wird. Die Grafik zeigt die Einordnung der wichtigsten Kipp-Punkte im Erdsystem (Quelle PIK, Potsdam). Die schmelzenden Eiskörper sind blau, die sich verändernden Strömungssystem der Ozeane und der Atmosphäre rot und die bedrohten Ökosysteme grün markiert. Mit einem Fragezeichen versehen sind wissenschaftlich noch nicht gesicherte Systeme. 15 Mit dem Rückgang des arktischen Meereises haben wir uns schon am Eingang des Kapitels befasst. Die Eis-Albedo-Rückkopplung gilt als klassisches Beispiel für einen sich selbst verstärkenden Prozess. Wenn das Eis im Sommer erst einmal völlig geschmolzen ist, dürfte sich auch im Winter schwerlich eine stabile Eisdecke mehr bilden. Zusätzlich könnten andere Prozesse die Eisschichten dezimieren, beispielsweise Meeresströmungen, die mehrjähriges Eis über die Framstraße wegführen oder ein verstärkter Wärmeeintrag aus dem Atlantik und dem Pazifik. Das ganzjährige Verschwinden des Eises wäre dann ein solcher Kipp-Punkt. Auch mit der Gletscherschmelze, dem anstehenden Verlust des Grönlandeises und dem möglichen Kollaps des Westantarktischen Eisschildes haben wir uns weiter vorn schon auseinandergesetzt. Die Hochgebirgsgletscher wie die großen Eisschilde bilden sich dabei nach dem gleichen Prinzip. Wenn der Schnee eines Winters im Sommer nicht völlig abschmilzt und jedes Jahr neue Schneeschichten hinzukommen, wird der Altschnee unter dem Gewicht des neuen immer weiter verdichtet, bis schließlich kompaktes, zähflüssiges Gletschereis entsteht. Während die Hochgebirgsgletscher in der warmen Jahreszeit abschmelzen und Bäche und Flüsse speisen, reichen die polaren Eisschilde meist bis zur Küste. Das Eis bewegt sich zähflüssig und sehr langsam die Berghänge hinab, wobei sich kräftige Eisströme herausbilden, die an der Küste in großen Fjorden oder breiten Buchten das Meer erreichen und kalben. Vor Grönland brechen oft riesige Eisstücke ab, die dann als Eisberge davon schwimmen. Vor der Westantarktis hingegen schiebt sich das Gletschereis langsam ins offene Meer hinaus, wobei dickes Schelfeis entsteht, von dem später flache Tafeleisberge abbrechen. Der Eisverlust in Grönland hat in letzter Zeit durch die ins Meer fließenden Gletscher und das verstärkte Abschmelzen im Sommer spürbar zugenommen. Der teilweise noch drei Kilometer dicke Eisschild verliert an Höhe. Der Kipp-Punkt des Eisverlustes könnte schon bei einer globalen Erwärmung von weniger als 2° Celsius eintreten. Die vollständige Schmelze des Grönlandeises dürfte sich aber über mehrere Jahrhunderte hinziehen. Der westantarktische Eisschild ist besonders labil, weil hier die Voraussetzungen für ein plötzliches Kippen größtenteils gegeben sind. In den vergangenen beiden Jahrzehnten hat sich das Tempo der Eisschmelze bereits mehr als verdreifacht. In der Küstenregion um die Amundsen-See befinden sich die Gletscher auf einem unaufhaltsamen Rückzug und schmelzen so schnell wie an keinem anderen Ort der Antarktis. Der Eisschild der AmundsenBucht ist wahrscheinlich bereits „gekippt“. Der Klimawandel hat in den meisten Gebirgsregionen der Erde gewissermaßen im Gleichschritt mit der Erhöhung der globalen Mitteltemperatur zu einem sichtbaren und messbaren Gletscherschwund geführt. Bis zum Ende des 21. Jahrhunderts dürften angesichts der jetzigen Schmelzraten in einigen kleineren Gebirgszonen die Gletscher bereits vollkommen weggeschmolzen sein. Obwohl auf dem Dach der Welt, dem tibetischen Hochplateau, die Temperaturen seit 1950 etwa doppelt so stark wie im globalen Mittel 16 gestiegen sind, ist ein gravierendes Schmelzen der Gletscher am Himalaya nicht so schnell zu erwarten. Es wurde bisher nicht untersucht, ob ein Kipp-Punkt zum irreversiblen Abschmelzen existiert. Sicher ist jedoch, dass ein weiteres Schwinden der Gletscher die Wasserversorgung von vielen Millionen Menschen in Süd- und Ostasien empfindlich treffen dürfte. Die überraschend großen arktischen Dauerfrostregionen Sibiriens, Kanadas und Alaskas nehmen etwa ein Viertel der Erdoberfläche ein. Permafrostböden können beim Auftauen Unmengen an Kohlenstoffdioxid CO2 und Methan CH4 freisetzen. Beides sind kohlenstoffhaltige und klimaschädliche Treibhausgase. Methan ist der Hauptbestandteil von Erdgas und zudem eine attraktive Energiequelle. Als Treibhausgas ist es etwa 30mal wirksamer als Kohlendioxid, oxidiert jedoch bei Anwesenheit von Sauerstoff relativ schnell zu Kohlendioxid und Wasser. Wenn die Dauerfrostböden großräumig auftauen, dringt das Meer zunehmend landeinwärts vor. Besteht die Küste vor allem aus gefrorenem Sediment und nicht aus Fels, erreichen die Erosionsraten vielerorts mehrere Meter pro Jahr. Das Wasser greift die Steilufer von unten her an, die Böschung wird unterspült und bricht schnell ab. Auch im Inland verschwinden subarktische Gewässer, weil in den aufgetauten Böden die flachen Seen schlicht versickern. Mit den schmelzenden Eiskeilen im Boden kollabiert der Untergrund und beginnt zu schwanken. Schräg stehende Bäume, aber auch zerstörte Wege und schiefe Gebäude sind die Folge. Offen ist noch die Frage, inwieweit die durch den dauerhaften globalen Temperaturanstieg ausgelöste Schmelze der Dauerfrostböden den Klimawandel zusätzlich beschleunigen könnte. An den meisten Orten läuft dieser Prozess kontinuierlich ab, also ohne Überschreiten eines Kipp-Punktes. Eine bedenkliche Ausnahme stellen die stark kohlenstoffhaltigen Lößböden Ostsibiriens dar, wo bis zu 500 Milliarden Tonnen Kohlenstoff gespeichert sind. Mikroorganismen zersetzen diese Kohlenstoffverbindungen und beschleunigen das Auftauen des Bodens. Bei einer weiteren Erwärmung um einige Grad könnte sich dieser Prozess verselbstständigen und den Kohlenstoff in Form von Methan und Kohlendioxid weitgehend freisetzen. Kaum vorstellbare gewaltige Massen von Methan haben sich über Millionen Jahre in den Sedimenten am Meeresgrund angesammelt. Sie sind als feste Methanhydrate gespeichert, vor allem an den Kontinentalrändern in Meerestiefen zwischen 350 und 5000 Metern. Methanhydrate, auch als Methanklathrate oder als Methaneis bezeichnet, sind nur bei hohem Druck von mehr als 35 bar und niedrigen Temperaturen stabil. Methanhydrat sieht aus wie Schneematsch, ist jedoch brennbar. Im Methaneis sind die Methanmoleküle fest in kubische Käfige aus Wassermolekülen eingesperrt. Mit steigenden Temperaturen werden die Käfige instabil und das Methangas entweicht. Britische und deutsche Wissenschaftler entdeckten im Jahre 2008 erstmals Gasquellen in bis zu 400 Metern Wassertiefe vor Spitzbergen, die durch schmelzende Methaneis gespeist wurden. Damit stellte sich die Frage, ob die beobachteten Gasaustritte Beleg für sich 17 auflösende Hydrate seien, verursacht durch wärmeres Meerwasser und erwärmten Meeresboden. Methanhydrate gelten als ein träges Kippelement und wirken an den Kontinentalhängen wie bindender Zement. Sollten sich die Hydrate großräumig auflösen, besteht die Gefahr, dass Teile des Kontinentalhangs ins Rutschen geraten. Sogar Tsunamis könnten entstehen. Weniger bedrohlich ist vielleicht eine schleichende Freisetzung des Gases, bei der allmählich immer mehr Methan in kleinen Bläschen aus dem Meeresgrund blubbert. Das Methan löst sich größtenteils im Meerwasser oder es entweicht in die Atmosphäre, wo es zu Kohlendioxid oxidiert. Eine spürbare Versauerung des Meerwassers und eine erhebliche Verstärkung des Treibhauseffektes wären recht fatale Langzeitfolgen. Die ganzjährig oder saisonal vorherrschenden Muster der Luft- und Meeresströmungen scheinen auf den ersten Blick relativ stabil zu sein, können aber unter bestimmten Bedingungen ebenfalls ein weitreichendes Kippverhalten aufweisen. Ein exemplarisches Beispiel dafür ist das befürchtete Erlahmen der atlantischen thermohalinen Zirkulation. Wärme und Salzgehalt bestimmen die Dichte des Meerwassers. Je kälter und salziger das Wasser ist, desto dichter und schwerer wird es. Vor Grönland und Labrador kühlt sich das vom Nordatlantikstrom – einem Ausläufer des Golfstroms – herangeführte salzreiche Oberflächenwasser ab und sinkt in die Tiefe, um dann als bodennahes Tiefenwasser nach Süden zurückzufließen. Im Zuge der globalen Erwärmung könnte durch schmelzendes Eis im Norden und auf Grönland mehr Süßwasser zuströmen und die Tiefenwasserbildung aufgrund der nun geringeren Dichte des Wassers verhindern. Den Kipp-Punkt der atlantischen thermohalinen Zirkulation veranschlagen Experten bei einem globalen Temperaturanstieg um mehr als 4° Celsius. Auch die Verstärkung des bereits beschriebenen El Niño-Phänomens und die Störung der Südpazifischen Klima-Oszillation können als gewichtige global wirksame Kippelemente der ozeanisch-atmosphärischen Zirkulation verstanden werden. Der indische Monsun hat mit beständig wehenden Winden, die halbjährlich ihre Richtung wechseln, den Ruf schöner Regelmäßigkeit. Im Frühling, wenn sich der Kontinent schneller erwärmt als das träge Meer, steigt vom Land warme Luft nach oben. Wasserhaltige Luftmassen strömen vom Meer her nach und der Monsun setzt ein. Bei der Umwandlung von Wolkendampf in Regentropfen wird zusätzlich Kondenswärme frei und schließt den Kreislauf. Durch den mit ihr einhergehenden Regen wird die Zirkulation immer neu angetrieben – eine sich selbstverstärkende Rückkopplung. Der globale Klimawandel könnte den Monsun dennoch aus dem Gleichgewicht bringen und tut es wohl auch schon. Wärmere Luft führt zu mehr Regen und vergrößert die Gefahr von Extremfluten. Der asiatische Monsun trifft die Hälfte der Weltbevölkerung und könnte sich künftig weit mehr verändern als bisher gedacht. Computersimulationen haben gezeigt, dass sich die täglichen Schwankungen des Monsuns verstärken. Kommt der Regen einmal als Sturzbach und danach herrscht Trockenheit, so hat dies fatale Folgen für die Landwirtschaft, 18 selbst wenn die durchschnittliche Regenmenge gleichbleibt. Die Analyse zahlreicher Computermodelle offenbarte, dass der indische Monsun pro Grad Celsius globaler Erwärmung von Tag zu Tag um etwa zehn Prozent mehr schwankt als vor der Industrialisierung. Wirkungsschleifen mit außergewöhnlichen nichtlinearen Rückkopplungen hat es in der jüngeren Klimageschichte wiederholt gegeben. Nichtlineares Verhalten bedeutet, dass alltägliche normale Vorgänge auf die Veränderung äußerer Rahmenbedingungen mit abrupten Umschwüngen reagieren. Überraschende Ergebnisse werden womöglich durch Kapriolen eines entfernten Kippelements ausgelöst und können meist nicht vorausgesagt werden. So könnte eine weitere Erwärmung des Atlantiks eine sprunghafte Verlagerung des westafrikanischen Monsunsystems auslösen, was wiederum zu regenarmen bzw. regenreichen Zeiten für die Bevölkerung Westafrikas führen müsste. Verschiebt sich der Niederschlagsgürtel nach Süden, wird der Golf von Guinea begünstigt, verschiebt er sich nach Norden die Sahelzone. Häufigere Niederschläge in der Sahelzone könnten sogar eine Wiederbegrünung der Sahara in die Wege leiten. Damit ginge allerdings eine Verminderung des in die nordafrikanische Luft gewirbelten Staubes einher, was wiederum Konsequenzen für den über den atlantischen Ozean transportierten Saharastaub hätte, der auch den Amazonas-Regenwald mit notwendigen natürlichen Nährstoffen versorgt. Tropische Regenwälder sind vorbildliche Wasserselbstversorger, erzeugen sie doch den auf sie niedergehenden Regen weitestgehend selbst. Die üppige Vegetation speichert das Wasser in Blättern und Wurzeln, sie schwitzt und verdunstet und gibt so das Wasser dem Himmel zurück. So stammen die Niederschläge im Amazonasbecken größtenteils aus dem über dem Wald verdunstetem Wasser, nur relativ wenig wird aus Atlantik und Pazifik importiert. Dieser nachhaltigen Betriebsweise verdankt der Regenwald seine einzigartige paradiesische Lebensfülle. Das Amazonas-Ökosystem ist dennoch auf vielfache Weise verwundbar. Brandrodung und Straßenbau sind an erster Stelle zu nennen. Der Klimawandel verstärkt natürliche Klimaschwankungen und macht sich in El-Niño-Jahren besonders negativ bemerkbar. Zwei Dürren in den Jahren 2005 und 2010 führten zu einem Massensterben im Regenwald. In den letzten 25 Jahren hat die Fähigkeit zur Kohlenstoffaufnahme um 30 Prozent angenommen. Die kritische Grenze ist in Sichtweite. Der Regenwald droht von einer Kohlendioxidsenke zu einer Kohlendioxidquelle zu werden und sich in einen an die Trockenheit angepassten Wald oder gar in eine Graslandschaft zu verwandeln. Die borealen, nordischen Nadelwälder umfassen fast ein Drittel der weltweiten Waldfläche und befinden sich in einer kaum weniger bedenklichen Lage als der weit mehr geschätzte tropische Regenwald. In den polnahen Breiten schreitet die Erwärmung doppelt so schnell voran wie im globalen Mittel. Das kann durchaus Vorteile für die biologische Produktivität haben, schließt aber Dürreperioden und Insektenplagen keineswegs aus. Auch Waldbrände 19 zerstören oft riesige Gebiete. Im Gleichschritt mit der Erderwärmung wird eine ganze Vegetationszone nach Norden verschoben. Ob es zu einem Kippen des nordischen Ökosystems kommen kann, ist bisher recht unklar und wenig erforscht. Ein Schwinden der Wälder zugunsten einer Graslandschaft ist durchaus denkbar, ein umgekehrter Vorgang von heutiger Steppe zu künftigem Wald aber auch. Von den artenreichen Korallenriffen und deren Gefährdung durch die Korallenbleiche war schon mehrfach die Rede. Bei dem jüngsten Super-El-Niño 2015/16 haben sich die Temperaturen im Großen Barriere-Riff so stark erwärmt, das ein irreversibles Kippen des gesamten Ökosystems zu befürchten ist. Australische Wissenschaftler sprechen von der schlimmsten Korallenbleiche, die je verzeichnet wurde. Es kann Jahrzehnte dauern, bis sich ein Riff erholt und von den Korallen und den mit ihnen in Symbiose lebenden Algen wiederbesiedelt wird. Fatalerweise kann ein völliger Zusammenbruch der Korallenwelt auch dann nicht ausgeschlossen werden, wenn es gelingt, die globale Erwärmung in diesem Jahrhundert auf 2° Celsius zu begrenzen. Die Frage, ob und inwieweit Kippelemente erholungsfähig sind und unter bestimmten Voraussetzungen rückgängig gemacht werden könnten, kann die Klimafolgenforschung nicht oder noch nicht beantworten. Die oft zitierte 2-Grad-Leitplanke ist eine normative Festlegung, verankert in der Klimarahmenkonvention und gilt als Richtschnur der internationalen Klimapolitik. Auch diesseits der Leitplanke zeigt der Klimawandel negative Auswirkungen, denken wir nur den stetigen Meeresspiegelanstieg oder an das plötzliche Ausbleichen der Korallen. Bei fortschreitender globaler Erwärmung in den 2-, 3-, 4- oder gar 6-Grad-Bereich gerät der Klimawandel außer Kontrolle, passiert reihenweise Kipp-Punkte substantieller ökologischer Systeme und überfordert die Anpassungsfähigkeit der Natur. Von der Wettervorhersage zum Klimaszenarium Den Unterschied zwischen Wetter und Klima kennt jeder – oder glaubt es zumindest. Schlacks formuliert ist das Klima das, was man erwartet und das Wetter das, was man bekommt. Das heimatliche Klima beschreibt den Durchschnitt des üblichen Wetters, Extreme meist weggelassen. Die Wissenschaft definiert präziser: Das Wetter ist der augenblickliche Zustand der unteren Atmosphäre zu einer bestimmten Zeit über einem bestimmten Ort. Das Klima ist die für einen Ort, eine Landschaft oder einen größeren Raum typische Zusammenfassung der erdnahen und die Erdoberfläche beeinflussenden atmosphärischen Zustände während eines längeren Zeitraumes in charakteristischer Verteilung der häufigsten, mittleren und extremen Werte. Nach der WMO, der meteorologischen Fachorganisation der UN, umfasst der Bezugszeitraum üblicherweise eine Zeitperiode von 30 Jahren. Mit dem Bezugsraum hat es eine besondere Bewandtnis. Ein sich abzeichnender Klimawandel gilt als wissenschaftlich bestätigt, wenn er 30 Jahre lang anhält. Wären es 20 weniger Jahre, könnte es sich vielleicht um eine natürliche Schwankung handeln. Seit Mitte der achtziger Jahre wird der Klimawandel in der Öffentlichkeit diskutiert. Heute ist der vom Menschen verursachte Klimawandel ein anerkannter Fakt und steht zweifelsfrei fest. Wettervorhersagen und Klimaszenarien unterscheiden sich grundsätzlich in ihren Zielen. basieren aber auf den gleichen wissenschaftlich-technischen Voraussetzungen, der Formulierung zuverlässiger Grundgleichungen der Atmosphärenphysik, dem Aufbau miteinander verbundener, weltumspannender Beobachtungsnetze und der Entwicklung hochleistungsfähiger Supercomputer. Die professionelle Wettervorhersage ist weitaus besser als ihr Ruf und orientiert auf detailreiche Informationen über das kurz- und mittelfristig bevorstehende Wetter. Die Treffsicherheit der numerischen Vorhersage liegt bei einer Drei-Tage-Prognose inzwischen bei 80 Prozent. Über einen Zeitraum von mehr als zwei Wochen hinaus sind brauchbare Aussagen wegen der Komplexität des Gegenstandes kaum mehr möglich. Auch die numerische Wettervorhersage muss mit Modellen arbeiten, um mehr wetterrelevante Prozesse einzubeziehen, um das raumzeitliche Auflösungsvermögen der Computersimulation zu erhöhen und um fortgeschrittene Statistikverfahren zur Eindämmung individueller Fehlerquellen einzusetzen. Die Erforschung möglicher Klimaentwicklungen bedient sich ebenfalls des meteorologischen Prognosemodells, wird aber in einem völlig anderen Modus betrieben. Im Klimamodus werden langfristige Mittelwerte und globale Durchschnittsgrößen zu Grunde gelegt. Anders als bei der Wettervorhersage interessiert man sich weniger für Details, sondern mehr für das charakteristische Zirkulationsverhalten in Ozean und Atmosphäre im Gleichgewichtszustand. Solche globalen Zirkulationsmodelle sind in der Lage, vergangene Klimazustände, das Klima der Gegenwart und seine Schwankungsbreite realistisch zu simulieren und sollten daher auch das künftige Klima einigermaßen verlässlich berechnen können. Die Modellierung des Klimas der Zukunft erfordert allerdings mehr Kenntnisse über die möglicherweise vom Menschen drastisch veränderten Rahmenbedingungen. Im Blickpunkt des fragenden Betrachters dürfte dabei die zeitliche Entwicklung der atmosphärischen Treibhausgaskonzentrationen stehen, beeinflusst sie doch wesentlich das Ausmaß des globalen Klimawandels. Mit Hilfe solcher Modelle lässt sich zum Beispiel herausfinden, wie sich eine Steigerung des Kohlendioxidgehaltes der Luft auf das künftige Klima auswirken müsste. Solche Klimaszenarien sind keine exakten Prognosen, sondern stets „Was wäre wenn?“-Voraussagen, die die nur unter bestimmten Prämissen zuverlässig eintreffen. 21 Die nebenstehende Grafik stammt aus dem 4. Sachstandsbericht des Weltklimarates (IPCC) aus dem Jahre 2007 und zeigt einige Klimaszenarien, die seinerzeit Furore machten, aber auch heute noch prinzipiell gültig sind. Die roten, grünen und blauen Linien zeigen die Erwärmung der Erdoberfläche als Verlängerung der Simulationen für das 20. Jahrhundert für die Szenarien A2 – weiter machen nach den überholten Mustern von gestern – , A1B – Balance zwischen fossilen und erneuerbaren Energie finden – und B1 – hoffen auf eine bessere Welt und ein engagiertes Zusammenwachsen in einer NiedrigEmissionsgemeinschaft. Der technikfreundliche A1T-Pfad setzt auf erneuerbare Energien, der B2-Pfad neigt zu einer regional ausgerichteten Nachhaltigkeit mit unsicheren positiven Folgen und negativen Konsequenzen. Die schwarze Variante A1F1 steht für eine weitere intensive Nutzung fossiler Energieträger. Die orange Linie steht für ein imaginäres Einfrieren des Ausstoßes von Treibhausgasen. Die Schattierung kennzeichnet die Bandbreite von plus/minus einer Standardabweichung der einzelnen Modell-Jahresmittel. Trotz der Breite der Unsicherheiten zur Erderwärmung wird deutlich, warum, weshalb und wie moderat oder dramatisch die globale Mitteltemperatur bis zum Ende des aktuellen Jahrtausends ansteigen wird. Globale Zirkulationsmodelle zur Klimavorhersage dienen als geeignete, wenn auch recht grobe Werkzeuge für strategische Entscheidungsspiele über die Umweltzukunft unseres 22 Planeten. Die Atmosphäre ist keine isolierte Komponente auf der planetarischen Bühne. Nichtlineare Reaktionen und verschlungene Rückkopplungsschleifen erschweren eine einfache Modellierung. Vor allem die Ozeane müssen einbezogen werden, aber auch die terrestrische Vegetation, die Böden, der Wasserhaushalt und nicht zuletzt der klimarelevante zivilisatorische Nutzungsdruck spielen eine Rolle. Die Zukunft ist unterbestimmt. Die vor uns liegende Klimaentwicklung wird durch menschliches Zutun als natursystemische Reaktion erzeugt. Wer eine präzise Klimavorhersage machen möchte, müsste vorher eine exakte Weltgesellschaftsvorhersage erstellen. Aus heutiger Sicht scheint das wohl ein Ding der Unmöglichkeit. Die Zukunft ist weder beliebig, noch ist sie genau festgelegt. Das Potsdam Institut für Klimafolgenforschung konzentriert einen Großteil seiner Kräfte auf die Entwicklung eines Simulators, welcher der Erdsystemanalyse neue Bahnen brechen soll. POEM (Potsdam Earth Model) soll sowohl in die tiefe Vergangenheit als auch in die ferne Zukunft blicken. Das Agreement von Paris – Licht am Ende des Tunnels? Der im Jahre 2014 veröffentlichte 5. Sachstandbericht des Weltklimarates IPCC hat den Klimawandel aus der Zukunft in die Gegenwart gerückt. Schon heute sind Überflutungen und Hitzewellen, abschmelzende Gletscher, massive Korallenbleichen und ein steigender Meeresspiegel bittere Realität. Die Zeit drängt, Nichtstun erspart rein gar nichts und kostet bloß Geld. Eine Arbeitsgruppe des Weltklimarates hat festgestellt, dass die wirtschaftlichen Kosten für die Einhaltung des Zwei-Grad-Zieles der Erderwärmung bei weniger als 1 Prozent des erwarteten mittleren jährlichen Konsumwachstums in diesem Jahrhundert liegen würden. Der Weltklimarat IPCC, der Zwischenstaatliche Ausschuss über Klimaveränderung (Intergovernmental Panel of Climate Change), hat die Aufgabe, den Kenntnistand der internationalen Klimaforschung zusammenzutragen und dem Verhandlungsprozess auf UNEbene zur Verfügung zu stellen. Das Gremium ist ein einzigartiges, diplomatisches Mischwesen aus Wissenschaft und Politik. Die wissenschaftlichen Leitautoren für die Berichte des IPCC werden nicht etwa von forschenden Experten, sondern von den beteiligten Staaten ausgewählt. Der Wortlaut der Kurzfassung der Berichte für die politischen Entscheidungsträger – nur diese werden von Entscheidern weltweit wirklich zur Kenntnis genommen – muss mit den zahlreichen Vertretern der Regierungen abgestimmt werden. Kurzfristige nationale Interessen spielen dabei oft eine größere Rolle als langfristige wissenschaftliche Erkenntnis. Um die Kosten, die Risiken und der Chancen der verschiedenen Handlungsoptionen auszuloten, bedarf es wissenschaftlicher Politikberatung. 23 Die Klimarahmenkonvention, verabschiedet 1992 auf dem Erdgipfel in Rio de Janeiro, steht am Beginn einer langen Reihe von Klimakonferenzen, die die hehren Ziele der Konvention in die steinige Praxis des Machbaren überführen sollte. In der Klimarahmenkonvention (United Nations Framework Convention on Climate Change) hatten sich 196 Vertragsstaaten darauf geeinigt, die Stabilisierung der Treibhausgaskonzentrationen in der Atmosphäre auf einem Niveau zu erreichen, auf dem eine gefährliche anthropogene Störung des Klimasystems verhindert wird. Was genau „gefährlich“ bedeutet, ließ die Konvention allerdings offen. Zwischen dem Erdgipfel von Rio de Janeiro 1992 und dem Pariser Klimaabkommen 2015 liegt ein 23jähriger Verhandlungsmarathon, der hier in seinen Einzelheiten nicht beschrieben werden kann. Wer weiß, dass bei den vielen COP-Konferenzen (Conferences oft the Parties) der jeweils kleinste gemeinsame Nenner zum Taktgeber für den Klimaschutz wurde, weil nur beschlossen werden darf, was von allen Staaten mitgetragen wird, den kann die Zähigkeit der Verhandlungen nicht wundern. Hinzu kommen gegensätzliche wirtschaftspolitische Interessen zwischen den reichen Industriestaaten, den aufstrebenden Schwellenländern und den ärmeren Entwicklungsländern, zwischen den Treibhausgasproduzenten, den Ölexporteuren und den kleinen in ihrer Existenz bedrohten Inselstaaten. Im Jahre 1997 unterzeichneten alle Staaten einen Weltvertrag für Klimaschutz, der als KyotoProtokoll in die Geschichte einging. Der Abkommen war in vielerlei Hinsicht unzureichend und missverständlich, aber das erste, das konkrete Reduktionsziele vorgab. In dem Protokoll verpflichteten sich die Industriestaaten, ihren Treibhausgasausstoß bis zum Jahre 2012 um 5,2 Prozent unter das Niveau von 1990 zu senken. Dem gerade beschlossenen Kyoto-Protokoll drohte ein vorzeitiges Scheitern, weil es nicht genug Staaten ratifizieren wollten. Wirksam wird das Vertragswerk nämlich erst, wenn mindestens 55 Staaten, die für mindestens für 55 Prozent der weltweit produzierten Treibhausgase verantwortlich sind, ratifiziert haben. Gegenspieler waren in erster Linie die USA, genauer gesagt der von Republikanern dominierte Kongress, der den Klimaschutz als „wachstumsfeindlich“ ablehnt. Vier Monate vor der Kyoto-Konferenz hatte der US-Senat in einer Resolution bekräftig, dass kein Beitritt zu einer Klimakonvention möglich sei, die nur den Industriestaaten, aber nicht den Entwicklungsländern Reduktionsverpflichtungen auferlegt oder die amerikanische Wirtschaft schädigen könne. Die USA haben das Kyoto-Protokoll nie ratifiziert und ihre Zustimmung auf der Konferenz zurückgezogen. Auf diplomatischem Wege wurde schließlich Russland überzeugt und das Protokoll konnte 2004 mit siebenjähriger Verspätung in Kraft treten. Eine zweite, 2012 in Katar vereinbarte Verpflichtungsperiode (Kyoto II) gilt für die Jahre 2013 bis 2020. Allerdings haben nur noch die EU-Staaten, die Schweiz, Norwegen und Island sowie Australien neue Reduktionspflichten übernommen. Im Jahre 2007 schockierte der 4. Sachstandsbericht des Weltklimarates IPCC die Klimapolitiker. Eigentlich war das Kyoto-Protokoll geschaffen worden, um den Ausstoß an Treibhausgasen unter das Niveau von 1990 zu senken, tatsächlich aber war die 24 Atmosphärenkonzentration in den letzten Jahren um fast 10 Prozent gestiegen. Den Akteuren wurde klar, dass selbst ein erfüllter Kyoto-Vertrag bei der Rettung des Weltklimas wenig helfen würde. Noch im gleichen Jahr wurde ein neues Verhandlungsmandat erteilt, um ein weitergreifendes Klimaabkommen für die Zeit nach Kyoto zu stemmen. In diesem Zusammenhang war viel von dem „Zwei-Grad-Limit“, der „Zwei-Grad-Leitplanke“ oder dem „Zwei-Grad-Ziel“ die Rede. Die zulässigen zwei Grad menschengemachter Erderwärmung sind bei genauerem Hinsehen ein willkürlicher, politischer Kompromiss zwischen Wünschbarkeit und Machbarkeit, haben aber eine solide naturwissenschaftliche Grundlage. Schon in den 1990er Jahren haben sich Klimaforscher mit der Frage beschäftigt, welche globale Temperaturanomalie Mensch und Natur in Zukunft wohl aushalten könnten, ohne physisch überfordert zu werden. Welche Klimafolgen müssen als nicht akzeptabel eingestuft und deshalb unbedingt verhindert werden? Hans Joachim Schellnhuber, der Direktor des Potsdam-Instituts für Klimafolgenforschung, entwickelte 1993 die Vorstellung von einem Klimatoleranzfenster, um den akzeptierbaren Spielraum der menschengemachten Erderwärmung zu umgrenzen. Die globale Mitteltemperatur hat während der Evolution des modernen Menschen niemals höher gelegen als etwa 1,5 Grad Celsius über dem Niveau zu Beginn der industriellen Revolution. Wenn man eine gewisse Klimaelastizität veranschlagt, so kann der Spielraum um eine 0,5Grad-Marge auf dann 2 Grad Celsius erweitert werden. Zudem muss die Rate der Erderwärmung Berücksichtigung finden – sie liegt derzeit bei etwa 0,1 Grad Celsius pro Jahrzehnt. Ob eine höhere Änderungsrate von den gestressten Ökosystemen ohne weiteres verkraftbar wäre, ist zumindest fraglich. Oberhalb der Zwei-Grad-Leitplanke können KippElemente ausgelöst werden, die die Erderwärmung weiter beschleunigen oder gar verselbstständigen. Die Zwei-Grad-Marke führte auf dem politischen Verhandlungsparkett zu einem auch von den USA mitgetragenen informellen Konsens. Die Allianz der kleinen Inselstaaten allerdings wehrte sich vehement gegen das Zwei-GradZiel, weil schon heute eine einzige heftige Sturmflut den Lebensraum vieler Inselbewohner zu vernichten drohe. Andererseits legen Projektionen der Wissenschaft nahe, dass auf der Welt bereits zu viele Treibhausgase produziert worden sind, die ein 1,5-Grad-Ziel illusorisch erscheinen lassen. Der Pariser Klimavertrag von 2015 enthält den diplomatischen Passus, dass die durch Treibhausgase verursachte Erderwärmung auf deutlich unter 2 Grad zu begrenzen sei – und wenn möglich sogar auf 1,5 Grad. Mit dem für alle Staaten verbindlichen Weltklimaabkommen von Paris gelang ein Meisterstück der Klimadiplomatie. Der Klimavertrag wurde von 195 Staaten sowie der Europäischen Union abgeschlossen. 186 Teilnehmer haben freiwillige nationale Minderungsziele zur Treibhausgasemission abgegeben, darunter auch China und die USA. Werden diese Zusagen eingehalten, dürfte die Erderwärmung auf rund 3 Grad steigen – politischer Handlungsdruck und eine deutliche Nachbesserung sind also dringend 25 erforderlich. Im Rhythmus von fünf Jahren sollen die Staaten ihre nationalen Selbstverpflichtungen kontrollieren und verbessern. Die Industrieländer wollen den ärmeren Staaten ab 2020 jährlich 100 Milliarden Dollar als Finanzierungshilfen für den Klimaschutz und für Anpassungsziele zur Verfügung stellen. Das scheint sehr viel zu sein, relativiert sich aber, wenn man es zum Weltsozialprodukt in Höhe von etwa 75 Billionen Dollar ins Verhältnis setzt. In Paris wurde auch beschlossen, dass die Menschheit Mitte unseres Jahrhunderts „klimaneutral“ leben solle (nicht etwa wie anfangs vorgesehen bei „Nullemission“), was heißt, dass noch immer ausgestoßene Treibhausgase anderweitig kompensiert werden müssen, beispielsweise durch umfassende Aufforstung oder durch neue Speichertechnologien. Nicht zuletzt hat die Konferenz auch ein deutliches Signal für einen ambitionierten Waldschutz und eine weltweite Energiewende gesetzt. Der Pariser Weltklimavertrag vom Dezember 2015 wurde anders als das Kyoto-Protokoll schon nach ungewöhnlich kurzer Zeit von solchen Klimaschwergewichten wie den USA, China, Indien und Brasilien unterzeichnet und bestätigt. Innerhalb von weniger als einem Jahr hatten hinreichend viele Nationen, die die auferlegte Hürde von mehr als 55 % der klimaschädlichen Emissionen verursachen, das Abkommen ratifiziert, so dass es am 4. November 2016 in Kraft treten konnte. Der größte Haken des Pariser Abkommen liegt darin, dass es sich auf eine freiwillige Umsetzung verlässt und jedes Land selbst über seine eigenen Klimaschutzbeiträge entscheiden kann. Nur so konnte erreicht werden, dass der Klimavertrag von möglichst vielen Mitgliedern akzeptiert wird. Bis 2020 sollen die Staaten ihre Klimaziele für den Zeitraum 2025 bis 2030 vorlegen. Ab 2023 werden die nationalen Klimaziele alle fünf Jahre überprüft und verschärft. Die Kritiker sehen zu viele moralische Appelle und bloße Lippenbekenntnisse. Die Diskrepanz zwischen den in Paris vereinbarten Temperaturzielen und der tatsächlichen Klima- und Energiepolitik bleibt besorgniserregend. Eine große Lücke zwischen Anspruch und Wirklichkeit muss noch geschlossen werden. Radikale Energiewende oder riskantes Climate-Engineering Angesichts des schnellen Inkrafttretens des umfassenden Pariser Klimaabkommens kann das im gleichen Jahr 2016 zustande gekommene Klimaabkommen von Kigali leicht in Vergessenheit geraten. Bei den Verhandlungen ging es um eine Erweiterung des MontrealProtokolls von 1987, das seinerzeit zum Schutze der Ozonschicht die Verwendung von Fluorchlorkohlenwasserstoffen (FCKW) in Kühlschränken und Klimaanlagen verboten hatte. Diesmal hat man sich auf eine schrittweise Abschaffung von extrem klimaschädlichen Fluorkohlenwasserstoffen (FKW) geeinigt, die heute anstelle von FCKW in Kühlaggregaten 26 verwendet werden. Fluorkohlenwasserstoffe greifen zwar die Ozonhülle nicht an, könnten aber den Klimawandel durch Treibhausgase um ein halbes Grad Celsius beschleunigen. Unsere Zivilisation bereichert die Atmosphäre Jahr für Jahr um etwa 10 Milliarden Tonnen verschiedener Treibhausgase. Der Kohlendioxidpegel hat 2015 das 400-ppm-Niveau durchbrochen und strebt weiterhin höheren Werten entgegen. Spätestens bei 450 ppm muss Schluss sein, wenn die ökologische Leitplanke, die Zwei-Grad-Marke der Erderwärmung, nicht durchbrochen werden soll. Vier Fünftel der heute bekannten Kohlereserven, ein Drittel der Erdölreserven und die Hälfte der Erdgasreserven müssen in der Erde verbleiben. Zur Lösung der Weltklimaprobleme ist eine Dekarbonisierung der Weltwirtschaft zwingend erforderlich. Für viele Forscher bedeuten die Vorgaben aus Paris, dass die Verbrennung fossiler Energieträger zwischen 2050 und 2070 komplett enden muss. Schon heute dürften keine neuen Kohlekraftwerke mit einer Laufzeit von mehreren Jahrzehnten gebaut werden, weil Kohlendioxid sehr lange in der Atmosphäre und im Meer verbleibt. Lobbyisten der Wirtschaftsverbände fürchten schrumpfende Gewinne und eine Gefahr für die Wettbewerbsfähigkeit energetisch antiquierter Unternehmen. Eine neue Greenpeace-Studie „Energy Revolution“ behauptet, dass die Welt bereits ab 2050 zu 100 % mit Erneuerbaren Energien versorgt werden könne. Die Erneuerbaren Energien seien inzwischen erwachsen und könnten mit klimaschädlichen Kohlekraftwerken und riskanten Atommeilern konkurrieren, wenn diese nicht subventioniert werden. Laut Studie erfordert eine radikale, globale Energiewende bis 2050 jährliche Investitionen von durchschnittlich etwa einer Billion Dollar. Gleichzeitig könne man jedoch Brennstoffkosten in etwa gleicher Höhe einsparen und beim kostenneutralen Umbau des weltweiten Energiesystems 20 Millionen zusätzlicher Arbeitsplätze schaffen. Manche Skeptiker mögen der optimistischen Greenpeace-Studie nicht so recht trauen, zumal der völlige Verzicht auf fossile Brennstoffe gegen Ende der Pariser Konferenz noch aus dem Vertrag gestrichen wurde. Eine Reihe von mehr oder weniger fragwürdigen Alternativen bieten sich an, um der Atmosphäre Kohlenstoff zu entziehen. Vor allem das sogenannte CCSVerfahren kommt des Öfteren ins Gespräch. Das „Carbon Capture and Storage“-Verfahren (CO2-Abscheidung und Speicherung) ist mit der erfolgreichen Rauchgasentschwefelung vergleichbar, nur dass man nicht den Schwefel, sondern Kohlendioxid abzusondern sucht. Leider verschlechtert CCS den Wirkungsgrad von Kraftwerken ganz erheblich. Die hohen Betriebskosten müssten vom Steuerzahler subventioniert werden. Bislang existieren nur einige wenig überzeugende Pilotanlagen. In Kanada allerdings kommt die neue Technik unverhofft zum Einsatz – das herausgefilterte Kohlendioxid wird verwendet, um bisher unzugängliches Erdöl aus dem Wirtsgestein zu lösen. 27 Zwielichtig sind auch die verschiedenen Versuche zur Eisendüngung des Ozeans zu bewerten. So ist Eisen als Nährstoff für das Wachstum des Phytoplanktons im Südpolarmeer vielerorts Mangelware. Durch Zufuhr einer größeren Menge gelösten Eisensulfats vom fahrenden Schiff aus gelang es, in einem Meereswirbel eine künstliche Algenblüte zu erzeugen. Die Algen binden reichlich Kohlendioxid und sollen nach ihrem Ableben dauerhaft in den Sedimenten der Tiefsee verschwinden. Entscheidende Fragen nach der Langfristigkeit und wünschenswerten Größenordnung des Effektes sowie zu möglichen ökologischen Nebenwirkungen bleiben aber offen. Ein großflächiger Eingriff ist nach internationalen Abkommen zurzeit nicht zulässig. Die unter den Namen „Climate Engineering“ und „Geo-Engineering“ bekannt gewordenen Vorschläge und Ideen verfolgen zwei simple Ansätze, einerseits die Kohlenstoffextraktion und andererseits die Strahlungsmanipulation. Bei der Kohlenstoffextraktion soll das Treibhausgas irgendwie abgesaugt werden, die Strahlungsmanipulation zielt auf eine Abschirmung des Sonnenlichts. Allen Vorschlägen zur Klimamanipulation ist gemein, dass sie kaum erprobt sind und für einen großtechnischen Einsatz nicht (oder noch lange nicht) taugen. Von den Probeläufen des CCS-Verfahrens zur Kohlendioxidabscheidung und der versuchten Eisendüngung des Meeres war schon die Rede. Man hat auch überlegt, ob und wie sich flüssiges Kohlendioxid in erschöpfte Erdölreservoire oder gleich in den Meeresuntergrund pressen lasse. Auf dem Papier stehen schon lange überdimensionale Filteranlagen zur industriellen Luftwäsche und CO2-Reinigung bereit. Bei den visionären Verfahren zur Manipulation der Sonnenstrahlung denkt man gleich an Science Fiction. Da gibt es riesige Orbitalspiegel und Sonnenblenden im Weltraum und kühlende Schwefelaerosole in der Stratosphäre. Vernebelungsschiffe erzeugen künstliche Wolkentürme über dem Ozean. Die schmelzenden Gletscher werden in hochreflektiven Folien verpackt. Auf der Erde werden alle Straßen und Dächer weiß angestrichen. Zu den weniger bedenklichen Vorschlägen zur Klimastabilisierung zählt das Anpflanzen von Bäumen. Da es nur bedingt möglich ist, fruchtbare landwirtschaftliche Nutzflächen mit Energiebäumen zu bestücken, kommen für die Aufforstung und Kultivierung vor allem degradierte Flächen wie Steppen und Halbwüsten in Frage, was auch nicht gerade einfach zu bewerkstelligen ist. Aus der Sicht des Klimaschutzes könnte Pflanzenkohle künftig zum wichtigsten Produkt der Holzchemie werden und als relativ sicherer Kohlenstoffspeicher dienen. Um das Problem der Versauerung der Meere zu mildern, müssen Feuchtgebiete, Salzmarschen und Mangrovensümpfe besser geschützt oder wiederhergestellt werden. Bei einem großräumigen Anbau von Seetangwäldern – auf 9 % der Meeresfläche! – soll sich so viel erneuerbares Biomethan erzeugen lassen, um alle heute benötigten fossilen Treibstoffe zu ersetzen, behaupten Wissenschaftler von der University oft the South Pacific. 28 Vielleicht liegt die Verlockung des Geo-Engineerings gerade darin, dass es kein notwendiges Umdenken in der Energiewirtschaft voraussetzt, und wir im Prinzip genau so weiter machen könnten wie bisher. Die utopischen Projekte zur Klimamanipulation entpuppen sich als ein durchsichtiges Manöver, das von der schmerzhaften Notwendigkeit der anstehenden industriellen Dekarbonisierung ablenken soll und eine auf fossilen Brennstoffen basierende Wirtschaft erhalten will. In diesem Zusammenhang wird auch die Möglichkeit diskutiert, ob und wie man sich an die Erderwärmung am ehesten anpassen könne. Gegen das anschwellende Meer helfen höhere Deiche. Vor extremer Hitze zieht man sich in akklimatisierte Räume zurück. Man könnte Waldensembles so umbauen, dass sie höheren Temperaturen standhalten, oder Nutzpflanzen anbauen, die mit weniger Wasser auskommen. Man müsste die Bewohner flacher Inselstaaten in bewohnbaren Gegenden ansiedeln oder aufschwimmende Häuser bauen, die den Meeresspiegel neu justieren. An besonders gefährdeten Küsten wäre vielleicht ein geordneter Rückzug vom Meer die beste Anpassungsmaßnahme. Eine vorsorgende Strategie, mit der sich die Menschheit an einen ungebremsten Klimawandel anpassen könnte, findet sich auch nach langer Überlegung nicht. Eine Anpassung an den aktuellen Klimawandel aber ist bitter nötig. Klimaschutz durch Minderung der Treibhausgas-Emissionen ist und bleibt die beste Anpassungsstrategie. Eine klimaneutrale Welt, wie sie das Pariser Abkommen bis zur Mitte dieses Jahrhunderts erreichen will, muss von einer aufgeklärten und engagierten Öffentlichkeit gegen den zähen Widerstand einer weltumspannenden fossilen Industrie und kurzsichtige, nicht nachhaltige Profitinteressen multinationaler Konzerne durchgesetzt werden. Das Wort „Divestment“ macht die Runde und wird gesellschaftsfähig. Divestment ist das Gegenteil von Investment und bedeutet den Abzug von Kapital aus der fossilen Brennstoffindustrie. Die wohl größte Klimaschutzdemonstration aller Zeiten fand am 23. September 2014 in New York City im Vorfeld eines von UN-Generalsekretär Ban Ki-moon sonders einberufenen Klimagipfels statt und vereinte unterstützt von zahllosen Organisationen, Institutionen und gesellschaftlichen Gruppen deutlich über 300 000 Menschen aus allen Segmenten der Zivilgesellschaft. Mit dabei waren bedeutende Politiker und Prominente wie Al Gore und Leonardo di Caprio. Unter dem Motto „Divest“ setzten sie ein Zeichen und forderten eindringlich eine radikale Energiewende, die Beendigung aller Subventionen für konventionelle Energieträger und den Abzug des Kapitals aus der althergebrachten fossilen Wirtschaft. © Manfred Quaas, 19.10.2016 29 30