4. Zu warm, zu hoch, zu sauer - Die bedrohte Zukunft der Meere

Werbung
4. Zu warm, zu hoch, zu sauer
Das Meer und der Klimawandel
Noch nie war das arktische Eis so dünn
Im Arktischen Ozean schmilzt den Eisbären der Lebensraum unter den Tatzen hinweg.
Bereits im Sommer 2012 war die Eisfläche auf ein Rekordniveau von weniger als 3,5
Millionen Quadratkilometer zurückgegangen. Im Winter 2015 erreichte das Meereis gerade
mal eine Ausdehnung von etwa 14,5 Millionen Quadratkilometern, ein Minusrekord seit
Beginn moderner Satellitenaufzeichnungen im Jahre 1973. Die arktischen Packeismassen
haben sich innerhalb weniger Jahrzehnte halbiert. Die Arktis könnte bereits im Sommer 2050
mit hoher Wahrscheinlichkeit eisfrei sein. Ende Dezember 2015 erreichte ein
Warmluftvorstoß den Nordpol, was zu für diese Jahreszeit außergewöhnlichen
Temperaturen um null Grad führte – ein neuer arktischer Hitzerekord.
Der Klimawandel macht sich rund um den Nordpol am ehesten bemerkbar, weil mit der
Eisschmelze auch die Albedo, das Rückstrahlvermögen der hellen Eisoberfläche, zurückgeht
und die Sonnenenergie vom dunklen Meerwasser besser absorbiert wird. Das Wasser
erwärmt sich weiter und das Eis schmilzt schneller, ein sich selbst verstärkender
Rückkopplungseffekt. Die Meereisdecke schrumpft nicht nur, sie wird auch immer dünner.
Dickes, mehrjähriges Eis findet sich seltener. Häufig besteht die Eisdecke aus dünnem,
einjährigem Eis, auf dem sich Schmelzwasser großräumig ausbreitet.
Die Kryosphäre, in der Wasser in gefrorenem Zustand vorliegt, ist insofern ein gewichtiges
„Klimathermometer“ als sie ausgeprägten saisonalen Schwankungen unterliegt, den
Energiehaushalt der Erde maßgeblich beeinflusst und der fortschreitenden Erderwärmung
ein unverkennbares Gesicht gibt. Während die mittlere Lufttemperatur weltweit seit 1850
(also vor der industriellen Revolution) bis in die Gegenwart (2015) nur um ein einziges Grad
Celsius angestiegen ist, übersteigt die bodennahe Lufttemperatur in der Arktis die globale
Erwärmung bereits um das Zwei- bis Dreifache.
Die aktuellen Klimamodelle können dieses als arktische Verstärkung bezeichnete Phänomen
noch nicht korrekt abbilden. Anfang 2016 hat die Deutsche Forschungsgemeinschaft einen
Sonderforschungsbereich „Arktische Klimaveränderungen“ eingerichtet, an dem mehrere
Forschungsinstitute und Universitäten beteiligt sind, darunter das Leipziger Leibnitz-Institut
für Troposphärenforschung und das Alfred-Wegener-Institut für Polar- und Meeresforschung
Bremerhaven. Warum das Eis der Arktis so schnell schmilzt und was für Auswirkungen das
auf das Wetter in Europa haben dürfte, sind dabei zentrale Fragen, die möglichst präzise
beantwortet werden sollen. Mehrere Expeditionen in den Arktischen Ozean mit dem
Forschungsschiff „Polarstern“ sind vorgesehen, so im Sommer 2017 bis zur Eiskante am
Nordpol. Später soll die „Polarstern“ sogar im Eis einfrieren und 14 Monate lang durch das
Eismeer driften.
1
Die Jahre 2014 und 2015 waren die wärmsten seit Beginn der Wetteraufzeichnungen im
Jahre 1880, teilte die US-Behörde für Wetter- und Meeresforschung (NOAA) kürzlich mit. Die
globalen Jahresmittelwerte der bodennahen Lufttemperaturen lagen um 0,8 ° Celsius über
dem Mittel des 20. Jahrhunderts von 13,9 ° Celsius. Hinter den Rekordwerten steht nicht
zuletzt eine Erhöhung der Oberflächentemperaturen der Ozeane, die um 0,6 ° Celsius über
den Durchschnitt des vergangenen Jahrhunderts angestiegen sind. Die Auswertung der
längsten Meeresmessreihe der Welt auf Helgoland hat ergeben, dass die Nordsee in den
letzten 50 Jahren um 1,7 ° Celsius wärmer geworden ist.
Die globalen Mittelwerte verbergen gravierende Temperaturunterschiede zwischen den
polaren, gemäßigten und subtropischen Breiten, zwischen den Kontinenten und Ozeanen,
aber auch in regionaler und lokaler Hinsicht. Zu den geographischen kommen die saisonalen
Unterschiede im Jahreslauf. Weltweit möglichst gleichmäßig verteilte Messwerte müssen in
komplizierten Rechenprozessen gewichtet und zusammengeführt werden, um einen
überprüfbaren und damit glaubwürdigen Jahresmittelwert zu erhalten.
Werfen wir einen Blick auf die nebenstehenden Grafiken! Die erste Grafik zeigt das
Gleitende 12-Monatsmittel der globalen Oberflächentemperatur seit 1880. Genau gesehen
ist die Abweichung vom Mittel der Jahre 1951 bis 1980 dargestellt. Gleitend bedeutet, dass
nach Ablauf jedes Monats der Mittelwert der jeweils vorausgegangenen zwölf Monate neu
berechnet und eingezeichnet wird. So erhält man eine um saisonale Schwankungen
bereinigte Größe, die den Klimawandel seit Anfang des 20. Jahrhunderts deutlich erkennbar
macht und jedes Jahr fortgeschrieben werden kann.
Die zweite Grafik wurde von dem Wissenschaftlertrio Michael Mann, Raymond Bradley und
Malcolm Hughes bereits 1998 veröffentlicht und ist als Hockeyschläger-Kurve bekannt
geworden. Die Grafik veranschaulicht die Klimaentwicklung über das ganze letzte
Jahrtausend, wobei die blau vermerkten Temperaturen der Vergangenheit auf sogenannten
Proxies wie Baumringen, Eisbohrkernen, Korallen und historischen Schriften beruhen. Die
auf direkten Messungen mit Thermometern basierenden Daten sind in der Grafik rot
dargestellt. Während sich die blauen Daten wie ein flacher Schaft eines Hockeyschlägers
durch die Jahrhunderte ziehen, weisen die roten Daten aus der Neuzeit wie bei einem
Schlägerblatt steil nach oben. Nach Jahrhunderten natürlicher Temperaturvariabilität zeigt
sich im 20. Jahrhundert eine gravierende Veränderung im Klimasystem.
Die dritte Grafik ist die berühmte Keeling-Kurve. Die von Charles David Keeling 1957 auf dem
Vulkan Mauna Loa auf Hawaii gestartete Messreihe dokumentiert den kontinuierlichen
Anstieg des Kohlendioxidgehaltes in der Atmosphäre im Verlauf von über fünf Jahrzehnten
und gibt zugleich die typischen Konzentrationsschwankungen – das „Atmen“ der Biosphäre –
im Jahresrhythmus wieder. Zwischen 1958 und 2015 hat sich der Anteil des Treibhausgases
CO2 von 317 ppm auf 400 ppm (Millionstel) erhöht. Das 400-ppm-Niveau ist eine
Rekordmarke, die in den letzten zwei Millionen, wenn nicht gar 20 Millionen Jahren der
Erdgeschichte nicht überboten worden ist.
2
Trotz seines geringen Anteils von „nur“ 400 Millionstel am Volumen der gesamten
Atmosphäre, trägt Kohlendioxid als Treibhausgas am meisten zur globalen Erwärmung bei.
Der Treibhauseffekt entsteht dadurch, dass die Lufthülle weitgehend durchlässig für die
kurzwellige Sonneneinstrahlung, jedoch wenig durchlässig für die langwellige
3
Infrarotstrahlung ist, die von der warmen Erdoberfläche und der erwärmten Luft
zurückgeworfen wird. Die Treibhausgase absorbieren die infraroten Strahlen und erwärmen
die Erde wie in einem gläsernen Treibhaus. Ohne den natürlichen Treibhauseffekt läge die
mittlere Temperatur der Erde nicht bei lebensfreundlichen 15 ° Celsius, sondern bei recht
ungemütlichen -18 ° Celsius. Der menschengemachte Treibhauseffekt, verursacht vor allem
durch das Verbrennen fossiler Brennstoffe wie Kohle, Erdöl und Erdgas, verstärkt die
Erderwärmung und fördert den Klimawandel. Unsere Zivilisation hat bislang die Atmosphäre
Jahr für Jahr um mehr als 10 Gigatonnen Kohlendioxid „bereichert“.
Außer dem Kohlendioxid (CO2 ) gelten auch Methan (CH4 ), Lachgas (N2O ) und verschiedene
Fluorkohlenwasserstoffe als bedeutsame Klimatreiber. Die eher kurzlebigen Emissionen
stammen aus einer Vielzahl von Quellen, etwa Dieselmotoren und Heizkesseln oder aus der
Viehhaltung. Fluorkohlenwasserstoffe werden als Kältemittel eingesetzt. Ein klimawirksames
Gas ist schließlich auch der Wasserdampf, dessen Konzentration der Mensch allerdings kaum
verändern kann. Unvorstellbar große Mengen Wasserdampf verdunsten von den Ozeanen,
bewegen sich in der Atmosphäre, kondensieren und fallen als Niederschläge zu Boden.
Warme Luft kann mehr Wasserdampf halten, was wiederum die Erwärmung verstärkt.
Etwa die Hälfte des in die Atmosphäre emittierten Kohlendioxids gelangt in Form von
Kohlensäure in die Weltmeere. Im Gegensatz zum Festland nimmt der Ozean mehr
Kohlendioxid auf, als er abgibt. Das Meer gilt deshalb als CO2-Senke, während das Land eine
starke CO2-Quelle darstellt. Meerwasser enthält fünfzigmal mehr Kohlenstoff als die
Atmosphäre. Die größten Kohlenstoffreservoire – geschätzte 30 Millionen Gigatonnen –
befinden sich im Sediment am Meeresboden.
Die Veränderung des Weltklimas hat auf das Weltmeer vielfältige Auswirkungen, an vorderer
Stelle die Erwärmung des Meerwassers und den damit verbundenen Anstieg des
Meeresspiegels. Extremwetterlagen wie tropische Wirbelstürme dürften sich häufen, auch
Meeresströmungen könnten sich verändern. Die zunehmende Versauerung des
Oberflächenwassers wird den Reichtum des Lebens im Meer beeinträchtigen und die
Artenvielfalt vermindern.
Die Weltmeere haben eine gewaltige Wärmespeicherkapazität und bunkern mehr Wärme
als bisher angenommen wurde. Peter Gleckler und seine Kollegen vom Lawrence Livermore
National Laboratory in Kalifornien haben herausgefunden, dass sich die Speicherkapazität
der Meere in den vergangenen 150 Jahren wesentlich erhöht hat. Sie nutzten aktuelle
Messdaten von Argo-Treibbojen, die seit Anfang der 2000er Jahre überall in den
Weltmeeren aus den obersten 2000 Metern Daten sammeln und sehr genaue
Temperaturprofile liefern, und verglichen sie mit Tiefsee-Messungen aus den neunziger
Jahren und zahlreichen weiteren Daten aus der Vergangenheit bis hin zu den Ergebnissen
der ersten ozeanografischen Expedition mit der „Challenger“ 1872 – 1876. Sie konnten
nachweisen, dass sich die Wärmeaufnahme in den letzten Jahrzehnten verdoppelt hat,
4
wobei die Tiefsee eine zunehmende Rolle spielt. Offen aber bleibt die Frage, wie viel Wärme
das Weltmeer in Zukunft noch aufnehmen kann.
Die Empfindlichkeit des Klimas gegenüber Veränderungen im Strahlungshaushalt der Erde,
insbesondere der CO2-Konzentration in der Atmosphäre, wird durch die Klimasensitivität
beschrieben. Ihre Größe wird in Grad Celsius pro Watt je Quadratmeter bestimmt, meist
aber als die Erwärmung der global gemittelten Temperatur der Erde nach einer dauerhaften
Verdopplung der CO2-Konzentration von vorindustriellen 280 ppm auf dann 560 ppm
angegeben. Seit Entdeckung der wärmenden Wirkung von Kohlendioxid wurden viele
verschiedene Werte für die Klimasensitivität publiziert. Als wahrscheinlichster Standardwert
gelten 3 ° Celsius – die Unsicherheitsspanne beträgt 1,5 bis 4,5 ° Celsius.
Die Klimasensitivität kann leicht mit der prognostizierten Erwärmung bis zum Jahr 2100
verwechselt werden. Obwohl sich die Zahlenwerte ähneln, könnte sich die CO2Konzentration bis zum Ende des Jahrhunderts bereits mehr als verdoppelt haben,
andererseits hinkt das Klimasystem wegen der Trägheit der Ozeane in seiner Reaktion
hinterher. Ein entscheidender Unterschied – die Erwärmung bis zum Jahr 2100 hängt von
den Menschen ab. Bei einem entschlossenen Handeln im Klimaschutz sollte die Erwärmung
weniger als 2 ° Celsius betragen. Blasen wir aber weiter viel zu viel Kohlenstoffdioxid in die
Luft, könnte sich die Temperatur um 5 ° Celsius und mehr aufheizen. Das Verbrennen aller
fossilen Brennstoffe auf der Erde würde zu einer CO2-Konzentration von etwa 1500 ppm
führen, wobei sich die Luft über den Kontinenten um die 20 ° Celsius und über den Polen um
die 30 ° Celsius erhöhen dürfte. Die Klimasensitivität hingegen ist eine vom Handeln des
Menschen unabhängige physikalische Größe.
Anfang 2016 stellte das Potsdam-Institut für Klimafolgenforschung eine interessante Studie
vor. Der Mensch sei zu einer geologischen Kraft geworden, die die nächste Eiszeit verhindern
werde. Die Wissenschaftler vom PIK haben den Code der Eiszeiten geknackt und in dem
Verhältnis von Sonneneinstrahlung auf die Erde und der Kohlendioxidkonzentration in der
Atmosphäre die Schlüsselfaktoren gefunden, um die letzten acht Eiszyklen der Erdgeschichte
zu erklären. Schon eine moderate Störung des natürlichen Kohlenstoffhaushalts durch den
Menschen kann die nächste Eiszeit um 100.000 Jahre verschieben. Schon heute bestimmt
die Menschheit mit ihren Emissionen aus fossilen Brennstoffen die zukünftige Entwicklung
unseres Planeten.
Extremwetter auf dem Vormarsch
In den letzten Jahrzehnten überschlugen sich die Meldungen zu Unwettern in aller Welt. So
war 2005 ein Rekordjahr für verheerende Tropenstürme. Der Hurrikan Katrina überflutete
die Stadt New Orleans, kostete über 1800 Menschen das Leben und verursachte einen
Schaden von 108 Milliarden US-Dollar. Der Hurrikan Wilma war der intensivste Wirbelsturm,
der bis dato im Atlantik registriert wurde. Der Tropensturm Vince entwickelte sich bei
5
Madeira und traf in abgeschwächter Form auf die iberische Halbinsel. 2005 wurden
insgesamt 28 Hurrikans registriert.
Kaum weniger ungestüm setzte sich die Serie in den Folgejahren fort. Der Hurrikan Sandy,
gut 1800 Kilometer breit, wütete 2012 in der Karibik und an der US-Küste bis hin nach New
York, forderte 210 Todesopfer und verursachte Schäden von 75 Milliarden US-Dollar. Der
Supertaifun Haiyan 2013 war einer der stärksten Wirbelstürme, die seit dem Beginn
verlässlicher Wetteraufzeichnungen beobachtet wurden. Mit Windböen von extremen 379
Kilometern pro Stunden richtete der Taifun auf den Philippinen ein Chaos an. 2015 war der
Superzyklon Pam einer der mächtigsten je gemessenen Wirbelstürme im Südpazifik. Er traf
mit voller Wucht auf den Inselstaat Vanuatu und richtete auch auf den Fidschis, den
Salomonen und Kiribati schwere Zerstörungen an.
Diese Häufung kann nicht nur Zufall sein. Sind die nie dagewesenen Wetterextreme Folgen
des Klimawandels? Im Einzelfall lässt sich die globale Erderwärmung als Ursache nur schwer
nachweisen. Zwischen den vielen Einzelereignissen aber wird ein Zusammenhang deutlich.
Es geht zu wie bei einem Spiel mit gezinkten Würfeln. Eine Sechs kann es immer mal geben
und man weiß nicht, wann es passiert. Häufen sich die Sechsen, wurde der Würfel
manipuliert – in unserem Falle Erde und Meer spürbar erwärmt.
Die Wetterbedingungen zwischen kalt und warm verteilen sich entlang einer Glockenkurve,
die sich bei steigenden Temperaturen langsam nach rechts ins Heiße verschiebt. Die Zahl der
kalten Tage verringert sich, während die Zahl der heißen zunimmt.
Die Wissenschaft kann heute in vielen Fällen quantitative Aussagen machen und feststellen,
inwieweit der vom Menschen ausgelöste Klimawandel die Wahrscheinlichkeit des Eintretens
von Extremereignissen beeinflusst hat und welchen Anteil er an den gemessenen
Rekordwerten hatte. Die Forscher stützen sich bei ihren Untersuchungen auf drei Pfeiler:
elementare Physik, statistische Analyse und Computersimulationen. Warme Luft speichert
Energie und mehr Wasser, bis es plötzlich abregnet. In den Temperatur- und
Niederschlagsdaten finden sich statistisch klare Trends. Modellrechnungen bestätigen den
Zusammenhang zwischen Erwärmung und Rekordwerten bei Temperatur und Niederschlag.
6
Während bei extremen Regenfällen und Hitzewellen ein direkter Zusammenhang erkennbar
ist, sollte bei den tropischen Wirbelstürmen, den Hurrikanen, Taifunen und Zyklonen,
zwischen Häufigkeit und Intensität unterschieden werden. Bei höheren Wassertemperaturen
werden die Tropenstürme zwar stärker, aber nicht notwendigerweise häufiger. Vor dem
Hintergrund einer globalen Erwärmung kann aus einem Unwetterereignis rasch ein nie zuvor
beobachtetes Rekordereignis werden.
Die tropischen Wirbelstürme dürften in Zukunft aller Wahrscheinlichkeit weiter Schlagzeilen
machen. Die Ozeane sind wärmer geworden und erreichten 1975 im Durchschnitt 16,7 °
Celsius und waren damit etwa 0,3 ° Celsius wärmer als im Durchschnitt der Jahre 1981 bis
2010. Der Meeresspiegel steigt zwar langsam, aber sicher. Zugleich drängen immer mehr
Menschen ans Meer. Die Küstenräume sind durch Sturmfluten und Wirbelstürme besonders
gefährdet. Hurrikans schaden oft weniger durch den starken Wind, als vielmehr durch
weiträumige Überschwemmungen verbunden mit Starkregen. Das Schadenspotential wird
immer größer.
Die globale Erwärmung zeigt sich im Meerwasser, an den Küsten, auf dem Festland und in
der bewegten Atmosphäre unseres Planeten. Hitzewellen mit einigen Grad über dem
langjährigen Durchschnitt plagen auch den Ozean und schädigen seine Ökosysteme. So hatte
sich eine ungewöhnlich lang ausdauernde Warmwasserblase vom Winter 2013/2014 bis
Ende 2015 über die Wasserfläche des Nordpazifiks ausgebreitet. Aufgrund seiner geringeren
Dichte durchmischte sich das warme Oberflächenwasser kaum noch mit dem
nährstoffreichen Tiefenwasser. Das führte zu einem Nähstoffmangel für das Phytoplankton,
so dass mehrere Arten von Zooplankton und Fischen in kühlere Regionen abwanderten.
Neueste Erkenntnisse und Vorhersagen zum Klimawandel belegen, dass der Trend in den
polaren Regionen am stärksten ausgeprägt ist, dass die Temperaturunterschiede zwischen
den Jahreszeiten abnehmen, während die täglichen Schwankungen zunehmen. Die hohen
Breiten rücken bezüglich ihrer Temperaturzyklen näher an den Äquator. Stechmücken, die
tropische Krankheiten übertragen können, erobern langsam gemäßigte Breiten.
Das Schrumpfen der arktischen Eisfläche beeinflusst den Energieaustausch zwischen Ozean
und Atmosphäre. Messdaten zeigen, dass die Höhenwinde der Nordhalbkugel in letzter Zeit
um etwa 20 % schwächer geworden sind. Die Höhenwinde wirken auf die zonalen
Windsysteme, insbesondere den ostwärts gerichteten polaren Jetstream (Strahlstrom), der
große Schleifen nach Norden oder Süden schlägt. Nimmt die Strömung einen Bogen nach
Süden, so dringt kalte Luft Richtung Äquator vor, während eine Nordschleife warme Luft zum
Pol hin lenkt.
Die Schleifen bestimmen die regionalen Wetterlagen und wandern normalerweise mit der
Strömung. Die mittleren Breiten erleben dann wechselhaftes Wetter. Werden die zonalen
Winde aber schwächer, dann kann der Jetstream zum Stillstand kommen, was langlebige,
extreme Großwetterlagen mit Hitze und Trockenheit oder Starkregen mit Überflutungen zur
Folge hat. Dahinter versteckt sich ein subtiler Resonanzmechanismus, der stehende
7
planetarische Wellen erzeugt und verstärkt. Seit dem Jahre 2000 sind solche
Resonanzereignisse fast doppelt so oft aufgetreten wie zuvor. Parallel dazu hat sich die
Arktis doppelt so schnell erwärmt wie der Rest des Planeten.
Die regionalen Wetterextreme, seien es nun Hitzewellen oder Rekordregenfälle, dürften in
den nächsten Jahren weiter zunehmen. Heftige Hitzeextreme mit Todesfällen,
Ernteverlusten und Waldbränden wie 2010 in Russland, 2012 in den USA, 2013 in China und
2015 in Indien und Pakistan oder extremen Regenfällen mit drei Jahrhundertfluten seit 1997
in Deutschland und Rekordregen mit verheerenden Überschwemmungen im Jahr 2010 in
Pakistan und in den USA können sich bald wiederholen. Die jährlichen Wärmerekorde der
letzten Zeit sind mit einer Wahrscheinlichkeit von 95 Prozent, das heißt offensichtlich, vom
Menschen verursacht.
Am 21. Juli 2016 wurde in der Wetterstation der Stadt Mitribah in Kuwait ein neuer
Weltrekord aufgestellt. Die Temperatur erreichte einen Spitzenwert von 54,0 ° Celsius, eine
auch für die hitzegewohnten Anrainer des Persischen Golfs bedrohliche Größe. US-Forscher
haben berechnet, dass bei einem ungebremsten Anstieg der Treibhausgase die
Sommertemperaturen auf über 60 ° Celsius ansteigen dürften. Selbst für junge und gesunde
Menschen wäre das nicht mehr zu ertragen. Die Region am Persischen Golf würde in
absehbarer Zukunft unbewohnbar.
Mit dem pazifischen Klimaphänomen El Niño hatten wir uns schon im Kapitel „Dynamische
Erde und ruhelose See“ befasst. An dieser Stelle wollen wir der Frage nachgehen, inwieweit
El Niño Extremwetter befördert und dabei der globale Klimawandel eine Rolle spielt. Das
gekoppelte ozeanisch-atmosphärische Zirkulationssystem „El Niño-Southern Oscillation“,
kurz ENSO, kann man sich als eine Klimaschaukel vorstellen, die in unregelmäßigen
Intervallen von mehreren Jahren zwischen dem warmen El Niño (auch Christkind genannt)
und der kalten La Niña (das Mädchen) hin und her schwingt. In den El Niño-Jahren kommt es
zu einer ausgeprägten Erwärmung des tropischen Pazifik, die weltweit verheerende
Wetterkapriolen auszulösen vermag. Aktuelle Beobachtungen weisen dem aus der Physik
wohlbekannten Prinzip der Resonanz bei der Entstehung und Verbreitung der El NiñoSchwingungen eine tragende Rolle zu.
Auch wenn das ENSO-Phänomen in seinen Einzelheiten kompliziert ist, sollten künftig
verlässliche Vorhersagen möglich werden, um die betroffenen Menschen rechtzeitig auf
bevorstehende Extremwetterlagen vorzubereiten. So wurde der jüngste El Niño 2015/16 von
Wissenschaftlern über ein Jahr im Voraus mit 75 % Wahrscheinlichkeit angekündigt. Die
Vorhersage gelang mit einem neuen Algorithmus, der sich auf eine Netzwerkanalyse der
Lufttemperaturen im Pazifikraum stützte.
Der El Niño von 2015/16 war zugleich der stärkste aller Zeiten. Und er lag im wärmsten Jahr
seit Beginn zuverlässiger Wetteraufzeichnungen. Auch der Super-El-Niño des vergangenen
Jahrhunderts 1997/98 wurde knapp überboten. Eine Korrelation zwischen superstarken El
8
Niños und den wärmsten Jahren der letzten Jahrzehnte ist unübersehbar. Extreme El Niños
dürften bei ungebremstem Klimawandel häufiger werden. Die Erderwärmung könnte ein
immer heftigeres Umschlagen der Wetterlagen von einem Extrem ins andere bewirken.
Ein von der Weltbank im Jahre 2014 veröffentlichter Report des Potsdam-Instituts für
Klimafolgenforschung untersuchte die soziale Vulnerabilität der Menschen in den vom
Klimawandel besonders betroffenen Regionen. Der Bericht zeigt, dass es kaum eine von den
Folgen des Klimawandels ausgenommene Region gibt und das Risiko für die Menschen dort
am größten ist, wo mehrere Klimafolgen zusammenwirken. Der Bericht verdeutlicht
zugleich, dass es vor allem die Armen der Welt trifft, von Lateinamerika und der Karibik über
Afrika und den Mittleren Osten bis hin zu Ost- und Zentralasien. Die Ergebnisse geben Anlass
zur Sorge: Ernteausfälle, Wasserknappheit, Auswirkungen auf die Gesundheit, Folgen für die
Fischerei, für Tourismus und für Küstenschutz, häufige Korallenbleichen. Besonders
Entwicklungsländer werden die Klimafolgen zu spüren bekommen und gerade ihnen fehlen
die Mittel, um sich darauf einzustellen.
Der stetige Anstieg des Meeresspiegels
Eine robuste und verlässliche Risikoabschätzung des Meeresspiegelanstiegs in
Vergangenheit und Zukunft versprechen zwei Studien, die Anfang des Jahres 2016 in der USFachzeitschrift „Proceedings of the National Academy of Sciences“ veröffentlicht wurden.
Die Daten zum zukünftigen Meeresspiegelanstieg sind online frei verfügbar. Die eine Studie
beschäftigte sich mit dem Meeresspiegelanstieg in der Zukunft, die andere untersuchte den
Meeresspiegelanstieg in der Vergangenheit. Bemerkenswert, beide Studien liefern fast
identische Meeresspiegelabschätzungen für das 21. Jahrhundert.
Wenn der Ausstoß von Treibhausgasen nicht entschlossen gesenkt wird, dürfte der
Meeresspiegel bis zum Ende des Jahrhunderts um 50 bis 130 Zentimeter steigen. Bei einer
ambitionierten Klimapolitik wie sie das Pariser Klimaabkommen fordert, sollte der
Meeresspiegelanstieg bis zum Jahre 2100 auf 20 bis 60 Zentimeter zu begrenzen sein. Die
Aussagen für die Zukunft können nicht auf eine einzelne Zahl herunter gebrochen werden.
Sie werden durch eine Unsicherheitsspanne ausgedrückt, eine Risikokalkulation, die
vernünftige Einschätzungen zum schlimmsten wie auch zum günstigsten Fall möglich macht.
Die Ursachen für das Anschwellen der Meere beruhen erstens auf der Ausdehnung des
durch den Klimawandel erwärmten Meerwassers, zweitens auf der Schmelze der
Hochgebirgsgletscher wie in den Alpen, in den Anden oder in Tibet und drittens auf dem
Schrumpfen der Eisschilde auf Grönland und in der Westantarktis.
Die thermische Expansion – die Ausdehnung des Wassers bei Erwärmung – ist ein alltäglicher
physikalischer Effekt. In welchem Ausmaß die thermische Expansion zum globalen
Meeresanstieg beigetragen hat, wurde bislang wohl unterschätzt. Nach neuen
9
Berechnungen beträgt ihr Anteil etwa drei Millimeter pro Jahr, doppelt so viel wie vorher
angenommen. Dazu kommen noch in fast gleicher Höhe Masseverluste der Gletscher und
der polaren Eisschilde – das macht zusammen etwa fünf Millimeter pro Jahr. Jüngere
Satellitendaten zeigen ebenfalls steigende Tendenz. In den letzten 3000 Jahren ist der
Meeresspiegel nie schneller gestiegen als heute.
Während zwischen der Erwärmung und der thermischen Expansion des Meerwassers ein
einfacher kausaler Zusammenhang besteht, sind die Folgen der Gletscherschmelze schwerer
überschaubar. Für Länder wie beispielsweise Peru oder Pakistan werden negative
Auswirkungen greifbar. So hat der Klimawandel nördlich der peruanischen Hauptstadt Lima
bereits ein Viertel der Gletscher wegschmelzen lassen, die bislang die staubtrockene Region
mit dem notwendigen Trinkwasser versorgt haben. Anhaltende Wasserknappheit ist nun die
Folge. In Pakistan hat reichlich fließendes Wasser aus den nahen Hochgebirgen das
Entstehen einer intensiven Landwirtschaft im Tal des Indus gefördert. Mehrfach wurde das
Land schon von schweren Überflutungen heimgesucht. Wenn die Gebirgsgletscher weiter
schwinden und die Bewässerung des Industals nicht mehr absichern, könnte auch hier das
Wasser knapp werden.
Zwei Drittel des Süßwassers der Erde sind in den mächtigen Eisschilden Grönlands und
Antarktikas gespeichert. Die von Satelliten aus sichtbare Abschmelzfläche auf Grönland hat
sich in den letzten Jahrzehnten um mehr als ein Viertel vergrößert, wobei sich mächtige Eisund Schmelzwasserströme ausbildeten. Je größer der Eisverlust ist, desto mehr sinkt die
Eisoberfläche nach unten, wo es wärmer ist und sich der Eisverlust weiter verstärkt. In
direktem Kontakt mit dem Meerwasser „kalben“ die Gletscher und schwimmen als Eisberge
davon.
Die riesigen Eispanzer des antarktischen Kontinents galten dem Klimawandel gegenüber
lange wegen ihrer großen Masse und der direkten Lage am kalten Südpol als vergleichsweise
stabil. Während auf Grönland die Eisschmelze an der Oberfläche eine wichtige Rolle spielt,
ist das langsame Fließen des Eises in den Ozean für Antarktika bedeutsamer. Die vom
Festland ins Meer ragenden und aufschwimmenden Eisschelfe reagieren sehr empfindlich,
denn sie werden durch relativ warmes Meerwasser von unten aufgeschmolzen. Wenn sich
der Untergrund, auf dem das Eis aufliegt, unterhalb der Wasserlinie befindet und gar ins
Landesinnere abfällt, kann das zum Kippen des ganzen Systems führen. Von hinten drückt
schwerkraftbedingt dickeres Eis nach und es kommt zu weiterem Eisverlust – ein sich selbst
verstärkender Mechanismus.
Das ewige Eis ist vergänglich. Ein Blick in die geologische Vergangenheit offenbart enorme
Schwankungen des Meeresspiegels bei recht geringen Veränderungen des globalen Klimas.
Vor 40 Millionen Jahren, im späten Eozän, war die Erde völlig frei von polaren Eiskappen. Die
globale Mitteltemperatur lag bei 17 ° Celsius, aber der Meeresspiegel knapp 70 Meter höher
als heute. Während des letzten glazialen Maximums vor 20.000 Jahren lag der
Meeresspiegel dagegen 120 Meter tiefer und die globale Mitteltemperatur bei nur 10 °
10
Celsius. Zwischen dem Klimawandel, der globalen Temperatur und dem Meeresspiegel
besteht ein erkennbarer Zusammenhang. Als Faustregel kann gelten: Ändert sich die globale
Mitteltemperatur nur um 1 °Celsius, so kann der Meeresspiegel langfristig um bis zu 20
Meter steigen oder sinken.
Schon heute trägt Antarktika mit fast einem Millimeter zum jährlichen Meeresspiegelanstieg
bei. Das scheint eher winzig zu sein, wenn man die spekulativen Prognosen vor Augen hat,
die einen viele Meter hohen Meeresanstieg nach dem Abschmelzen aller Gletscher und
Eisschilde und ein völlig verändertes Gesicht unseres Planeten heraufbeschwören. Das
völlige Abschmelzen des grönländischen Eisschildes dürfte den Meeresspiegel im Laufe
mehrerer Jahrhunderte um etwa sieben Meter ansteigen lassen. Der labile westantarktische
Eisschild könnte noch einmal sieben Meter drauflegen. Das Abschmelzen der gesamten
Antarktis würde im Laufe der Jahrtausende zu einem Meeresspiegelanstieg von 70 Metern
führen.
Der (un)aufhaltsame Anstieg des Meeresspiegels bedroht in erster Linie zahlreiche
Inselstaaten, die kaum aus dem Ozean ragen, aber auch Länder mit breiter Küstenfläche und
einem tief liegenden Hinterland wie die Niederlande oder Bangladesch. Malé, die Hauptstadt
der Malediven, liegt nur einen Meter über dem Meeresspiegel. Die höchsten „Berge“ der
Inselgruppe Tuvalu sind gerademal fünf Meter hoch. In Bangladesch wohnen 10 Millionen
Menschen nicht höher als einen Meter über dem Meeresspiegel. In den unter NN liegenden
Niederlanden übt man sich beim Bau schwimmender Inseln.
Die Meere reagieren zunehmend sauer
Sie haben sicher schon einmal etwas vom pH-Wert gehört und wissen wahrscheinlich auch
was ein pH-Wert ist: Der pH-Wert beschreibt den Säuregrad einer Flüssigkeit auf einer Skala
von 0 bis 14 und orientiert sich dabei an der Konzentration der Wasserstoff-Ionen im
Wasser. Eine neutrale Flüssigkeit hat einen pH von sieben, liegt der pH darunter ist sie sauer,
liegt er darüber ist sie basisch. Da die pH-Skala logarithmisch aufgebaut ist, nimmt der
Säuregrad pro ganzer Zahl – also etwa zwischen 7 und 8 um den Faktor 10 zu. Die
Deckschichten der Meere hatten in vorindustriellen Zeiten einen pH-Wert von 8,19, unter
dem Einfluss des Menschen hat sich der pH bis heute um 0,12 Einheiten auf 8,07 verändert.
Das scheint recht wenig zu sein, bedeutet aber wegen der logarithmischen Maßeinheit, dass
sich die Konzentration der Wasserstoff-Ionen um etwa ein Drittel, also ganz erheblich erhöht
hat, und das Meerwasser entsprechend saurer geworden ist.
Die Menschheit schickt sich an, die Meere durch eine massive Zufuhr von Kohlendioxid in
Sprudelwasser zu verwandeln. Beim Gasaustausch zwischen Luft und Meerwasser wird
Kohlendioxid ins Meer gepresst, immerhin acht Milliarden Tonnen im Jahr. Sobald Wasser
(H2O) mit Kohlendioxid (CO2) reagiert, entstehen Hydrogenkarbonat-Ionen (HCO3-) und
Wasserstoff-Ionen (H+), die den pH-Wert absenken. Ein Teil der freigesetzten Wasserstoff11
Ionen (H+) verbindet sich mit den im Meerwasser reichlich vorhandenen Karbonat-Ionen
(CO32-) zu Hydrogenkarbonat (HCO3-). In den Körperflüssigkeiten der Organismen laufen
ähnliche Reaktionen ab. Das entstandene Hydrogenkarbonat (HCO3-) entzieht dem
Meerwasser, aber ebenso den Körperflüssigkeiten der Organismen erhebliche Mengen an
Karbonat-Ionen (CO32-). Viele Meeresorganismen wie Algen und Plankton, Muscheln,
Schnecken oder Korallen brauchen Kalziumkarbonat (CaCO3), um ihre Kalkskelette
aufzubauen.
Die Versauerung der Ozeane wurde erstaunlicherweise noch vor wenigen Jahren lediglich in
Fachkreisen diskutiert und von der Öffentlichkeit sogar positiv aufgenommen, weil doch ein
Großteil des Treibhausgases Kohlendioxid im Meer verschwinde und die Atmosphäre
entlaste. Die Aufnahme der Wärme durch die Ozeane verlangsamt die Erwärmung der
Atmosphäre. Um den Preis des Meeresspiegelanstiegs fließt das Wasser, das abschmelzende
Gletscher und Eisschilde abgeben, ins Meer. Im Gegensatz zum Land nimmt das Meer als
„Senke“ mehr Kohlendioxid auf als es abgibt. Im Zuge der Ozeanversauerung werden
menschengemachte CO2-Emissionen langfristig im Meer gespeichert.
Der Ozean ist ein recht träges System. Bis er sich einmal durchmischt hat, dauert es tausend
Jahre. Wegen seiner hohen Aufnahmekapazität für Kohlendioxid bestimmt er letztlich den
atmosphärischen CO2-Gehalt. In einem zukünftigen Gleichgewicht zwischen Ozean und
Atmosphäre wird das ozeanische Reservoir rund 80 % aller anthropogenen Emissionen
aufgenommen haben. Bei Berücksichtigung der CO2-puffernden Wirkung der TiefseeKalksedimente könnten theoretisch sogar 95 % der anthropogenen CO2-Emissionen vom
Ozean geschluckt werden.
Praktisch jedoch wird eine stärkere Kohlendioxidabsorption durch das Meer beim Transport
in die Tiefsee ausgebremst. In den oberen Schichten des Meeres nimmt pflanzliches
Plankton Kohlendioxid auf. Wenn das Plankton abstirbt, sinkt es als Detritus in die Tiefe, wo
es von Bakterien in anorganische Bestandteile zerlegt wird. Steigende Wassertemperaturen
beschleunigen diese Remineralisierung und reduzieren den Transfer von Kohlenstoff in den
tiefen Ozean.
Die Ozeanversauerung wird auch als „böser Zwilling“ der Erderwärmung bezeichnet, bedroht
sie doch die die marinen Organismen und Lebensgemeinschaften nicht weniger als die
Klimaerwärmung die empfindlichen Ökosysteme an Land. Die Konsequenzen der
Versauerung für sind heute tendenziell überschaubar, lassen aber kaum präzise Aussagen für
einzelne Spezies oder ökologische Wechselbeziehungen zu, weil dazu Langzeitstudien an
einer Vielzahl von Organismen notwendig wären. Wissenschaftler aus aller Welt haben unter
Laborbedingungen mehrfach Experimente durchgeführt, bei denen sie marine Pflanzen und
Tiere in angesäuertem Wasser gehalten haben, um sie unter veränderten
Lebensbedingungen zu beobachten und zu testen. Sind aber Laboreffekte auf das offene
Meerwasser übertragbar und relevant?
12
Um Antworten zu finden, hat sich Ulf Riebesell mit seinen Geomar-Kollegen aus Kiel als
Forschungsinstrument die „Mesokosmen“ ausgedacht, überdimensionale Plastiksäcke mit
einer Tiefe von 20 Metern und einem Volumen von 55 Kubikmetern Meerwasser samt
Kleinlebewesen, die vor Spitzbergen, in den skandinavischen Fjorden, aber auch schon vor
den Kanaren, den Kapverden und vor Hawaii verankert wurden. Die schwimmenden
Reagenzgläser werden schrittweise mit immer größeren Mengen Kohlendioxid versetzt, so
dass sie Säuregrade erreichen, die erst in 20, 40, 60, 80 oder 100 Jahren zu erwarten sind.
Die Forscher verfolgten die Entwicklung der Lebensgemeinschaften und dabei besonders die
Massenentwicklung des Phytoplanktons und die Entwicklung von Fischlarven.
Die kleinsten Planktonorganismen, das Pico- und Nanophytoplankton, könnten zu den
Gewinnern im Ozean der Zukunft gehören. Das besonders kleine Plankton wächst verstärkt
und verbraucht zugleich die Nährstoffe, die sonst größeren Planktonarten zur Verfügung
stehen. Der Boom an der Basis des Nahrungsgefüges geht zu Lasten der Kieselalgen, der
Diatomeen, die zum Mikrophytoplankton zählen. Dass auch das Zooplankton unter dieser
Veränderung leidet, ist naheliegend. Mit zunehmender Versauerung nimmt offenbar auch
die Fähigkeit der Ozeane zur Speicherung von Kohlendioxid ab.
Schwer vorherzusagen ist das Verhalten der mikroskopisch kleinen Kalkalgen, der
Coccolithophoriden, bei sinkenden pH-Werten. Einerseits ist das Treibgas Kohlendioxid
Lebenselixier der Algen, die daraus Biomasse aufbauen, andererseits wird in einem saureren
Milieu die Ausbildung der Kalkschalen erschwert. Die weit verbreitete einzellige Kalkalge
Emiliania huxleyi – sie wurde wegen ihrer klimatologischen Relevanz 2009 zur Alge des
Jahres gekürt – zeigte in einem Langzeitversuch, dass sie sich über eine Dauer von 500
Generationen evolutionär an die Erwärmung und Versauerung des Meerwassers anpassen
kann.
Genetische Eigenschaften, um sich schnell an Kalkmangel und Wärmestress anpassen zu
können, besitzen Korallen hingegen nicht. Sie haben lange Lebenszyklen von bis zu hundert
Jahren und pflanzen sich auch durch Klonen fort. Die Kalkbildung ist für Korallen
lebenswichtig und entscheidet über die deren Fortpflanzung. Der pH-Wert der Gewässer um
das australische Große Barriere-Riff hat nach jüngsten Messungen vor Ort seit 1940 um 0,2
bis 0,4 Einheiten abgenommen. Die Versauerung schreitet hier noch schneller fort als im
Weltmaßstab. Für Australien größte Touristenattraktion bedeutet dieser Trend nichts Gutes.
Nach dem Super-El-Niño von 2015/16 ereignete sich zum dritten Mal eine Korallenbleiche,
die weltweit das Korallenwachstum bremste.
Mit dem langsamen Anstieg des Meeresspiegels der Vergangenheit haben die Korallenstöcke
meist recht gut mithalten können. Zahllose Koralleninseln sind aufgrund ihrer Natur mit dem
Meeresspiegel „im Tandem“ gewachsen. Die Zukunft der tropischen Korallenatolle sieht
dagegen düster aus. Ausgebleichte Korallen verlieren ihre Regenerationsfähigkeit und
erodieren durch Sturm und Brandung.
13
In versauertem Meerwasser benötigen viele Lebewesen für den Aufbau ihrer Skelette und
Schalen mehr Energie. Manche Organismen können den Mehraufwand kompensieren,
geraten aber dennoch in Nachteil zu anderen, die mit weniger Energie auskommen. Unter
den Wirbellosen leiden neben den Korallen auch andere Weichtiere, wie Schnecken und
Muscheln, als auch Stachelhäuter, wie Seesterne und Seeigel, unter der Versauerung,
Krebstiere hingegen scheinen robuster zu sein.
Der Klimawandel beeinträchtigt die Lebensgemeinschaften im Meer in einem schwer
voraussehbaren Ausmaß. Auch marine Pflanzen und Tiere geraten in Stress, wenn sich ihre
natürlichen Lebensbedingungen vorübergehend, schleichend oder gar abrupt verändern.
Sinkende pH-Werte, erhöhte Temperaturen, mangelndes Lichtangebot, aber auch
Fressfeinde, Krankheitserreger oder Nahrungskonkurrenten können sich als Stressoren
erweisen, die das natürliche Gleichgewicht ins Wanken bringen.
An dieser Stelle ist die Anpassungsfähigkeit der gestressten Individuen gefragt:
Veränderungen der Wuchsform, des Stoffwechsels und der Ernährungsweise sind relativ
schnelle phänotypische Anpassungen. Selektive Anpassungen über wenige Generationen
entwickeln im Erbgut verankerte günstigere Eigenschaften weiter. Evolutionäre Prozesse im
klassischen Sinn, das zufällige Auftauchen einer neuen passenden Mutation, werden in der
Regel zu langsam sein, um mit Veränderungen des Lebensraums Schritt halten zu können.
Lange Zeit nahm man an, dass mobile Fische, Tintenfische und Krebse kohlensäuretolerant
seien und Veränderungen im Säure-Base-Haushalt leicht kompensieren könnten. Bei Laborund Freilandversuchen zeigten jedoch artübergreifend Fischlarven mit zunehmender
Versauerung auffällige Verhaltensstörungen und schwammen zum Beispiel auf ihre
Fressfeinde zu, anstatt zu flüchten. Saureres Meerwasser stört die Duftwahrnehmung und
den Orientierungssinn von Fischen und könnte daher die Populationsdynamik, die RäuberBeute-Beziehungen und andere ökologische Wechselwirkungen beeinflussen. Viele durch
Überfischung ohnehin gefährdete Arten sind durch den Klimawandel weiteren Bedrohungen
ausgesetzt.
Die Erwärmung und die Versauerung des Meerwassers lassen die Lebensräume vieler
mariner Arten schrumpfen. Das liegt zum einen daran, dass wärmeres Wasser weniger
Sauerstoff aufnehmen und speichern kann als kaltes, und zum anderen daran, dass Tiere bei
höheren Temperaturen bei der Futtersuche und der Fortpflanzung mehr Energie
verbrauchen. Der Klimawandel treibt die Meeresbewohner polwärts. So weichen aktive
Fische in kühlere Gewässer und größere Tiefen aus. Beim Kabeljau und vielen anderen
Fischarten kann diese Verschiebung des Lebensraumes schon heute beobachtet werden.
In den Weltmeeren entstehen immer häufiger regelrechte „Sauerstofflöcher“ (englisch
oxygen holes), die erst in letzter Zeit als potenzielle Nebenwirkung der zunehmenden
Ozeanversauerung erkannt wurden. In einem saureren Milieu dürfte auch die Stärke des
organischen Partikelregens zurückgehen, bei dem kohlenstoffreicher Ballast auf den
Meeresgrund rieselt. Dieser organische Abfall wird schon in mittleren Wassertiefen von
14
Bakterien oxidiert, was schnell zu massiven Sauerstoffmangel führen kann. Vor allem in
tropischen Gewässern zeigen sich negative Folgen für die Fischbestände und das
Fischereiwesen. Erwärmung, Versauerung und Sauerstoffmangel verstärken sich in ihren
Effekten gegenseitig.
Die Kipp-Punkte des Erdgetriebes
Der Klimawandel verändere unser robustes und stabiles Klimasystem kontinuierlich und ganz
allmählich, könnte man meinen, wenn man bei einer oberflächlichen und zu kurzfristigen
Betrachtung das Wirken der verhängnisvollen Kippvorgänge außer Acht lässt. Die
Kippelemente – oder auch Kipp-Punkte – im Klimageschehen bezeichnen Bestandteile des
Erdsystems von überregionaler Größe, die schon durch verhältnismäßig kleine externe
Störungen in einen qualitativ neuen Zustand versetzt werden können und einmal
angestoßen auch ohne äußeren Einfluss weiterlaufen. Fast immer wird dabei eine markante
Schwelle überschritten: Das Klima kippt, ein Vorgang, der häufig unumkehrbar ist.
Die Klimafolgenforschung befasst sich erst seit einem reichlichen Jahrzehnt mit den
Kippvorgängen im Klimasystem. Eine Angabe präziser Schwellenwerte für die anfälligen
Kippelemente ist derzeit nicht möglich. Trotz der zweifellos noch vorhandenen
Unsicherheiten und Unschärfen steht jedoch heute schon fest, dass eine ungebremste
Erderwärmung unumkehrbare Schäden anrichten wird.
Die Grafik zeigt die Einordnung der wichtigsten Kipp-Punkte im Erdsystem (Quelle PIK,
Potsdam). Die schmelzenden Eiskörper sind blau, die sich verändernden Strömungssystem
der Ozeane und der Atmosphäre rot und die bedrohten Ökosysteme grün markiert. Mit
einem Fragezeichen versehen sind wissenschaftlich noch nicht gesicherte Systeme.
15
Mit dem Rückgang des arktischen Meereises haben wir uns schon am Eingang des Kapitels
befasst. Die Eis-Albedo-Rückkopplung gilt als klassisches Beispiel für einen sich selbst
verstärkenden Prozess. Wenn das Eis im Sommer erst einmal völlig geschmolzen ist, dürfte
sich auch im Winter schwerlich eine stabile Eisdecke mehr bilden. Zusätzlich könnten andere
Prozesse die Eisschichten dezimieren, beispielsweise Meeresströmungen, die mehrjähriges
Eis über die Framstraße wegführen oder ein verstärkter Wärmeeintrag aus dem Atlantik und
dem Pazifik. Das ganzjährige Verschwinden des Eises wäre dann ein solcher Kipp-Punkt.
Auch mit der Gletscherschmelze, dem anstehenden Verlust des Grönlandeises und dem
möglichen Kollaps des Westantarktischen Eisschildes haben wir uns weiter vorn schon
auseinandergesetzt. Die Hochgebirgsgletscher wie die großen Eisschilde bilden sich dabei
nach dem gleichen Prinzip. Wenn der Schnee eines Winters im Sommer nicht völlig
abschmilzt und jedes Jahr neue Schneeschichten hinzukommen, wird der Altschnee unter
dem Gewicht des neuen immer weiter verdichtet, bis schließlich kompaktes, zähflüssiges
Gletschereis entsteht.
Während die Hochgebirgsgletscher in der warmen Jahreszeit abschmelzen und Bäche und
Flüsse speisen, reichen die polaren Eisschilde meist bis zur Küste. Das Eis bewegt sich
zähflüssig und sehr langsam die Berghänge hinab, wobei sich kräftige Eisströme
herausbilden, die an der Küste in großen Fjorden oder breiten Buchten das Meer erreichen
und kalben. Vor Grönland brechen oft riesige Eisstücke ab, die dann als Eisberge davon
schwimmen. Vor der Westantarktis hingegen schiebt sich das Gletschereis langsam ins
offene Meer hinaus, wobei dickes Schelfeis entsteht, von dem später flache Tafeleisberge
abbrechen.
Der Eisverlust in Grönland hat in letzter Zeit durch die ins Meer fließenden Gletscher und das
verstärkte Abschmelzen im Sommer spürbar zugenommen. Der teilweise noch drei
Kilometer dicke Eisschild verliert an Höhe. Der Kipp-Punkt des Eisverlustes könnte schon bei
einer globalen Erwärmung von weniger als 2° Celsius eintreten. Die vollständige Schmelze
des Grönlandeises dürfte sich aber über mehrere Jahrhunderte hinziehen.
Der westantarktische Eisschild ist besonders labil, weil hier die Voraussetzungen für ein
plötzliches Kippen größtenteils gegeben sind. In den vergangenen beiden Jahrzehnten hat
sich das Tempo der Eisschmelze bereits mehr als verdreifacht. In der Küstenregion um die
Amundsen-See befinden sich die Gletscher auf einem unaufhaltsamen Rückzug und
schmelzen so schnell wie an keinem anderen Ort der Antarktis. Der Eisschild der AmundsenBucht ist wahrscheinlich bereits „gekippt“.
Der Klimawandel hat in den meisten Gebirgsregionen der Erde gewissermaßen im
Gleichschritt mit der Erhöhung der globalen Mitteltemperatur zu einem sichtbaren und
messbaren Gletscherschwund geführt. Bis zum Ende des 21. Jahrhunderts dürften angesichts
der jetzigen Schmelzraten in einigen kleineren Gebirgszonen die Gletscher bereits
vollkommen weggeschmolzen sein. Obwohl auf dem Dach der Welt, dem tibetischen
Hochplateau, die Temperaturen seit 1950 etwa doppelt so stark wie im globalen Mittel
16
gestiegen sind, ist ein gravierendes Schmelzen der Gletscher am Himalaya nicht so schnell zu
erwarten. Es wurde bisher nicht untersucht, ob ein Kipp-Punkt zum irreversiblen
Abschmelzen existiert. Sicher ist jedoch, dass ein weiteres Schwinden der Gletscher die
Wasserversorgung von vielen Millionen Menschen in Süd- und Ostasien empfindlich treffen
dürfte.
Die überraschend großen arktischen Dauerfrostregionen Sibiriens, Kanadas und Alaskas
nehmen etwa ein Viertel der Erdoberfläche ein. Permafrostböden können beim Auftauen
Unmengen an Kohlenstoffdioxid CO2 und Methan CH4 freisetzen. Beides sind
kohlenstoffhaltige und klimaschädliche Treibhausgase. Methan ist der Hauptbestandteil von
Erdgas und zudem eine attraktive Energiequelle. Als Treibhausgas ist es etwa 30mal
wirksamer als Kohlendioxid, oxidiert jedoch bei Anwesenheit von Sauerstoff relativ schnell
zu Kohlendioxid und Wasser. Wenn die Dauerfrostböden großräumig auftauen, dringt das
Meer zunehmend landeinwärts vor. Besteht die Küste vor allem aus gefrorenem Sediment
und nicht aus Fels, erreichen die Erosionsraten vielerorts mehrere Meter pro Jahr. Das
Wasser greift die Steilufer von unten her an, die Böschung wird unterspült und bricht schnell
ab. Auch im Inland verschwinden subarktische Gewässer, weil in den aufgetauten Böden die
flachen Seen schlicht versickern. Mit den schmelzenden Eiskeilen im Boden kollabiert der
Untergrund und beginnt zu schwanken. Schräg stehende Bäume, aber auch zerstörte Wege
und schiefe Gebäude sind die Folge.
Offen ist noch die Frage, inwieweit die durch den dauerhaften globalen Temperaturanstieg
ausgelöste Schmelze der Dauerfrostböden den Klimawandel zusätzlich beschleunigen
könnte. An den meisten Orten läuft dieser Prozess kontinuierlich ab, also ohne
Überschreiten eines Kipp-Punktes. Eine bedenkliche Ausnahme stellen die stark
kohlenstoffhaltigen Lößböden Ostsibiriens dar, wo bis zu 500 Milliarden Tonnen Kohlenstoff
gespeichert sind. Mikroorganismen zersetzen diese Kohlenstoffverbindungen und
beschleunigen das Auftauen des Bodens. Bei einer weiteren Erwärmung um einige Grad
könnte sich dieser Prozess verselbstständigen und den Kohlenstoff in Form von Methan und
Kohlendioxid weitgehend freisetzen.
Kaum vorstellbare gewaltige Massen von Methan haben sich über Millionen Jahre in den
Sedimenten am Meeresgrund angesammelt. Sie sind als feste Methanhydrate gespeichert,
vor allem an den Kontinentalrändern in Meerestiefen zwischen 350 und 5000 Metern.
Methanhydrate, auch als Methanklathrate oder als Methaneis bezeichnet, sind nur bei
hohem Druck von mehr als 35 bar und niedrigen Temperaturen stabil. Methanhydrat sieht
aus wie Schneematsch, ist jedoch brennbar. Im Methaneis sind die Methanmoleküle fest in
kubische Käfige aus Wassermolekülen eingesperrt. Mit steigenden Temperaturen werden
die Käfige instabil und das Methangas entweicht.
Britische und deutsche Wissenschaftler entdeckten im Jahre 2008 erstmals Gasquellen in bis
zu 400 Metern Wassertiefe vor Spitzbergen, die durch schmelzende Methaneis gespeist
wurden. Damit stellte sich die Frage, ob die beobachteten Gasaustritte Beleg für sich
17
auflösende Hydrate seien, verursacht durch wärmeres Meerwasser und erwärmten
Meeresboden. Methanhydrate gelten als ein träges Kippelement und wirken an den
Kontinentalhängen wie bindender Zement. Sollten sich die Hydrate großräumig auflösen,
besteht die Gefahr, dass Teile des Kontinentalhangs ins Rutschen geraten. Sogar Tsunamis
könnten entstehen.
Weniger bedrohlich ist vielleicht eine schleichende Freisetzung des Gases, bei der allmählich
immer mehr Methan in kleinen Bläschen aus dem Meeresgrund blubbert. Das Methan löst
sich größtenteils im Meerwasser oder es entweicht in die Atmosphäre, wo es zu
Kohlendioxid oxidiert. Eine spürbare Versauerung des Meerwassers und eine erhebliche
Verstärkung des Treibhauseffektes wären recht fatale Langzeitfolgen.
Die ganzjährig oder saisonal vorherrschenden Muster der Luft- und Meeresströmungen
scheinen auf den ersten Blick relativ stabil zu sein, können aber unter bestimmten
Bedingungen ebenfalls ein weitreichendes Kippverhalten aufweisen. Ein exemplarisches
Beispiel dafür ist das befürchtete Erlahmen der atlantischen thermohalinen Zirkulation.
Wärme und Salzgehalt bestimmen die Dichte des Meerwassers. Je kälter und salziger das
Wasser ist, desto dichter und schwerer wird es. Vor Grönland und Labrador kühlt sich das
vom Nordatlantikstrom – einem Ausläufer des Golfstroms – herangeführte salzreiche
Oberflächenwasser ab und sinkt in die Tiefe, um dann als bodennahes Tiefenwasser nach
Süden zurückzufließen. Im Zuge der globalen Erwärmung könnte durch schmelzendes Eis im
Norden und auf Grönland mehr Süßwasser zuströmen und die Tiefenwasserbildung aufgrund
der nun geringeren Dichte des Wassers verhindern. Den Kipp-Punkt der atlantischen
thermohalinen Zirkulation veranschlagen Experten bei einem globalen Temperaturanstieg
um mehr als 4° Celsius.
Auch die Verstärkung des bereits beschriebenen El Niño-Phänomens und die Störung der
Südpazifischen Klima-Oszillation können als gewichtige global wirksame Kippelemente der
ozeanisch-atmosphärischen Zirkulation verstanden werden.
Der indische Monsun hat mit beständig wehenden Winden, die halbjährlich ihre Richtung
wechseln, den Ruf schöner Regelmäßigkeit. Im Frühling, wenn sich der Kontinent schneller
erwärmt als das träge Meer, steigt vom Land warme Luft nach oben. Wasserhaltige
Luftmassen strömen vom Meer her nach und der Monsun setzt ein. Bei der Umwandlung
von Wolkendampf in Regentropfen wird zusätzlich Kondenswärme frei und schließt den
Kreislauf. Durch den mit ihr einhergehenden Regen wird die Zirkulation immer neu
angetrieben – eine sich selbstverstärkende Rückkopplung.
Der globale Klimawandel könnte den Monsun dennoch aus dem Gleichgewicht bringen und
tut es wohl auch schon. Wärmere Luft führt zu mehr Regen und vergrößert die Gefahr von
Extremfluten. Der asiatische Monsun trifft die Hälfte der Weltbevölkerung und könnte sich
künftig weit mehr verändern als bisher gedacht. Computersimulationen haben gezeigt, dass
sich die täglichen Schwankungen des Monsuns verstärken. Kommt der Regen einmal als
Sturzbach und danach herrscht Trockenheit, so hat dies fatale Folgen für die Landwirtschaft,
18
selbst wenn die durchschnittliche Regenmenge gleichbleibt. Die Analyse zahlreicher
Computermodelle offenbarte, dass der indische Monsun pro Grad Celsius globaler
Erwärmung von Tag zu Tag um etwa zehn Prozent mehr schwankt als vor der
Industrialisierung.
Wirkungsschleifen mit außergewöhnlichen nichtlinearen Rückkopplungen hat es in der
jüngeren Klimageschichte wiederholt gegeben. Nichtlineares Verhalten bedeutet, dass
alltägliche normale Vorgänge auf die Veränderung äußerer Rahmenbedingungen mit
abrupten Umschwüngen reagieren. Überraschende Ergebnisse werden womöglich durch
Kapriolen eines entfernten Kippelements ausgelöst und können meist nicht vorausgesagt
werden.
So könnte eine weitere Erwärmung des Atlantiks eine sprunghafte Verlagerung des
westafrikanischen Monsunsystems auslösen, was wiederum zu regenarmen bzw.
regenreichen Zeiten für die Bevölkerung Westafrikas führen müsste. Verschiebt sich der
Niederschlagsgürtel nach Süden, wird der Golf von Guinea begünstigt, verschiebt er sich
nach Norden die Sahelzone. Häufigere Niederschläge in der Sahelzone könnten sogar eine
Wiederbegrünung der Sahara in die Wege leiten. Damit ginge allerdings eine Verminderung
des in die nordafrikanische Luft gewirbelten Staubes einher, was wiederum Konsequenzen
für den über den atlantischen Ozean transportierten Saharastaub hätte, der auch den
Amazonas-Regenwald mit notwendigen natürlichen Nährstoffen versorgt.
Tropische Regenwälder sind vorbildliche Wasserselbstversorger, erzeugen sie doch den auf
sie niedergehenden Regen weitestgehend selbst. Die üppige Vegetation speichert das
Wasser in Blättern und Wurzeln, sie schwitzt und verdunstet und gibt so das Wasser dem
Himmel zurück. So stammen die Niederschläge im Amazonasbecken größtenteils aus dem
über dem Wald verdunstetem Wasser, nur relativ wenig wird aus Atlantik und Pazifik
importiert. Dieser nachhaltigen Betriebsweise verdankt der Regenwald seine einzigartige
paradiesische Lebensfülle.
Das Amazonas-Ökosystem ist dennoch auf vielfache Weise verwundbar. Brandrodung und
Straßenbau sind an erster Stelle zu nennen. Der Klimawandel verstärkt natürliche
Klimaschwankungen und macht sich in El-Niño-Jahren besonders negativ bemerkbar. Zwei
Dürren in den Jahren 2005 und 2010 führten zu einem Massensterben im Regenwald. In den
letzten 25 Jahren hat die Fähigkeit zur Kohlenstoffaufnahme um 30 Prozent angenommen.
Die kritische Grenze ist in Sichtweite. Der Regenwald droht von einer Kohlendioxidsenke zu
einer Kohlendioxidquelle zu werden und sich in einen an die Trockenheit angepassten Wald
oder gar in eine Graslandschaft zu verwandeln.
Die borealen, nordischen Nadelwälder umfassen fast ein Drittel der weltweiten Waldfläche
und befinden sich in einer kaum weniger bedenklichen Lage als der weit mehr geschätzte
tropische Regenwald. In den polnahen Breiten schreitet die Erwärmung doppelt so schnell
voran wie im globalen Mittel. Das kann durchaus Vorteile für die biologische Produktivität
haben, schließt aber Dürreperioden und Insektenplagen keineswegs aus. Auch Waldbrände
19
zerstören oft riesige Gebiete. Im Gleichschritt mit der Erderwärmung wird eine ganze
Vegetationszone nach Norden verschoben. Ob es zu einem Kippen des nordischen
Ökosystems kommen kann, ist bisher recht unklar und wenig erforscht. Ein Schwinden der
Wälder zugunsten einer Graslandschaft ist durchaus denkbar, ein umgekehrter Vorgang von
heutiger Steppe zu künftigem Wald aber auch.
Von den artenreichen Korallenriffen und deren Gefährdung durch die Korallenbleiche war
schon mehrfach die Rede. Bei dem jüngsten Super-El-Niño 2015/16 haben sich die
Temperaturen im Großen Barriere-Riff so stark erwärmt, das ein irreversibles Kippen des
gesamten Ökosystems zu befürchten ist. Australische Wissenschaftler sprechen von der
schlimmsten Korallenbleiche, die je verzeichnet wurde. Es kann Jahrzehnte dauern, bis sich
ein Riff erholt und von den Korallen und den mit ihnen in Symbiose lebenden Algen
wiederbesiedelt wird. Fatalerweise kann ein völliger Zusammenbruch der Korallenwelt auch
dann nicht ausgeschlossen werden, wenn es gelingt, die globale Erwärmung in diesem
Jahrhundert auf 2° Celsius zu begrenzen.
Die Frage, ob und inwieweit Kippelemente erholungsfähig sind und unter bestimmten
Voraussetzungen rückgängig gemacht werden könnten, kann die Klimafolgenforschung nicht
oder noch nicht beantworten. Die oft zitierte 2-Grad-Leitplanke ist eine normative
Festlegung, verankert in der Klimarahmenkonvention und gilt als Richtschnur der
internationalen Klimapolitik. Auch diesseits der Leitplanke zeigt der Klimawandel negative
Auswirkungen, denken wir nur den stetigen Meeresspiegelanstieg oder an das plötzliche
Ausbleichen der Korallen. Bei fortschreitender globaler Erwärmung in den 2-, 3-, 4- oder gar
6-Grad-Bereich gerät der Klimawandel außer Kontrolle, passiert reihenweise Kipp-Punkte
substantieller ökologischer Systeme und überfordert die Anpassungsfähigkeit der Natur.
Von der Wettervorhersage zum Klimaszenarium
Den Unterschied zwischen Wetter und Klima kennt jeder – oder glaubt es zumindest.
Schlacks formuliert ist das Klima das, was man erwartet und das Wetter das, was man
bekommt. Das heimatliche Klima beschreibt den Durchschnitt des üblichen Wetters,
Extreme meist weggelassen. Die Wissenschaft definiert präziser: Das Wetter ist der
augenblickliche Zustand der unteren Atmosphäre zu einer bestimmten Zeit über einem
bestimmten Ort. Das Klima ist die für einen Ort, eine Landschaft oder einen größeren Raum
typische Zusammenfassung der erdnahen und die Erdoberfläche beeinflussenden
atmosphärischen Zustände während eines längeren Zeitraumes in charakteristischer
Verteilung der häufigsten, mittleren und extremen Werte. Nach der WMO, der
meteorologischen Fachorganisation der UN, umfasst der Bezugszeitraum üblicherweise eine
Zeitperiode von 30 Jahren.
Mit dem Bezugsraum hat es eine besondere Bewandtnis. Ein sich abzeichnender
Klimawandel gilt als wissenschaftlich bestätigt, wenn er 30 Jahre lang anhält. Wären es
20
weniger Jahre, könnte es sich vielleicht um eine natürliche Schwankung handeln. Seit Mitte
der achtziger Jahre wird der Klimawandel in der Öffentlichkeit diskutiert. Heute ist der vom
Menschen verursachte Klimawandel ein anerkannter Fakt und steht zweifelsfrei fest.
Wettervorhersagen und Klimaszenarien unterscheiden sich grundsätzlich in ihren Zielen.
basieren aber auf den gleichen wissenschaftlich-technischen Voraussetzungen, der
Formulierung zuverlässiger Grundgleichungen der Atmosphärenphysik, dem Aufbau
miteinander verbundener, weltumspannender Beobachtungsnetze und der Entwicklung
hochleistungsfähiger Supercomputer.
Die professionelle Wettervorhersage ist weitaus besser als ihr Ruf und orientiert auf
detailreiche Informationen über das kurz- und mittelfristig bevorstehende Wetter. Die
Treffsicherheit der numerischen Vorhersage liegt bei einer Drei-Tage-Prognose inzwischen
bei 80 Prozent. Über einen Zeitraum von mehr als zwei Wochen hinaus sind brauchbare
Aussagen wegen der Komplexität des Gegenstandes kaum mehr möglich. Auch die
numerische Wettervorhersage muss mit Modellen arbeiten, um mehr wetterrelevante
Prozesse
einzubeziehen,
um
das
raumzeitliche
Auflösungsvermögen
der
Computersimulation zu erhöhen und um fortgeschrittene Statistikverfahren zur
Eindämmung individueller Fehlerquellen einzusetzen.
Die Erforschung möglicher Klimaentwicklungen bedient sich ebenfalls des meteorologischen
Prognosemodells, wird aber in einem völlig anderen Modus betrieben. Im Klimamodus
werden langfristige Mittelwerte und globale Durchschnittsgrößen zu Grunde gelegt. Anders
als bei der Wettervorhersage interessiert man sich weniger für Details, sondern mehr für das
charakteristische Zirkulationsverhalten in Ozean und Atmosphäre im Gleichgewichtszustand.
Solche globalen Zirkulationsmodelle sind in der Lage, vergangene Klimazustände, das Klima
der Gegenwart und seine Schwankungsbreite realistisch zu simulieren und sollten daher
auch das künftige Klima einigermaßen verlässlich berechnen können.
Die Modellierung des Klimas der Zukunft erfordert allerdings mehr Kenntnisse über die
möglicherweise vom Menschen drastisch veränderten Rahmenbedingungen. Im Blickpunkt
des fragenden Betrachters dürfte dabei die zeitliche Entwicklung der atmosphärischen
Treibhausgaskonzentrationen stehen, beeinflusst sie doch wesentlich das Ausmaß des
globalen Klimawandels. Mit Hilfe solcher Modelle lässt sich zum Beispiel herausfinden, wie
sich eine Steigerung des Kohlendioxidgehaltes der Luft auf das künftige Klima auswirken
müsste. Solche Klimaszenarien sind keine exakten Prognosen, sondern stets „Was wäre
wenn?“-Voraussagen, die die nur unter bestimmten Prämissen zuverlässig eintreffen.
21
Die nebenstehende Grafik stammt aus dem 4. Sachstandsbericht des Weltklimarates (IPCC)
aus dem Jahre 2007 und zeigt einige Klimaszenarien, die seinerzeit Furore machten, aber
auch heute noch prinzipiell gültig sind. Die roten, grünen und blauen Linien zeigen die
Erwärmung der Erdoberfläche als Verlängerung der Simulationen für das 20. Jahrhundert für
die Szenarien A2 – weiter machen nach den überholten Mustern von gestern – , A1B –
Balance zwischen fossilen und erneuerbaren Energie finden – und B1 – hoffen auf eine
bessere Welt und ein engagiertes Zusammenwachsen in einer NiedrigEmissionsgemeinschaft. Der technikfreundliche A1T-Pfad setzt auf erneuerbare Energien,
der B2-Pfad neigt zu einer regional ausgerichteten Nachhaltigkeit mit unsicheren positiven
Folgen und negativen Konsequenzen. Die schwarze Variante A1F1 steht für eine weitere
intensive Nutzung fossiler Energieträger. Die orange Linie steht für ein imaginäres Einfrieren
des Ausstoßes von Treibhausgasen. Die Schattierung kennzeichnet die Bandbreite von
plus/minus einer Standardabweichung der einzelnen Modell-Jahresmittel. Trotz der Breite
der Unsicherheiten zur Erderwärmung wird deutlich, warum, weshalb und wie moderat oder
dramatisch die globale Mitteltemperatur bis zum Ende des aktuellen Jahrtausends ansteigen
wird.
Globale Zirkulationsmodelle zur Klimavorhersage dienen als geeignete, wenn auch recht
grobe Werkzeuge für strategische Entscheidungsspiele über die Umweltzukunft unseres
22
Planeten. Die Atmosphäre ist keine isolierte Komponente auf der planetarischen Bühne.
Nichtlineare Reaktionen und verschlungene Rückkopplungsschleifen erschweren eine
einfache Modellierung. Vor allem die Ozeane müssen einbezogen werden, aber auch die
terrestrische Vegetation, die Böden, der Wasserhaushalt und nicht zuletzt der
klimarelevante zivilisatorische Nutzungsdruck spielen eine Rolle.
Die Zukunft ist unterbestimmt. Die vor uns liegende Klimaentwicklung wird durch
menschliches Zutun als natursystemische Reaktion erzeugt. Wer eine präzise
Klimavorhersage machen möchte, müsste vorher eine exakte Weltgesellschaftsvorhersage
erstellen. Aus heutiger Sicht scheint das wohl ein Ding der Unmöglichkeit. Die Zukunft ist
weder beliebig, noch ist sie genau festgelegt.
Das Potsdam Institut für Klimafolgenforschung konzentriert einen Großteil seiner Kräfte auf
die Entwicklung eines Simulators, welcher der Erdsystemanalyse neue Bahnen brechen soll.
POEM (Potsdam Earth Model) soll sowohl in die tiefe Vergangenheit als auch in die ferne
Zukunft blicken.
Das Agreement von Paris – Licht am Ende des Tunnels?
Der im Jahre 2014 veröffentlichte 5. Sachstandbericht des Weltklimarates IPCC hat den
Klimawandel aus der Zukunft in die Gegenwart gerückt. Schon heute sind Überflutungen und
Hitzewellen, abschmelzende Gletscher, massive Korallenbleichen und ein steigender
Meeresspiegel bittere Realität. Die Zeit drängt, Nichtstun erspart rein gar nichts und kostet
bloß Geld. Eine Arbeitsgruppe des Weltklimarates hat festgestellt, dass die wirtschaftlichen
Kosten für die Einhaltung des Zwei-Grad-Zieles der Erderwärmung bei weniger als 1 Prozent
des erwarteten mittleren jährlichen Konsumwachstums in diesem Jahrhundert liegen
würden.
Der Weltklimarat IPCC, der Zwischenstaatliche Ausschuss über Klimaveränderung
(Intergovernmental Panel of Climate Change), hat die Aufgabe, den Kenntnistand der
internationalen Klimaforschung zusammenzutragen und dem Verhandlungsprozess auf UNEbene zur Verfügung zu stellen. Das Gremium ist ein einzigartiges, diplomatisches
Mischwesen aus Wissenschaft und Politik. Die wissenschaftlichen Leitautoren für die
Berichte des IPCC werden nicht etwa von forschenden Experten, sondern von den beteiligten
Staaten ausgewählt. Der Wortlaut der Kurzfassung der Berichte für die politischen
Entscheidungsträger – nur diese werden von Entscheidern weltweit wirklich zur Kenntnis
genommen – muss mit den zahlreichen Vertretern der Regierungen abgestimmt werden.
Kurzfristige nationale Interessen spielen dabei oft eine größere Rolle als langfristige
wissenschaftliche Erkenntnis. Um die Kosten, die Risiken und der Chancen der verschiedenen
Handlungsoptionen auszuloten, bedarf es wissenschaftlicher Politikberatung.
23
Die Klimarahmenkonvention, verabschiedet 1992 auf dem Erdgipfel in Rio de Janeiro, steht
am Beginn einer langen Reihe von Klimakonferenzen, die die hehren Ziele der Konvention in
die steinige Praxis des Machbaren überführen sollte. In der Klimarahmenkonvention (United
Nations Framework Convention on Climate Change) hatten sich 196 Vertragsstaaten darauf
geeinigt, die Stabilisierung der Treibhausgaskonzentrationen in der Atmosphäre auf einem
Niveau zu erreichen, auf dem eine gefährliche anthropogene Störung des Klimasystems
verhindert wird. Was genau „gefährlich“ bedeutet, ließ die Konvention allerdings offen.
Zwischen dem Erdgipfel von Rio de Janeiro 1992 und dem Pariser Klimaabkommen 2015 liegt
ein 23jähriger Verhandlungsmarathon, der hier in seinen Einzelheiten nicht beschrieben
werden kann. Wer weiß, dass bei den vielen COP-Konferenzen (Conferences oft the Parties)
der jeweils kleinste gemeinsame Nenner zum Taktgeber für den Klimaschutz wurde, weil nur
beschlossen werden darf, was von allen Staaten mitgetragen wird, den kann die Zähigkeit
der Verhandlungen nicht wundern. Hinzu kommen gegensätzliche wirtschaftspolitische
Interessen zwischen den reichen Industriestaaten, den aufstrebenden Schwellenländern und
den ärmeren Entwicklungsländern, zwischen den Treibhausgasproduzenten, den
Ölexporteuren und den kleinen in ihrer Existenz bedrohten Inselstaaten.
Im Jahre 1997 unterzeichneten alle Staaten einen Weltvertrag für Klimaschutz, der als KyotoProtokoll in die Geschichte einging. Der Abkommen war in vielerlei Hinsicht unzureichend
und missverständlich, aber das erste, das konkrete Reduktionsziele vorgab. In dem Protokoll
verpflichteten sich die Industriestaaten, ihren Treibhausgasausstoß bis zum Jahre 2012 um
5,2 Prozent unter das Niveau von 1990 zu senken.
Dem gerade beschlossenen Kyoto-Protokoll drohte ein vorzeitiges Scheitern, weil es nicht
genug Staaten ratifizieren wollten. Wirksam wird das Vertragswerk nämlich erst, wenn
mindestens 55 Staaten, die für mindestens für 55 Prozent der weltweit produzierten
Treibhausgase verantwortlich sind, ratifiziert haben. Gegenspieler waren in erster Linie die
USA, genauer gesagt der von Republikanern dominierte Kongress, der den Klimaschutz als
„wachstumsfeindlich“ ablehnt. Vier Monate vor der Kyoto-Konferenz hatte der US-Senat in
einer Resolution bekräftig, dass kein Beitritt zu einer Klimakonvention möglich sei, die nur
den Industriestaaten, aber nicht den Entwicklungsländern Reduktionsverpflichtungen
auferlegt oder die amerikanische Wirtschaft schädigen könne.
Die USA haben das Kyoto-Protokoll nie ratifiziert und ihre Zustimmung auf der Konferenz
zurückgezogen. Auf diplomatischem Wege wurde schließlich Russland überzeugt und das
Protokoll konnte 2004 mit siebenjähriger Verspätung in Kraft treten. Eine zweite, 2012 in
Katar vereinbarte Verpflichtungsperiode (Kyoto II) gilt für die Jahre 2013 bis 2020. Allerdings
haben nur noch die EU-Staaten, die Schweiz, Norwegen und Island sowie Australien neue
Reduktionspflichten übernommen.
Im Jahre 2007 schockierte der 4. Sachstandsbericht des Weltklimarates IPCC die
Klimapolitiker. Eigentlich war das Kyoto-Protokoll geschaffen worden, um den Ausstoß an
Treibhausgasen unter das Niveau von 1990 zu senken, tatsächlich aber war die
24
Atmosphärenkonzentration in den letzten Jahren um fast 10 Prozent gestiegen. Den
Akteuren wurde klar, dass selbst ein erfüllter Kyoto-Vertrag bei der Rettung des Weltklimas
wenig helfen würde. Noch im gleichen Jahr wurde ein neues Verhandlungsmandat erteilt,
um ein weitergreifendes Klimaabkommen für die Zeit nach Kyoto zu stemmen.
In diesem Zusammenhang war viel von dem „Zwei-Grad-Limit“, der „Zwei-Grad-Leitplanke“
oder dem „Zwei-Grad-Ziel“ die Rede. Die zulässigen zwei Grad menschengemachter
Erderwärmung sind bei genauerem Hinsehen ein willkürlicher, politischer Kompromiss
zwischen Wünschbarkeit und Machbarkeit, haben aber eine solide naturwissenschaftliche
Grundlage. Schon in den 1990er Jahren haben sich Klimaforscher mit der Frage beschäftigt,
welche globale Temperaturanomalie Mensch und Natur in Zukunft wohl aushalten könnten,
ohne physisch überfordert zu werden. Welche Klimafolgen müssen als nicht akzeptabel
eingestuft und deshalb unbedingt verhindert werden?
Hans Joachim Schellnhuber, der Direktor des Potsdam-Instituts für Klimafolgenforschung,
entwickelte 1993 die Vorstellung von einem Klimatoleranzfenster, um den akzeptierbaren
Spielraum der menschengemachten Erderwärmung zu umgrenzen. Die globale
Mitteltemperatur hat während der Evolution des modernen Menschen niemals höher
gelegen als etwa 1,5 Grad Celsius über dem Niveau zu Beginn der industriellen Revolution.
Wenn man eine gewisse Klimaelastizität veranschlagt, so kann der Spielraum um eine 0,5Grad-Marge auf dann 2 Grad Celsius erweitert werden. Zudem muss die Rate der
Erderwärmung Berücksichtigung finden – sie liegt derzeit bei etwa 0,1 Grad Celsius pro
Jahrzehnt. Ob eine höhere Änderungsrate von den gestressten Ökosystemen ohne weiteres
verkraftbar wäre, ist zumindest fraglich. Oberhalb der Zwei-Grad-Leitplanke können KippElemente ausgelöst werden, die die Erderwärmung weiter beschleunigen oder gar
verselbstständigen. Die Zwei-Grad-Marke führte auf dem politischen Verhandlungsparkett
zu einem auch von den USA mitgetragenen informellen Konsens.
Die Allianz der kleinen Inselstaaten allerdings wehrte sich vehement gegen das Zwei-GradZiel, weil schon heute eine einzige heftige Sturmflut den Lebensraum vieler Inselbewohner
zu vernichten drohe. Andererseits legen Projektionen der Wissenschaft nahe, dass auf der
Welt bereits zu viele Treibhausgase produziert worden sind, die ein 1,5-Grad-Ziel illusorisch
erscheinen lassen. Der Pariser Klimavertrag von 2015 enthält den diplomatischen Passus,
dass die durch Treibhausgase verursachte Erderwärmung auf deutlich unter 2 Grad zu
begrenzen sei – und wenn möglich sogar auf 1,5 Grad.
Mit dem für alle Staaten verbindlichen Weltklimaabkommen von Paris gelang ein
Meisterstück der Klimadiplomatie. Der Klimavertrag wurde von 195 Staaten sowie der
Europäischen Union abgeschlossen. 186 Teilnehmer haben freiwillige nationale
Minderungsziele zur Treibhausgasemission abgegeben, darunter auch China und die USA.
Werden diese Zusagen eingehalten, dürfte die Erderwärmung auf rund 3 Grad steigen –
politischer Handlungsdruck und eine deutliche Nachbesserung sind also dringend
25
erforderlich. Im Rhythmus von fünf Jahren sollen die Staaten ihre nationalen
Selbstverpflichtungen kontrollieren und verbessern.
Die Industrieländer wollen den ärmeren Staaten ab 2020 jährlich 100 Milliarden Dollar als
Finanzierungshilfen für den Klimaschutz und für Anpassungsziele zur Verfügung stellen. Das
scheint sehr viel zu sein, relativiert sich aber, wenn man es zum Weltsozialprodukt in Höhe
von etwa 75 Billionen Dollar ins Verhältnis setzt.
In Paris wurde auch beschlossen, dass die Menschheit Mitte unseres Jahrhunderts
„klimaneutral“ leben solle (nicht etwa wie anfangs vorgesehen bei „Nullemission“), was
heißt, dass noch immer ausgestoßene Treibhausgase anderweitig kompensiert werden
müssen, beispielsweise durch umfassende Aufforstung oder durch neue
Speichertechnologien. Nicht zuletzt hat die Konferenz auch ein deutliches Signal für einen
ambitionierten Waldschutz und eine weltweite Energiewende gesetzt.
Der Pariser Weltklimavertrag vom Dezember 2015 wurde anders als das Kyoto-Protokoll
schon nach ungewöhnlich kurzer Zeit von solchen Klimaschwergewichten wie den USA,
China, Indien und Brasilien unterzeichnet und bestätigt. Innerhalb von weniger als einem
Jahr hatten hinreichend viele Nationen, die die auferlegte Hürde von mehr als 55 % der
klimaschädlichen Emissionen verursachen, das Abkommen ratifiziert, so dass es am 4.
November 2016 in Kraft treten konnte.
Der größte Haken des Pariser Abkommen liegt darin, dass es sich auf eine freiwillige
Umsetzung verlässt und jedes Land selbst über seine eigenen Klimaschutzbeiträge
entscheiden kann. Nur so konnte erreicht werden, dass der Klimavertrag von möglichst
vielen Mitgliedern akzeptiert wird. Bis 2020 sollen die Staaten ihre Klimaziele für den
Zeitraum 2025 bis 2030 vorlegen. Ab 2023 werden die nationalen Klimaziele alle fünf Jahre
überprüft und verschärft. Die Kritiker sehen zu viele moralische Appelle und bloße
Lippenbekenntnisse. Die Diskrepanz zwischen den in Paris vereinbarten Temperaturzielen
und der tatsächlichen Klima- und Energiepolitik bleibt besorgniserregend. Eine große Lücke
zwischen Anspruch und Wirklichkeit muss noch geschlossen werden.
Radikale Energiewende oder riskantes Climate-Engineering
Angesichts des schnellen Inkrafttretens des umfassenden Pariser Klimaabkommens kann das
im gleichen Jahr 2016 zustande gekommene Klimaabkommen von Kigali leicht in
Vergessenheit geraten. Bei den Verhandlungen ging es um eine Erweiterung des MontrealProtokolls von 1987, das seinerzeit zum Schutze der Ozonschicht die Verwendung von
Fluorchlorkohlenwasserstoffen (FCKW) in Kühlschränken und Klimaanlagen verboten hatte.
Diesmal hat man sich auf eine schrittweise Abschaffung von extrem klimaschädlichen
Fluorkohlenwasserstoffen (FKW) geeinigt, die heute anstelle von FCKW in Kühlaggregaten
26
verwendet werden. Fluorkohlenwasserstoffe greifen zwar die Ozonhülle nicht an, könnten
aber den Klimawandel durch Treibhausgase um ein halbes Grad Celsius beschleunigen.
Unsere Zivilisation bereichert die Atmosphäre Jahr für Jahr um etwa 10 Milliarden Tonnen
verschiedener Treibhausgase. Der Kohlendioxidpegel hat 2015 das 400-ppm-Niveau
durchbrochen und strebt weiterhin höheren Werten entgegen. Spätestens bei 450 ppm
muss Schluss sein, wenn die ökologische Leitplanke, die Zwei-Grad-Marke der
Erderwärmung, nicht durchbrochen werden soll. Vier Fünftel der heute bekannten
Kohlereserven, ein Drittel der Erdölreserven und die Hälfte der Erdgasreserven müssen in
der Erde verbleiben. Zur Lösung der Weltklimaprobleme ist eine Dekarbonisierung der
Weltwirtschaft zwingend erforderlich.
Für viele Forscher bedeuten die Vorgaben aus Paris, dass die Verbrennung fossiler
Energieträger zwischen 2050 und 2070 komplett enden muss. Schon heute dürften keine
neuen Kohlekraftwerke mit einer Laufzeit von mehreren Jahrzehnten gebaut werden, weil
Kohlendioxid sehr lange in der Atmosphäre und im Meer verbleibt. Lobbyisten der
Wirtschaftsverbände fürchten schrumpfende Gewinne und eine Gefahr für die
Wettbewerbsfähigkeit energetisch antiquierter Unternehmen.
Eine neue Greenpeace-Studie „Energy Revolution“ behauptet, dass die Welt bereits ab 2050
zu 100 % mit Erneuerbaren Energien versorgt werden könne. Die Erneuerbaren Energien
seien inzwischen erwachsen und könnten mit klimaschädlichen Kohlekraftwerken und
riskanten Atommeilern konkurrieren, wenn diese nicht subventioniert werden. Laut Studie
erfordert eine radikale, globale Energiewende bis 2050 jährliche Investitionen von
durchschnittlich etwa einer Billion Dollar. Gleichzeitig könne man jedoch Brennstoffkosten in
etwa gleicher Höhe einsparen und beim kostenneutralen Umbau des weltweiten
Energiesystems 20 Millionen zusätzlicher Arbeitsplätze schaffen.
Manche Skeptiker mögen der optimistischen Greenpeace-Studie nicht so recht trauen, zumal
der völlige Verzicht auf fossile Brennstoffe gegen Ende der Pariser Konferenz noch aus dem
Vertrag gestrichen wurde. Eine Reihe von mehr oder weniger fragwürdigen Alternativen
bieten sich an, um der Atmosphäre Kohlenstoff zu entziehen. Vor allem das sogenannte CCSVerfahren kommt des Öfteren ins Gespräch.
Das „Carbon Capture and Storage“-Verfahren (CO2-Abscheidung und Speicherung) ist mit der
erfolgreichen Rauchgasentschwefelung vergleichbar, nur dass man nicht den Schwefel,
sondern Kohlendioxid abzusondern sucht. Leider verschlechtert CCS den Wirkungsgrad von
Kraftwerken ganz erheblich. Die hohen Betriebskosten müssten vom Steuerzahler
subventioniert werden. Bislang existieren nur einige wenig überzeugende Pilotanlagen. In
Kanada allerdings kommt die neue Technik unverhofft zum Einsatz – das herausgefilterte
Kohlendioxid wird verwendet, um bisher unzugängliches Erdöl aus dem Wirtsgestein zu
lösen.
27
Zwielichtig sind auch die verschiedenen Versuche zur Eisendüngung des Ozeans zu
bewerten. So ist Eisen als Nährstoff für das Wachstum des Phytoplanktons im Südpolarmeer
vielerorts Mangelware. Durch Zufuhr einer größeren Menge gelösten Eisensulfats vom
fahrenden Schiff aus gelang es, in einem Meereswirbel eine künstliche Algenblüte zu
erzeugen. Die Algen binden reichlich Kohlendioxid und sollen nach ihrem Ableben dauerhaft
in den Sedimenten der Tiefsee verschwinden. Entscheidende Fragen nach der Langfristigkeit
und wünschenswerten Größenordnung des Effektes sowie zu möglichen ökologischen
Nebenwirkungen bleiben aber offen. Ein großflächiger Eingriff ist nach internationalen
Abkommen zurzeit nicht zulässig.
Die unter den Namen „Climate Engineering“ und „Geo-Engineering“ bekannt gewordenen
Vorschläge und Ideen verfolgen zwei simple Ansätze, einerseits die Kohlenstoffextraktion
und andererseits die Strahlungsmanipulation. Bei der Kohlenstoffextraktion soll das
Treibhausgas irgendwie abgesaugt werden, die Strahlungsmanipulation zielt auf eine
Abschirmung des Sonnenlichts. Allen Vorschlägen zur Klimamanipulation ist gemein, dass sie
kaum erprobt sind und für einen großtechnischen Einsatz nicht (oder noch lange nicht)
taugen.
Von den Probeläufen des CCS-Verfahrens zur Kohlendioxidabscheidung und der versuchten
Eisendüngung des Meeres war schon die Rede. Man hat auch überlegt, ob und wie sich
flüssiges Kohlendioxid in erschöpfte Erdölreservoire oder gleich in den Meeresuntergrund
pressen lasse. Auf dem Papier stehen schon lange überdimensionale Filteranlagen zur
industriellen Luftwäsche und CO2-Reinigung bereit.
Bei den visionären Verfahren zur Manipulation der Sonnenstrahlung denkt man gleich an
Science Fiction. Da gibt es riesige Orbitalspiegel und Sonnenblenden im Weltraum und
kühlende Schwefelaerosole in der Stratosphäre. Vernebelungsschiffe erzeugen künstliche
Wolkentürme über dem Ozean. Die schmelzenden Gletscher werden in hochreflektiven
Folien verpackt. Auf der Erde werden alle Straßen und Dächer weiß angestrichen.
Zu den weniger bedenklichen Vorschlägen zur Klimastabilisierung zählt das Anpflanzen von
Bäumen. Da es nur bedingt möglich ist, fruchtbare landwirtschaftliche Nutzflächen mit
Energiebäumen zu bestücken, kommen für die Aufforstung und Kultivierung vor allem
degradierte Flächen wie Steppen und Halbwüsten in Frage, was auch nicht gerade einfach zu
bewerkstelligen ist. Aus der Sicht des Klimaschutzes könnte Pflanzenkohle künftig zum
wichtigsten Produkt der Holzchemie werden und als relativ sicherer Kohlenstoffspeicher
dienen.
Um das Problem der Versauerung der Meere zu mildern, müssen Feuchtgebiete,
Salzmarschen und Mangrovensümpfe besser geschützt oder wiederhergestellt werden. Bei
einem großräumigen Anbau von Seetangwäldern – auf 9 % der Meeresfläche! – soll sich so
viel erneuerbares Biomethan erzeugen lassen, um alle heute benötigten fossilen Treibstoffe
zu ersetzen, behaupten Wissenschaftler von der University oft the South Pacific.
28
Vielleicht liegt die Verlockung des Geo-Engineerings gerade darin, dass es kein notwendiges
Umdenken in der Energiewirtschaft voraussetzt, und wir im Prinzip genau so weiter machen
könnten wie bisher. Die utopischen Projekte zur Klimamanipulation entpuppen sich als ein
durchsichtiges Manöver, das von der schmerzhaften Notwendigkeit der anstehenden
industriellen Dekarbonisierung ablenken soll und eine auf fossilen Brennstoffen basierende
Wirtschaft erhalten will.
In diesem Zusammenhang wird auch die Möglichkeit diskutiert, ob und wie man sich an die
Erderwärmung am ehesten anpassen könne. Gegen das anschwellende Meer helfen höhere
Deiche. Vor extremer Hitze zieht man sich in akklimatisierte Räume zurück. Man könnte
Waldensembles so umbauen, dass sie höheren Temperaturen standhalten, oder
Nutzpflanzen anbauen, die mit weniger Wasser auskommen. Man müsste die Bewohner
flacher Inselstaaten in bewohnbaren Gegenden ansiedeln oder aufschwimmende Häuser
bauen, die den Meeresspiegel neu justieren. An besonders gefährdeten Küsten wäre
vielleicht ein geordneter Rückzug vom Meer die beste Anpassungsmaßnahme.
Eine vorsorgende Strategie, mit der sich die Menschheit an einen ungebremsten
Klimawandel anpassen könnte, findet sich auch nach langer Überlegung nicht. Eine
Anpassung an den aktuellen Klimawandel aber ist bitter nötig. Klimaschutz durch Minderung
der Treibhausgas-Emissionen ist und bleibt die beste Anpassungsstrategie.
Eine klimaneutrale Welt, wie sie das Pariser Abkommen bis zur Mitte dieses Jahrhunderts
erreichen will, muss von einer aufgeklärten und engagierten Öffentlichkeit gegen den zähen
Widerstand einer weltumspannenden fossilen Industrie und kurzsichtige, nicht nachhaltige
Profitinteressen multinationaler Konzerne durchgesetzt werden. Das Wort „Divestment“
macht die Runde und wird gesellschaftsfähig. Divestment ist das Gegenteil von Investment
und bedeutet den Abzug von Kapital aus der fossilen Brennstoffindustrie.
Die wohl größte Klimaschutzdemonstration aller Zeiten fand am 23. September 2014 in New
York City im Vorfeld eines von UN-Generalsekretär Ban Ki-moon sonders einberufenen
Klimagipfels statt und vereinte unterstützt von zahllosen Organisationen, Institutionen und
gesellschaftlichen Gruppen deutlich über 300 000 Menschen aus allen Segmenten der
Zivilgesellschaft. Mit dabei waren bedeutende Politiker und Prominente wie Al Gore und
Leonardo di Caprio. Unter dem Motto „Divest“ setzten sie ein Zeichen und forderten
eindringlich eine radikale Energiewende, die Beendigung aller Subventionen für
konventionelle Energieträger und den Abzug des Kapitals aus der althergebrachten fossilen
Wirtschaft.
© Manfred Quaas, 19.10.2016
29
30
Herunterladen