Die Grundlagen von Klimamodellen Hanna Göpfert, Florian Rödl 15.01.2010 Inhaltsverzeichnis 1 Geschichte 1.1 Ein sehr einfaches Modell der Atmosphäre - das Lorenz-Modell . 1.2 Klima-Modelle - Grundgleichungen . . . . . . . . . . . . . . . . . 2 3 5 2 Glaubwürdigkeit der Ergebnisse von Klimamodellen 5 3 Entwicklungen seit dem Third Assessment Report 2001 (TAR) 7 3.1 Entwicklungen in der Modellformulierung . . . . . . . . . . . . . 9 3.2 Entwicklung in der Modellierung des Klimas . . . . . . . . . . . . 9 3.3 Entwicklungen in analytischen Methoden . . . . . . . . . . . . . 11 3.4 Entwicklungen in der Auswertung von Klimafeedbacks . . . . . . 11 4 Die Konstruktion von Modellen 12 5 Das Koppeln von einzelnen Komponenten 13 6 Darstellen des Klimas mit einfacheren Modellen 14 7 Simulation des aktuellen Klimas 15 7.1 Die Temperaturverteilung . . . . . . . . . . . . . . . . . . . . . . 15 7.2 Die Verteilung von Niederschlag . . . . . . . . . . . . . . . . . . . 21 8 Vorhersagen für das zukünftige Klima 8.1 Emissionsszenarien - Grundlage der Simulationen im 4. Report . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Fehlerquellen bei der Erstellung eines Klima-Modells . . 8.3 Vorstellen einiger Ergebnisse . . . . . . . . . . . . . . . 8.3.1 globale Erderwärmung . . . . . . . . . . . . . . . 8.3.2 Niederschlag . . . . . . . . . . . . . . . . . . . . 8.3.3 Veränderungen in der Arktis und Antarktis . . . 8.3.4 Anstieg des Meeresspiegels . . . . . . . . . . . . 8.4 Simulationen auf Grundlage von commitment-Szenarien 1 23 IPCC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 24 26 26 30 33 35 35 1 Geschichte Der norwegische Physiker und Meteorologe Vilhelm Bjerknes formulierte 1904 zwei Grundsätze, auf denen die Entwicklung von Klima-Modellen und Wetterprognosen auch heute noch basiert: 1. eine ausreichend genaue Kenntnis des Anfangszustands des Systems 2. eine ausreichend genaue Kenntnis der Gesetze, die die Abläufe im Klimasystem bestimmen 1922 versuchte der englische Wissenschaftler Lewis Fry Richardson, die Grundgleichungen, die die Abläufe in der Atmosphäre beschreiben, zu lösen, um so eine Wettervorhersage zu entwickeln - sein einziges Hilfsmittel war ein Rechenschieber. Damals wusste man schon, dass die Gleichungen sehr komplex sind und keine einfachen analytischen Lösungen besitzen, sondern nur mit numerischen Methoden gelöst werden können. Um ein System von kontinuierlichen Gleichungen zu berechnen, approximierte man dieses durch ein entsprechendes diskretes Gleichungssystem und verwendete dessen numerische Lösungen. Richardson gab in seinem Buch „Weather Prediction by Numerical Process“ eine Schritt-für-Schritt Anleitung für die Erstellung einer Wettervorhersage für einen kleinen Teil Europas, gestützt auf vorhandene Beobachtungsdaten; da er aber den Einfluss der gesamten, unterschiedlichen Prozesse in der Atmosphäre nicht kannte, führte das zu sehr unrealistischen Vorhersagen. Mit vielen Problemen, auf die Richardson zu Beginn des 20. Jahrhunderts gestoßen ist, sind auch heute Wissenschaftler konfrontiert, die Klima- oder Wetterprognosen erstellen wollen. Bis Ende der 40er Jahre des 20. Jahrhunderts geschah wenig auf dem Gebiet der numerischen Lösung von Gleichungen; erst die Entwicklung der ersten elektronischen Computer (unter ihnen auch der für die Meteorologie besonders wichtige Computer des Institute for Advanced Studies (IAS) an der Princeton University) erlaubte weitere Fortschritte in der Wettervorhersage. Die Arbeitsgruppe unter Leitung des amerikanischen Wissenschaftlers und Meteorologen Jules Charney entwickelte ein Computerprogramm, das nicht das gesamte von Richardson erstellte Gleichungssystem, sondern ein vereinfachtes System enthielt. Denn das gesamte Gleichungssystem enthält ein weites Spektrum von Bewegungsabläufen in der Atmosphäre; eine angemessene Näherung für dieses umfassende System liefert jedoch einfachere Gleichungen und filtert letztendlich die ungewollten, numerisch schwer zu berechnenden und meteorologisch nicht bedeutenden Anteile heraus. Diesen Zusammenhang entdeckte Carl Gustav Rossby Ende der 30er Jahre des 20. Jahrhunderts. Ein paar Jahre später (1956) fügte Philipps dem System von Charney einfache Zwangsbedingungen hinzu und konnte viele grundlegende Eigenschaften der Kreisläufe in der Atmosphäre darstellen - ein großer Schritt in der lang andauernden Entwicklung von General Circulation Models (im Folgenden abgekürzt mit GCMs). Eine weitere Verbesserung der GCMs führte wieder hin zu Richardsons gesamtem System von Gleichungen; Richardsons Fehler, nämlich die fehlerhafte Ein2 gabe aufgrund der unzureichenden Beobachtungsdaten und das numerische Vorgehen, sind entdeckt und korrigiert worden. In den 50er Jahren entstanden weltweit Zentren zur Modellierung von Wetter und Klima, darunter auch das Geophysical Fluid Dynamics Laboratory an der Princeton University. Mit heutigen Klimamodellen können fast alle größeren beobachteten Eigenschaften der Atmosphäre, der Ozeane und der Kryosphäre simuliert werden; dennoch kann noch vieles verbessert werden, besonders im Hinblick auf das manchmal fragwürdige Anpassen oder „Tunen“ von Parametern, um die gewünschten Simulationen zu erzielen. 1.1 Ein sehr einfaches Modell der Atmosphäre - das LorenzModell Abbildung 1: schematische Darstellung des Lorenz-Modells Dieses Modell beschreibt die Atmosphäre als ein quaderförmiges Gasvolumen, das von unten gleichmäßig beheizt wird. Nach den Gesetzen der Strömungslehre beginnt die Luft aufgrund des Temperaturgefälles zu zirkulieren. Warme Luft steigt an der einen Seite des Quaders auf, kalte Luft sinkt entlang der anderen Seite ab - die Bewegung der Luft ist gleich einem rotierenden Zylinder, dessen Rotationsachse parallel zur Ober- bzw. Unterseite der Box ausgerichtet ist. Das Modell lässt sich mit einem System dreier gekoppelter, gewöhnlicher Differentialgleichungen beschreiben: dx = δ(y − x) dt dy = rx − y − xz dt dz = xy − bz dt (1) (2) (3) Hierbei bezeichnet x die Winkelgeschwindigkeit des Luftzylinders, welche ein Maß für die Windstärke in der Atmosphäre darstellt; y ist die Temperaturdif3 ferenz zwischen den vertikalen Seiten des Zylinders, also zwischen der aufsteigenden warmen Luft und der absinkenden kalten Luft; z ist der vertikale Temperaturgradient. Die Parameter des Lorenz-Modells sind folgende: δ gibt das Verhältnis zwischen der Viskosität der Luft und ihrer thermischen Leitfähigkeit an und b ist das Verhältnis der Breite der Box zu ihrer Höhe; der eigentlich interessante Parameter ist r, der die Differenz zwischen der Temperatur an der Unterseite und der Temperatur an der Oberseite der Box bestimmt - ein Anstieg der CO2 -Konzentration in der Atmosphäre führt zu einem größeren Wert für r. Vernünftige Werte für die drei Parameter sind δ = 10, r = 28 und b = 8/3. Dieses Gleichungssystem lässt sich nicht analytisch lösen, sondern lässt sich nur mit numerischen Methoden berechnen. Zwei Graphen für den zeitlichen Verlauf der Winkelgeschwindigkeit x sind in den Abbildungen 2 und 3 gegeben; wie zu sehen ist, führen schon geringste Abweichungen in den Anfangsbedingungen (hier eine Änderung des Anfangswertes für x um ein Millionstel) ab einem bestimmten Zeitpunkt zu einem ganz anderen zeitlichen Verlauf der Winkelgeschwindigkeit eine solche außerordentliche Empfindlichkeit gegenüber Störungen des Systems ist als Chaos bekannt; wir haben es hier also mit einem chaotischen System zu tun. Abbildung 2: zeitlicher Verlauf der Winkelgeschwindigkeit x für die Anfangsbedingungen x = −9, y = −3 und z = 32 Abbildung 3: zeitlicher Verlauf der Winkelgeschwindigkeit x für die Anfangsbedingungen x = −9, 000001, y = −3 und z = 32 Auch wenn nun also zu einem bestimmten Zeitpunkt die Anfangsbedingungen der Atmosphäre, die ja ein chaotisches System ist, noch so gut bekannt sind - die geringste, nie auszuschließende Abweichung der beobachteten Daten von den tatsächlichen Werten hat zur Folge, dass der Fehler in den Vorhersagen mit der Zeit so groß wird, dass diese unbrauchbar werden. Um dennoch realis4 tische Simulationen erzeugen zu können, ist die Anwendung von statistischen Methoden nötig - diese werden in der Literatur MT 2007 näher erläutert. 1.2 Klima-Modelle - Grundgleichungen Die Basis eines Klima-Modells bilden einige Grundgleichungen: Zunächst ist die Erhaltung dreier physikalischer Größen zu berücksichtigen, nämlich die Erhaltung des Drehimpulses, die Erhaltung der Masse und die Erhaltung der Eergie. Letztere findet eine Formulierung auch im ersten Hauptsatz der Thermodynamik. Desweiteren ist sowohl für die Atmosphäre als auch für den Ozean eine Zustandsgleichung zu formulieren; die Zustandsgleichung der Atmosphäre verbindet die Größen Druck, Temperatur und Dichte miteinander, die Zustandsgleichung des Ozeans setzt die Größen Druck, Temperatur, Dichte und Salinität zueinander in Relation. Eine weitere Gleichung ist zuletzt für den Feuchtigkeitshaushalt der gesamten Atmosphäre anzugeben. Für eine genauere (numerische) Analyse dieser Gleichungen verweise ich auf die am Ende des Artikels angeführte Literatur. 2 Glaubwürdigkeit der Ergebnisse von Klimamodellen Es gibt drei gute Gründe, warum man den Prognosen, die von Klimamodellen erstellt werden, vertrauen kann. Einer der Gründe ist, dass alle Klimamodelle letztlich auf physikalischen Gesetzen beruhen, wie beispielsweise den Erhaltungssätzen von Masse, Impuls und Energie. Solche Gesetze wurden durch zahlreiche Experimente bestätigt (nicht nur im Bereich der Klimaforschung), sodass diese als gesichertes Wissen angesehen werden können. Die Tatsache, dass Klimamodelle das aktuelle Klima recht gut beschreiben können, ist ein weiterer Grund. Bei der Entwicklung eines Modells wird es immer an aktuellen Messdaten überprüft und gegebenenfalls verbessert; dabei werden sowohl Messdaten der Atmosphäre und der Ozeane, als auch der Kryosphäre und der Erdoberfläche verwendet. Hat man mehrere Modelle entwickelt, so kann man aus Vegleichen wiederum Rückschlüsse ziehen, welches Modell die Natur am besten beschreibt. Durch das stetige Verbessern gelingt es mittlerweile sehr gut, wichtige Klimaeigenschaften nachzuempfinden, wie etwa die Temperaturverteilung der Atmosphäre im großen Maßstab, Aussagen über den Niederschlag, die Strahlung, den Wind, die Temperaturen auf den Meeren, die Meeresströmungen oder die Schneebedeckung. Aber auch Klimaeigenschaften, die Schwankungen unterliegen, kann man modellieren. Dazu zählt das System des Monsuns, die saisonale Abhängigkeit der Temperaturen, die Bewegung von Stürmen und Regengürteln, sowie die Arktische bzw. Antarktische Oszillation. Einige der Klimamodelle wurden sogar zu Testzwecken auf das Wetter angewandt, mit dem Ergebnis, dass man die wichtigsten Zirkulationen auch auf einer kleinen Zeitskala erhält und dass solche Modelle auch fähig sind, Aspekte von Schwankungen im Bereich von Jahreszeiten oder Jahren richtig darzustellen. (Dass man das Wetter nur ein paar Tage voraus berechnen kann, schränkt die Gültigkeit von Klimamodellen auf einer großen Zeitskale nicht ein, da es sich hier um zwei grundsätzlich unterschiedliche Arten von Vorhersagen handelt.) 5 Abbildung 4: Globale Durchschnittstemperatur nahe dem Erdboden; die schwarze Linie zeigt Messungen, die gelben Linien sind eine Auswahl unterschiedlicher Simulationen von mehreren Modellen, deren Durchschnitt die rote Linie darstellt. Die Kurven sind relativ zum Durchschnitt der Daten zwischen 1901 und 1950. Die grauen Linien zeigen die Zeitpunkte von Vulkanausbrüchen Den dritten Grund, warum man Aussagen von Klimamodellen vertrauen kann, liefern die Übereinstimmungen mit Klimaereignissen in der Vergangenheit. So kann man Klimamodelle benutzen, um das Klima im Holozän vor 6000 Jahren oder in der letzten Kaltzeit vor 21000 Jahren zu simulieren. Man findet im großen Maßstab beispielsweise das Abkühlen der Ozeane. Man muss allerdings nicht so weit in der Zeit zurückgehen. Abbildung 4 zeigt einen Temperaturverlauf des letzten Jahrhunderts, also zu einer Zeit, wo Messdaten (oder zumindest Überlieferungen) vorliegen. Wie man dem Bild entnehmen kann, entspricht der Durchschnitt der Modellaussagen gut den tatsächlich beobachteten Werten. Man könnte dieses Beispiel auch ausdehnen auf den schnelleren Anstieg der Nachttemperaturen im Vergleich zu den Tageswerten, den Temperaturzuwachs in der Arktis oder auf das kurze globale Abkühlen nach einem Vulkanausbruch (siehe auch Abb. 4). Bei allen Erfolgen zeigen sich aber auch Fehler. Man kann sagen, dass diese Fehler vor allem auf kleinen Zeitskalen auftreten, dennoch gibt es sie auch, wenn sie große Zeiträume überblicken. Besonders anfällig für Fehler sind Simulationen, die die Niederschläge in den Tropen betreffen, El Niño Phänomene oder die Madden-Julian Oszillation (eine Schwankung von Wind und Niederschlag in den Tropen innerhalb von 30 bis 90 Tagen.) Die größten Fehlerquellen sind kurze Prozesse, die man nicht genau simulieren kann, sie aber im Zusammenhang langer Prozesse braucht, weshalb man auf Näherungen zurückgreifen muss. Dass man kurze Prozesse nicht gut genug modellieren kann, liegt zum einen daran, dass heutige Computer teilweise noch nicht schnell genug sind, zum anderen, dass die wissenschaftlichen Erkenntnisse nicht tief genug gehen und detaillierte Messungen oft nicht zur Verfügung stehen. Große Schwierigkeiten hat man mit der Simulierung von Wolken und daher auch mit der Reaktion der Wolken auf den Klimawandel. Dies ist auch einer der Gründe, warum in Klimamodel6 len die Prognose für den globalen Temperaturanstieg schwankt. Trotz allem ist die Aussage, dass die Temperatur mit zunehmenden Treibhausgasen ansteigen wird, jedem Zweifel erhaben, denn dafür sind die Belege, die sich durch aktuelle Messdaten oder durch die Rekonstruktion vergangener Klimaverhältnisse ergeben, zu stichhaltig. Um nicht nur globale oder großflächige Aussagen machen zu können, wurden spezielle regionale Klimamodelle entwickelt, aber auch Verfahren, wie man globale Modelle runterskaliert. Unabhängig davon wird auch die Auflösung der globalen Klimamodelle immer besser, was oft auch eine Frage der zur Verfügung stehenden Computer ist. Mit diesen Entwicklungen wird es immer besser, regionale Klimaveränderungen zu studieren, wie beispielsweise Extrem-Wetterlagen. Modelle verbessern sich aber auch bezüglich der Anzahl der berücksichtigten Prozesse, die in der Natur vorkommen. So hat man mittlerweile nicht mehr nur physikalische Prozesse, sondern man fügt auch chemische oder biologische Prozesse hinzu. Ein Beispiel hierfür ist die Reaktion der Pflanzen auf die Klimaveränderungen. Man kann schließlich sagen, dass Klimamodelle fähig sind, quantitative Vorhersagen über das Klima zu machen, besonders über größere Zeiträume. Klimamodelle stoßen an ihre Grenzen bei der Simulierung von Wolken, was sowohl zu Unsicherheiten bei den Absolutwerten und den entsprechenden Zeitpunkten, als auch zu Einbußen von Informationen im regionalen Bereich führt. Trotzdem kann man zweifelsfrei voraussagen, dass mit zunehmenden Treibhausgasen die Erderwärmung voranschreitet. 3 Entwicklungen seit dem Third Assessment Report 2001 (TAR) Ziel dieses Abschnitts ist es, abzuschätzen, wie gut die im IPCC gebrauchten Klimamodelle die Klimaveränderungen für die Zukunft darstellen im Verhältnis zum IPCC Third Assesment Report (TAR). Klimamodellen liegen gut bekannte, physikalische Gesetzmäßigkeiten zu Grunde und werden überprüft, indem sie das Klima der Gegenwart und der Vergangenheit zu beschreiben versuchen. Man ist grundsätzlich der Auffassung, dass Atmosphere-Ocean General Circulation Models (AOGCMs) in der Lage sind, die künftigen Klimaveränderungen zu beschreiben, besonders auf kontinentaler Ebene und großen Maßstäben. Manche Faktoren können besser beschrieben werden als andere, z.B. sind Aussagen für die Temperatur klarer als für Niederschläge. • Durch internationale Zusammenarbeit wurde die Überprüfung der Modelle zunehmend gefördert. Auf diese Weise wurde es möglich, Daten aus Simulationen mit realistischen Randbedingungen zu sammeln und zu verteilen, wodurch eine sorgfältigere und frei zugängliche Auswertung der Modelle möglich wurde. Da die Ergebnisse öfter durchgesehen werden, können Fehler leichter erkannt werden. • Die Tests für Klimamodelle werden zunehmend umfangreicher, unter anderem testet man die Vorhersagen auf einer Zeitskala zwischen Tagen und Jahren. Mit diesen Tests kann man die Genauigkeit erhöhen, wie Prozesse, die für die Klimaentwicklung wichtig sind, beschrieben werden. 7 • Beachtliche Fortschritte machte man darin, die Unterschiede zwischen Modellvorhersagen zu verstehen. Es wurde erkannt, dass die größte Fehlerquelle die Reaktion der Wolken ist. Dabei leisten tief stehende Wolken den größten Beitrag zum Fehler. Neue Erkenntnisse, die man durch Beobachtungen und Simulationen erhalten hat, bestätigen das Feedback von der Kombination Wasserdampf-Temperaturgradient, wie in General Circulation Models vorhergesagt wurde. Es ist immer noch ungewiss, wie stark die Antwort der Kryosphäre ausfällt, was auch einen Beitrag dazu leistet, dass die Vorhersagen in mittleren und hohen Breitengraden schwanken. • Man schafft laufend Verbesserungen bezüglich der Auflösung, der Berechnung und der Parametrisierung. Außerdem wurden neue Prozesse den Klimamodellen hinzugefügt, wie beispielsweise die Wechselwirkung mit Aerosolen. • Die meisten AOGCMs benutzen keine Fluss-Anpassungen mehr, die früher benötigt wurden, um ein stabiles Klima zu erhalten. Zur gleichen Zeit wurden die Simulationen vieler Bereiche des derzeitigen Klimas verbessert. In diesem Zusammenhang nahmen auch die Schwankungen ab, die durch die Fluss-Anpassungen verursacht wurden; trotzdem benutzt man AOGCMs weiterhin für Tendenzen und große Zeiträume. • Da man in der Beschreibung der wichtigsten Arten von Klimaschwankungen Fortschritte erzielt, steigt auch die Zuversicht, dass Klimamodelle die wichtigen Klimaprozesse richtig beschreiben. Beispielsweise können AOGCMs nun die wichtigsten Aspekte der El Nino-Southern Oscillation (ENSO) simulieren. Die Madden-Julian Oscillation (MJO) kann nach wie vor nur schlecht berechnet werden. • Die Fähigkeit von AOGCMs, Extrema zu simulieren, insbesondere Warmund Kaltperioden, wurde verbessert. Die Niederschlagsmenge und die Häufigkeit von starken Regenfällen wurde unterschätzt. • Die Simulation von Wirbelstürmen außerhalb der tropischen Gebiete wurde verbessert. Einige Modelle, die für die Darstellung der Veränderungen tropischer Wirbelstürme benutzt werden, können erfolgreich die beobachtete Häufigkeit und Verteilung tropischer Wirbelstürme simulieren. • Systematische Abweichungen wurden in den meisten Modellen gefunden, die den südlichen Ozean beschreiben. Da der südliche Ozean für die Wärmeaufnahme wichtig ist, folgt daraus eine gewisse Unsicherheit für den klimatischen Ausgleichsvorgang. • Um die Bedeutung des Kohlenstoffkreislaufs für das Klima zu erforschen, wurde in einigen AOGCMs und EMICs (Earth System Models of Intermediate Complexity) dieser berücksichtigt. EMICs wurden in einem höheren Maße ausgewertet als bisher. Aufeinander abgestimmte Vergleiche haben gezeigt, dass solche Modelle sinnvoll für Simulationen über lange Zeiträume oder für Fragen, die eine große Anzahl ausgewählter Simulationen erfordern würden, sind. 8 3.1 Entwicklungen in der Modellformulierung Verbesserte Modelle der Atmosphäre benutzen neu formulierte Dynamik- und Transportschemata und darüber hinaus eine höhere vertikale und horizontale Auflösung. Interaktive Aerosol-Module wurden einigen Modellen hinzugefügt und dadurch trägt man den direkten und indirekten Effekten von Aerosolen weitgehend Rechnung. Es gibt bedeutende Entwicklungen in der Beschreibung von terrestrischen Prozessen. Individuelle Komponenten werden andauernd durch systematische Auswertung gegenüber Messungen und gegenüber umfangreicheren Modellen verbessert. Die terrestrischen Prozesse, die maßgeblich das Klima der nächsten Jahrzehnte im großen Maßstab beeinflussen dürften, sind in gegenwärtigen Klimamodellen eingebunden. Es gibt aber immer noch Prozesse, die nicht berücksichtigt werden, aber wichtig für größere Zeiträume wären. Die Entwicklung der Ozean-Komponente von AOGCMs setzte sich fort. Die Auflösung konnte erhöht werden, und auch die Grenze zwischen Luft und Ozeanoberfläche wird nicht mehr als starr und fest angesehen. Neue physikalische Parametrisierungen und numerische Verfahren schließen echte FrischwasserStrömungen, verbessertes Mischverfahren von Flüssen, die ins Meer münden, und den Gebrauch von positiv definiten Advektionsschemen ein. Auch benutzt man mittlerweile weitgehend adiabatische Mischverfahren für Stoffe gleicher Dichte. Einige dieser Verbesserungen führten zu Verminderungen von Unsicherheiten, die durch weniger gute Parametrisierungen verursacht wurden (wie z.B. dem virtuellen Salzfluss). Die beste Entwicklung der Kryosphären-Komponente von AOGCMs liegt bei Meereis vor. Praktisch alle modernen AOGCMs arbeiten heutzutage mit besser durchdachter Meereis-Dynamik und mehrere haben Kategorien für die Dicke des Meereises. Auch die benutzte Thermodynamik ist mittlerweile relativ fortgeschritten. Die Formulierung der Parametrisierung von terrestrischen Schneeprozessen unterscheidet sich in den AOGCMs deutlich voneinander. Eine systematische Auswertung des Schnees legt nahe, dass die Verschiedenartigartigkeit des Schnees auf einer Längenskala unterhalb des Gitters wichtig ist für die Simulation der beobachteten saisonbedingten Schneedecke. Ein paar AOGCMs beinhalten die Dynamik von Eisdecken. Es gibt momentan keine einstimmige Meinung, wie man die Computerkapazitäten richtig einsetzt: Eine Möglichkeit wäre, die Auflösung zu erhöhen, wodurch die Simulationen besser werden; man könnte die Anzahl der Durchläufe erhöhen, damit statistische Aussagen klarer werden; schließlich könnte man die Anzahl der berücksichtigten Prozesse erhöhen, wie z.B. die Reaktion des Kohlenstoffkreislaufs oder chemische Reaktionen in der Atmosphäre. 3.2 Entwicklung in der Modellierung des Klimas Im großen Maßstab können AOGCMs die Muster der jahreszeitlichen Schwankungen von mehreren wichtigen Gebieten der Atmosphäre nun besser simulieren als dies zu Zeiten des TAR möglich war. Es ist bemerkenswert, dass Fehler wie die Berechnung des Monatsdurchschnitts, der globalen Verteilung des Niederschlags, des Drucks auf Meereshöhe und der Lufttemperatur auf der Erdoberfläche alle abgenommen haben. In einigen Modellen hat sich auch die Simulation der tief stehenden Wolken über dem Meeren verbessert, welche für eine korrekte Beschreibung der Temperatur auf der Meeresoberfläche und der Reaktion der 9 Wolken in einem sich ändernden Klima wichtig ist. Nichtsdestoweniger haben die Simulationen immer noch Defizite in der Beschreibung der Wolken und des tropischen Niederschlags (mit ihren großen regionalen und globalen Auswirkungen). Einige gewöhnliche Modelltendenzen im südlichen Ozean wurden erkannt, daraus entwickelte sich eine gewisse Unsicherheit bei der Wärmeaufnahme des Ozeans und der darauf folgende Ausgleichsvorgang des Klimas. Simulationen der Thermokline, die zu dick waren, und des Wärmetransports des Atlantiks, welcher zu schwach war, wurden in vielen Modellen verbessert. Trotz eines bemerkenswerten Fortschritts in der Verbesserung der Formulierung des Meereises erreichten AOGCMs typischerweise nur einen mäßigen Erfolg in der Simulation beobachteten Meereises seit dem TAR. Der relativ langsame Fortschritt kann teilweise dadurch erklärt werden, dass die Verbesserung der Simulation des Meereises zusätzlich die Verbesserung der Atmosphären- und Ozeankomponente benötigt. Seit dem TAR haben die Entwicklungen der AOGCM-Formulierung die Darstellung der Schwankungen im großen Maßstab in Zeiträumen vieler Größenordnungen verbessert. Die Modelle erfassen die groben außertropischen Muster einschließlich der arktischen und antarktischen Oszillation der Pacific Decadal Oscillation, der Pacific-North American und Cold Ocean-Warm Land Patterns. AOGCMs simulieren eine Schwankung im Atlantik über mehrere Jahrzehnte, obwohl es scheint, dass die relative Bedeutung der Prozesse in hohen und niedrigen Breitengraden sich innerhalb der einzelnen Modelle unterscheiden. In den Tropen kann die ENSO besser beschrieben werden, sowohl bezüglich dem räumlichen Verhalten als auch der Häufigkeit. Jedoch verbleiben Probleme in der Asymmetrie zwischen El Niño- und La Niña-Abschnitten. Einige schwankende Eigenschaften der MJO werden von den meisten AOGCMs berechnet. Diese Ereignisse sind jedoch normalerweise zu selten und zu schwach. AOGCMs sind in der Lage, sehr hohe Temperaturen oder sehr kalte Tage vernünftig zu beschreiben. Die Modelle, die im aktuellen IPCC-Report verwendet werden, um Veränderungen tropischer Wirbelstürme darzustellen, können die Häufigkeit und die Verteilung der Wirbelstürme in der Gegenwart beschreiben, die Stärke ist jedoch nur schlecht zu simulieren. Die Simulation von extremen Niederschlägen ist abhängig von der Auflösung, der Parametrisierung und des gewählten Grenzbereichs. Im Allgemeinen kann man sagen, dass Klimamodelle dazu tendieren, zu viele Tage mit wenig Niederschlag (<10 mm am Tag) und zu wenige Tage mit starken Regenfällen (> 10mm am Tag) vorherzusagen. EMICs wurden entwickelt, um Fragen zum Klimawandel in der Vergangenheit und in der Zukunft zu erforschen, für die die umfangreichen AOGCMs nicht angemessen waren, da ihre Anforderungen an die Computer zu groß waren. Dank der reduzierten Auflösung der EMICs und ihre vereinfachte Darstellung einiger physikalischer Prozesse sind diese Modelle die einzigen, die Schlüsse auf sehr großen Skalen zulassen. Seit dem TAR wurden EMICs weiter durch mehrere aufeinander abgestimmte Vergleiche von Modellen ausgewertet, welche aufgezeigt haben, dass, in großen Skalen, die Ergebnisse der EMICs gut mit Messergebnissen und den Ergebnissen der AOGCMs übereinstimmen. Dies führt zu der Auffassung, dass EMICs genutzt werden können, um Prozesse und Wechselwirkungen innerhalb Klimasystemen, die sich auf Zeitskalen abspielen, die für AOGCMs nicht zu erreichen sind, zu verstehen. Die Unsicherheiten in der Darstellung langwieriger Klimaveränderungen kann durch den Gebrauch von 10 EMICs umfangreicher erforscht werden. 3.3 Entwicklungen in analytischen Methoden Seit dem TAR wurde ein beispielloser Aufwand betrieben, um die Ergebnisse neuer Modelle den Wissenschaftlern außerhalb der Modell-Zentren für Prüfungen zugänglich zu machen. Achtzehn Gruppen, die für die Entwicklung von Modellen verantwortlich sind, gestalteten eine Auswahl von abgestimmten StandardExperimenten. Die abschließenden Ergebnisse dieser Modelle, die von hunderten Wissenschaftlern auf der ganzen Welt ausgewertet wurden, bilden den Grundstein für die Bewertung der Modellergebnisse im IPCC-Report. Die Vorteile von abgestimmten Modellvergleichen beinhalten einen größeren Austausch zwischen Modellgruppen, eine schnelere Erkennung und Korrektur von Fehlern, das Schaffen von standardisierten Berechnungen und eine vollständigere und systematische Aufzeichnungen der Modellerfolge. Ein paar Klimamodelle wurden darauf getestet (und bewiesen), ob sich ihre Prognosen bereits zu Beginn als richtig erweisen, von Wettervorhersagen (ein paar Tage) bis jahreszeitliche Vorhrsagen (Jahre). Diese Fähigkeit, die von Modellen unter solchen Bedingungen gezeigt wurde, stößt zunehmend auf Zustimmung, dass sie einige der Schlüsselprozesse und Fernverbindungen im Klimasystem simulieren können. 3.4 Entwicklungen in der Auswertung von Klimafeedbacks Die Antwort des Wasserdampfes ist das wichtigste Feedback, welches die Empfindlichkeit des Klimas erhöht. Obwohl die Stärke des Feedbacks zwischen den Modellen etwas variiert, ist dessen gesamter Einfluss auf die Empfindlichkeit des Klimas durch die Reaktion des Temperaturgradienten reduziert. Mehrere neue Studien belegen, dass die Luftfeuchtigkeit unter und über der Troposphäre, wie sie in Modellen angegeben wird, sowohl auf die jahreszeitliche und jährliche Schwankung, als auch auf das Abkühlen, welches von Vulkanausbrüchen inuduziert worden ist, als auch auf Klimatrends reagiert wie sie auch beobachtet werden. Aktuelle Messungen und Simulationen stützen die Aussagen über das Feedback Wasserdampf-Temperaturgradient in der Art, wie es in AOGCMs gefunden wurde. Neue Studien bestätigen nochmals, dass die Bandbreite von Modellausagen über die Empfindlichkeit des Klimas haupsächlich dadurch entsteht, dass die Modelle das Feedback der Wolken unterschiedlich einbauen. Der Einfluss von Kurzwellen auf Wolken in der Grenzschicht und das geringere Ausmaß der Wolken in mittleren Höhen bilden die größten Unterschiede zwischen den Modellen. Die relativ schlechte Simulation dieser Wolken im heutigen Klima ist Grund zur Besorgnis. Die Reaktion von tiefen konvektiven Wolken auf die globale Erwärmung stellt ebenfalls eine große Unsicherheit dar. Stützen sich Modelle auf Beobachtungen und Messungen, so errechnen sie unterschiedliche Stärken und Schwächen des Feedbacks und man kann noch immer nicht sagen, welches Modell am glaubwürdigsten ist. Trotz der Fortschritte die man seit dem TAR gemacht hat, ist die Antwort der Kryosphäre, wie sie in AOGCMs berechnet wird noch sehr ungewiss. Das führt zu einem Spektrum von Ergebnissen, besonders in hohen Breitengraden. 11 Verglichen mit der Schwankung durch das Wolken-Feedback, ist die Unsicherheit bezüglich der Kryosphäre sehr gering. Die Abschätzung des Feedbacks von Meereis wird verkompliziert durch die strenge Kopplung mit Polarwolken, mit der Wärme des Ozeans und mit dem Frischwassertransport. Die Tatsache, dass aus polaren Regionen zu wenige Messungen vorliegen, erschwert die Berechnung zusätzlich. Vor kurzem wurden neue Techniken entwickelt das Feedback der Oberflächen Albedo zu bestimmen. Modelle, die gemacht wurden um den jahreszeitlichen Verlauf von Schnee auf dem Erdboden zu bestimmen, könnten für eine indirekte Auswertung der Reaktion der Schnee Albedo unter dem Klimawandel genutzt werden. Systematische Modell-Vergleiche haben geholfen, den Schlüsselprozess zu finden, der verantwortlich ist für die unterschiedlichen Modellaussagen bezüglich der Antwort des Ozeans zum Klimawandel. Die Tragweite von Reaktionen von Veränderungen der Oberflächenströmung für das „Förderband“ der Meere wird in vielen Modellen nun berücksichtigt. Allerdings gibt es für diese Feedbacks noch nicht genügend Messungen. Eine Analyse der Prozesse, die einen Beitrag zu Feedbacks in Modellen leisten, und aktuelle Studien, die auf großen Ensembles von Modellen beruhen, deuten darauf, dass es in der Zukunft möglich sein wird, durch mehr Messungen die Bandbreite von Modellvorhersagen weiter einzugrenzen. 4 Die Konstruktion von Modellen Seit dem IPCC Third Assessment Report (TAR) der 2001 veröffentlicht wurde, haben sich die Modelle weiterentwickelt. Das Grundprinzip ist dabei aber gleich geblieben. Jedes Modell geht von fundamentalen physikalischen Gesetzen aus, wie etwa den Newtonschen Gesetzten der Mechanik, diese werden dann unter physikalischen Gesichtspunkten genähert. Konkret bedeutet das zum Beispiel die „Näherung“ auf große Maßstäbe. Solche Näherungen sind aber nicht zwingend Einbußen der Qualität, denn im globalen Maßstab kann es sein, dass die fehlende Information einfach nicht auffällt. Schließlich werden die Formeln mathematisch vereinfacht, damit sie leichter zu berechnen werden. Trotz aller Vereinfachungen hat man nur eine begrenzte Rechenkapazität, was bedeutet, dass die Modelle in ihrer Auflösung beschränkt sind (obwohl evtl. das Modell leistungsfähiger wäre). Es gibt Vorgänge, die man noch nicht ausreichend verstanden hat, welche aber wichtig für die Entwicklung des Klimas wären. Solche Prozesse werden im Modell dann durch Parameter ersetzt, was immer ein gewisses Problem darstellt. Denn: Durch Parameter werden Modelle künstlich auf das aktuelle Klima „getuned“. Wenn also ein bestimmter Prozess zwar gut durch das Modell simuliert wird, aber nur dank von eingestellten Parametern, so sagt das nichts über die Qualität des Modells aus. Trotzdem wird man sich für Klimavorhersagen eher auf solch gut getunten Klimamodelle verlassen, als auf solche, die das aktuelle Klima mit weniger Parameter, dafür aber schlechter beschreiben. Prinzipiell ist es möglich den besten Satz von Parametern zu finden, indem man verschiedene Prozeduren durchspielt. Machbar ist das allerdings nur für EMICs und niedrig aufgelöste GCMs. Ensemble Methoden liefern nicht zwingend einen „besten“ Parameter. 12 5 Das Koppeln von einzelnen Komponenten Da die großen Komponenten des Klimas, wie etwa die Atmosphäre und die Ozeane, alle miteinander wechselwirken, ist es für eine vollständige Beschreibung des Klimas nötig, die einzelnen Modelle zu koppeln. Besonders wichtig werden solche Kopplungen wenn man Simulationen machen möchte, die über größere Zeiträume gehen. Allerdings ist die Qualität der gekoppelten Modelle nicht zwingen besser als die sog. „stand-alone models“. Denn wenn eine Komponente fehlerhaft arbeitet, so werden falsche Daten an die anderen Komponenten geliefert, weshalb möglicherweise auch die anderen Komponenten schlechte Resultate liefern. Ein Beispiel: Werden die Wolken schlecht beschrieben, so hat dies Auswirkungen auf die Strahlungsbilanz, diese wiederum beeinflusst die Berechnung der Oberflächentemperatur. Ein typisches Problem beim Koppeln von Ozeane, Kryosphäre, Land und Atmosphäre, sind die unterschiedlichen Reaktionszeiten. Beispielsweise reagieren die Atmosphäre und die Oberflächentemperatur wesentlich schneller auf äußere Einflüsse als die Ozeane. In den meisten Modellen des 21. Jahrhunderts werden die Komponenten synchron auf einer Zeitskala von einmal am Tag oder weniger gekoppelt, d.h. innerhalb eines Kopplungsintervalls werden die jeweiligen Flüsse gemittelt und der Mittelwert dann übertragen. Viele Gruppen schließen den täglichen Verlauf der Wechselwirkung zwischen Atmosphäre, Land-Vegetation und Meereis ein. Das benötigt ein Kopplungsintervall in der Größe von ein paar Stunden oder weniger. Die Kopplung zwischen Atmosphäre und Ozean macht man hingegen nur einmal pro Tag, da hier die Effekte der Wechselwirkung vergleichsweise niedrig sind. Ist das Kopplungsintervall zu groß oder zu klein, treten Probleme auf. Ist der Ozean mit der Atmosphäre beispielsweise zu schwach gekoppelt, muss die Windenergie, die das Wasser durchmisschen kann separat eingefügt werden. Das MIROC Modell benutzt hingegen ein Kopplungsintervall von nur drei Stunden. Hier treten künstliche Schwerewellen auf, die man dann wieder wegglätten muss. Die einzelnen Komponenten unterscheiden sich im Allgemeinen durch ihre Art der Berechnung. Beispielsweise gibt es Unterschiede in der Auflösung (sowohl räumlich als auch zeitlich), der Kartographie, des verwendeten Koordinatenystems usw.. Damit Erhaltungsgrößen, bei der Kopplung wirklich erhalten bleiben sind deshalb „Fluss-Koppler“ zwischen den einzelnen Modell-Schnittstellen geschaltet. Einige Modelle benutzen sogenannte „Fluss-Anpassungen“. Darunter versteht man eine Technik, die Modellen hilft ein stabiles Klima zu simulieren und dass außerdem simulierte Werte eher den beobachteten Entsprechen. FlussAnpassungen betreffen beispielsweise Impuls-, Wärme- oder Frischwasser-Ströme. Allerdings geht seit dem TAR der Trend hin zu Modellen, die keine FlussAnpassungen verwenden. Ein Nachteil dabei war die lange Verarbeitungszeit der Anpassungen innerhalb der Komponenten, bevor sie gekoppelt werden konnten. Es scheint, dass in AOGCMs, die keine Fluss-Anpassung verwenden, die Bedingungen für die Initialisierung flexibler sind. Die Ozeankomponente vieler Modelle werden gestartet indem man entweder ganze gerasterte Datensätze eingibt oder durch die Eingliederung eines „kleinen Ozean Programms“, die selbst zum Starten weniger Messungen brauchen. Die Anfangsbedingungen für das „kleine Atmosphären Programm“ greift auf vorgefertigte Datensätze von Wasseroberflächen-Temperaturen zurück. 13 Eine wichtige Frage, die sich bei gekoppelten Systemen stellt, ist, wie man die Modelle am besten auf einem Supercomputer laufen lässt. Eine Möglichkeit wäre es, jeder Komponente einen Satz von Prozessoren zur Verfügung zu stellen, wobei die Anzahl der Prozessoren von den Anforderungen der jeweiligen Komponente abhängt. Der Idealfall wäre, wenn alle Komponenten gleich schnell arbeiten würden, damit keine Komponente auf die andere warten müsste um Flüsse auszutauschen. Andernfalls wären die Prozessoren nicht voll ausgelastet. Die zweite Möglichkeit ist, alle Prozessoren gleichzeitig für nur eine Komponente zu nutzen, und demnach die Komponenten nacheinander laufen zu lassen. Der Vorteil dabei ist, dass kein Prozessor einen Leerlauf hat. Das heißt aber nicht, dass die zweite Variante grundsätzlich besser ist. Bei genauerer Betrachtung haben beide Herangehensweisen Vor- und Nachteile. 6 Darstellen des Klimas mit einfacheren Modellen Grundsätzlich kann man ein komplexeres Modell nicht automatisch einem einfacheren vorziehen. Jedes Modell kann gewisse Fragen besser beantworten als andere. Die Wahl des Modells ist vielmehr eine Frage des genauen Problems. Die umfangreichsten Modelle sind AOGCMs. Diese versuchen das Klima möglichst genau in seiner Gänze und seiner Dynamik nachzubilden. Die Haupteinschränkung von AOGCMs sind die benötigten Rechenkapazitäten. Selbst wenn man nur eine mäßige Auflösung benutzt und die Modelle auf großen Computersystemen laufen lässt, können die AOGCMs nur Simulationen über ein paar Jahrzehnte machen. Wegen der kurzen Zeitspanne können die Unsicherheiten, die man mit diesen Modellen hat, auch nur schwer durch Vergleiche erforscht werden. Das andere Ende der Komplexität sind sogenannte „Simple Climate Models“ (SCM). Die fortschrittlicheren unter ihnen können anhand hoher Parametrisierungen folgendes berechnen: • die Menge an Treibhausgasen, wenn man die zukünftigen Emissionen vorgibt • der sich daraus ergebende Strahlungshaushalt • daraus die globale durchschnittliche Oberflächentemperatur • darauf der Anstieg des Meerwasserpegels durch das eventuelle Schmelzen von Eis Die relativ geringen Computer-Anforderungen erlauben es, viele unterschiedliche Szenarien durchzuspielen. Da so viele Experimente möglich sind, kann man auch Wahrscheinlichkeitsausaugen über die Zukunft machen. Ungereimtheiten können durch Vergleiche gut erforscht werden. Allerdings sind Simple Climate Models auf Ergebnisse von AOGCMs angewiesen. Damit die Resultate von Simple Climate Models ausführlicher werden, kann man sie so „tunen“, dass sie AOGCM-Charakter haben. Dies ist beispielsweise sinnvoll für Fragen auf globaler Ebene. Um die Lücke zwischen AOGCMs und Simple Climate Models zu füllen, wurden Earth System Models of Intermediate Complexity (EMICs) entwickelt. Da 14 diese Lücke ziemlich groß ist, gibt es auch ein breites Spektrum an EMICs. Normalerweise benutzen EMICs eine vereinfachte Atmosphären-Komponente, die dann mit einem AOGCM gekoppelt wird oder sie bestehen aus vereinfachten Atmosphären- und Ozean-Komponenten. Die EMICs variieren mit dem Grad der Vereinfachung der Komponenten. EMICs benutzen eine niedrigere Auflösung, haben aber die meisten Prozesse, die auch AOGCMs haben, allerdings in einer parametrisierten Form. Trotzdem handelt es sich um richtig gekoppelte Systeme: Die einzelnen Komponenten wechselwirken miteinander. Im Gegensatz zu Simple Climate Models ist die Anzahl der Freiheitsgrade um einige Größenordnungen höher als die Anzahl der Parameter. Trotzdem sind EMICs einfach genug, um mehrere tausend Jahre zu simulieren, manchmal sogar Eiszeitalter (in der Größenordnung von 100 000 Jahren). Man kann die Parameter praktisch beliebig variieren, so dass man wie bei Simple Climate Models Unsicherheiten oder den besten Satz von Parametern erforschen kann. Aufgrund dieser Freiheiten ist es möglich, die Geschichte des Klimas nach interessanten Zeiten abzusuchen, um sie dann in AOGCMs genau zu studieren. EMICs sind außerdem besonders nützlich bei Vorhersagen im großen Maßstab und für die Untersuchung von Feedbacks. Sowohl die Wolken als auch der Einfluss des Windes werden in EMICs nur in Form von vorgeschriebenen Werten berücksichtigt. Es ist zunächst nicht klar, wie sich die niedrige Auflösung auf Vorhersagen auswirkt, allerdings stimmen im großen Maßstab die Ergebnisse gut mit heutigen Messungen und den Resultaten von AOGCMs überein. 7 Simulation des aktuellen Klimas Es ist entscheidend, dass Klimamodelle den aktuellen Zustand möglichst gut beschreiben können, da Feedbacks besonders abhängig sind vom jeweiligen Klimazustand. Ist ein Modell nicht in der Lage, das aktuelle Klima richtig zu beschreiben, so wird man nicht darauf vertrauen können, dass dieses Modell die Zukunft richtig darstellt. Bei der Konstruktion eines neuen Modells ist daher das erste Ziel, die Gegenwart richtig zu simulieren. Da aber kein Modell fehlerfrei ist, benutzt man gerne „multi-model Simulationen“. Darunter versteht man die Mittelung über alle einzelnen Modelle. Der Vorteil dabei ist, dass sich viele Fehler gegenseitig aufheben, sich also „rausmitteln“. Übrig bleiben hauptsächlich die systematischen Fehler, die man dann durch Vergleich mit den tatsächlich gemessenen Werten analysieren kann. Mann kann sagen, dass die Mittelwerte von multi-model Simulationen das Klima besser beschreiben, als die einzelnen Modelle. Man ist im Umkehrschluss auch an verschiedenen Modellen interessiert, und favorisiert nicht nur ein einziges. Die zwei folgenden Abschnitte sollen als Beispiel für Ergebnisse von gekoppelten globalen Modellen dienen. 7.1 Die Temperaturverteilung Soll ein Modell den jahreszeitlichen oder täglichen Temperaturverlauf korrekt simulieren, so muss es eine Vielzahl von Prozessen richtig beschreiben können. Die Verteilung des Jahresdurchschnitts der Temperatur im globalen Maßstab ist vor allem abhängig von der Sonneneinstrahlung, die wiederum von der Wolkenverteilung abhängt, anderen Wärmeströmungen auf der Oberfläche und anderen 15 Abbildung 5: die Beschriftung der Linien steht für die gemessene Lufttemperatur an Land bzw. die obere Wassertemperatur im Jahresdurchschnitt; die farbigen Bereiche zeigen die Abweichung zum Mittelwert des Hauptmodels (Simulation minus Hauptmodell) Energietransporten der Energie durch die Atmosphäre. Die Ozeane spielen hier eine geringere Rolle. Der jahreszeitliche und tägliche Verlauf der Temperatur hängt natürlich von diesen Faktoren ab, allerdings muss man hier noch berücksichtigen, dass die Ozeane in den oberen Schichten auch Wärmeenergie speichern können. Der Einfluss der Wärmeaufnahme des Erdbodens fällt dagegen geringer aus. Bild 5 ist ein Ergebnis einer Multi-Modell Simulation: Die beschrifteten Linien zeigen die Orte, wo im Jahresdurchschnitt gleiche Temperaturen gemessen wurden. Die Farben stehen für Abweichungen zum Mittelwert des Hauptmodells. Rote Farben zeigen an, dass die berechnete Temperatur zu hoch ist, blaue Farben, dass sie zu niedrig ausgefallen sind. Man erkennt, dass der mittlere Fehler weniger als zwei Grad beträgt, wenn man von mess-armen Regionen absieht. Für einzelne Modelle liegt der Fehlerbereich innerhalb von drei Grad, zumindest außerhalb der hohen Breitengrade (siehe auch Abbildung 6). Manche Abweichungen lassen sich dadurch erklären, dass die zu Grunde liegende Topographie nicht gut genug ist. Im Modell tendieren die Oberflächen glatter zu sein als in Wirklichkeit. Man kann erkennen, das die einzelnen Modelle generell dazu tendieren, die Temperaturen zu niedrig darzustellen. Die Frage ist nun, wie sich solche systematischen Fehler auf äußere Störungen auswirken. Betrachtet man die jahreszeitlichen Temperaturverläufe (nicht im Bild zu sehen) so stellt man fest, dass sie trotz der obigen Abweichungen größtenteils richtig wiedergegeben werden. Der Korrelations-Koeffizient zwischen Simulation und Messung eines lokalen Musters im Jahresdurchschnitt beträgt 0,98 für einzelne Modelle. Man kann deshalb sagen, dass die Hauptprozesse alle vernünftig beschrieben werden können. Ein weiterer Punkt ist die Auswertung des jährlichen Temperaturverlaufs. Bild 7 zeigt die Standardabweichung des Monats-Durchschnitts der Oberflächentemperatur im Jahreskreislauf und farbig den absoluten Fehler des Haupt- 16 Abbildung 6: Größe des typischen Fehlers pro Model. Als Maß dafür benutzt man die Wurzel der quadratischen Standardabweichung Abbildung 7: Beobachtete Standardabweichung der Lufttemperatur bzw. der oberen Wassertemperatur des monatlichen Mittelwerts im Jahreskreislauf (beschriftete Linien) und der Fehler des Hauptmodells (Simulation minus Messung, farbige Bereiche) 17 Abbildung 8: gemessener Temperaturbereich pro Tag im jährlichen Mittel; dunkelblau steht für eine kleine Schwankung, dunkelrot für große Abbildung 9: simulierter Temperaturbereich pro Tag im jährlichen Mittel; dunkelblau steht für eine kleine Schwankung, dunkelrot für große modells bezüglich der Standardabweichungen. An diesem Bild kann man also den Beitrag von Prozessen sehen, die jährlich oder halbjährlich ablaufen. Das grundsätzliche Muster, dass die Schwankung in höheren Breitengraden größer als am Äquator ist, findet man sofort wieder. Man sieht, dass die absoluten Abweichungen zwischen Modell und Messung hier i.d.R geringer als ein Grad sind. Auch in Gebieten, wo die monatliche Standardabweichung über zehn Grad ist, ist der Unterschied zwischen Simulation und Messung fast immer innerhalb zwei Grad. Besonders fällt auf, dass im östlichen Sibirien die Temperaturschwankungen unterschätzt sind. Wenn man von einzelnen Ausnahmen absieht, ist auf globaler Ebene der Temperaturverlauf gut dargestellt. Man darf aber an dieser Stelle nicht vergessen, dass die Modelle auf globaler Ebene besser funktionieren als auf regionaler Ebene. Die gleichen Überlegungen kann man auch für die täglichen Temperaturschwankungen anstellen. Abbildung 8 und 9 zeigen den gemessenen und den 18 Abbildung 10: mittlerer Fehler des Hauptmodels (Simulation minus Messung), lila steht für weniger als minus zehn Grad, dunkelrot für über plus zehn Grad Abbildung 11: gemessene Lufttemperatur im jährlichen und zonalen Mittel in Abhängigkeit der Höhe berechneten Temperaturbereich (nicht die Standardabweichung) innerhalb den die Tagestemperaturen im Mittel schwanken. Die Werte für Ozeane wurden in Abbildung 8 weggelassen, da hier erstens die Tagesschwankungen zu gering ausfallen und zweitens hier zu wenig Messungen vorliegen. Wie man Bild 10 entnehmen kann ist die Schwankung meistens zu klein ausgefallen. Manchmal beträgt der relative Fehler 50%. Am besten beschreiben lassen sich die Tagesschwankungen über klare, trockene Gebiete. Warum die Schwankun meistens zu klein ausfällt, ist noch nicht verstanden, liegt aber möglicherweise an einer schlechten Parametrisierung der Grenzschicht Boden-Atmosphäre. Ein weiterer Grund könnte das Wechselspiel von frierenden und auftauenden Böden sein. Schließlich haben Wolken auf den Tagesverlauf Einfluss, welche nur schlecht beschrieben werden können. Die Bodentemperaturen hängen eng mit den Lufttemperaturen darüber zusammen. Das gilt besonders bei mittleren Breitengraden, wo Kalt- und Warm19 Abbildung 12: berechnete Lufttemperatur im jährlichen und zonalen Mittel in Abhängigkeit der Höhe Abbildung 13: mittlerer Fehler des Hauptmodells bezüglich dem vertikalen Profil der Lufttemperatur (Simulation minus Messung); dunkelblau steht für -7.5 Grad, dunkelrot für +7,5 Grad 20 Abbildung 14: beim Modell UKMO-HadGEM1 fällt das typische Problem der zu niedrigen Temperaturen in hohen Breitengraden in der Höhe der Tropopause nur schwach aus Fronten für große Temperaturbereiche sorgen. Deshalb gibt es großes Interesse das vertikale Profil der Atmosphären-Temperatur zu beschreiben. Wie man in den Abbildungen 11 bis 13 sehen kann, beträgt der mittlere Fehler weniger als zwei Grad, wobei die Temperaturspanne mehr als 100 Grad beträgt, wenn man die Troposphäre ganz mit einschließt. Auch wenn es besser wird, hat man immme noch ein Problem, das seit vielen Jahren besteht: die zu niedrig berechneten Temperaturen bei hohen Breitengraden in der Höhe der Tropopause (siehe Abbildung 13). Bei manchen Modellen tritt dieses nicht Problem nur schwach auf, aber wahrscheinlich nur deshalb, weil sich Fehler gegenseitig kompensieren (siehe Abbildung 14). 7.2 Die Verteilung von Niederschlag Schon aus rein praktischem Nutzen ist es interessant zu wissen, wie sich der Niederschlag verteilt, und das nicht nur auf globaler, sondern auch auf regionaler Ebene. Im Gegensatz zur Temperatur auf globaler Ebene ist hier nicht nur die Sonneneinstrahlung und die Verteilung der Kontinente wichtig, sondern auch die vertikale Bewegung der Luft, die wiederum von der Bodenbeschaffenheit und den atmosphärischen Unbeständigkeiten abhängt. Um den saisonalen Verlauf richtig darzustellen, muss man zusätzlich noch ein Reihe von Prozessen beschreiben können. Dazu zählt die Verdunstung, die Kondensation und der Transport von Feuchtigkeit. Die Bilder 15 und 16 zeigen die mittlere gemessene bzw. simulierte Niederschlagsmenge pro Jahr. Man kann erkennen, dass in höheren Breiten die Niederschläge geringer als am Äquator ausfallen. Der Grund dafür liegt in der Tatsache, dass bei niedrigeren Temperaturen weniger verdunstet und dass der niedrigere gesättigte Dampfdruck kühler Luft es verhindert, dass Feuchtigkeit aus anderen Regionen hintransportiert wird. Die grobe Verteilung des Hauptmodells ist, wie man an den Bildern sehen kann, wieder wie die der Messung. Man kann auch die niederschlagsarme Zone beim Äquator sehen, was eine Folge der Innertropischen Konvergenzzone (ITCZ) ist. Die absinkende Luft in den Subtropen 21 Abbildung 15: gemessene mittlere Niederschlagsmenge pro Jahr Abbildung 16: Simulation des Hauptmodells der mittleren Niederschlagsmenge pro Jahr 22 verdrängt die Niederschläge. Es entstehen Stürme, was die Niederschläge in den mittleren Breitengraden fördert. Das Niederschlags-Muster im großen Maßstab kann das Hauptmodell also gut simulieren, weshalb man zum Schluss kommt, dass die Modelle diese Atmosphärenzirkulationen vernünftig beschreiben. Generell kann man aus anderen Gründen sagen, dass man den jährlichen Verlauf des Niederschlags-Musters seit der letzten paar Jahre immer besser gelernt hat zu beschreiben. Die Modelle können aber auch einige regionale Muster berechnen. Dazu gehören beispielsweise die Haupt-Konvergenzzone und die Maxima über den tropischen Regenwäldern. Allerdings gibt es unter den Modellen eine Tendenz, den Niederschlag über den Amazonas zu unterschätzen. Außerdem reicht die ITCZ zu weit nach Osten und ist den Breitengraden zu parallel ausgerichtet. In den meisten Modellen ist das Maximum im tropischen Atlantik zu schwach, dafür gibt es im Süden des Äquators zu viel Regen. Auch das Gebiet im indischen Ozean weist einige systematische Fehler auf. Manche Fehler entstehen aus den Werten der Oberflächentemperatur von gekoppelten Modellen. Aber auch Modelle, die nur die Atmosphäre behandeln, sind nicht wirklich besser. 8 8.1 Vorhersagen für das zukünftige Klima Emissionsszenarien - Grundlage der Simulationen im 4. IPCC-Report Die Emissionsszenarien des Special Report on Emission Scenarios (SRES) enthalten Abschätzungen hinsichtlich des Bevölkerungs- und Wirtschaftswachstums im 21. Jahrhundert und lassen sich in die vier charakteristischen SzenarioFamilien A1, B1, A2 und B2 einteilen. A1-Szenarien Familie: Hier wird ein rasches Wirtschaftswachstum prognostiziert, die Weltbevölkerung steigt zunächst an, nimmt aber ab Mitte des 21. Jahrhunderts wieder ab. Wirtschaftliche, kulturelle und soziale Interaktion begünstigen eine rasche Einführung neuer und effizienterer Technologien - bezüglich der unterschiedlichen Ausrichtungen der technologischen Entwicklung lässt sich die A1-Szenario-Familie in drei weitere Szenarien-Familien unterteilen: A1F I (fossilintensiv), A1T (nichtfossile Energiequellen), A1B (ausgewogene Nutzung fossiler und nichtfossiler Energiequellen). A2-Szenarien Familie: Das Streben nach Autarkie und die Bewahrung lokaler Identitäten führen zu großen regionalen Unterschieden und einer langsamen technologischen Entwicklung; außerdem wird eine stetig anwachsende Weltbevölkerung angenommen. B1-Szenarien Familie: Die Entwicklung der Weltbevölkerung ist ähnlich der in A1: Nach Erreichen eines Maximums Mitte des 21. Jahrhunderts nimmt sie wieder ab. Die wirtschaftlichen Strukturen entwickeln sich hin zu einer Dienstleistungs- und Informationsgesellschaft; weiter sind ein Rückgang des Materialverbrauchs und die Einführung von sauberen und ressourcen-effizienten Technologien zu beobachten. Es wird eine globale Lösung für wirtschaftliche, soziale und umweltgerechte Nachhaltigkeit gesucht. B2-Szenarien Familie: 23 Hier wird eine Welt beschrieben, in der der Schwerpunkt auf lokalen Lösungen für wirtschaftliche, soziale und umweltgerechte Nachhaltigkeit liegt. Die Weltbevölkerung steigt stetig, aber langsamer als in A2 an, die wirtschaftliche Entwicklung ist mittelmäßig. Auch hier sind Umweltschutz und soziale Gerechtigkeit wichtige Gesichtspunkte. Für jede dieser sechs Szenarien-Familien A1B, A1F I, A1T , A2, B1 und B2 wurde ein illustratives Szenario ausgewählt; die hauptsächlich im IPCC-Report verwendeten Szenarien sind B1, A1B und A2, die mit einem langsamen, mittelmäßigen bzw. starken Anstieg der Emissionen rechnen. Neben diesen realitätsbezogenen Emissions-Szenarien werden im IPCC-Report auch idealisierte Langzeit-Szenarien als Grundlage für Simulationen herangezogen: stabilisation scenarios: Hier wird die Konzentration der Treibhausgase ab einem bestimmten Zeitpunkt auf einen konstanten Wert gesetzt. Für die erste Gruppe dieser Szenarien ist diese Konzentration konstant bei den entsprechenden Werten für das Jahr 2000 und läßt eine Prognose bis 2100 zu. Für eine weitere Gruppe sind die Konzentrationen konstant bei Werten für das Jahr 2100, berechnet aus den Szenarien A1B und B1. Hier ist eine Prognose für weitere 100 bis 200 Jahre möglich. Desweiteren gibt es zero emission commitment scenarios, in welchen die Emissionen im Jahr 2100 auf 0 gesetzt werden, und overshoot scenarios, in welchen die Konzentration der Treibhausgase nach dem Jahr 2150 reduziert wird. 8.2 Fehlerquellen bei der Erstellung eines Klima-Modells Abbildung 17: Fehlerquellen bei der Erstellung eines Klimadiagramms; die untere Zeile für das A1B-Szenario ist zur Veranschaulichung aus Abbildung 18 entnommen Fehler und Unsicherheiten treten auf verschiedenen Entwicklungsstufen eines Klima-Modells auf. Zunächst müssen die Emissionen, die durch ein bestimmtes Emissions-Szenario vorgegeben sind, mit Hilfe verschiedener biochemischer Modelle in die entsprechenden Konzentrationen der einzelnen Treibhausgase in der Atmosphäre umgerechnet werden. Diese Konzentrationen werden anhand von verschiedenen Strahlungs-Schemata und geeigneter Parametrisierung in einen Strahlungsantrieb (englisch: radiative forcing) umgewandelt; der Strahlungsan- 24 Abbildung 18: CO2 -, CH4 -und SO2 -Emissionen für die sechs SRES-Szenarien A1B, A1F I, A1T , A2, B1 und B2, deren entsprechende CO2 -, CH4 - und SO2 Konzentration, der daraus resultierende Strahlungsantrieb und die globale Durchschnittstemperatur; die Simulationen sind erstellt von einem SCM, abgestimmt auf 19 AOGCMs 25 trieb ist eine Größe, die den weiteren Berechnungen zu Grunde liegt. Schließlich wird die Reaktion der einzelnen Komponenten des Klimasystems (z.B. Temperatur) auf den zusätzlichen Strahlungsantrieb in einem umfassenden Klima-Modell berechnet. Die einzelnen Entwicklungsstufen und die mit ihnen verbundenen Fehlerquellen sind in Abbildung 17 dargestellt. Weitere Fehler treten bei der mathematischen Formulierung des KohlenstoffKreislaufs und der Bestimmung seiner nicht zu vernachlässigenden Rückkopplungseffekte auf. Diese Unsicherheiten können jedoch in einem umfassenden Klima-Modell durch physikalische und chemische Darstellungen dieser Prozesse quantitativ eingeschätzt werden. Weitere Fehlerabschätzungen werden durch ausreichende Beobachtungsdaten, eine hierarchische Anordnung der einzelnen Klima-Modelle und Ensemble-Simulationen erzielt. Allerdings beinhaltet auch die Wahl der Beobachtungsdaten und die mit ihnen verbundenen systematischen Fehler eine weitere Fehlerquelle. Wie sich die Fehler quantitativ auf die Vorhersagen des zeitlichen Verlaufs des Strahlungsantriebs und der Temperatur auswirken, ist für sechs illustrative Emissionsszenarien in Abbildung 18 dargestellt. An dieser Stelle muss ausdrücklich betont werden, dass die Unsicherheiten bezüglich der zukünftigen Entwicklung der Treibhausgaskonzentrationen gänzlich anderer Natur sind. 8.3 8.3.1 Vorstellen einiger Ergebnisse globale Erderwärmung In der linken Spalte von Abbildung 19 sind einige Zeitreihen verschiedener Modelle für die Änderung der globalen Durchschnittstemperatur auf der Erdoberfläche dargestellt; daneben ist auch der Mittelwert aller Modelle für die Erwärmung angegeben. Die Werte geben die absolute Änderung der Temperatur relativ zu den Jahren 1980 bis 1999 an; in dieser Periode lag der Mittelwert der Temperatur bei 13, 6◦ C. Für jedes Jahr zeigt sich ein weites Spektrum an Ergebnissen, allerdings nimmt der Betrag der internen Abweichungen der einzelnen Modelle untereinander entlang der Zeitskala im Vergleich zum Mittelwert ab und ist schließlich nur noch ein Bruchteil des Mittelwerts der Erderwärmung - ein eindeutiges Ansteigen der Temperatur ist also zu erwarten. Entsprechend der Annahmen der einzelnen Emissionsszenarien ist die Erwärmung am größten für das Szenario A2, das einen starken Zuwachs an Treibhausgasen representiert; der Mittelwert des Temperaturanstiegs im Vergleich zum Ende des 20. Jahrhunderts liegt bei etwa 3, 5◦ C im Jahr 2100. Ein mittelmäßiger Anstieg der Temperatur von etwa 2, 8◦ C ist für das Szenario A1B zu erwarten, der geringste Anstieg von etwa 1, 8◦ C im Jahr 2100 folgt für das Szenario B1. Allerdings variieren die Trends der mittleren Temperaturzunahme etwas im Verlauf des 21. Jahrhunderts, was auf die unterschiedlichen Einflüsse des Strahlungsantriebs und weiterer Größen zurückzuführen ist. Wie beispielsweise in Abbildung 20 zu sehen ist, ist um das Jahr 2040 herum der Mittelwert aller Modelle für das Szenario A1B, das einen geringeren Anstieg der Emissionen annimmt als das Szenario A2, größer als der Mittelwert für das Szenario A2, das einen starken Anstieg der Emissionen prognostiziert. Die Werte für die Tempe- 26 Abbildung 19: Zeitreihen für die Änderung der durchschnittlichen globalen Oberflächentemperatur in ◦ C (links) und der durchschnittlichen globalen Niederschlagsmenge in % (rechts) im Vergleich zum Mittelwert der Jahre 1980 bis 1999; diese Darstellung beinhaltet Berechnungen verschiedener global coupled models für die Szenarien A2 (oben), A1B (Mitte) und B1 (unten); Werte in Klammern geben die Anzahl der gezeigten Simulationen wieder; der Mittelwert des gesamten Modell-Ensembles ist mit schwarzen Punkten dargestellt 27 Abbildung 20: Mittelwerte einiger Modelle für die Änderung der Oberflächentemperatur im Vergleich zu den Jahren 1980 bis 1999 für die Szenarien A2, A1B und B1 sowie ein constant composition commitment scenario; Werte für die Zeit nach 2100 basieren auf stabilisation scenarios, in denen die Konzentration der Treibhausgase auf dem Wert des Jahres 2100 konstant bleibt; Linien zeigen den Mittelwert des Modell-Ensembles, ausgegraute Flächen markieren die Standardabweichung der einzelnen Modelle; die farbigen Nummern geben die Zahl der Modelle für jeden Zeitraum und jedes Szenario an raturänderung nach dem Jahr 2100 sind eine Fortführung der Simulationen auf Grundlage von idealisierten Szenarien (englisch: constant composition commitment scenarios), die eine konstante Konzentration der Treibhausgase ab dem Jahr 2100 annehmen. Die internen Schwankungen der einzelnen Modellergebnisse können reduziert werden, indem über einen Zeitraum von 20 Jahren gemittelt wird; diese Zeitspanne ist kürzer als die traditionelle klimatologische Zeitspanne von 30 Jahren, um das kurzzeitige Wesen der Simulationen und den größeren Umfang des Modell-Ensembles zu berücksichtigen. Tabelle 21 zeigt den Mittelwert aller Modelle für die Erwärmung relativ zum Abbildung 21: Änderung der globalen Durchschnittstemperatur, gewonnen aus dem Mittelwert der Modelle aus Abbildung 19, für vier Zeiträume im Vergleich zu den Jahren 1980 bis 1999 (Durchschnittstemperatur bei 13, 6◦ C); ´Commit´ verweist auf ein constant composition scenario Temperaturdurchschnitt der Jahre 1980 bis 1999 für drei Zeiträume im 21. Jahrhundert, nämlich für den Beginn (2011 bis 2030), die Mitte (2046 bis 2065) und 28 das Ende des 21. Jahrhunderts (2080 bis 2099). Die Vorhersagen für den Beginn des 21. Jahrhunderts sind fast unabhängig von der Wahl des Emissions-Szenarios, die Abweichungen der einzelnen Werte betragen maximal 0, 05◦ C (diese Abschätzungen sind jedoch nur für die Mittelwerte gültig, die Unsicherheiten in den Vorhersagen der einzelnen Klima-Modelle sind deutlich größer!). Die Hälfte des Temperaturanstiegs, etwa 0, 37◦ C, ist auf den jetzt schon verwirklichten Klimawandel zurückzuführen. Für die Mitte des 21. Jahrhunderts wird die Wahl des Szenarios wichtig, hier betragen die Abweichungen der einzelnen Szenarien untereinander schon bis zu 0, 46◦ C. Etwa ein Drittel der Erwärmung ist auf den schon bemerkbaren Klimawandel zurückzuführen. Gegen Ende des 21. Jahrhunderts weichen die Werte der Szenarien schon um bis zu 1, 3◦ C voneinander ab, mindestens 18% sind dem heutigen Klimawandel zuzuschreiben. Eine graphische Methode, die Breite der Fehler und die Wahrscheinlichkei- Abbildung 22: Wahrscheinlichkeitsdichtefunktionen (englisch: Probability Density Functions PDFs) von unterschiedlichen Modellen für die Änderung der globalen Durchschnittstemperatur für die Szenarien B1, A1B und A2, sowohl für die Jahre 2020 bis 2029 als auch für die Jahre 2090 bis 2099 im Vergleich zum Durchschnittswert der Jahre 1980 bis 1999 ten für den Betrag einer Klimakomponente anzugeben, ist die Wahrscheinlichkeitsdichtefunktion (englisch: Probability Density Function PDF). Abbildung 29 22 zeigt die Unsicherheiten in der Berechnung als relative Wahrscheinlichkeiten pro Grad Celsius für die geschätzte mittlere globale Erwärmung. PDFs sind hier für die Jahre 2020 bis 2030 und die Jahre 2090 bis 2100 dargestellt (beachte, dass dies andere Zeiträume sind als in Tabelle 21). Zwei wesentliche Gesichtspunkte sind aus dieser Darstellung ersichtlich: erstens ist für den ersten Zeitraum von 2020 bis 2029 die Übereinstimmung zwischen den einzelnen Modellen und Methoden zur Berechnung der PDFs größer als für den zweiten Zeitraum von 2090 bis 2099; zweitens wird für den ersten Zeitraum unabhängig vom zu Grunde liegenden Szenario B1, A1B, oderA2 derselbe Wert von etwa 0, 7◦ C für die Erderwärmung angegeben, für den zweiten Zeitraum führt die Wahl des Szenarios zu signifikanten Unterschieden in den Ergebnissen. Außerdem wachsen die Unsicherheiten in der Vorhersage in den meisten Untersuchungen beinahe linear mit der Temperatur. Abbildung 23: regionale Durchschnittswerte für die Änderung der Oberflächentemperatur entlang geographischer Breite sowohl über Land als auch über den Ozeanen, für die Jahre 2080 bis 2099 im Vergleich zu den Jahren 1980 bis 1999; links ist die lokale Änderung ins Verhältnis gesetzt zur mittleren globalen Änderung der Temperatur, rechts nicht; die Ergebnisse des Mittelwerts eines Multi-Modell-Ensembles sind gezeigt für das A2-Szenario und ein commitment-Szenario Regionale Mittelwerte für die Temperaturerhöhung entlang geographischer Breite werden in Abbildung 23 gezeigt. Die Graphiken vergleichen vergleichen die Werte für den Zeitraum von 2080 bis 2099 mit dem Zeitraum von 1980 bis 1999. Im linken Diagramm wird der absolute Wert der regionalen Abweichung relativ zum mittleren globalen Temperaturanstieg angegeben. Über Landmassen ist die Erwärmung größer als der globale Mittelwert, außer in den südlichen mittleren Breiten. Die Erwärmung über den Ozeanen ist geringer als der globale Mittelwert, eine Ausnahme bilden die hohen geographischen Breiten - Grund hierfür sind die positiven Rückkopplungseffekte von Schnee und Eis. Dieses Muster der regionalen Temperaturänderungen im Verhältnis zum globalen Durchschnittswert ist für alle Emissions-Szenarien ähnlich. Eine weitere Veranschaulichung der regional unterschiedlichen Oberflächenerwärmung ist in Abbildung 24 gegeben. 8.3.2 Niederschlag Mit dem Anstieg der Temperatur ist ein Anstieg der durchschnittlichen Niederschlagsmenge verbunden - darin sind sich alle Modelle einig. In Abbildung 25 sind lokale und jahreszeitliche Änderungen der Temperatur 30 Abbildung 24: durchschnittliche Änderung der Oberflächentemperatur in ◦ C für die Szenarien B1 (oben), A1B (Mitte) und A2 (unten), und für drei Zeiträume, nämlich für die Jahre 2011 bis 2030 (links), 2046 bis 2065 (Mitte) und 2080 bis 2099 (rechts); die Änderungen sind jeweils im Vergleich zum Durchschnittswert der Jahre 1980 bis 1999 gegeben Abbildung 25: Änderungen der Oberflächentemperatur (in ◦ C, links), der Niederschlagsmenge (in mm pro Tag, Mitte) und des Drucks für die Monate Dezember, Januar, Februar (oben) und Juni, Juli, August (unten); die Änderungen sind Mittelwerte eines Multi-Modell-Ensembles für das SRES-Szenario A1B für die Jahre 2080 bis 2099 im Vergleich zu den Jahren 1980 bis 1999; gepunktete Flächen zeigen an, dass hier der Betrag des Mittelwertes des Multi-Modell-Ensembles die Standardabweichung übersteigt 31 und der Niederschlagsmenge für die Jahre 2080 bis 2099 im Vergleich zu den Jahren 1980 bis 1999 für das Szenario A1B dargestellt. Gepunktete Gebiete geben an, dass hier der Betrag des Mittelwertes des Multi-Modell-Ensembles die Standardabweichung übersteigt, hier stimmen die Modelle also gut überein; für die Änderung des Niederschlags gibt es häufiger verschiedene Werte der einzelnen Modelle als für die Änderung der Oberflächentemperatur. Große Übereinstimmung gibt es darin, dass es mehr Niederschläge in Gebieten hoher Breitengrade zu beiden Jahreszeiten, Sommer wie Winter, geben wird. Ein weiterer Anstieg der Niederschlagsmenge ist über den Ozeanen entlang des Äquators und in einigen Monsun-Regionen (z.B. Südasien im Sommer, Australien im Winter) zu erwarten. Ein breitgefächertes Spektrum an Prognosen gibt es für eine Abnahme der Niederschlagsmenge in Gebieten mittlerer Breite; einig sind sich die Modelle, dass sich die Niederschlagsmenge über vielen subtropischen Gebieten verringern wird. Abbildung 26: Änderung der Niederschlagsmenge in mm pro Tag als Mittelwert eines Multi-Modell-Ensembles; die Änderungen sind jährliche Mittelwerte für das SRESSzenario A1B für die Jahre 2080 bis 2099 im Vergleich zu den Jahren 1980 bis 1999; gepunktete Flächen zeigen an, dass hier mindestens 80% der Modelle mit dem Vorzeichen der mittleren Änderung der Niederschlagsmenge übereinstimmen Eine weitere Graphik dieser Art ist in Abbildung 26 zu sehen. Sind Flächen gepunktet, bedeutet dies, dass mindestens 80% der Modelle mit dem Vorzeichen der mittleren Änderung der Niederschlagsmenge übereinstimmen. Ein Anwachsen von mehr als 20% ist über den meisten Gebieten hoher geographischer Breite, sowie in Ostafrika, Zentralasien und im Pazifik entlang des Äquators zu erwarten. Die Änderung über den Ozeanen zwischen 10◦ S und 10◦ N trägt in etwa zur Hälfte zum globalen Mittelwert bei. Beträchtliche Abnahmen bis zu 20% sind in den mediterranen Gebieten, in der Karibik und an den subtropischen Westküsten jedes Kontinents zu erwarten. Diese globalen Muster bezüglich der Änderung der Niederschlagsmenge gelten auch für die anderen SRES-Szenarien. Auch aus Abbildung 27 lässt sich ein eindeutiger Zuwachs der Niederschläge nahe des Äquators und in den Gebieten hoher geographischer Breite ablesen. Die Ergebnisse hinsichtlich der Werte, die in Relation zum Mittelwert des globalen Temperaturanstiegs gesetzt sind (linkes Diagramm) sind ähnlich für die vier 32 Abbildung 27: regionale Durchschnittswerte für die Änderung der Niederschlagsmenge entlang geographischer Breite sowohl über Land als auch über den Ozeanen, für die Jahre 2080 bis 2099 im Vergleich zu den Jahren 1980 bis 1999; links ist die lokale Änderung ins Verhältnis gesetzt zur globalen Änderung der Temperatur, rechts nicht; die Ergebnisse des Mittelwerts eines Multi-Modell-Ensembles sind gezeigt für das A2-Szenario und ein commitment-Szenario angegeben Szenarien; eine Ausnahme ist das commitment-Szenario, das eine relativ große Zunahme der Niederschläge über den Ozeanen entlang des Äquators vorhersagt. Eine beträchtliche Abnahme ist dagegen in den Subtropen und den mittleren Breiten sowohl der Nord- als auch der Südhalbkugel zu erwarten. 8.3.3 Veränderungen in der Arktis und Antarktis Positive Rückkopplungseffekte von Schnee und Meereis und andere Prozesse führen im 21. Jahrhundert zu einer Erwärmung in hohen geographischen Breiten. Der Temperaturanstieg ist besonders groß im Herbst und frühen Winter. Hinsichtlich der quantitativen Änderungen in der Ausdehnung des Meereises gibt es eine große Spannweite an Prognosen, sowohl bezüglich der einzelnen zu Grunde liegenden Emissions-Szenarien als auch innerhalb der einzelnen Modelle (vgl. Abbildung 28). Ein wichtiges Merkmal ist aber allen Simulationen gemeinsam: Die Ausdehnung des Meereises im Sommer nimmt viel schneller ab als die Ausdehnung im Winter. Neben der Ausdehnung wird sich auch die Dicke des Meereises ändern; Bitz und Roe (2004) sagen voraus, dass das arktische Meereis an den Stellen am schnellsten dünner wird, an denen es anfangs am dicksten ist - das Volumen des arktischen Meereises nimmt also schneller ab als seine Ausdehnung. Im Vergleich zum arktischen Meereis wird die Ausdehnung des Meereises in der Antarktis langsamer abnehmen. In den folgenden Punkten stimmen die meisten Klima-Modelle überein: die Änderung der Oberflächentemperatur wird ein Maximum im Herbst und im frühen Winter erreichen, die Ausdehnung des Meereises wird immer mehr saisonal ausgerichtet sein, das arktische Meereis wird schneller verschwinden als das antarktische Meereis und der nordwärts gerichtete Wärmetransport im Ozean wird ansteigen. Prognosen bezüglich der Abnahme der Meereisdicke und des gesamten Klimawandels in den Polarregionen sind jedoch sehr unterschiedlich, da die Prozesse in diesen Regionen noch unzureichend erforscht sind. 33 Abbildung 28: Änderung der Ausdehnung des Meereises als Mittelwert eines MultiModell-Ensembles für das 20. und 21. Jahrhundert auf Grundlage der Szenarien A2, A1B und B1 sowie das commitment-Szenario, sowohl für die Nordhalbkugel (oben), als auch für die Südhalbkugel (unten), und die Monate Januar bis März (links) und Juli bis September (rechts); durchgezogene Linien zeigen den Mittelwert, ausgegraute Flächen markieren die Standardabweichung; die Änderung ist im Vergleich zum Mittelwert der Jahre 1980 bis 2000 gegeben; die Zahlen in Klammern geben die Anzahl der einzelnen Modelle wieder 34 8.3.4 Anstieg des Meeresspiegels Abbildung 29: globaler Mittelwert für den Anstieg des Meeresspiegels aufgrund thermischer Expansion während des 21. Jahrhunderts relativ zu den Jahren 1980 bis 1999, für die Szenarien A1B, A2 und B1 Der größte Teil des Anstiegs (etwa 70%) ist auf die thermische Expansion des Meerwassers zurückzuführen. Wie ja hinreichend bekannt ist, dehnt sich Wasser bei Temperaturerhöhung aus. Abbildung 29 stellt die Ergebnisse von 17 AOGCMs für die Szenarien A1B, A2 und B1 zusammen. Die resultierenden Zeitreihen verlaufen ziemlich glatt im Vergleich zu den Graphen für den Temperaturanstieg; Grund dafür ist die Tatsache, dass die thermische Expansion die im gesamten Ozean gespeicherte Wärmemenge widerspiegelt, die proportional zum Zeitintegral der Temperaturänderung ist; die Abläufe im Ozean spielen sich auf einer viel größeren Zeitskala ab als die Abläufe in der Atmosphäre. Für den Beginn des 21. Jahrhunderts sind die Werte für alle drei Szenarien in etwa gleich, die thermische Ausdehnung liegt bei 1, 3 ± 0, 7 mm pro Jahr; dieser Wert ist doppelt so hoch wie der Wert für den Zeitraum von 1961 bis 2003 mit 0, 42 ± 0, 12 mm pro Jahr, aber gleich dem Wert von 1, 6 ± 0, 5 mm pro Jahr für die Jahre 1993 bis 2003. Für die Jahre 2080 bis 2100 liegt der Wert für den Anstieg des Meeresspiegels aufgrund thermischer Expansion bei 1, 9 ± 1, 0 mm, 2, 9 ± 1, 4 mm und 3, 8 ± 1, 3 mm pro Jahr für die Szenarien B1, A1B bzw. A2. Der ersichtlich beschleunigte Anstieg ist Folge des Temperaturanstiegs. Lokale Änderungen des Meeresspiegels relativ zum globalen Durchschnitt auf Grund der unterschiedlichen Dichte des Meerwassers und Änderungen in den Meeresströmungen zeigt Abbildung 30. Tabelle 31 zeigt zusammenfassend die verschiedenen Komponenten, die zu einem Anstieg des Meeresspiegels führen. 8.4 Simulationen auf Grundlage von commitment-Szenarien Das Klimasystem reagiert mit Verzögerung auf Änderungen der Zusammenstellung der Atmosphäre und des damit verbundenen Strahlungsantriebs; dies ist hauptsächlich auf die thermische Trägheit der Ozeane zurückzuführen, die einen der größten Wärmespeicher des Klimasystems darstellen. Auch wenn die 35 Abbildung 30: regionale Änderungen des Meeresspiegels aufgrund unterschiedlicher Dichte und Änderungen in den Meeresströmungen während des 21. Jahrhunderts, berechnet aus der Differenz des Mittelwerts der Jahre 2080 bis 2099 zum Mittelwert der Jahre 1980 bis 1999, als ein Mittelwert von über 16 AOGCMs auf Grundlage des A1B-Szenarios; gepunktete Flächen deuten an, dass hier der Betrag des Mittelwerts größer ist als die Standardabweichung Abbildung 31: globaler Durchschnittswert für den Anstieg des Meeresspiegels während des 21. Jahrhunderts sowie die einzelnen Komponenten für die sechs SRESSzenarien. Die obere Zeile jeder Komponente gibt die 5−95%-Spannweite des absoluten Anstiegs zwischen den Zeiträumen 1980 bis 1999 und 2090 bis 2099 an; die untere Zeile gibt die Anstiegsrate des Meeresspiegels in mm pro Jahr für die Jahre 2090 bis 2099 an; G&IC (Glaciers and Ice Caps) ist der Einfluss aller Gletscher und Eisschichten, mit Ausnahme der Eisflächen von Grönland und der Antarktis; SMB (surface mass balance) ist der Netto-Anteil der Eisdecke von Grönland bzw. der Antarktis; G&IC, sowie die Eisdecken von Grönland und Antarktis addieren sich zur land ice sum; mit dem Anstieg aufgrund thermischer Expansion ergibt sich dann der gesamte Anstieg des Meeresspiegels 36 Konzentrationen der Treibhausgase ab einem bestimmten Zeitpunkt einen konstanten Wert erreicht haben, folgen weiterhin Änderungen in der Temperatur und weiteren klimatologischen Größen. Das heißt nicht, dass ein Klimawandel wegen der heute schon erhöhten Emissionen unabwendbar wäre innerhalb des nächsten halben Jahrhunderts, in dem die Auswirkungen sicher noch größer sein werden, da die Emissionen und damit der Strahlungsantrieb nicht sofort stabilisiert werden kann; aber es ist möglich, dass die Folgen des Klimawandels geringer sind als in einem commitment-Szenario dargestellt; nämlich dann, wenn die Emissionen reduziert werden und der Strahlungsantrieb geringer ist als heute; illustriert wird dies an Hand von zero emission commitment Simulationen und overshoot-Szenarien. Abbildung 32: (a) CO2 -Konzentration in der Atmosphäre, (b) Änderung des globalen Mittelwertes der Oberflächentemperatur, (c) Anstieg des Meeresspiegels aufgrund thermischer Expansion, (d) Atlantic Meridional Overturning Circulation (MOC), berechnet von acht EMICs für das SRES-Szenario A1B und stabilen Strahlungsantrieb nach 2100; farbige Kurven sind Ergebnisse der EMICs, graue Kurven bezeichnen Ergebnisse von AOGCMs zum Vergleich; Änderungen in (b) und (c) sind relativ zu den Werten vom Jahr 2000 angegeben; die vertikalen Balken auf der rechten Seite bezeichnen die doppelte Standardabweichung Abbildung 32 zeigt ein Beispiel für ein commitment stabilisation-Szenario. Entsprechend dem Szenario A1B steigt die CO2 -Konzentration an bis zu einem Wert von 700 pm im Jahr 2100 und bleibt dann konstant. Erstellt wurden die Simulationen von EMICs, Klimamodellen mittlerer Komplexität, die Simulatio- 37 nen sind aber ähnlich denen von AOGCMs. Für das Jahr 2100 werden für die Änderung der Oberflächentemperatur im Vergleich zum Jahr 2000 je nach Modell Werte zwischen 1, 2◦ C und 4, 1◦ C vorhergesagt, im Jahr 3000 liegt der Wertebereich, trotz konstanter CO2 -Konzentration, zwischen 1, 9◦ C und 5, 6◦ C. Der Anstieg des Meeresspiegels aufgrund thermischer Expansion liegt im Jahr 2100 zwischen 0, 2 m und 0, 5 m, im Jahr 3000 zwischen 0, 6 m und 2 m. Hier ist die thermische Trägheit des Ozeans offensichtlich; der Meeresspiegel steigt über Jahrhunderte an, während die Oberflächentemperatur den Geichgewichtszustand sehr schnell erreicht. Abbildung 33 stellt Ergebnisse vor für ein Szenario, in dem die anthropogenen Emissionen zunächst soweit ansteigen, dass die CO2 -Konzentration in der Atmosphäre knapp 750 ppm beträgt; dann aber werden die Emissionen im Jahr 2100 auf 0 gesetzt. Trotz dieser Reduzierung der Emissionen um 100% im Jahr 2100 dauert es je nach Modell etwa 100 bis 400 Jahre, bis die CO2 -Konzentration in der Atmosphäre geringer ist als die doppelte CO2 -Konzentration in der Zeit vor der Industrialisierung (etwa 560 ppm); Grund dafür ist der ununterbrochene Transfer von Kohlenstoff aus der Atmosphäre in die anderen Reservoirs des Klimasystems, etwa Pflanzen und Ozeane. Emissionen während des 21. Jahrhunderts beeinflußen also auch im Jahr 3000 das Klima, wenn sowohl die Oberflächentemperatur als auch der Meeresspiegel immer noch deutlich höher sein werden als zu vorindustriellen Zeiten. Ein Beispiel für ein idealisiertes overshoot-Szenario ist in Abbildung 34 gegeben; dargestellt sind die Simulationen eines Atmosphere-Ocean General Circulation Models. Die CO2 -Konzentration, die ab dem Jahr 2100 gemäß dem A1B-Szenario 700 ppm beträgt, fällt innerhalb der Jahre 2150 bis 2250 auf den entsprechenden Wert des B1-Szenarios ab. Diese Verringerung der CO2 Konzentration ist nur mit erheblicher Verringerung von Emissionen zu verwirklichen, ist damit also sehr unrealistisch. Aber ein solches Szenario illustriert die Auswirkungen auf das Klimasystem, die einer derartigen Änderung der CO2 Konzentration folgen. Wie auch schon in den beiden letzten idealisierten Szenarien angemerkt, reagieren Oberflächentemperatur und die oberen Schichten des Ozeans relativ schnell auf die Änderung, während die tieferen Schichten des Ozeans sich nur langsam der Änderung anpassen. Die Temperatur nähert sich zwar nach weiteren 100 Jahren dem konstanten Wert des B1-Szenarios allmählich an, ist aber auch im Jahr 2350 noch nicht vollständig auf diesen Wert zurückgegangen. Andere Komponenten des Klimasystems, darunter die nordatlantische Umwälzbewegung (North Atlantic Meridional Overturning Circulation, kurz North Atlantic MOC) und das Volumen des Meereises, erreichen meistens wieder den entsprechenden Wert des B1-Szenarions, signifikante Hysteresis-Effekte sind jedoch für den Anstieg des Meeresspiegels aufgrund thermischer Expansion zu erwarten. 38 Abbildung 33: Änderungen in natürlichen Kohlenstoffspeichern und deren Reaktion im Vergleich zu vorindustriellen Werten für ein Szenario, in dem die CO2 Konzentration in der Atmosphäre zunächst bis knapp unter 750 ppm ansteigt, dann aber die Emissionen im Jahr 2100 sofort auf 0 gesetzt werden; (a) absolute Änderung der Kohlenstoffmenge, (b) CO2 -Konzentration in der Atmosphäre, (d) Änderung der Oberflächentemperatur, (e) Änderung der Kohlenstoffmenge im Ozean, (g) Anstieg des Meeresspiegels aufgrund thermischer Expansion, (h) Änderung der Kohlenstoffmenge in irdischen Reservoiren (z.B. Pflanzen); Simulationen fünf verschiedener Modelle mittlerer Komplexität 39 Abbildung 34: in der oberen Graphik sind die CO2 -Konzentrationen für die SRESSzenarien B1 und A1B sowie das overshoot-Szenario gezeigt, simuliert mit Hilfe eines AOGCM; die untere Graphik gibt die globale Durchschnittstemperatur für diese Szenarien wieder 40