Grundlagen

Werbung
Die Grundlagen von Klimamodellen
Hanna Göpfert, Florian Rödl
15.01.2010
Inhaltsverzeichnis
1 Geschichte
1.1 Ein sehr einfaches Modell der Atmosphäre - das Lorenz-Modell .
1.2 Klima-Modelle - Grundgleichungen . . . . . . . . . . . . . . . . .
2
3
5
2 Glaubwürdigkeit der Ergebnisse von Klimamodellen
5
3 Entwicklungen seit dem Third Assessment Report 2001 (TAR) 7
3.1 Entwicklungen in der Modellformulierung . . . . . . . . . . . . .
9
3.2 Entwicklung in der Modellierung des Klimas . . . . . . . . . . . .
9
3.3 Entwicklungen in analytischen Methoden . . . . . . . . . . . . . 11
3.4 Entwicklungen in der Auswertung von Klimafeedbacks . . . . . . 11
4 Die Konstruktion von Modellen
12
5 Das Koppeln von einzelnen Komponenten
13
6 Darstellen des Klimas mit einfacheren Modellen
14
7 Simulation des aktuellen Klimas
15
7.1 Die Temperaturverteilung . . . . . . . . . . . . . . . . . . . . . . 15
7.2 Die Verteilung von Niederschlag . . . . . . . . . . . . . . . . . . . 21
8 Vorhersagen für das zukünftige Klima
8.1 Emissionsszenarien - Grundlage der Simulationen im 4.
Report . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2 Fehlerquellen bei der Erstellung eines Klima-Modells . .
8.3 Vorstellen einiger Ergebnisse . . . . . . . . . . . . . . .
8.3.1 globale Erderwärmung . . . . . . . . . . . . . . .
8.3.2 Niederschlag . . . . . . . . . . . . . . . . . . . .
8.3.3 Veränderungen in der Arktis und Antarktis . . .
8.3.4 Anstieg des Meeresspiegels . . . . . . . . . . . .
8.4 Simulationen auf Grundlage von commitment-Szenarien
1
23
IPCC. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
23
24
26
26
30
33
35
35
1
Geschichte
Der norwegische Physiker und Meteorologe Vilhelm Bjerknes formulierte 1904
zwei Grundsätze, auf denen die Entwicklung von Klima-Modellen und Wetterprognosen auch heute noch basiert:
1. eine ausreichend genaue Kenntnis des Anfangszustands des Systems
2. eine ausreichend genaue Kenntnis der Gesetze, die die Abläufe im Klimasystem bestimmen
1922 versuchte der englische Wissenschaftler Lewis Fry Richardson, die Grundgleichungen, die die Abläufe in der Atmosphäre beschreiben, zu lösen, um so
eine Wettervorhersage zu entwickeln - sein einziges Hilfsmittel war ein Rechenschieber. Damals wusste man schon, dass die Gleichungen sehr komplex sind
und keine einfachen analytischen Lösungen besitzen, sondern nur mit numerischen Methoden gelöst werden können. Um ein System von kontinuierlichen
Gleichungen zu berechnen, approximierte man dieses durch ein entsprechendes
diskretes Gleichungssystem und verwendete dessen numerische Lösungen.
Richardson gab in seinem Buch „Weather Prediction by Numerical Process“ eine
Schritt-für-Schritt Anleitung für die Erstellung einer Wettervorhersage für einen
kleinen Teil Europas, gestützt auf vorhandene Beobachtungsdaten; da er aber
den Einfluss der gesamten, unterschiedlichen Prozesse in der Atmosphäre nicht
kannte, führte das zu sehr unrealistischen Vorhersagen. Mit vielen Problemen,
auf die Richardson zu Beginn des 20. Jahrhunderts gestoßen ist, sind auch heute
Wissenschaftler konfrontiert, die Klima- oder Wetterprognosen erstellen wollen.
Bis Ende der 40er Jahre des 20. Jahrhunderts geschah wenig auf dem Gebiet der numerischen Lösung von Gleichungen; erst die Entwicklung der ersten
elektronischen Computer (unter ihnen auch der für die Meteorologie besonders
wichtige Computer des Institute for Advanced Studies (IAS) an der Princeton
University) erlaubte weitere Fortschritte in der Wettervorhersage.
Die Arbeitsgruppe unter Leitung des amerikanischen Wissenschaftlers und Meteorologen Jules Charney entwickelte ein Computerprogramm, das nicht das
gesamte von Richardson erstellte Gleichungssystem, sondern ein vereinfachtes
System enthielt. Denn das gesamte Gleichungssystem enthält ein weites Spektrum von Bewegungsabläufen in der Atmosphäre; eine angemessene Näherung
für dieses umfassende System liefert jedoch einfachere Gleichungen und filtert
letztendlich die ungewollten, numerisch schwer zu berechnenden und meteorologisch nicht bedeutenden Anteile heraus. Diesen Zusammenhang entdeckte Carl
Gustav Rossby Ende der 30er Jahre des 20. Jahrhunderts.
Ein paar Jahre später (1956) fügte Philipps dem System von Charney einfache Zwangsbedingungen hinzu und konnte viele grundlegende Eigenschaften der
Kreisläufe in der Atmosphäre darstellen - ein großer Schritt in der lang andauernden Entwicklung von General Circulation Models (im Folgenden abgekürzt
mit GCMs).
Eine weitere Verbesserung der GCMs führte wieder hin zu Richardsons gesamtem System von Gleichungen; Richardsons Fehler, nämlich die fehlerhafte Ein2
gabe aufgrund der unzureichenden Beobachtungsdaten und das numerische Vorgehen, sind entdeckt und korrigiert worden.
In den 50er Jahren entstanden weltweit Zentren zur Modellierung von Wetter und Klima, darunter auch das Geophysical Fluid Dynamics Laboratory an
der Princeton University.
Mit heutigen Klimamodellen können fast alle größeren beobachteten Eigenschaften der Atmosphäre, der Ozeane und der Kryosphäre simuliert werden; dennoch
kann noch vieles verbessert werden, besonders im Hinblick auf das manchmal
fragwürdige Anpassen oder „Tunen“ von Parametern, um die gewünschten Simulationen zu erzielen.
1.1
Ein sehr einfaches Modell der Atmosphäre - das LorenzModell
Abbildung 1: schematische Darstellung des Lorenz-Modells
Dieses Modell beschreibt die Atmosphäre als ein quaderförmiges Gasvolumen, das von unten gleichmäßig beheizt wird. Nach den Gesetzen der Strömungslehre beginnt die Luft aufgrund des Temperaturgefälles zu zirkulieren.
Warme Luft steigt an der einen Seite des Quaders auf, kalte Luft sinkt entlang der anderen Seite ab - die Bewegung der Luft ist gleich einem rotierenden
Zylinder, dessen Rotationsachse parallel zur Ober- bzw. Unterseite der Box ausgerichtet ist.
Das Modell lässt sich mit einem System dreier gekoppelter, gewöhnlicher Differentialgleichungen beschreiben:
dx
= δ(y − x)
dt
dy
= rx − y − xz
dt
dz
= xy − bz
dt
(1)
(2)
(3)
Hierbei bezeichnet x die Winkelgeschwindigkeit des Luftzylinders, welche ein
Maß für die Windstärke in der Atmosphäre darstellt; y ist die Temperaturdif3
ferenz zwischen den vertikalen Seiten des Zylinders, also zwischen der aufsteigenden warmen Luft und der absinkenden kalten Luft; z ist der vertikale Temperaturgradient. Die Parameter des Lorenz-Modells sind folgende: δ gibt das
Verhältnis zwischen der Viskosität der Luft und ihrer thermischen Leitfähigkeit
an und b ist das Verhältnis der Breite der Box zu ihrer Höhe; der eigentlich
interessante Parameter ist r, der die Differenz zwischen der Temperatur an der
Unterseite und der Temperatur an der Oberseite der Box bestimmt - ein Anstieg
der CO2 -Konzentration in der Atmosphäre führt zu einem größeren Wert für r.
Vernünftige Werte für die drei Parameter sind δ = 10, r = 28 und b = 8/3.
Dieses Gleichungssystem lässt sich nicht analytisch lösen, sondern lässt sich nur
mit numerischen Methoden berechnen. Zwei Graphen für den zeitlichen Verlauf
der Winkelgeschwindigkeit x sind in den Abbildungen 2 und 3 gegeben; wie zu sehen ist, führen schon geringste Abweichungen in den Anfangsbedingungen (hier
eine Änderung des Anfangswertes für x um ein Millionstel) ab einem bestimmten
Zeitpunkt zu einem ganz anderen zeitlichen Verlauf der Winkelgeschwindigkeit eine solche außerordentliche Empfindlichkeit gegenüber Störungen des Systems
ist als Chaos bekannt; wir haben es hier also mit einem chaotischen System zu
tun.
Abbildung 2: zeitlicher Verlauf der Winkelgeschwindigkeit x für die Anfangsbedingungen x = −9, y = −3 und z = 32
Abbildung 3: zeitlicher Verlauf der Winkelgeschwindigkeit x für die Anfangsbedingungen x = −9, 000001, y = −3 und z = 32
Auch wenn nun also zu einem bestimmten Zeitpunkt die Anfangsbedingungen der Atmosphäre, die ja ein chaotisches System ist, noch so gut bekannt
sind - die geringste, nie auszuschließende Abweichung der beobachteten Daten
von den tatsächlichen Werten hat zur Folge, dass der Fehler in den Vorhersagen
mit der Zeit so groß wird, dass diese unbrauchbar werden. Um dennoch realis4
tische Simulationen erzeugen zu können, ist die Anwendung von statistischen
Methoden nötig - diese werden in der Literatur MT 2007 näher erläutert.
1.2
Klima-Modelle - Grundgleichungen
Die Basis eines Klima-Modells bilden einige Grundgleichungen:
Zunächst ist die Erhaltung dreier physikalischer Größen zu berücksichtigen,
nämlich die Erhaltung des Drehimpulses, die Erhaltung der Masse und die Erhaltung der Eergie. Letztere findet eine Formulierung auch im ersten Hauptsatz
der Thermodynamik.
Desweiteren ist sowohl für die Atmosphäre als auch für den Ozean eine Zustandsgleichung zu formulieren; die Zustandsgleichung der Atmosphäre verbindet die
Größen Druck, Temperatur und Dichte miteinander, die Zustandsgleichung des
Ozeans setzt die Größen Druck, Temperatur, Dichte und Salinität zueinander
in Relation.
Eine weitere Gleichung ist zuletzt für den Feuchtigkeitshaushalt der gesamten
Atmosphäre anzugeben. Für eine genauere (numerische) Analyse dieser Gleichungen verweise ich auf die am Ende des Artikels angeführte Literatur.
2
Glaubwürdigkeit der Ergebnisse von Klimamodellen
Es gibt drei gute Gründe, warum man den Prognosen, die von Klimamodellen
erstellt werden, vertrauen kann. Einer der Gründe ist, dass alle Klimamodelle letztlich auf physikalischen Gesetzen beruhen, wie beispielsweise den Erhaltungssätzen von Masse, Impuls und Energie. Solche Gesetze wurden durch zahlreiche Experimente bestätigt (nicht nur im Bereich der Klimaforschung), sodass
diese als gesichertes Wissen angesehen werden können.
Die Tatsache, dass Klimamodelle das aktuelle Klima recht gut beschreiben
können, ist ein weiterer Grund. Bei der Entwicklung eines Modells wird es immer
an aktuellen Messdaten überprüft und gegebenenfalls verbessert; dabei werden
sowohl Messdaten der Atmosphäre und der Ozeane, als auch der Kryosphäre
und der Erdoberfläche verwendet. Hat man mehrere Modelle entwickelt, so kann
man aus Vegleichen wiederum Rückschlüsse ziehen, welches Modell die Natur am
besten beschreibt. Durch das stetige Verbessern gelingt es mittlerweile sehr gut,
wichtige Klimaeigenschaften nachzuempfinden, wie etwa die Temperaturverteilung der Atmosphäre im großen Maßstab, Aussagen über den Niederschlag, die
Strahlung, den Wind, die Temperaturen auf den Meeren, die Meeresströmungen
oder die Schneebedeckung. Aber auch Klimaeigenschaften, die Schwankungen
unterliegen, kann man modellieren. Dazu zählt das System des Monsuns, die
saisonale Abhängigkeit der Temperaturen, die Bewegung von Stürmen und Regengürteln, sowie die Arktische bzw. Antarktische Oszillation. Einige der Klimamodelle wurden sogar zu Testzwecken auf das Wetter angewandt, mit dem
Ergebnis, dass man die wichtigsten Zirkulationen auch auf einer kleinen Zeitskala erhält und dass solche Modelle auch fähig sind, Aspekte von Schwankungen
im Bereich von Jahreszeiten oder Jahren richtig darzustellen. (Dass man das
Wetter nur ein paar Tage voraus berechnen kann, schränkt die Gültigkeit von
Klimamodellen auf einer großen Zeitskale nicht ein, da es sich hier um zwei
grundsätzlich unterschiedliche Arten von Vorhersagen handelt.)
5
Abbildung 4: Globale Durchschnittstemperatur nahe dem Erdboden; die schwarze
Linie zeigt Messungen, die gelben Linien sind eine Auswahl unterschiedlicher Simulationen von mehreren Modellen, deren Durchschnitt die rote Linie darstellt. Die Kurven
sind relativ zum Durchschnitt der Daten zwischen 1901 und 1950. Die grauen Linien
zeigen die Zeitpunkte von Vulkanausbrüchen
Den dritten Grund, warum man Aussagen von Klimamodellen vertrauen
kann, liefern die Übereinstimmungen mit Klimaereignissen in der Vergangenheit. So kann man Klimamodelle benutzen, um das Klima im Holozän vor 6000
Jahren oder in der letzten Kaltzeit vor 21000 Jahren zu simulieren. Man findet im großen Maßstab beispielsweise das Abkühlen der Ozeane. Man muss
allerdings nicht so weit in der Zeit zurückgehen. Abbildung 4 zeigt einen Temperaturverlauf des letzten Jahrhunderts, also zu einer Zeit, wo Messdaten (oder
zumindest Überlieferungen) vorliegen. Wie man dem Bild entnehmen kann, entspricht der Durchschnitt der Modellaussagen gut den tatsächlich beobachteten
Werten. Man könnte dieses Beispiel auch ausdehnen auf den schnelleren Anstieg
der Nachttemperaturen im Vergleich zu den Tageswerten, den Temperaturzuwachs in der Arktis oder auf das kurze globale Abkühlen nach einem Vulkanausbruch (siehe auch Abb. 4).
Bei allen Erfolgen zeigen sich aber auch Fehler. Man kann sagen, dass diese
Fehler vor allem auf kleinen Zeitskalen auftreten, dennoch gibt es sie auch, wenn
sie große Zeiträume überblicken. Besonders anfällig für Fehler sind Simulationen, die die Niederschläge in den Tropen betreffen, El Niño Phänomene oder
die Madden-Julian Oszillation (eine Schwankung von Wind und Niederschlag in
den Tropen innerhalb von 30 bis 90 Tagen.) Die größten Fehlerquellen sind kurze Prozesse, die man nicht genau simulieren kann, sie aber im Zusammenhang
langer Prozesse braucht, weshalb man auf Näherungen zurückgreifen muss. Dass
man kurze Prozesse nicht gut genug modellieren kann, liegt zum einen daran,
dass heutige Computer teilweise noch nicht schnell genug sind, zum anderen,
dass die wissenschaftlichen Erkenntnisse nicht tief genug gehen und detaillierte Messungen oft nicht zur Verfügung stehen. Große Schwierigkeiten hat man
mit der Simulierung von Wolken und daher auch mit der Reaktion der Wolken
auf den Klimawandel. Dies ist auch einer der Gründe, warum in Klimamodel6
len die Prognose für den globalen Temperaturanstieg schwankt. Trotz allem ist
die Aussage, dass die Temperatur mit zunehmenden Treibhausgasen ansteigen
wird, jedem Zweifel erhaben, denn dafür sind die Belege, die sich durch aktuelle Messdaten oder durch die Rekonstruktion vergangener Klimaverhältnisse
ergeben, zu stichhaltig.
Um nicht nur globale oder großflächige Aussagen machen zu können, wurden spezielle regionale Klimamodelle entwickelt, aber auch Verfahren, wie man
globale Modelle runterskaliert. Unabhängig davon wird auch die Auflösung der
globalen Klimamodelle immer besser, was oft auch eine Frage der zur Verfügung
stehenden Computer ist. Mit diesen Entwicklungen wird es immer besser, regionale Klimaveränderungen zu studieren, wie beispielsweise Extrem-Wetterlagen.
Modelle verbessern sich aber auch bezüglich der Anzahl der berücksichtigten
Prozesse, die in der Natur vorkommen. So hat man mittlerweile nicht mehr
nur physikalische Prozesse, sondern man fügt auch chemische oder biologische
Prozesse hinzu. Ein Beispiel hierfür ist die Reaktion der Pflanzen auf die Klimaveränderungen.
Man kann schließlich sagen, dass Klimamodelle fähig sind, quantitative Vorhersagen über das Klima zu machen, besonders über größere Zeiträume. Klimamodelle stoßen an ihre Grenzen bei der Simulierung von Wolken, was sowohl
zu Unsicherheiten bei den Absolutwerten und den entsprechenden Zeitpunkten,
als auch zu Einbußen von Informationen im regionalen Bereich führt. Trotzdem
kann man zweifelsfrei voraussagen, dass mit zunehmenden Treibhausgasen die
Erderwärmung voranschreitet.
3
Entwicklungen seit dem Third Assessment Report 2001 (TAR)
Ziel dieses Abschnitts ist es, abzuschätzen, wie gut die im IPCC gebrauchten
Klimamodelle die Klimaveränderungen für die Zukunft darstellen im Verhältnis
zum IPCC Third Assesment Report (TAR). Klimamodellen liegen gut bekannte, physikalische Gesetzmäßigkeiten zu Grunde und werden überprüft, indem
sie das Klima der Gegenwart und der Vergangenheit zu beschreiben versuchen.
Man ist grundsätzlich der Auffassung, dass Atmosphere-Ocean General Circulation Models (AOGCMs) in der Lage sind, die künftigen Klimaveränderungen zu
beschreiben, besonders auf kontinentaler Ebene und großen Maßstäben. Manche
Faktoren können besser beschrieben werden als andere, z.B. sind Aussagen für
die Temperatur klarer als für Niederschläge.
• Durch internationale Zusammenarbeit wurde die Überprüfung der Modelle
zunehmend gefördert. Auf diese Weise wurde es möglich, Daten aus Simulationen mit realistischen Randbedingungen zu sammeln und zu verteilen,
wodurch eine sorgfältigere und frei zugängliche Auswertung der Modelle möglich wurde. Da die Ergebnisse öfter durchgesehen werden, können
Fehler leichter erkannt werden.
• Die Tests für Klimamodelle werden zunehmend umfangreicher, unter anderem testet man die Vorhersagen auf einer Zeitskala zwischen Tagen und
Jahren. Mit diesen Tests kann man die Genauigkeit erhöhen, wie Prozesse,
die für die Klimaentwicklung wichtig sind, beschrieben werden.
7
• Beachtliche Fortschritte machte man darin, die Unterschiede zwischen Modellvorhersagen zu verstehen. Es wurde erkannt, dass die größte Fehlerquelle die Reaktion der Wolken ist. Dabei leisten tief stehende Wolken den
größten Beitrag zum Fehler. Neue Erkenntnisse, die man durch Beobachtungen und Simulationen erhalten hat, bestätigen das Feedback von der
Kombination Wasserdampf-Temperaturgradient, wie in General Circulation Models vorhergesagt wurde. Es ist immer noch ungewiss, wie stark
die Antwort der Kryosphäre ausfällt, was auch einen Beitrag dazu leistet,
dass die Vorhersagen in mittleren und hohen Breitengraden schwanken.
• Man schafft laufend Verbesserungen bezüglich der Auflösung, der Berechnung und der Parametrisierung. Außerdem wurden neue Prozesse den Klimamodellen hinzugefügt, wie beispielsweise die Wechselwirkung mit Aerosolen.
• Die meisten AOGCMs benutzen keine Fluss-Anpassungen mehr, die früher benötigt wurden, um ein stabiles Klima zu erhalten. Zur gleichen Zeit
wurden die Simulationen vieler Bereiche des derzeitigen Klimas verbessert. In diesem Zusammenhang nahmen auch die Schwankungen ab, die
durch die Fluss-Anpassungen verursacht wurden; trotzdem benutzt man
AOGCMs weiterhin für Tendenzen und große Zeiträume.
• Da man in der Beschreibung der wichtigsten Arten von Klimaschwankungen Fortschritte erzielt, steigt auch die Zuversicht, dass Klimamodelle die
wichtigen Klimaprozesse richtig beschreiben. Beispielsweise können AOGCMs nun die wichtigsten Aspekte der El Nino-Southern Oscillation (ENSO) simulieren. Die Madden-Julian Oscillation (MJO) kann nach wie vor
nur schlecht berechnet werden.
• Die Fähigkeit von AOGCMs, Extrema zu simulieren, insbesondere Warmund Kaltperioden, wurde verbessert. Die Niederschlagsmenge und die Häufigkeit von starken Regenfällen wurde unterschätzt.
• Die Simulation von Wirbelstürmen außerhalb der tropischen Gebiete wurde verbessert. Einige Modelle, die für die Darstellung der Veränderungen
tropischer Wirbelstürme benutzt werden, können erfolgreich die beobachtete Häufigkeit und Verteilung tropischer Wirbelstürme simulieren.
• Systematische Abweichungen wurden in den meisten Modellen gefunden,
die den südlichen Ozean beschreiben. Da der südliche Ozean für die Wärmeaufnahme wichtig ist, folgt daraus eine gewisse Unsicherheit für den
klimatischen Ausgleichsvorgang.
• Um die Bedeutung des Kohlenstoffkreislaufs für das Klima zu erforschen,
wurde in einigen AOGCMs und EMICs (Earth System Models of Intermediate Complexity) dieser berücksichtigt. EMICs wurden in einem höheren
Maße ausgewertet als bisher. Aufeinander abgestimmte Vergleiche haben
gezeigt, dass solche Modelle sinnvoll für Simulationen über lange Zeiträume oder für Fragen, die eine große Anzahl ausgewählter Simulationen erfordern würden, sind.
8
3.1
Entwicklungen in der Modellformulierung
Verbesserte Modelle der Atmosphäre benutzen neu formulierte Dynamik- und
Transportschemata und darüber hinaus eine höhere vertikale und horizontale Auflösung. Interaktive Aerosol-Module wurden einigen Modellen hinzugefügt
und dadurch trägt man den direkten und indirekten Effekten von Aerosolen weitgehend Rechnung. Es gibt bedeutende Entwicklungen in der Beschreibung von
terrestrischen Prozessen. Individuelle Komponenten werden andauernd durch
systematische Auswertung gegenüber Messungen und gegenüber umfangreicheren Modellen verbessert. Die terrestrischen Prozesse, die maßgeblich das Klima
der nächsten Jahrzehnte im großen Maßstab beeinflussen dürften, sind in gegenwärtigen Klimamodellen eingebunden. Es gibt aber immer noch Prozesse, die
nicht berücksichtigt werden, aber wichtig für größere Zeiträume wären.
Die Entwicklung der Ozean-Komponente von AOGCMs setzte sich fort.
Die Auflösung konnte erhöht werden, und auch die Grenze zwischen Luft und
Ozeanoberfläche wird nicht mehr als starr und fest angesehen. Neue physikalische Parametrisierungen und numerische Verfahren schließen echte FrischwasserStrömungen, verbessertes Mischverfahren von Flüssen, die ins Meer münden,
und den Gebrauch von positiv definiten Advektionsschemen ein. Auch benutzt
man mittlerweile weitgehend adiabatische Mischverfahren für Stoffe gleicher
Dichte. Einige dieser Verbesserungen führten zu Verminderungen von Unsicherheiten, die durch weniger gute Parametrisierungen verursacht wurden (wie z.B.
dem virtuellen Salzfluss).
Die beste Entwicklung der Kryosphären-Komponente von AOGCMs liegt
bei Meereis vor. Praktisch alle modernen AOGCMs arbeiten heutzutage mit
besser durchdachter Meereis-Dynamik und mehrere haben Kategorien für die
Dicke des Meereises. Auch die benutzte Thermodynamik ist mittlerweile relativ fortgeschritten. Die Formulierung der Parametrisierung von terrestrischen
Schneeprozessen unterscheidet sich in den AOGCMs deutlich voneinander. Eine
systematische Auswertung des Schnees legt nahe, dass die Verschiedenartigartigkeit des Schnees auf einer Längenskala unterhalb des Gitters wichtig ist für die
Simulation der beobachteten saisonbedingten Schneedecke. Ein paar AOGCMs
beinhalten die Dynamik von Eisdecken.
Es gibt momentan keine einstimmige Meinung, wie man die Computerkapazitäten richtig einsetzt: Eine Möglichkeit wäre, die Auflösung zu erhöhen,
wodurch die Simulationen besser werden; man könnte die Anzahl der Durchläufe erhöhen, damit statistische Aussagen klarer werden; schließlich könnte man
die Anzahl der berücksichtigten Prozesse erhöhen, wie z.B. die Reaktion des
Kohlenstoffkreislaufs oder chemische Reaktionen in der Atmosphäre.
3.2
Entwicklung in der Modellierung des Klimas
Im großen Maßstab können AOGCMs die Muster der jahreszeitlichen Schwankungen von mehreren wichtigen Gebieten der Atmosphäre nun besser simulieren
als dies zu Zeiten des TAR möglich war. Es ist bemerkenswert, dass Fehler wie
die Berechnung des Monatsdurchschnitts, der globalen Verteilung des Niederschlags, des Drucks auf Meereshöhe und der Lufttemperatur auf der Erdoberfläche alle abgenommen haben. In einigen Modellen hat sich auch die Simulation
der tief stehenden Wolken über dem Meeren verbessert, welche für eine korrekte
Beschreibung der Temperatur auf der Meeresoberfläche und der Reaktion der
9
Wolken in einem sich ändernden Klima wichtig ist. Nichtsdestoweniger haben
die Simulationen immer noch Defizite in der Beschreibung der Wolken und des
tropischen Niederschlags (mit ihren großen regionalen und globalen Auswirkungen).
Einige gewöhnliche Modelltendenzen im südlichen Ozean wurden erkannt,
daraus entwickelte sich eine gewisse Unsicherheit bei der Wärmeaufnahme des
Ozeans und der darauf folgende Ausgleichsvorgang des Klimas. Simulationen
der Thermokline, die zu dick waren, und des Wärmetransports des Atlantiks,
welcher zu schwach war, wurden in vielen Modellen verbessert. Trotz eines bemerkenswerten Fortschritts in der Verbesserung der Formulierung des Meereises
erreichten AOGCMs typischerweise nur einen mäßigen Erfolg in der Simulation
beobachteten Meereises seit dem TAR. Der relativ langsame Fortschritt kann
teilweise dadurch erklärt werden, dass die Verbesserung der Simulation des Meereises zusätzlich die Verbesserung der Atmosphären- und Ozeankomponente benötigt.
Seit dem TAR haben die Entwicklungen der AOGCM-Formulierung die Darstellung der Schwankungen im großen Maßstab in Zeiträumen vieler Größenordnungen verbessert. Die Modelle erfassen die groben außertropischen Muster
einschließlich der arktischen und antarktischen Oszillation der Pacific Decadal
Oscillation, der Pacific-North American und Cold Ocean-Warm Land Patterns.
AOGCMs simulieren eine Schwankung im Atlantik über mehrere Jahrzehnte,
obwohl es scheint, dass die relative Bedeutung der Prozesse in hohen und niedrigen Breitengraden sich innerhalb der einzelnen Modelle unterscheiden. In den
Tropen kann die ENSO besser beschrieben werden, sowohl bezüglich dem räumlichen Verhalten als auch der Häufigkeit. Jedoch verbleiben Probleme in der
Asymmetrie zwischen El Niño- und La Niña-Abschnitten. Einige schwankende
Eigenschaften der MJO werden von den meisten AOGCMs berechnet. Diese
Ereignisse sind jedoch normalerweise zu selten und zu schwach.
AOGCMs sind in der Lage, sehr hohe Temperaturen oder sehr kalte Tage vernünftig zu beschreiben. Die Modelle, die im aktuellen IPCC-Report verwendet
werden, um Veränderungen tropischer Wirbelstürme darzustellen, können die
Häufigkeit und die Verteilung der Wirbelstürme in der Gegenwart beschreiben,
die Stärke ist jedoch nur schlecht zu simulieren. Die Simulation von extremen
Niederschlägen ist abhängig von der Auflösung, der Parametrisierung und des
gewählten Grenzbereichs. Im Allgemeinen kann man sagen, dass Klimamodelle
dazu tendieren, zu viele Tage mit wenig Niederschlag (<10 mm am Tag) und
zu wenige Tage mit starken Regenfällen (> 10mm am Tag) vorherzusagen.
EMICs wurden entwickelt, um Fragen zum Klimawandel in der Vergangenheit und in der Zukunft zu erforschen, für die die umfangreichen AOGCMs nicht
angemessen waren, da ihre Anforderungen an die Computer zu groß waren. Dank
der reduzierten Auflösung der EMICs und ihre vereinfachte Darstellung einiger
physikalischer Prozesse sind diese Modelle die einzigen, die Schlüsse auf sehr
großen Skalen zulassen. Seit dem TAR wurden EMICs weiter durch mehrere
aufeinander abgestimmte Vergleiche von Modellen ausgewertet, welche aufgezeigt haben, dass, in großen Skalen, die Ergebnisse der EMICs gut mit Messergebnissen und den Ergebnissen der AOGCMs übereinstimmen. Dies führt zu
der Auffassung, dass EMICs genutzt werden können, um Prozesse und Wechselwirkungen innerhalb Klimasystemen, die sich auf Zeitskalen abspielen, die
für AOGCMs nicht zu erreichen sind, zu verstehen. Die Unsicherheiten in der
Darstellung langwieriger Klimaveränderungen kann durch den Gebrauch von
10
EMICs umfangreicher erforscht werden.
3.3
Entwicklungen in analytischen Methoden
Seit dem TAR wurde ein beispielloser Aufwand betrieben, um die Ergebnisse
neuer Modelle den Wissenschaftlern außerhalb der Modell-Zentren für Prüfungen zugänglich zu machen. Achtzehn Gruppen, die für die Entwicklung von Modellen verantwortlich sind, gestalteten eine Auswahl von abgestimmten StandardExperimenten. Die abschließenden Ergebnisse dieser Modelle, die von hunderten
Wissenschaftlern auf der ganzen Welt ausgewertet wurden, bilden den Grundstein für die Bewertung der Modellergebnisse im IPCC-Report. Die Vorteile
von abgestimmten Modellvergleichen beinhalten einen größeren Austausch zwischen Modellgruppen, eine schnelere Erkennung und Korrektur von Fehlern, das
Schaffen von standardisierten Berechnungen und eine vollständigere und systematische Aufzeichnungen der Modellerfolge.
Ein paar Klimamodelle wurden darauf getestet (und bewiesen), ob sich ihre
Prognosen bereits zu Beginn als richtig erweisen, von Wettervorhersagen (ein
paar Tage) bis jahreszeitliche Vorhrsagen (Jahre). Diese Fähigkeit, die von Modellen unter solchen Bedingungen gezeigt wurde, stößt zunehmend auf Zustimmung, dass sie einige der Schlüsselprozesse und Fernverbindungen im Klimasystem simulieren können.
3.4
Entwicklungen in der Auswertung von Klimafeedbacks
Die Antwort des Wasserdampfes ist das wichtigste Feedback, welches die Empfindlichkeit des Klimas erhöht. Obwohl die Stärke des Feedbacks zwischen den
Modellen etwas variiert, ist dessen gesamter Einfluss auf die Empfindlichkeit des
Klimas durch die Reaktion des Temperaturgradienten reduziert. Mehrere neue
Studien belegen, dass die Luftfeuchtigkeit unter und über der Troposphäre, wie
sie in Modellen angegeben wird, sowohl auf die jahreszeitliche und jährliche
Schwankung, als auch auf das Abkühlen, welches von Vulkanausbrüchen inuduziert worden ist, als auch auf Klimatrends reagiert wie sie auch beobachtet
werden. Aktuelle Messungen und Simulationen stützen die Aussagen über das
Feedback Wasserdampf-Temperaturgradient in der Art, wie es in AOGCMs gefunden wurde.
Neue Studien bestätigen nochmals, dass die Bandbreite von Modellausagen
über die Empfindlichkeit des Klimas haupsächlich dadurch entsteht, dass die
Modelle das Feedback der Wolken unterschiedlich einbauen. Der Einfluss von
Kurzwellen auf Wolken in der Grenzschicht und das geringere Ausmaß der Wolken in mittleren Höhen bilden die größten Unterschiede zwischen den Modellen.
Die relativ schlechte Simulation dieser Wolken im heutigen Klima ist Grund
zur Besorgnis. Die Reaktion von tiefen konvektiven Wolken auf die globale Erwärmung stellt ebenfalls eine große Unsicherheit dar. Stützen sich Modelle auf
Beobachtungen und Messungen, so errechnen sie unterschiedliche Stärken und
Schwächen des Feedbacks und man kann noch immer nicht sagen, welches Modell am glaubwürdigsten ist.
Trotz der Fortschritte die man seit dem TAR gemacht hat, ist die Antwort
der Kryosphäre, wie sie in AOGCMs berechnet wird noch sehr ungewiss. Das
führt zu einem Spektrum von Ergebnissen, besonders in hohen Breitengraden.
11
Verglichen mit der Schwankung durch das Wolken-Feedback, ist die Unsicherheit bezüglich der Kryosphäre sehr gering. Die Abschätzung des Feedbacks von
Meereis wird verkompliziert durch die strenge Kopplung mit Polarwolken, mit
der Wärme des Ozeans und mit dem Frischwassertransport. Die Tatsache, dass
aus polaren Regionen zu wenige Messungen vorliegen, erschwert die Berechnung zusätzlich. Vor kurzem wurden neue Techniken entwickelt das Feedback
der Oberflächen Albedo zu bestimmen. Modelle, die gemacht wurden um den
jahreszeitlichen Verlauf von Schnee auf dem Erdboden zu bestimmen, könnten für eine indirekte Auswertung der Reaktion der Schnee Albedo unter dem
Klimawandel genutzt werden.
Systematische Modell-Vergleiche haben geholfen, den Schlüsselprozess zu finden, der verantwortlich ist für die unterschiedlichen Modellaussagen bezüglich
der Antwort des Ozeans zum Klimawandel. Die Tragweite von Reaktionen von
Veränderungen der Oberflächenströmung für das „Förderband“ der Meere wird
in vielen Modellen nun berücksichtigt. Allerdings gibt es für diese Feedbacks
noch nicht genügend Messungen.
Eine Analyse der Prozesse, die einen Beitrag zu Feedbacks in Modellen leisten, und aktuelle Studien, die auf großen Ensembles von Modellen beruhen,
deuten darauf, dass es in der Zukunft möglich sein wird, durch mehr Messungen
die Bandbreite von Modellvorhersagen weiter einzugrenzen.
4
Die Konstruktion von Modellen
Seit dem IPCC Third Assessment Report (TAR) der 2001 veröffentlicht wurde, haben sich die Modelle weiterentwickelt. Das Grundprinzip ist dabei aber
gleich geblieben. Jedes Modell geht von fundamentalen physikalischen Gesetzen
aus, wie etwa den Newtonschen Gesetzten der Mechanik, diese werden dann
unter physikalischen Gesichtspunkten genähert. Konkret bedeutet das zum Beispiel die „Näherung“ auf große Maßstäbe. Solche Näherungen sind aber nicht
zwingend Einbußen der Qualität, denn im globalen Maßstab kann es sein, dass
die fehlende Information einfach nicht auffällt. Schließlich werden die Formeln
mathematisch vereinfacht, damit sie leichter zu berechnen werden. Trotz aller
Vereinfachungen hat man nur eine begrenzte Rechenkapazität, was bedeutet,
dass die Modelle in ihrer Auflösung beschränkt sind (obwohl evtl. das Modell
leistungsfähiger wäre). Es gibt Vorgänge, die man noch nicht ausreichend verstanden hat, welche aber wichtig für die Entwicklung des Klimas wären. Solche
Prozesse werden im Modell dann durch Parameter ersetzt, was immer ein gewisses Problem darstellt. Denn: Durch Parameter werden Modelle künstlich auf das
aktuelle Klima „getuned“. Wenn also ein bestimmter Prozess zwar gut durch das
Modell simuliert wird, aber nur dank von eingestellten Parametern, so sagt das
nichts über die Qualität des Modells aus. Trotzdem wird man sich für Klimavorhersagen eher auf solch gut getunten Klimamodelle verlassen, als auf solche, die
das aktuelle Klima mit weniger Parameter, dafür aber schlechter beschreiben.
Prinzipiell ist es möglich den besten Satz von Parametern zu finden, indem man
verschiedene Prozeduren durchspielt. Machbar ist das allerdings nur für EMICs
und niedrig aufgelöste GCMs. Ensemble Methoden liefern nicht zwingend einen
„besten“ Parameter.
12
5
Das Koppeln von einzelnen Komponenten
Da die großen Komponenten des Klimas, wie etwa die Atmosphäre und die
Ozeane, alle miteinander wechselwirken, ist es für eine vollständige Beschreibung des Klimas nötig, die einzelnen Modelle zu koppeln. Besonders wichtig
werden solche Kopplungen wenn man Simulationen machen möchte, die über
größere Zeiträume gehen. Allerdings ist die Qualität der gekoppelten Modelle
nicht zwingen besser als die sog. „stand-alone models“. Denn wenn eine Komponente fehlerhaft arbeitet, so werden falsche Daten an die anderen Komponenten
geliefert, weshalb möglicherweise auch die anderen Komponenten schlechte Resultate liefern. Ein Beispiel: Werden die Wolken schlecht beschrieben, so hat
dies Auswirkungen auf die Strahlungsbilanz, diese wiederum beeinflusst die Berechnung der Oberflächentemperatur.
Ein typisches Problem beim Koppeln von Ozeane, Kryosphäre, Land und Atmosphäre, sind die unterschiedlichen Reaktionszeiten. Beispielsweise reagieren
die Atmosphäre und die Oberflächentemperatur wesentlich schneller auf äußere
Einflüsse als die Ozeane. In den meisten Modellen des 21. Jahrhunderts werden
die Komponenten synchron auf einer Zeitskala von einmal am Tag oder weniger
gekoppelt, d.h. innerhalb eines Kopplungsintervalls werden die jeweiligen Flüsse gemittelt und der Mittelwert dann übertragen. Viele Gruppen schließen den
täglichen Verlauf der Wechselwirkung zwischen Atmosphäre, Land-Vegetation
und Meereis ein. Das benötigt ein Kopplungsintervall in der Größe von ein paar
Stunden oder weniger. Die Kopplung zwischen Atmosphäre und Ozean macht
man hingegen nur einmal pro Tag, da hier die Effekte der Wechselwirkung vergleichsweise niedrig sind. Ist das Kopplungsintervall zu groß oder zu klein, treten Probleme auf. Ist der Ozean mit der Atmosphäre beispielsweise zu schwach
gekoppelt, muss die Windenergie, die das Wasser durchmisschen kann separat
eingefügt werden. Das MIROC Modell benutzt hingegen ein Kopplungsintervall
von nur drei Stunden. Hier treten künstliche Schwerewellen auf, die man dann
wieder wegglätten muss.
Die einzelnen Komponenten unterscheiden sich im Allgemeinen durch ihre
Art der Berechnung. Beispielsweise gibt es Unterschiede in der Auflösung (sowohl räumlich als auch zeitlich), der Kartographie, des verwendeten Koordinatenystems usw.. Damit Erhaltungsgrößen, bei der Kopplung wirklich erhalten bleiben sind deshalb „Fluss-Koppler“ zwischen den einzelnen Modell-Schnittstellen
geschaltet.
Einige Modelle benutzen sogenannte „Fluss-Anpassungen“. Darunter versteht man eine Technik, die Modellen hilft ein stabiles Klima zu simulieren
und dass außerdem simulierte Werte eher den beobachteten Entsprechen. FlussAnpassungen betreffen beispielsweise Impuls-, Wärme- oder Frischwasser-Ströme.
Allerdings geht seit dem TAR der Trend hin zu Modellen, die keine FlussAnpassungen verwenden. Ein Nachteil dabei war die lange Verarbeitungszeit der
Anpassungen innerhalb der Komponenten, bevor sie gekoppelt werden konnten. Es scheint, dass in AOGCMs, die keine Fluss-Anpassung verwenden, die
Bedingungen für die Initialisierung flexibler sind. Die Ozeankomponente vieler Modelle werden gestartet indem man entweder ganze gerasterte Datensätze eingibt oder durch die Eingliederung eines „kleinen Ozean Programms“, die
selbst zum Starten weniger Messungen brauchen. Die Anfangsbedingungen für
das „kleine Atmosphären Programm“ greift auf vorgefertigte Datensätze von
Wasseroberflächen-Temperaturen zurück.
13
Eine wichtige Frage, die sich bei gekoppelten Systemen stellt, ist, wie man
die Modelle am besten auf einem Supercomputer laufen lässt. Eine Möglichkeit
wäre es, jeder Komponente einen Satz von Prozessoren zur Verfügung zu stellen, wobei die Anzahl der Prozessoren von den Anforderungen der jeweiligen
Komponente abhängt. Der Idealfall wäre, wenn alle Komponenten gleich schnell
arbeiten würden, damit keine Komponente auf die andere warten müsste um
Flüsse auszutauschen. Andernfalls wären die Prozessoren nicht voll ausgelastet.
Die zweite Möglichkeit ist, alle Prozessoren gleichzeitig für nur eine Komponente
zu nutzen, und demnach die Komponenten nacheinander laufen zu lassen. Der
Vorteil dabei ist, dass kein Prozessor einen Leerlauf hat. Das heißt aber nicht,
dass die zweite Variante grundsätzlich besser ist. Bei genauerer Betrachtung
haben beide Herangehensweisen Vor- und Nachteile.
6
Darstellen des Klimas mit einfacheren Modellen
Grundsätzlich kann man ein komplexeres Modell nicht automatisch einem einfacheren vorziehen. Jedes Modell kann gewisse Fragen besser beantworten als
andere. Die Wahl des Modells ist vielmehr eine Frage des genauen Problems.
Die umfangreichsten Modelle sind AOGCMs. Diese versuchen das Klima
möglichst genau in seiner Gänze und seiner Dynamik nachzubilden. Die Haupteinschränkung von AOGCMs sind die benötigten Rechenkapazitäten. Selbst wenn
man nur eine mäßige Auflösung benutzt und die Modelle auf großen Computersystemen laufen lässt, können die AOGCMs nur Simulationen über ein paar
Jahrzehnte machen. Wegen der kurzen Zeitspanne können die Unsicherheiten,
die man mit diesen Modellen hat, auch nur schwer durch Vergleiche erforscht
werden.
Das andere Ende der Komplexität sind sogenannte „Simple Climate Models“
(SCM). Die fortschrittlicheren unter ihnen können anhand hoher Parametrisierungen folgendes berechnen:
• die Menge an Treibhausgasen, wenn man die zukünftigen Emissionen vorgibt
• der sich daraus ergebende Strahlungshaushalt
• daraus die globale durchschnittliche Oberflächentemperatur
• darauf der Anstieg des Meerwasserpegels durch das eventuelle Schmelzen
von Eis
Die relativ geringen Computer-Anforderungen erlauben es, viele unterschiedliche Szenarien durchzuspielen. Da so viele Experimente möglich sind, kann man
auch Wahrscheinlichkeitsausaugen über die Zukunft machen. Ungereimtheiten
können durch Vergleiche gut erforscht werden. Allerdings sind Simple Climate Models auf Ergebnisse von AOGCMs angewiesen. Damit die Resultate von
Simple Climate Models ausführlicher werden, kann man sie so „tunen“, dass
sie AOGCM-Charakter haben. Dies ist beispielsweise sinnvoll für Fragen auf
globaler Ebene.
Um die Lücke zwischen AOGCMs und Simple Climate Models zu füllen, wurden Earth System Models of Intermediate Complexity (EMICs) entwickelt. Da
14
diese Lücke ziemlich groß ist, gibt es auch ein breites Spektrum an EMICs. Normalerweise benutzen EMICs eine vereinfachte Atmosphären-Komponente, die
dann mit einem AOGCM gekoppelt wird oder sie bestehen aus vereinfachten
Atmosphären- und Ozean-Komponenten. Die EMICs variieren mit dem Grad
der Vereinfachung der Komponenten. EMICs benutzen eine niedrigere Auflösung, haben aber die meisten Prozesse, die auch AOGCMs haben, allerdings in
einer parametrisierten Form. Trotzdem handelt es sich um richtig gekoppelte
Systeme: Die einzelnen Komponenten wechselwirken miteinander. Im Gegensatz zu Simple Climate Models ist die Anzahl der Freiheitsgrade um einige
Größenordnungen höher als die Anzahl der Parameter. Trotzdem sind EMICs
einfach genug, um mehrere tausend Jahre zu simulieren, manchmal sogar Eiszeitalter (in der Größenordnung von 100 000 Jahren). Man kann die Parameter
praktisch beliebig variieren, so dass man wie bei Simple Climate Models Unsicherheiten oder den besten Satz von Parametern erforschen kann. Aufgrund
dieser Freiheiten ist es möglich, die Geschichte des Klimas nach interessanten
Zeiten abzusuchen, um sie dann in AOGCMs genau zu studieren. EMICs sind
außerdem besonders nützlich bei Vorhersagen im großen Maßstab und für die
Untersuchung von Feedbacks. Sowohl die Wolken als auch der Einfluss des Windes werden in EMICs nur in Form von vorgeschriebenen Werten berücksichtigt.
Es ist zunächst nicht klar, wie sich die niedrige Auflösung auf Vorhersagen auswirkt, allerdings stimmen im großen Maßstab die Ergebnisse gut mit heutigen
Messungen und den Resultaten von AOGCMs überein.
7
Simulation des aktuellen Klimas
Es ist entscheidend, dass Klimamodelle den aktuellen Zustand möglichst gut
beschreiben können, da Feedbacks besonders abhängig sind vom jeweiligen Klimazustand. Ist ein Modell nicht in der Lage, das aktuelle Klima richtig zu beschreiben, so wird man nicht darauf vertrauen können, dass dieses Modell die
Zukunft richtig darstellt. Bei der Konstruktion eines neuen Modells ist daher
das erste Ziel, die Gegenwart richtig zu simulieren.
Da aber kein Modell fehlerfrei ist, benutzt man gerne „multi-model Simulationen“. Darunter versteht man die Mittelung über alle einzelnen Modelle. Der
Vorteil dabei ist, dass sich viele Fehler gegenseitig aufheben, sich also „rausmitteln“. Übrig bleiben hauptsächlich die systematischen Fehler, die man dann
durch Vergleich mit den tatsächlich gemessenen Werten analysieren kann. Mann
kann sagen, dass die Mittelwerte von multi-model Simulationen das Klima besser beschreiben, als die einzelnen Modelle. Man ist im Umkehrschluss auch an
verschiedenen Modellen interessiert, und favorisiert nicht nur ein einziges.
Die zwei folgenden Abschnitte sollen als Beispiel für Ergebnisse von gekoppelten globalen Modellen dienen.
7.1
Die Temperaturverteilung
Soll ein Modell den jahreszeitlichen oder täglichen Temperaturverlauf korrekt
simulieren, so muss es eine Vielzahl von Prozessen richtig beschreiben können.
Die Verteilung des Jahresdurchschnitts der Temperatur im globalen Maßstab ist
vor allem abhängig von der Sonneneinstrahlung, die wiederum von der Wolkenverteilung abhängt, anderen Wärmeströmungen auf der Oberfläche und anderen
15
Abbildung 5: die Beschriftung der Linien steht für die gemessene Lufttemperatur an
Land bzw. die obere Wassertemperatur im Jahresdurchschnitt; die farbigen Bereiche
zeigen die Abweichung zum Mittelwert des Hauptmodels (Simulation minus Hauptmodell)
Energietransporten der Energie durch die Atmosphäre. Die Ozeane spielen hier
eine geringere Rolle. Der jahreszeitliche und tägliche Verlauf der Temperatur
hängt natürlich von diesen Faktoren ab, allerdings muss man hier noch berücksichtigen, dass die Ozeane in den oberen Schichten auch Wärmeenergie speichern
können. Der Einfluss der Wärmeaufnahme des Erdbodens fällt dagegen geringer
aus.
Bild 5 ist ein Ergebnis einer Multi-Modell Simulation: Die beschrifteten Linien zeigen die Orte, wo im Jahresdurchschnitt gleiche Temperaturen gemessen
wurden. Die Farben stehen für Abweichungen zum Mittelwert des Hauptmodells. Rote Farben zeigen an, dass die berechnete Temperatur zu hoch ist, blaue
Farben, dass sie zu niedrig ausgefallen sind. Man erkennt, dass der mittlere
Fehler weniger als zwei Grad beträgt, wenn man von mess-armen Regionen absieht. Für einzelne Modelle liegt der Fehlerbereich innerhalb von drei Grad,
zumindest außerhalb der hohen Breitengrade (siehe auch Abbildung 6). Manche
Abweichungen lassen sich dadurch erklären, dass die zu Grunde liegende Topographie nicht gut genug ist. Im Modell tendieren die Oberflächen glatter zu sein
als in Wirklichkeit. Man kann erkennen, das die einzelnen Modelle generell dazu
tendieren, die Temperaturen zu niedrig darzustellen. Die Frage ist nun, wie sich
solche systematischen Fehler auf äußere Störungen auswirken. Betrachtet man
die jahreszeitlichen Temperaturverläufe (nicht im Bild zu sehen) so stellt man
fest, dass sie trotz der obigen Abweichungen größtenteils richtig wiedergegeben
werden. Der Korrelations-Koeffizient zwischen Simulation und Messung eines
lokalen Musters im Jahresdurchschnitt beträgt 0,98 für einzelne Modelle. Man
kann deshalb sagen, dass die Hauptprozesse alle vernünftig beschrieben werden
können.
Ein weiterer Punkt ist die Auswertung des jährlichen Temperaturverlaufs.
Bild 7 zeigt die Standardabweichung des Monats-Durchschnitts der Oberflächentemperatur im Jahreskreislauf und farbig den absoluten Fehler des Haupt-
16
Abbildung 6: Größe des typischen Fehlers pro Model. Als Maß dafür benutzt man
die Wurzel der quadratischen Standardabweichung
Abbildung 7: Beobachtete Standardabweichung der Lufttemperatur bzw. der oberen
Wassertemperatur des monatlichen Mittelwerts im Jahreskreislauf (beschriftete Linien) und der Fehler des Hauptmodells (Simulation minus Messung, farbige Bereiche)
17
Abbildung 8: gemessener Temperaturbereich pro Tag im jährlichen Mittel; dunkelblau steht für eine kleine Schwankung, dunkelrot für große
Abbildung 9: simulierter Temperaturbereich pro Tag im jährlichen Mittel; dunkelblau steht für eine kleine Schwankung, dunkelrot für große
modells bezüglich der Standardabweichungen. An diesem Bild kann man also
den Beitrag von Prozessen sehen, die jährlich oder halbjährlich ablaufen. Das
grundsätzliche Muster, dass die Schwankung in höheren Breitengraden größer
als am Äquator ist, findet man sofort wieder. Man sieht, dass die absoluten Abweichungen zwischen Modell und Messung hier i.d.R geringer als ein Grad sind.
Auch in Gebieten, wo die monatliche Standardabweichung über zehn Grad ist,
ist der Unterschied zwischen Simulation und Messung fast immer innerhalb zwei
Grad. Besonders fällt auf, dass im östlichen Sibirien die Temperaturschwankungen unterschätzt sind. Wenn man von einzelnen Ausnahmen absieht, ist auf
globaler Ebene der Temperaturverlauf gut dargestellt. Man darf aber an dieser
Stelle nicht vergessen, dass die Modelle auf globaler Ebene besser funktionieren
als auf regionaler Ebene.
Die gleichen Überlegungen kann man auch für die täglichen Temperaturschwankungen anstellen. Abbildung 8 und 9 zeigen den gemessenen und den
18
Abbildung 10: mittlerer Fehler des Hauptmodels (Simulation minus Messung), lila
steht für weniger als minus zehn Grad, dunkelrot für über plus zehn Grad
Abbildung 11: gemessene Lufttemperatur im jährlichen und zonalen Mittel in Abhängigkeit der Höhe
berechneten Temperaturbereich (nicht die Standardabweichung) innerhalb den
die Tagestemperaturen im Mittel schwanken. Die Werte für Ozeane wurden
in Abbildung 8 weggelassen, da hier erstens die Tagesschwankungen zu gering
ausfallen und zweitens hier zu wenig Messungen vorliegen. Wie man Bild 10
entnehmen kann ist die Schwankung meistens zu klein ausgefallen. Manchmal
beträgt der relative Fehler 50%. Am besten beschreiben lassen sich die Tagesschwankungen über klare, trockene Gebiete. Warum die Schwankun meistens
zu klein ausfällt, ist noch nicht verstanden, liegt aber möglicherweise an einer
schlechten Parametrisierung der Grenzschicht Boden-Atmosphäre. Ein weiterer
Grund könnte das Wechselspiel von frierenden und auftauenden Böden sein.
Schließlich haben Wolken auf den Tagesverlauf Einfluss, welche nur schlecht
beschrieben werden können.
Die Bodentemperaturen hängen eng mit den Lufttemperaturen darüber zusammen. Das gilt besonders bei mittleren Breitengraden, wo Kalt- und Warm19
Abbildung 12: berechnete Lufttemperatur im jährlichen und zonalen Mittel in Abhängigkeit der Höhe
Abbildung 13: mittlerer Fehler des Hauptmodells bezüglich dem vertikalen Profil der
Lufttemperatur (Simulation minus Messung); dunkelblau steht für -7.5 Grad, dunkelrot für +7,5 Grad
20
Abbildung 14: beim Modell UKMO-HadGEM1 fällt das typische Problem der zu
niedrigen Temperaturen in hohen Breitengraden in der Höhe der Tropopause nur
schwach aus
Fronten für große Temperaturbereiche sorgen. Deshalb gibt es großes Interesse
das vertikale Profil der Atmosphären-Temperatur zu beschreiben. Wie man in
den Abbildungen 11 bis 13 sehen kann, beträgt der mittlere Fehler weniger als
zwei Grad, wobei die Temperaturspanne mehr als 100 Grad beträgt, wenn man
die Troposphäre ganz mit einschließt. Auch wenn es besser wird, hat man immme noch ein Problem, das seit vielen Jahren besteht: die zu niedrig berechneten
Temperaturen bei hohen Breitengraden in der Höhe der Tropopause (siehe Abbildung 13). Bei manchen Modellen tritt dieses nicht Problem nur schwach auf,
aber wahrscheinlich nur deshalb, weil sich Fehler gegenseitig kompensieren (siehe Abbildung 14).
7.2
Die Verteilung von Niederschlag
Schon aus rein praktischem Nutzen ist es interessant zu wissen, wie sich der
Niederschlag verteilt, und das nicht nur auf globaler, sondern auch auf regionaler
Ebene. Im Gegensatz zur Temperatur auf globaler Ebene ist hier nicht nur die
Sonneneinstrahlung und die Verteilung der Kontinente wichtig, sondern auch die
vertikale Bewegung der Luft, die wiederum von der Bodenbeschaffenheit und den
atmosphärischen Unbeständigkeiten abhängt. Um den saisonalen Verlauf richtig
darzustellen, muss man zusätzlich noch ein Reihe von Prozessen beschreiben
können. Dazu zählt die Verdunstung, die Kondensation und der Transport von
Feuchtigkeit.
Die Bilder 15 und 16 zeigen die mittlere gemessene bzw. simulierte Niederschlagsmenge pro Jahr. Man kann erkennen, dass in höheren Breiten die Niederschläge geringer als am Äquator ausfallen. Der Grund dafür liegt in der Tatsache,
dass bei niedrigeren Temperaturen weniger verdunstet und dass der niedrigere
gesättigte Dampfdruck kühler Luft es verhindert, dass Feuchtigkeit aus anderen Regionen hintransportiert wird. Die grobe Verteilung des Hauptmodells ist,
wie man an den Bildern sehen kann, wieder wie die der Messung. Man kann
auch die niederschlagsarme Zone beim Äquator sehen, was eine Folge der Innertropischen Konvergenzzone (ITCZ) ist. Die absinkende Luft in den Subtropen
21
Abbildung 15: gemessene mittlere Niederschlagsmenge pro Jahr
Abbildung 16: Simulation des Hauptmodells der mittleren Niederschlagsmenge pro
Jahr
22
verdrängt die Niederschläge. Es entstehen Stürme, was die Niederschläge in den
mittleren Breitengraden fördert. Das Niederschlags-Muster im großen Maßstab
kann das Hauptmodell also gut simulieren, weshalb man zum Schluss kommt,
dass die Modelle diese Atmosphärenzirkulationen vernünftig beschreiben. Generell kann man aus anderen Gründen sagen, dass man den jährlichen Verlauf
des Niederschlags-Musters seit der letzten paar Jahre immer besser gelernt hat
zu beschreiben.
Die Modelle können aber auch einige regionale Muster berechnen. Dazu gehören beispielsweise die Haupt-Konvergenzzone und die Maxima über den tropischen Regenwäldern. Allerdings gibt es unter den Modellen eine Tendenz, den
Niederschlag über den Amazonas zu unterschätzen. Außerdem reicht die ITCZ
zu weit nach Osten und ist den Breitengraden zu parallel ausgerichtet. In den
meisten Modellen ist das Maximum im tropischen Atlantik zu schwach, dafür
gibt es im Süden des Äquators zu viel Regen. Auch das Gebiet im indischen
Ozean weist einige systematische Fehler auf. Manche Fehler entstehen aus den
Werten der Oberflächentemperatur von gekoppelten Modellen. Aber auch Modelle, die nur die Atmosphäre behandeln, sind nicht wirklich besser.
8
8.1
Vorhersagen für das zukünftige Klima
Emissionsszenarien - Grundlage der Simulationen im
4. IPCC-Report
Die Emissionsszenarien des Special Report on Emission Scenarios (SRES) enthalten Abschätzungen hinsichtlich des Bevölkerungs- und Wirtschaftswachstums im 21. Jahrhundert und lassen sich in die vier charakteristischen SzenarioFamilien A1, B1, A2 und B2 einteilen.
A1-Szenarien Familie:
Hier wird ein rasches Wirtschaftswachstum prognostiziert, die Weltbevölkerung
steigt zunächst an, nimmt aber ab Mitte des 21. Jahrhunderts wieder ab. Wirtschaftliche, kulturelle und soziale Interaktion begünstigen eine rasche Einführung neuer und effizienterer Technologien - bezüglich der unterschiedlichen Ausrichtungen der technologischen Entwicklung lässt sich die A1-Szenario-Familie in
drei weitere Szenarien-Familien unterteilen: A1F I (fossilintensiv), A1T (nichtfossile Energiequellen), A1B (ausgewogene Nutzung fossiler und nichtfossiler
Energiequellen).
A2-Szenarien Familie:
Das Streben nach Autarkie und die Bewahrung lokaler Identitäten führen zu
großen regionalen Unterschieden und einer langsamen technologischen Entwicklung; außerdem wird eine stetig anwachsende Weltbevölkerung angenommen.
B1-Szenarien Familie:
Die Entwicklung der Weltbevölkerung ist ähnlich der in A1: Nach Erreichen
eines Maximums Mitte des 21. Jahrhunderts nimmt sie wieder ab. Die wirtschaftlichen Strukturen entwickeln sich hin zu einer Dienstleistungs- und Informationsgesellschaft; weiter sind ein Rückgang des Materialverbrauchs und die
Einführung von sauberen und ressourcen-effizienten Technologien zu beobachten. Es wird eine globale Lösung für wirtschaftliche, soziale und umweltgerechte
Nachhaltigkeit gesucht.
B2-Szenarien Familie:
23
Hier wird eine Welt beschrieben, in der der Schwerpunkt auf lokalen Lösungen für wirtschaftliche, soziale und umweltgerechte Nachhaltigkeit liegt. Die
Weltbevölkerung steigt stetig, aber langsamer als in A2 an, die wirtschaftliche
Entwicklung ist mittelmäßig. Auch hier sind Umweltschutz und soziale Gerechtigkeit wichtige Gesichtspunkte.
Für jede dieser sechs Szenarien-Familien A1B, A1F I, A1T , A2, B1 und B2
wurde ein illustratives Szenario ausgewählt; die hauptsächlich im IPCC-Report
verwendeten Szenarien sind B1, A1B und A2, die mit einem langsamen, mittelmäßigen bzw. starken Anstieg der Emissionen rechnen.
Neben diesen realitätsbezogenen Emissions-Szenarien werden im IPCC-Report
auch idealisierte Langzeit-Szenarien als Grundlage für Simulationen herangezogen:
stabilisation scenarios: Hier wird die Konzentration der Treibhausgase ab einem
bestimmten Zeitpunkt auf einen konstanten Wert gesetzt. Für die erste Gruppe dieser Szenarien ist diese Konzentration konstant bei den entsprechenden
Werten für das Jahr 2000 und läßt eine Prognose bis 2100 zu. Für eine weitere
Gruppe sind die Konzentrationen konstant bei Werten für das Jahr 2100, berechnet aus den Szenarien A1B und B1. Hier ist eine Prognose für weitere 100
bis 200 Jahre möglich.
Desweiteren gibt es zero emission commitment scenarios, in welchen die Emissionen im Jahr 2100 auf 0 gesetzt werden, und overshoot scenarios, in welchen
die Konzentration der Treibhausgase nach dem Jahr 2150 reduziert wird.
8.2
Fehlerquellen bei der Erstellung eines Klima-Modells
Abbildung 17: Fehlerquellen bei der Erstellung eines Klimadiagramms; die untere
Zeile für das A1B-Szenario ist zur Veranschaulichung aus Abbildung 18 entnommen
Fehler und Unsicherheiten treten auf verschiedenen Entwicklungsstufen eines
Klima-Modells auf. Zunächst müssen die Emissionen, die durch ein bestimmtes
Emissions-Szenario vorgegeben sind, mit Hilfe verschiedener biochemischer Modelle in die entsprechenden Konzentrationen der einzelnen Treibhausgase in der
Atmosphäre umgerechnet werden. Diese Konzentrationen werden anhand von
verschiedenen Strahlungs-Schemata und geeigneter Parametrisierung in einen
Strahlungsantrieb (englisch: radiative forcing) umgewandelt; der Strahlungsan-
24
Abbildung 18: CO2 -, CH4 -und SO2 -Emissionen für die sechs SRES-Szenarien
A1B, A1F I, A1T , A2, B1 und B2, deren entsprechende CO2 -, CH4 - und SO2 Konzentration, der daraus resultierende Strahlungsantrieb und die globale Durchschnittstemperatur; die Simulationen sind erstellt von einem SCM, abgestimmt auf
19 AOGCMs
25
trieb ist eine Größe, die den weiteren Berechnungen zu Grunde liegt. Schließlich
wird die Reaktion der einzelnen Komponenten des Klimasystems (z.B. Temperatur) auf den zusätzlichen Strahlungsantrieb in einem umfassenden Klima-Modell
berechnet. Die einzelnen Entwicklungsstufen und die mit ihnen verbundenen
Fehlerquellen sind in Abbildung 17 dargestellt.
Weitere Fehler treten bei der mathematischen Formulierung des KohlenstoffKreislaufs und der Bestimmung seiner nicht zu vernachlässigenden Rückkopplungseffekte auf. Diese Unsicherheiten können jedoch in einem umfassenden
Klima-Modell durch physikalische und chemische Darstellungen dieser Prozesse quantitativ eingeschätzt werden. Weitere Fehlerabschätzungen werden durch
ausreichende Beobachtungsdaten, eine hierarchische Anordnung der einzelnen
Klima-Modelle und Ensemble-Simulationen erzielt. Allerdings beinhaltet auch
die Wahl der Beobachtungsdaten und die mit ihnen verbundenen systematischen
Fehler eine weitere Fehlerquelle.
Wie sich die Fehler quantitativ auf die Vorhersagen des zeitlichen Verlaufs
des Strahlungsantriebs und der Temperatur auswirken, ist für sechs illustrative Emissionsszenarien in Abbildung 18 dargestellt.
An dieser Stelle muss ausdrücklich betont werden, dass die Unsicherheiten bezüglich der zukünftigen Entwicklung der Treibhausgaskonzentrationen gänzlich
anderer Natur sind.
8.3
8.3.1
Vorstellen einiger Ergebnisse
globale Erderwärmung
In der linken Spalte von Abbildung 19 sind einige Zeitreihen verschiedener Modelle für die Änderung der globalen Durchschnittstemperatur auf der Erdoberfläche dargestellt; daneben ist auch der Mittelwert aller Modelle für die Erwärmung angegeben. Die Werte geben die absolute Änderung der Temperatur
relativ zu den Jahren 1980 bis 1999 an; in dieser Periode lag der Mittelwert der
Temperatur bei 13, 6◦ C.
Für jedes Jahr zeigt sich ein weites Spektrum an Ergebnissen, allerdings nimmt
der Betrag der internen Abweichungen der einzelnen Modelle untereinander entlang der Zeitskala im Vergleich zum Mittelwert ab und ist schließlich nur noch
ein Bruchteil des Mittelwerts der Erderwärmung - ein eindeutiges Ansteigen der
Temperatur ist also zu erwarten.
Entsprechend der Annahmen der einzelnen Emissionsszenarien ist die Erwärmung am größten für das Szenario A2, das einen starken Zuwachs an Treibhausgasen representiert; der Mittelwert des Temperaturanstiegs im Vergleich zum
Ende des 20. Jahrhunderts liegt bei etwa 3, 5◦ C im Jahr 2100. Ein mittelmäßiger
Anstieg der Temperatur von etwa 2, 8◦ C ist für das Szenario A1B zu erwarten,
der geringste Anstieg von etwa 1, 8◦ C im Jahr 2100 folgt für das Szenario B1.
Allerdings variieren die Trends der mittleren Temperaturzunahme etwas im Verlauf des 21. Jahrhunderts, was auf die unterschiedlichen Einflüsse des Strahlungsantriebs und weiterer Größen zurückzuführen ist. Wie beispielsweise in
Abbildung 20 zu sehen ist, ist um das Jahr 2040 herum der Mittelwert aller
Modelle für das Szenario A1B, das einen geringeren Anstieg der Emissionen annimmt als das Szenario A2, größer als der Mittelwert für das Szenario A2, das
einen starken Anstieg der Emissionen prognostiziert. Die Werte für die Tempe-
26
Abbildung 19: Zeitreihen für die Änderung der durchschnittlichen globalen Oberflächentemperatur in ◦ C (links) und der durchschnittlichen globalen Niederschlagsmenge
in % (rechts) im Vergleich zum Mittelwert der Jahre 1980 bis 1999; diese Darstellung
beinhaltet Berechnungen verschiedener global coupled models für die Szenarien A2
(oben), A1B (Mitte) und B1 (unten); Werte in Klammern geben die Anzahl der gezeigten Simulationen wieder; der Mittelwert des gesamten Modell-Ensembles ist mit
schwarzen Punkten dargestellt
27
Abbildung 20: Mittelwerte einiger Modelle für die Änderung der Oberflächentemperatur im Vergleich zu den Jahren 1980 bis 1999 für die Szenarien A2, A1B und
B1 sowie ein constant composition commitment scenario; Werte für die Zeit nach
2100 basieren auf stabilisation scenarios, in denen die Konzentration der Treibhausgase auf dem Wert des Jahres 2100 konstant bleibt; Linien zeigen den Mittelwert des
Modell-Ensembles, ausgegraute Flächen markieren die Standardabweichung der einzelnen Modelle; die farbigen Nummern geben die Zahl der Modelle für jeden Zeitraum
und jedes Szenario an
raturänderung nach dem Jahr 2100 sind eine Fortführung der Simulationen auf
Grundlage von idealisierten Szenarien (englisch: constant composition commitment scenarios), die eine konstante Konzentration der Treibhausgase ab dem
Jahr 2100 annehmen.
Die internen Schwankungen der einzelnen Modellergebnisse können reduziert
werden, indem über einen Zeitraum von 20 Jahren gemittelt wird; diese Zeitspanne ist kürzer als die traditionelle klimatologische Zeitspanne von 30 Jahren, um das kurzzeitige Wesen der Simulationen und den größeren Umfang des
Modell-Ensembles zu berücksichtigen.
Tabelle 21 zeigt den Mittelwert aller Modelle für die Erwärmung relativ zum
Abbildung 21: Änderung der globalen Durchschnittstemperatur, gewonnen aus dem
Mittelwert der Modelle aus Abbildung 19, für vier Zeiträume im Vergleich zu den
Jahren 1980 bis 1999 (Durchschnittstemperatur bei 13, 6◦ C); ´Commit´ verweist auf
ein constant composition scenario
Temperaturdurchschnitt der Jahre 1980 bis 1999 für drei Zeiträume im 21. Jahrhundert, nämlich für den Beginn (2011 bis 2030), die Mitte (2046 bis 2065) und
28
das Ende des 21. Jahrhunderts (2080 bis 2099).
Die Vorhersagen für den Beginn des 21. Jahrhunderts sind fast unabhängig von
der Wahl des Emissions-Szenarios, die Abweichungen der einzelnen Werte betragen maximal 0, 05◦ C (diese Abschätzungen sind jedoch nur für die Mittelwerte
gültig, die Unsicherheiten in den Vorhersagen der einzelnen Klima-Modelle sind
deutlich größer!). Die Hälfte des Temperaturanstiegs, etwa 0, 37◦ C, ist auf den
jetzt schon verwirklichten Klimawandel zurückzuführen.
Für die Mitte des 21. Jahrhunderts wird die Wahl des Szenarios wichtig, hier
betragen die Abweichungen der einzelnen Szenarien untereinander schon bis zu
0, 46◦ C. Etwa ein Drittel der Erwärmung ist auf den schon bemerkbaren Klimawandel zurückzuführen.
Gegen Ende des 21. Jahrhunderts weichen die Werte der Szenarien schon um
bis zu 1, 3◦ C voneinander ab, mindestens 18% sind dem heutigen Klimawandel
zuzuschreiben.
Eine graphische Methode, die Breite der Fehler und die Wahrscheinlichkei-
Abbildung 22: Wahrscheinlichkeitsdichtefunktionen (englisch: Probability Density
Functions PDFs) von unterschiedlichen Modellen für die Änderung der globalen Durchschnittstemperatur für die Szenarien B1, A1B und A2, sowohl für die Jahre 2020 bis
2029 als auch für die Jahre 2090 bis 2099 im Vergleich zum Durchschnittswert der
Jahre 1980 bis 1999
ten für den Betrag einer Klimakomponente anzugeben, ist die Wahrscheinlichkeitsdichtefunktion (englisch: Probability Density Function PDF). Abbildung
29
22 zeigt die Unsicherheiten in der Berechnung als relative Wahrscheinlichkeiten
pro Grad Celsius für die geschätzte mittlere globale Erwärmung. PDFs sind hier
für die Jahre 2020 bis 2030 und die Jahre 2090 bis 2100 dargestellt (beachte,
dass dies andere Zeiträume sind als in Tabelle 21).
Zwei wesentliche Gesichtspunkte sind aus dieser Darstellung ersichtlich: erstens
ist für den ersten Zeitraum von 2020 bis 2029 die Übereinstimmung zwischen
den einzelnen Modellen und Methoden zur Berechnung der PDFs größer als für
den zweiten Zeitraum von 2090 bis 2099; zweitens wird für den ersten Zeitraum
unabhängig vom zu Grunde liegenden Szenario B1, A1B, oderA2 derselbe Wert
von etwa 0, 7◦ C für die Erderwärmung angegeben, für den zweiten Zeitraum
führt die Wahl des Szenarios zu signifikanten Unterschieden in den Ergebnissen.
Außerdem wachsen die Unsicherheiten in der Vorhersage in den meisten Untersuchungen beinahe linear mit der Temperatur.
Abbildung 23: regionale Durchschnittswerte für die Änderung der Oberflächentemperatur entlang geographischer Breite sowohl über Land als auch über den Ozeanen,
für die Jahre 2080 bis 2099 im Vergleich zu den Jahren 1980 bis 1999; links ist die
lokale Änderung ins Verhältnis gesetzt zur mittleren globalen Änderung der Temperatur, rechts nicht; die Ergebnisse des Mittelwerts eines Multi-Modell-Ensembles sind
gezeigt für das A2-Szenario und ein commitment-Szenario
Regionale Mittelwerte für die Temperaturerhöhung entlang geographischer
Breite werden in Abbildung 23 gezeigt. Die Graphiken vergleichen vergleichen
die Werte für den Zeitraum von 2080 bis 2099 mit dem Zeitraum von 1980 bis
1999. Im linken Diagramm wird der absolute Wert der regionalen Abweichung
relativ zum mittleren globalen Temperaturanstieg angegeben.
Über Landmassen ist die Erwärmung größer als der globale Mittelwert, außer
in den südlichen mittleren Breiten. Die Erwärmung über den Ozeanen ist geringer als der globale Mittelwert, eine Ausnahme bilden die hohen geographischen
Breiten - Grund hierfür sind die positiven Rückkopplungseffekte von Schnee
und Eis. Dieses Muster der regionalen Temperaturänderungen im Verhältnis
zum globalen Durchschnittswert ist für alle Emissions-Szenarien ähnlich.
Eine weitere Veranschaulichung der regional unterschiedlichen Oberflächenerwärmung ist in Abbildung 24 gegeben.
8.3.2
Niederschlag
Mit dem Anstieg der Temperatur ist ein Anstieg der durchschnittlichen Niederschlagsmenge verbunden - darin sind sich alle Modelle einig.
In Abbildung 25 sind lokale und jahreszeitliche Änderungen der Temperatur
30
Abbildung 24: durchschnittliche Änderung der Oberflächentemperatur in ◦ C für die
Szenarien B1 (oben), A1B (Mitte) und A2 (unten), und für drei Zeiträume, nämlich
für die Jahre 2011 bis 2030 (links), 2046 bis 2065 (Mitte) und 2080 bis 2099 (rechts);
die Änderungen sind jeweils im Vergleich zum Durchschnittswert der Jahre 1980 bis
1999 gegeben
Abbildung 25: Änderungen der Oberflächentemperatur (in ◦ C, links), der Niederschlagsmenge (in mm pro Tag, Mitte) und des Drucks für die Monate Dezember,
Januar, Februar (oben) und Juni, Juli, August (unten); die Änderungen sind Mittelwerte eines Multi-Modell-Ensembles für das SRES-Szenario A1B für die Jahre 2080
bis 2099 im Vergleich zu den Jahren 1980 bis 1999; gepunktete Flächen zeigen an, dass
hier der Betrag des Mittelwertes des Multi-Modell-Ensembles die Standardabweichung
übersteigt
31
und der Niederschlagsmenge für die Jahre 2080 bis 2099 im Vergleich zu den
Jahren 1980 bis 1999 für das Szenario A1B dargestellt. Gepunktete Gebiete geben an, dass hier der Betrag des Mittelwertes des Multi-Modell-Ensembles die
Standardabweichung übersteigt, hier stimmen die Modelle also gut überein; für
die Änderung des Niederschlags gibt es häufiger verschiedene Werte der einzelnen Modelle als für die Änderung der Oberflächentemperatur.
Große Übereinstimmung gibt es darin, dass es mehr Niederschläge in Gebieten
hoher Breitengrade zu beiden Jahreszeiten, Sommer wie Winter, geben wird.
Ein weiterer Anstieg der Niederschlagsmenge ist über den Ozeanen entlang des
Äquators und in einigen Monsun-Regionen (z.B. Südasien im Sommer, Australien im Winter) zu erwarten. Ein breitgefächertes Spektrum an Prognosen gibt
es für eine Abnahme der Niederschlagsmenge in Gebieten mittlerer Breite; einig
sind sich die Modelle, dass sich die Niederschlagsmenge über vielen subtropischen Gebieten verringern wird.
Abbildung 26: Änderung der Niederschlagsmenge in mm pro Tag als Mittelwert eines Multi-Modell-Ensembles; die Änderungen sind jährliche Mittelwerte für das SRESSzenario A1B für die Jahre 2080 bis 2099 im Vergleich zu den Jahren 1980 bis 1999;
gepunktete Flächen zeigen an, dass hier mindestens 80% der Modelle mit dem Vorzeichen der mittleren Änderung der Niederschlagsmenge übereinstimmen
Eine weitere Graphik dieser Art ist in Abbildung 26 zu sehen. Sind Flächen
gepunktet, bedeutet dies, dass mindestens 80% der Modelle mit dem Vorzeichen
der mittleren Änderung der Niederschlagsmenge übereinstimmen. Ein Anwachsen von mehr als 20% ist über den meisten Gebieten hoher geographischer Breite,
sowie in Ostafrika, Zentralasien und im Pazifik entlang des Äquators zu erwarten. Die Änderung über den Ozeanen zwischen 10◦ S und 10◦ N trägt in etwa
zur Hälfte zum globalen Mittelwert bei. Beträchtliche Abnahmen bis zu 20%
sind in den mediterranen Gebieten, in der Karibik und an den subtropischen
Westküsten jedes Kontinents zu erwarten.
Diese globalen Muster bezüglich der Änderung der Niederschlagsmenge gelten
auch für die anderen SRES-Szenarien.
Auch aus Abbildung 27 lässt sich ein eindeutiger Zuwachs der Niederschläge
nahe des Äquators und in den Gebieten hoher geographischer Breite ablesen.
Die Ergebnisse hinsichtlich der Werte, die in Relation zum Mittelwert des globalen Temperaturanstiegs gesetzt sind (linkes Diagramm) sind ähnlich für die vier
32
Abbildung 27: regionale Durchschnittswerte für die Änderung der Niederschlagsmenge entlang geographischer Breite sowohl über Land als auch über den Ozeanen,
für die Jahre 2080 bis 2099 im Vergleich zu den Jahren 1980 bis 1999; links ist die
lokale Änderung ins Verhältnis gesetzt zur globalen Änderung der Temperatur, rechts
nicht; die Ergebnisse des Mittelwerts eines Multi-Modell-Ensembles sind gezeigt für
das A2-Szenario und ein commitment-Szenario
angegeben Szenarien; eine Ausnahme ist das commitment-Szenario, das eine relativ große Zunahme der Niederschläge über den Ozeanen entlang des Äquators
vorhersagt.
Eine beträchtliche Abnahme ist dagegen in den Subtropen und den mittleren
Breiten sowohl der Nord- als auch der Südhalbkugel zu erwarten.
8.3.3
Veränderungen in der Arktis und Antarktis
Positive Rückkopplungseffekte von Schnee und Meereis und andere Prozesse
führen im 21. Jahrhundert zu einer Erwärmung in hohen geographischen Breiten. Der Temperaturanstieg ist besonders groß im Herbst und frühen Winter.
Hinsichtlich der quantitativen Änderungen in der Ausdehnung des Meereises
gibt es eine große Spannweite an Prognosen, sowohl bezüglich der einzelnen zu
Grunde liegenden Emissions-Szenarien als auch innerhalb der einzelnen Modelle
(vgl. Abbildung 28). Ein wichtiges Merkmal ist aber allen Simulationen gemeinsam: Die Ausdehnung des Meereises im Sommer nimmt viel schneller ab als die
Ausdehnung im Winter. Neben der Ausdehnung wird sich auch die Dicke des
Meereises ändern; Bitz und Roe (2004) sagen voraus, dass das arktische Meereis
an den Stellen am schnellsten dünner wird, an denen es anfangs am dicksten
ist - das Volumen des arktischen Meereises nimmt also schneller ab als seine
Ausdehnung. Im Vergleich zum arktischen Meereis wird die Ausdehnung des
Meereises in der Antarktis langsamer abnehmen.
In den folgenden Punkten stimmen die meisten Klima-Modelle überein: die Änderung der Oberflächentemperatur wird ein Maximum im Herbst und im frühen Winter erreichen, die Ausdehnung des Meereises wird immer mehr saisonal
ausgerichtet sein, das arktische Meereis wird schneller verschwinden als das antarktische Meereis und der nordwärts gerichtete Wärmetransport im Ozean wird
ansteigen.
Prognosen bezüglich der Abnahme der Meereisdicke und des gesamten Klimawandels in den Polarregionen sind jedoch sehr unterschiedlich, da die Prozesse
in diesen Regionen noch unzureichend erforscht sind.
33
Abbildung 28: Änderung der Ausdehnung des Meereises als Mittelwert eines MultiModell-Ensembles für das 20. und 21. Jahrhundert auf Grundlage der Szenarien A2,
A1B und B1 sowie das commitment-Szenario, sowohl für die Nordhalbkugel (oben), als
auch für die Südhalbkugel (unten), und die Monate Januar bis März (links) und Juli bis
September (rechts); durchgezogene Linien zeigen den Mittelwert, ausgegraute Flächen
markieren die Standardabweichung; die Änderung ist im Vergleich zum Mittelwert der
Jahre 1980 bis 2000 gegeben; die Zahlen in Klammern geben die Anzahl der einzelnen
Modelle wieder
34
8.3.4
Anstieg des Meeresspiegels
Abbildung 29: globaler Mittelwert für den Anstieg des Meeresspiegels aufgrund thermischer Expansion während des 21. Jahrhunderts relativ zu den Jahren 1980 bis 1999,
für die Szenarien A1B, A2 und B1
Der größte Teil des Anstiegs (etwa 70%) ist auf die thermische Expansion des
Meerwassers zurückzuführen. Wie ja hinreichend bekannt ist, dehnt sich Wasser
bei Temperaturerhöhung aus.
Abbildung 29 stellt die Ergebnisse von 17 AOGCMs für die Szenarien A1B,
A2 und B1 zusammen. Die resultierenden Zeitreihen verlaufen ziemlich glatt
im Vergleich zu den Graphen für den Temperaturanstieg; Grund dafür ist die
Tatsache, dass die thermische Expansion die im gesamten Ozean gespeicherte
Wärmemenge widerspiegelt, die proportional zum Zeitintegral der Temperaturänderung ist; die Abläufe im Ozean spielen sich auf einer viel größeren Zeitskala
ab als die Abläufe in der Atmosphäre.
Für den Beginn des 21. Jahrhunderts sind die Werte für alle drei Szenarien in
etwa gleich, die thermische Ausdehnung liegt bei 1, 3 ± 0, 7 mm pro Jahr; dieser
Wert ist doppelt so hoch wie der Wert für den Zeitraum von 1961 bis 2003 mit
0, 42 ± 0, 12 mm pro Jahr, aber gleich dem Wert von 1, 6 ± 0, 5 mm pro Jahr
für die Jahre 1993 bis 2003. Für die Jahre 2080 bis 2100 liegt der Wert für den
Anstieg des Meeresspiegels aufgrund thermischer Expansion bei 1, 9 ± 1, 0 mm,
2, 9 ± 1, 4 mm und 3, 8 ± 1, 3 mm pro Jahr für die Szenarien B1, A1B bzw. A2.
Der ersichtlich beschleunigte Anstieg ist Folge des Temperaturanstiegs.
Lokale Änderungen des Meeresspiegels relativ zum globalen Durchschnitt auf
Grund der unterschiedlichen Dichte des Meerwassers und Änderungen in den
Meeresströmungen zeigt Abbildung 30. Tabelle 31 zeigt zusammenfassend die
verschiedenen Komponenten, die zu einem Anstieg des Meeresspiegels führen.
8.4
Simulationen auf Grundlage von commitment-Szenarien
Das Klimasystem reagiert mit Verzögerung auf Änderungen der Zusammenstellung der Atmosphäre und des damit verbundenen Strahlungsantriebs; dies
ist hauptsächlich auf die thermische Trägheit der Ozeane zurückzuführen, die
einen der größten Wärmespeicher des Klimasystems darstellen. Auch wenn die
35
Abbildung 30: regionale Änderungen des Meeresspiegels aufgrund unterschiedlicher
Dichte und Änderungen in den Meeresströmungen während des 21. Jahrhunderts, berechnet aus der Differenz des Mittelwerts der Jahre 2080 bis 2099 zum Mittelwert
der Jahre 1980 bis 1999, als ein Mittelwert von über 16 AOGCMs auf Grundlage des
A1B-Szenarios; gepunktete Flächen deuten an, dass hier der Betrag des Mittelwerts
größer ist als die Standardabweichung
Abbildung 31: globaler Durchschnittswert für den Anstieg des Meeresspiegels während des 21. Jahrhunderts sowie die einzelnen Komponenten für die sechs SRESSzenarien. Die obere Zeile jeder Komponente gibt die 5−95%-Spannweite des absoluten
Anstiegs zwischen den Zeiträumen 1980 bis 1999 und 2090 bis 2099 an; die untere Zeile
gibt die Anstiegsrate des Meeresspiegels in mm pro Jahr für die Jahre 2090 bis 2099
an; G&IC (Glaciers and Ice Caps) ist der Einfluss aller Gletscher und Eisschichten,
mit Ausnahme der Eisflächen von Grönland und der Antarktis; SMB (surface mass
balance) ist der Netto-Anteil der Eisdecke von Grönland bzw. der Antarktis; G&IC,
sowie die Eisdecken von Grönland und Antarktis addieren sich zur land ice sum; mit
dem Anstieg aufgrund thermischer Expansion ergibt sich dann der gesamte Anstieg
des Meeresspiegels
36
Konzentrationen der Treibhausgase ab einem bestimmten Zeitpunkt einen konstanten Wert erreicht haben, folgen weiterhin Änderungen in der Temperatur
und weiteren klimatologischen Größen. Das heißt nicht, dass ein Klimawandel
wegen der heute schon erhöhten Emissionen unabwendbar wäre innerhalb des
nächsten halben Jahrhunderts, in dem die Auswirkungen sicher noch größer
sein werden, da die Emissionen und damit der Strahlungsantrieb nicht sofort
stabilisiert werden kann; aber es ist möglich, dass die Folgen des Klimawandels
geringer sind als in einem commitment-Szenario dargestellt; nämlich dann, wenn
die Emissionen reduziert werden und der Strahlungsantrieb geringer ist als heute; illustriert wird dies an Hand von zero emission commitment Simulationen
und overshoot-Szenarien.
Abbildung 32: (a) CO2 -Konzentration in der Atmosphäre, (b) Änderung des globalen Mittelwertes der Oberflächentemperatur, (c) Anstieg des Meeresspiegels aufgrund
thermischer Expansion, (d) Atlantic Meridional Overturning Circulation (MOC), berechnet von acht EMICs für das SRES-Szenario A1B und stabilen Strahlungsantrieb
nach 2100; farbige Kurven sind Ergebnisse der EMICs, graue Kurven bezeichnen Ergebnisse von AOGCMs zum Vergleich; Änderungen in (b) und (c) sind relativ zu den
Werten vom Jahr 2000 angegeben; die vertikalen Balken auf der rechten Seite bezeichnen die doppelte Standardabweichung
Abbildung 32 zeigt ein Beispiel für ein commitment stabilisation-Szenario.
Entsprechend dem Szenario A1B steigt die CO2 -Konzentration an bis zu einem
Wert von 700 pm im Jahr 2100 und bleibt dann konstant. Erstellt wurden die
Simulationen von EMICs, Klimamodellen mittlerer Komplexität, die Simulatio-
37
nen sind aber ähnlich denen von AOGCMs.
Für das Jahr 2100 werden für die Änderung der Oberflächentemperatur im Vergleich zum Jahr 2000 je nach Modell Werte zwischen 1, 2◦ C und 4, 1◦ C vorhergesagt, im Jahr 3000 liegt der Wertebereich, trotz konstanter CO2 -Konzentration,
zwischen 1, 9◦ C und 5, 6◦ C.
Der Anstieg des Meeresspiegels aufgrund thermischer Expansion liegt im Jahr
2100 zwischen 0, 2 m und 0, 5 m, im Jahr 3000 zwischen 0, 6 m und 2 m. Hier
ist die thermische Trägheit des Ozeans offensichtlich; der Meeresspiegel steigt
über Jahrhunderte an, während die Oberflächentemperatur den Geichgewichtszustand sehr schnell erreicht.
Abbildung 33 stellt Ergebnisse vor für ein Szenario, in dem die anthropogenen Emissionen zunächst soweit ansteigen, dass die CO2 -Konzentration in der
Atmosphäre knapp 750 ppm beträgt; dann aber werden die Emissionen im Jahr
2100 auf 0 gesetzt.
Trotz dieser Reduzierung der Emissionen um 100% im Jahr 2100 dauert es je
nach Modell etwa 100 bis 400 Jahre, bis die CO2 -Konzentration in der Atmosphäre geringer ist als die doppelte CO2 -Konzentration in der Zeit vor der Industrialisierung (etwa 560 ppm); Grund dafür ist der ununterbrochene Transfer
von Kohlenstoff aus der Atmosphäre in die anderen Reservoirs des Klimasystems, etwa Pflanzen und Ozeane.
Emissionen während des 21. Jahrhunderts beeinflußen also auch im Jahr 3000
das Klima, wenn sowohl die Oberflächentemperatur als auch der Meeresspiegel
immer noch deutlich höher sein werden als zu vorindustriellen Zeiten.
Ein Beispiel für ein idealisiertes overshoot-Szenario ist in Abbildung 34 gegeben; dargestellt sind die Simulationen eines Atmosphere-Ocean General Circulation Models. Die CO2 -Konzentration, die ab dem Jahr 2100 gemäß dem
A1B-Szenario 700 ppm beträgt, fällt innerhalb der Jahre 2150 bis 2250 auf
den entsprechenden Wert des B1-Szenarios ab. Diese Verringerung der CO2 Konzentration ist nur mit erheblicher Verringerung von Emissionen zu verwirklichen, ist damit also sehr unrealistisch. Aber ein solches Szenario illustriert die
Auswirkungen auf das Klimasystem, die einer derartigen Änderung der CO2 Konzentration folgen.
Wie auch schon in den beiden letzten idealisierten Szenarien angemerkt, reagieren Oberflächentemperatur und die oberen Schichten des Ozeans relativ schnell
auf die Änderung, während die tieferen Schichten des Ozeans sich nur langsam
der Änderung anpassen. Die Temperatur nähert sich zwar nach weiteren 100
Jahren dem konstanten Wert des B1-Szenarios allmählich an, ist aber auch im
Jahr 2350 noch nicht vollständig auf diesen Wert zurückgegangen.
Andere Komponenten des Klimasystems, darunter die nordatlantische Umwälzbewegung (North Atlantic Meridional Overturning Circulation, kurz North Atlantic MOC) und das Volumen des Meereises, erreichen meistens wieder den
entsprechenden Wert des B1-Szenarions, signifikante Hysteresis-Effekte sind jedoch für den Anstieg des Meeresspiegels aufgrund thermischer Expansion zu
erwarten.
38
Abbildung 33: Änderungen in natürlichen Kohlenstoffspeichern und deren Reaktion im Vergleich zu vorindustriellen Werten für ein Szenario, in dem die CO2 Konzentration in der Atmosphäre zunächst bis knapp unter 750 ppm ansteigt, dann
aber die Emissionen im Jahr 2100 sofort auf 0 gesetzt werden; (a) absolute Änderung
der Kohlenstoffmenge, (b) CO2 -Konzentration in der Atmosphäre, (d) Änderung der
Oberflächentemperatur, (e) Änderung der Kohlenstoffmenge im Ozean, (g) Anstieg des
Meeresspiegels aufgrund thermischer Expansion, (h) Änderung der Kohlenstoffmenge in irdischen Reservoiren (z.B. Pflanzen); Simulationen fünf verschiedener Modelle
mittlerer Komplexität
39
Abbildung 34: in der oberen Graphik sind die CO2 -Konzentrationen für die SRESSzenarien B1 und A1B sowie das overshoot-Szenario gezeigt, simuliert mit Hilfe eines
AOGCM; die untere Graphik gibt die globale Durchschnittstemperatur für diese Szenarien wieder
40
Herunterladen