Das Klima in 100 Jahren?

Werbung
Nicht zur Verwendung in Intranet- und Internet-Angeboten sowie elektronischen Verteilern.
M E T H O D E N K L I M A S I M U L AT I O N
Das Klima in 100 Jahren?
Trotz der Fortschritte auf den Supercomputern sind die heutigen Modelle immer noch weit da-
© 2009 Carl Hanser Verlag, München
www.cad-cam.de
von entfernt, das Weltklima so detailliert zu simulieren, wie es die Wissenschaft wünscht. CAD
CAM zeigt, wie die Simulationsmodelle entstehen, mit welcher Genauigkeit gerechnet wird und
wo ihre Grenzen liegen.
WISSEN, WAS KOMMT. Glaubt
man dem 4. Sachstandsbericht des
Intergovernmental Panel on Climate Change (IPCC) von 2007, wird
sich bis 2100 die Durchschnittstemperatur auf unserem Globus um 2,5
bis 4,1 °C erhöhen. Der Meeresspiegel soll um 40 bis 50 cm steigen. Wie
aber können die Wissenschaftler so
überzeugt davon sein, dass ihre Berechnungen zutreffen? Schließlich
ist schon die Wettervorhersage für
die übernächste Woche allzu oft
eher mit einem Blick in eine Kristallkugel zu vergleichen.
20
CAD CAM 3-4/2009
Ulrich Feldhaus, freier Autor
An dieser Stelle sollte man zuerst
die Unterschiede zwischen Wetter
und Klima klären. Der Klimaforscher Larry Gates hat es salopp formuliert: »Klima ist das, was man erwartet. Wetter ist das, was man bekommt.« Mit ›Wetter‹ werden die
kurzfristigen und lokalen Geschehnisse in der Atmosphäre bezeichnet. Das ›Klima‹ hingegen meint
längere Zeiträume und ist wesentlich unempfindlicher gegenüber
chaotischen Effekten wie etwa dem
›Schmetterlingseffekt‹, die eine
langfristige Wetterprognose ver-
hindern. Ein Gewitter beispielsweise beeinflusst das lokale Wetter
nachhaltig, für das Klima begnügt
man sich mit der Aussage, ob Parameter wie Temperatur oder Luftfeuchtigkeit für eine erhöhte Gewitterneigung sprechen.
Atmosphäre
als Kern eines Klimamodells
Eine intensive Klimaforschung begann mit dem Aufkommen von
Computern in den 1950er-Jahren.
Das ist kein Zufall, denn das Klima
lässt sich zwar prinzipiell mit physi-
© 2009 Carl Hanser Verlag, München
www.cad-cam.de
Nicht zur Verwendung in Intranet- und Internet-Angeboten sowie elektronischen Verteilern.
K L I M A S I M U L AT I O N
kalischen Gesetzen wie den Newton`schen Bewegungsgleichungen,
dem ersten Hauptsatz der Thermodynamik oder der Kontinuitätsgleichung beschreiben, die Einflussfaktoren und Abhängigkeiten sind jedoch zu komplex, als dass man sie
ohne Hilfsmittel beherrschen könnte. Computer ermöglichten es erstmals, Klimamodelle zu entwerfen,
in denen das Klimasystem mit physikalisch-mathematischen
Gleichungen beschrieben und numerisch gelöst werden kann.
Anfangs beschränkte man sich
darauf, Vorgänge in der Atmosphäre in Computeralgorithmen zu
erfassen. Das lag einerseits an der
damals noch begrenzten Rechenleistung, andererseits bestanden auf
wissenschaftlicher Seite noch Verständnis- und Wissensdefizite bei
Kernprozessen wie Wolkenbildung,
der Berechnung der Ozeanzirkulation oder bei Daten über das aktuelle Weltklima.
Da sich in ihr das Wetter abspielt, ist auch heute die Atmosphäre der Kern eines jeden Klimamodells. Dank der kontinuierlich steigenden Rechenleistung werden die
Modelle immer detaillierter. In den
1970er-Jahren gelang es den Forschern erstmals, eine überzeugende
Berechnung vorzustellen, in der
prognostiziert wurde, dass sich bei
METHODEN
Klimamodelle werden immer komplexer. Thermodynamische Prozesse, die Atmosphärenchemie sowie der CO2-Kreislauf wollen berücksichtigt werden.
einer CO2-Verdopplung die Durchschnittstemperatur um einige Grade erhöhen würde.
In den heute genutzten Globalen
Atmosphären-Ozean-ZirkulationsModellen (AOGCMs) werden die
Einzelsysteme für Atmosphäre und
Ozean physikalisch abgebildet und
miteinander gekoppelt. Die Atmosphäre wird durch die Basisvariablen Wind, Feuchte und Temperatur
modelliert, der Ozean durch die
Strömung, den Salzgehalt und die
Temperatur. Die Kopplung erfolgt
© 2009 Carl Hanser Verlag, München
www.cad-cam.de
Nicht zur Verwendung in Intranet- und Internet-Angeboten sowie elektronischen Verteilern.
M E T H O D E N K L I M A S I M U L AT I O N
über Niederschlag, Verdunstung,
Windschub und die Wärmestrahlungsbilanz. Weitere Klimateilsysteme wie Boden (Pedosphäre), Erdkruste (Lithosphäre), Eis und Schnee
(Kryosphäre) sowie Pflanzen und
Tieren (Biosphäre) lassen sich in
pauschalierter Form einbinden.
Viele Modelle berücksichtigen
neben den thermodynamischen
Prozessen die Atmosphärenchemie
sowie den CO2-Kreislauf. Um Aussagen darüber zu treffen, wie sich
beispielsweise die Abholzung von
Wäldern auf die globale Klimaentwicklung auswirkt, muss man die
biogeochemischen und biopyhsikalischen Prozesse in die Form eines dynamischen Vegetationsmodells bringen.
Grundsätzlich sind Klimamodelle mit den Berechnungsmodellen etwa für FEM- oder CFD-Analysen vergleichbar. Hierbei wird ein
Kontinuum in diskrete Elemente
zerlegt, für welche die entsprechenden Gleichungssysteme gelöst und
die Ergebnisse an die benachbarten
Zellen übergeben werden. Die Gesamtheit dieser Berechnungen ergibt das Klima mit seiner charakteristischen Verteilung der häufigsten, mittleren und extremen Wetterzustände sowie Witterungsvorgänge zu einem bestimmten Zeitpunkt.
Heute geht die horizontale Auflösung bei Atmosphärenmodellen
bis auf zirka 120 km (1,4°) herunter,
die vertikalen Schichtdicken bewegen sich zwischen 1 und 30 km. Die
Ozeanmodelle gehen für ihre Berechnungen von einer horizontalen
Kantenlänge von 125 km und einer
Schichtdicke von 200 m bis 5 km
Tiefe aus. Entsprechende Modellgrößen liegen bei 4 Millionen Basisvariablen für das Dynamikmodell der Atmosphäre. Rund 30 Minuten beträgt die zeitliche Auflösung für die Atmosphäre; für den
Ozean ist diese halb so groß. In der
Regel tauschen die Modelle einmal
pro simuliertem Tag ihre Daten
aus.
Das ECHAM5/MPIOM-Atmosphärenmodell des Hamburger
Max-Planck-Instituts für Meteoro22
CAD CAM 3-4/2009
Beobachtete (a) und simulierte (b) jährliche durchschnittliche Niederschlagsmenge
(mm), basierend auf dem Durchschnittswert aus mehreren Modellen.
logie, das an den Simulationen für
den IPCC-Bericht beteiligt war,
verfügt über eine Gitterweite von
etwa 200 km in der Horizontalen
sowie über 31 vertikale Schichten
und insgesamt über 500 000 Gitterpunkte. Bei derart großen Simulationsmodellen und den simulierten
Zeiträumen bedarf es einer enormen Rechnerleistung. Kalkuliert
man die Rechenzeit für Simulationen in der Technik in Minuten,
Stunden oder Tagen, so sind bei der
Klimasimulation Monate eine gängige Größe.
Noch vor wenigen Jahren war
der japanische Earth Simulator mit
40 Teraflops/s maßgebend und
stand auf der höchsten Position der
Top 500 der Supercomputer. Allein
für den deutschen Beitrag zur IPCCStudie wurden 5 000 Jahre simuliert, wofür auf dem NEX SX-6 des
Deutschen Klimarechenzentrums
zirka 400 000 CPU-Stunden nötig
waren, also ein Viertel der gesamten
Jahreskapazität.
Ab dem Frühjahr diesen Jahres
wird man in Hamburg allerdings
erheblich flotter rechnen können.
Dann nämlich geht ein 60-mal
schnelleres
IBM-Power6-System
mit einer Spitzenleistung von über
140 Teraflops/s (140 Billionen Rechenoperationen/s) in Betrieb. Damit gehört der Rechner zu den
weltweit größten Supercomputern
für wissenschaftliche Zwecke.
Parametrisierungsschemata
Trotz der inzwischen üblichen relativ hohen Auflösung gibt es genügend physikalische Vorgänge, die
sozusagen ›durch das Gitter‹ fallen.
So lassen sich Wolkenbildung, Niederschläge, Strömungswirbel oder
die kurz- und langwelligen Strahlungsprozesse nicht direkt darstellen. Da diese Phänomene für die
Temperaturentwicklung von zentraler Bedeutung sind, müssen sie
aber berücksichtigt werden.
© 2009 Carl Hanser Verlag, München
www.cad-cam.de
Nicht zur Verwendung in Intranet- und Internet-Angeboten sowie elektronischen Verteilern.
K L I M A S I M U L AT I O N
Bei der Parametrisierung leitet man deshalb diese
Prozesse aus den an den Rändern der Gitterzelle bekannten Werten über bekannte meteorologische Gesetzmäßigkeiten ab. Zum Beispiel ist es wichtig abzuschätzen, wie viel Staubpartikel (Aerosole) in einem
Element vorhanden sind, da dies eine wesentliche Bedingung für die Bildung von Regentropfen ist.
Es gibt eine ganze Reihe solcher Parametrisierungsschemata – einige sind durch Beobachtungen und Messungen abgesichert, andere enthalten Unsicherheiten,
wurden aber trotzdem erfolgreich mathematisiert. Die
Parametrisierung gehört zu den Hauptaufgaben derjenigen Wissenschaftler, die versuchen, kleine Wasserwirbel, die Wirkung von Staubpartikeln auf die Wolkenentstehung oder die Turbulenz, die durch Baumwipfel
ausgelöst wird, in mathematische Gleichungen umzusetzen. Voraussetzung dafür ist, dass sich diese kleinskaligen Prozesse hinreichend genau in den grobskaligen Variablen des Klimamodells darstellen lassen (›Closure Assumption‹).
Um einigermaßen sicherzustellen, dass Klimamodelle verlässlich arbeiten, prüfen die Forscher, wie gut
sie die Vergangenheit und Jetztzeit wiedergeben. Dazu
werden die simulierten Daten mit klimatologischen
Messwerten verglichen. Einigermaßen verlässliche meteorologische und ozeanografische Aufzeichnungen
gibt es allerdings erst seit 150 Jahren. Auch sind diese
nicht weltumspannend verfügbar. Häufig müssen sich
die Wissenschaftler ihre Daten auf indirektem Weg beschaffen, etwa indem sie die Wachstumsringe bei Bäumen oder Eisproben untersuchen. Über Zwischenmodelle werden die unvollständigen Daten korrigiert
und interpoliert, bis sie die Modellnetze vollständig
ausfüllen. Man füttert das System mit Werten aus der
vorindustriellen Vergangenheit und lässt es rechnen, bis
sich ein stabiles Gleichgewicht einstellt. Bis zu 500 Simulationsjahre kann dieser Prozess in Anspruch nehmen. Anschließend werden klimahistorische Ereignisse
wie Vulkanausbrüche, Schwankungen in der Sonnenaktivität oder die Emission von Treibhausgasen (CO2, Methan, Aerosole) als Antrieb eingespeist.
Um möglichst verlässliche Startbedingungen zu finden, rechnet man das Modell mit vielen unterschiedlichen Randbedingungen durch. Je mehr Simulationen
durchgeführt werden, desto verlässlicher werden die
Aussagen über die Wahrscheinlichkeitsverteilung der
Ergebnisse.
IPCC-Prozess und
vierter Sachstandsbericht
1988 wurde unter Federführung der UN das IPCC mit
dem Ziel gegründet, die menschlichen Einflüsse auf das
Klima zu untersuchen und politischen Entscheidungsträgern wissenschaftliche Grundlagen zu schaffen.
Gruppen von führenden Wissenschaftlern unterschiedlicher Nationen verfassen regelmäßig Berichte über den
Stand der Klimaforschung und über den Rückgang der
Treibhausgasemissionen.
CAD CAM 3-4/2009
23
METHODEN
D e m A R 4 z u f o l g e k ö n n e n n a t ü r l i c h e Ur sachen für die globale Erwärmung in der
zweiten Hälfte des 20. Jahrhunderts mit
e i n e r Wa h r s c h e i n l i c h k e i t v o n r u n d
95 Prozent ausgeschlossen werden. Vielmehr zeichnen anthropogene Einflüsse
w i e CO 2 u n d A e r o s o l e f ü r d i e d r a m a t i sche Entwicklung verantwortlich.
Für den 4. Sachstandsbericht (AR4) wurde die Zutreffenswahrscheinlichkeit der Kernaussagen ermittelt.
Für die Simulationen arbeiteten insgesamt 23
AOGCMs aus 18 Instituten. Aus Deutschland waren das
Max-Planck-Institut für Meteorologie in Hamburg und
das meteorologische Institut der Universität Bonn an
den Untersuchungen beteiligt.
Dem AR4 zufolge können natürliche Ursachen für
die globale Erwärmung in der zweiten Hälfte des 20.
Jahrhunderts mit einer Wahrscheinlichkeit von rund
95 Prozent ausgeschlossen werden. Vielmehr zeichnen
anthropogene Einflüsse wie CO2 und Aerosole für diese
Entwicklung verantwortlich. Dies wurde in 58 Simulationen an 14 unterschiedlichen Modellen ermittelt.
Plausibel machten die Ergebnisse unter anderem, dass
die historischen Daten gut nachgebildet waren und die
Simulation von bekannten Klimaveränderungen eine
hohe Genauigkeit erzielte, wie etwa das El-NiñoVorhersagesystem, das eine 80-prozentige Übereinstimmung mit den Messdaten erreicht.
40 Szenarien der Zukunft
Wie sich das Klima über die nächsten 100 Jahre verändert, hängt entscheidend von der Bevölkerungsentwicklung und dem Wirtschaftswachstum ab. Insgesamt
wurden dazu vierzig Szenarien aufgestellt, die auf
unterschiedlichen Annahmen über die demografische,
© 2009 Carl Hanser Verlag, München
www.cad-cam.de
Nicht zur Verwendung in Intranet- und Internet-Angeboten sowie elektronischen Verteilern.
M E T H O D E N K L I M A S I M U L AT I O N
Voraussichtliche Änderung der Oberflächentemperatur im frühen (Mitte) und späten (rechts) 21. Jahrhundert, bezogen auf die
Periode von 1980 bis 1999 für die Szenarien B1 (oben), A1B (Mitte) und A2 (unten). Links befinden sich die entsprechenden relativen
Wahrscheinlichkeiten unterschiedlicher Studien.
wirtschaftliche und energiepolitische Entwicklung basieren.
Zu den wichtigsten Szenarien
zählen:
■ A1:
starkes wirtschaftliches
Wachstum, rasante Einführung
neuer Technologien, Bevölkerungsentwicklung erreicht 2050 ihr Maximum. Je nach Energienutzung
werden unterschieden:
■ A1F: intensive Nutzung der fossilen Brennstoffe,
■ A1T: intensive Nutzung der
nichtfossilen Energieträger und
■ A1B: eine Mischung von beiden;
■ B1: Informations- und Dienstleistungsgesellschaft, in der intelligente Techniken und nachhaltige
Prinzipien genutzt werden; soziales
Gleichgewicht und globale Gerechtigkeit, keine besonderen Maßnahmen zum Klimaschutz;
■ A2: heterogenes Bevölkerungswachstum und wirtschaftliche Entwicklung bei einem langsamen
weltweiten Fortschritt;
■ B2: wie A2, aber explizite Maßnahmen zum Klimaschutz.
Man muss bedenken, dass die
Betrachtung der durchschnittlichen Temperaturerhöhung die Situation verharmlost. So wird beispielsweise für das Szenario A1B ei24
CAD CAM 3-4/2009
ne durchschnittliche Erhöhung um
2,8 °C ermittelt, während für die
Antarktis ein Anstieg um 6 °C errechnet wird. Detaillierte Studien
regionaler Effekte prognostizieren
zudem, dass Südeuropa austrocknen und sich der Schnee in
den Alpen zurückbilden wird.
Im Falle von B1 dürfte die geringste Erwärmung vonstatten gehen. Von A1B ist weniger Erfreuliches zu erwarten. In der schlechtesten Variante nutzt die Menschheit
weiterhin fossile Brennstoffe. Demnach ist es dringend notwendig,
nichtfossile Energieträger und Einsparpotenziale zu nutzen sowie in
eine integrierte intelligente Energieerzeugung und -nutzung zu intensivieren.
Insgesamt zeigt die Studie, dass
für alle Szenarien mit vermehrtem
Niederschlag, stärkeren Niederschlagsextremen, erhöhter Temperatur und ausgeprägteren Temperaturschwankungen, einer höheren
Anzahl von Stürmen, einem
Anstieg des Meeresspiegels sowie
dem Rückgang des Meereises zu
rechnen ist.
Je komplexer das Rechenmodell,
umso schwieriger wird es, die Abläufe bis ins letzte Detail zu verste-
hen beziehungsweise warum sich
das Modell so und nicht anders verhält. Auch hat man längst noch
nicht alle für die Klimabildung relevanten Prozesse verstanden und
berücksichtigt.
Die Wissenschaftler träumen
seit Anbeginn der Klimasimulation
von einem allumfassenden Weltmodell. Erreichen wird man es aber
wohl nie, selbst wenn wir alle Prozesse verstanden haben. Grenzen
setzen etwa die Bandbreite der Größenordnungen, aber auch die Datenmengen, die erzeugt und interpretiert werden wollen.
Dass die Klimasimulation trotz
aller noch offenen Fragen und trotz
der relativ groben Modellierung ein
seriöses Vorhersagewerkzeug ist,
dürften inzwischen nur noch notorische Skeptiker bezweifeln.
JRü
@ www.ipcc.ch
Diesen Artikel finden Sie auf der Hompage
www.cad-cam.de unter der Dokumentennummer CC110018.
Herunterladen