Assimilierung von Messdaten, Ozean

Werbung
55
promet, Jahrg. 29, Nr. 1- 4, 55-62 (Juni 2003)
© Deutscher Wetterdienst 2003
J. SCHRÖTER
15 Assimilierung von Messdaten, Ozean
1
Einleitung
Mit Datenassimilation bezeichnen wir eine Synthese aus gemessenen Daten und Modellen. Ziel ist es, die Messungen
besser zu verstehen, sie in einen größeren Zusammenhang zu
stellen und so optimal auszunutzen. Es geht darum, Modelle
näher an die Wirklichkeit zu führen und so die Prozesse im
Ozean besser zu verstehen und gegebenenfalls auch vorherzusagen. Ein besonderes Anliegen ist, nicht direkt beobachtete Größen zu bestimmen. So ist zum Beispiel die Berechnung von Strömungen und Transporten aus einer gemessenen
Dichteverteilung eine typische Aufgabe in der Ozeanographie.
Als Modell dient hier das geostrophische Gleichgewicht zwischen der Coriolis- und der Druckgradientkraft. Diese einfache Anwendung wird man noch als Diagnose und nicht als
Datenassimilation bezeichnen, denn dazu gehört, dass Fehler
in den Messungen und auch im Modell berücksichtigt werden.
In den vergangenen Jahren hat die Ozeanographie erhebliche
Fortschritte bei der Modellierung gemacht. Einzelne Prozesse
sind inzwischen gut verstanden und können erfolgreich modelliert werden. Die relative Bedeutung dieser in der Natur
gleichzeitig ablaufenden Prozesse muss aus Messungen bestimmt werden.Datenassimilation wird eingesetzt,um die Messungen zu interpolieren, gegebenenfalls zu korrigieren aber
auch zu extrapolieren. In einer Synthese wird eine mit den
Daten und mit der Modelldynamik konsistente Zirkulation bestimmt. Mess- und Modellfehler werden so reduziert. Die Synthese stellt die Bedeutung einzelner Prozesse fest. Sie erlaubt
die Berechnung von Parametern,die nicht gemessen wurden oder
solchen die schlecht messbar sind wie zum Beispiel Wärme- und
Stofftransporte. Datenassimilation im engeren Sinn setzt ein
zeitabhängiges Modell und zeitabhängige Daten voraus. Die
Assimilation erstreckt sich über einen gewissen Zeitraum. Ist
das benutzte Modell zeitunabhängig und wird mit gemittelten
Daten kombiniert, so sprechen wir von inverser Modellierung.
Atmosphäre und Ozean gleichen sich in zahlreichen Eigenschaften. Insbesondere ihre Beschreibung mit mathematischen
Gleichungen, die auf Rechnern gelöst werden, fußt auf den
selben Grundlagen. Es ist daher leicht verständlich, dass in der
Meteorologie und der Ozeanographie die Assimilierung von
Messdaten in numerische Modelle sehr ähnlich ist.Die zugrundeliegende Theorie und ihre mathematische Umsetzung ist
einheitlich. Dies geht so weit, dass in einzelnen Fällen sogar ein
Computercode geeignet sein kann, um alternativ meteorologische Messungen in atmosphärische Modelle oder ozeanographische Messungen in Modelle des Ozeans zu assimilieren.
Bei soviel Gemeinsamkeit kann dieses Kapitel unmittelbar auf
das vorangegangene über die Assimilierung von Daten in der
Meteorologie Bezug nehmen und auf ihm aufbauen. Die Bezeichnungen von Zustandsvariablen, Kovarianzmatrizen und
Verfahren sind die gleichen.Auf die inhaltlichen Parallelen wird
Wert gelegt.Es wird aber auch in weiten Teilen um die Unterschiede im Detail gehen, die für die Praxis große Bedeutung haben.
Historisch gesehen hinkt die Assimilierung von Messdaten im
Ozean im Vergleich zur Atmosphäre deutlich hinterher. Hierfür gibt es eine ganze Reihe von Gründen:Der wichtigste dürfte
sein, dass der wirtschaftliche Nutzen einer durch Datenassimilation gestützten Ozeanvorhersage geringer ist, als der der
Wettervorhersage. Sturmflutvorhersage und Wasserstandsvorhersage bilden hier positive Ausnahmen.Sie sind gut entwickelt
gegenüber einer noch in den Anfängen steckenden globalen
Ozeanvorhersage.Ein großes Hemmnis stellte das traditionelle
Weltbild der Ozeanographen dar.In ihren Köpfen war lange die
Sichtweise von Ozeanströmungen im stationären Gleichgewicht verankert. Diese Vorstellung hat auch die Planung des
„World Ocean Circulation Experiments“ (WOCE) geprägt. In
den vergangenen zehn Jahren wurde mit einem sehr großen
Aufwand an Personal und an Forschungsschiffen vor allem ein
Wassermassenzensus, also eine Bilanzierung der Temperaturund Salzgehaltsverteilung im Ozean, gemessen. Einer der
führenden Ozeanographen der vergangenen 50 Jahre, Walter
Munk,geht in seiner Charakterisierung der Ozeanographie des
20. Jahrhunderts so weit zu sagen, es handele sich um ein
Jahrhundert von systematisch fehlenden Messungen (a century
of undersampling). Es war in der Tat lange verpönt, an einem
Ort mehr als einmal zu messen, weil man dort prinzipiell nichts
Neues erwartete. Vor diesem Hintergrund gibt es in der
Ozeanographie zahlreiche,hochentwickelte Inversmodelle.Sie
beschreiben eine zeitunabhängige Ozeanzirkulation, die dynamische Gleichgewichte erfüllt, Wärme und Volumen im Sinne
der kleinsten Quadrate erhält und die Messungen gut wiedergibt. Diese Modelle haben nach wie vor starke Verbreitung. Sie
werden als klimatologische Beschreibungen verstanden. Ihre
Grenzen liegen jedoch auf der Hand.
Vor allem Satellitenmessungen der Oberflächentemperatur
sowie der Ozeanoberflächenauslenkung haben deutlich gemacht,
dass das Meer nicht nur bei den Gezeiten und beim Jahresgang,
sondern auf allen Zeitskalen eine große Variabilität aufweist.
Eines der hervorragenden Ergebnisse von WOCE war es zu
zeigen, dass nicht nur Golfstrom und Kuroschio mäandern und
sich dort gelegentlich Ringe abschnüren oder mit der El Niño –
Southern Oszillation (ENSO) großräumige Fluktuationen im
Pazifik auftreten. Vielmehr weist die allgemeine Zirkulation
überall turbulente und bisweilen chaotische Schwankungen auf.
Kurzum,es wurden die Ähnlichkeiten zwischen der ozeanischen
und der atmosphärischen Zirkulation nachgewiesen. Zum
richtigen Verständnis ihrer Messungen sollten Ozeanographen
daher auf die Erfahrungen aus der Meteorologie zurückgreifen.
Andererseits ist die Ozeanographie auf zwei Gebieten auf einem
erstklassigen Stand. Die Vorhersage von Gezeiten gelingt glo-
56
J. Schröter: Assimilierung von Messdaten, Ozean
bal mit einer verblüffenden Genauigkeit. Während die Dynamik der Gezeiten und ihre erzeugenden Kräfte sehr gut verstanden sind, gibt es Probleme bei der genauen Beschreibung
der Reibung. Auch ist die exakte Form der Ozeanbecken, die
einen Einfluss auf das Resonanzverhalten hat,nicht ausreichend
genug vermessen.So spielt dabei selbst das Profil der Unterseite
von schwimmenden Schelfeisschilden eine Rolle. Die guten
Ergebnisse der Tidenmodellierung beruhen daher auch auf der
Datenassimilation von Gezeitenpegeln und von Satellitenaltimetermessungen. Ferner wird mit der Modellierung und der
Vorhersage von globalen Seegangsfeldern ein für die Schifffahrt
wichtiger Dienst angeboten, der natürlich auch auf die Wettervorhersage angewiesen ist.Die Seegangsmodellierung wurde in
einem eigenen Beitrag von BEHRENS (2002) in einem früheren Heft von promet (Jahrgang 28,Heft 1/2,Kapitel 10) ausführlich dargestellt. Der ebenfalls wichtige Eisdienst beschränkt
sich bisher vor allem auf die sorgfältige Auswertung von Messdaten ohne Datenassimilation in prognostische Modelle.
Nach diesem kurzen Blick in die Vergangenheit soll im Folgenden über den Stand der Forschung berichtet werden.Die zugrunde liegende Philosophie der Datenassimilation sowie die mathematische Beschreibung verschiedener Methoden ist schon im
vorangegangenen Kapitel zur Assimilation von Daten in der
Atmosphäre dargestellt worden.Wir beziehen uns auf diese Arbeit und werden vor allem auf die Unterschiede zwischen Atmosphäre und Ozean eingehen. Sie werden vor allem in der Datengrundlage, der Zielsetzung und in den Zeitskalen deutlich.
Ozeanmodelle und Assimilationsmethoden haben sich parallel
zur Entwicklung der Computertechnik verbessert. Geradezu
revolutionär ist dagegen der Fortschritt bei den Messungen, der
die Ozeanographie tiefgehend beeinflusst und ungeahnte Möglichkeiten eröffnet. Auf neuartige Messtechniken wird daher
ausführlich eingegangen. Nach dem Stand der Technik werden
einige Ergebnisse vorgestellt, die gerade in Bezug auf die Meteorologie interessant sind. Abschließend geben wir einen Ausblick
auf das „Global Ocean Data Assimilation Experiment“
GODAE, bei dem in den kommenden Jahren die weltweit
führenden Gruppen auf dem Gebiet der Datenassimilation im
Ozean zusammenarbeiten.
2
Stand der Forschungen
Methodische Fragen der Datenassimilation sind häufig aus der
Meteorologie beziehungsweise der Kontrolltheorie übernommen
worden. Es herrscht eine weitgehende Übereinstimmung zwischen Ozeanographen und Meteorologen. Der Stand der Forschung richtete sich traditionell in erster Linie nach den Rechnerressourcen, die zur Verfügung standen. Da diese in den letzten Jahren stark verbessert wurden, treten inzwischen mehr die
Unterschiede in den verschiedenen Assimilationsmodellen zu
Tage.Hauptmerkmal zur Unterscheidung sind aber zur Zeit die
Messungen, die zur Assimilation genutzt werden. Hier schreitet
die Entwicklung rasch voran und wir können gute Fortschritte
in der Zukunft erwaren. Ein schneller und kostenloser Zugang
zu den Messungen und zu Wettervorhersagen war bisher nicht
immer gegeben. Dies wird sich im Rahmen des Global Ocean
Data Assimilation Experiment noch entscheidend verbessern.
promet, Jahrg. 29, Nr. 1- 4, 2003
2.1 Die Messdaten
In der Art und der Verfügbarkeit der Messdaten unterscheiden sich Meteorologie und Ozeanographie stark voneinander. Das liegt zum einen in der Langsamkeit, mit der sich
das Wetter im Ozean im Vergleich zu dem der Atmosphäre
entwickelt.Zum anderen ist das gesellschaftliche Interesse an
einer guten Wettervorhersage größer als an der Ozeanvorhersage. Entsprechend ist die ozeanographische Gemeinde
zahlenmäßig kleiner als die meteorologische. Der hohe finanzielle und zeitliche Aufwand für Forschungsschiffe beeinflusst darüber hinaus die Datenbasis.
Traditionelle hydrographische Messungen erfordern Wasserproben aus verschiedenen Tiefen, die von Forschungsschiffen
aus in zeitraubender Arbeit gewonnen werden. Die Mehrzahl
der Ozeanographen halten einen in situ-Datensatz für
„synoptisch“, wenn er innerhalb von wenigen Monaten gemessen wurde. Der sich hier offenbarende Datenmangel hat
seine Ursache darin, dass der Ozean weitgehend undurchsichtig ist. Das Licht dringt nicht ausreichend ins Meer ein
und erlaubt uns nicht, von der Oberfläche aus den tiefen
Ozean zu beobachten. Nur für Schallwellen ist das Meer gut
durchlässig. Dies nutzt die Schifffahrt mit dem Echolot zu
Messung der Wassertiefe. Spezielle Echolote, die „Acoustic
Doppler Current Profiler“ (ADCP), sind geeignet, die Strömung unterhalb des Schiffs bis in einige hundert Meter Tiefe
zu messen. Es ist auch möglich, die Meerestemperatur über
große Strecken akustisch zu messen. Dies geschieht bisher
jedoch nur in Einzelfällen, da von manchen Gruppen ein
negativer Einfluss des Unterwasserschalls auf die Meeressäugetiere befürchtet wird. In einigen Experimenten konnte
gezeigt werden, dass regional mit Schallwellen eine akustische Tomographie möglich ist. Darin wird kontinuierlich die
dreidimensionale Verteilung der Schallgeschwindigkeit und
damit im Wesentlichen die Temperaturverteilung abgebildet.
Die akustischen Methoden sind technisch weit entwickelt, sie
haben sich aber noch nicht allgemein durchgesetzt.
Den standardmäßigen Flugzeugmessungen der Meteorologie entsprechen in gewisser Weise Messungen von Handelsschiffen. Mit „expendable bathythermographs“, den XBT’s,
wird das vertikale Temperaturprofil der obersten Wasserschichten mehrmals am Tag entlang der Schiffsroute bestimmt.
Diese Messungen werden über das Datennetzwerk der WMO
(GTS) verbreitet. Ozeanographische Stationen sind in den
letzten Jahren rar geworden. Die Wetterdienste verzichteten
auf Wetterschiffe, die für die Ozeanographie unschätzbare
Zeitreihen von Temperatur und Salzgehalt aus allen Tiefen
gewissermaßen als Nebenprodukt gemessen haben. Das
Ende dieser Messserien bedeutet einen schweren Verlust für
die Meeres- und die Klimaforschung. Nur im tropischen
Pazifik wird wegen der Bedeutung der El Niño – Southern
Oszillation ein permanentes Messnetz von Bojen und Pegeln
seit mehreren Jahren betrieben. Ein Messnetz für den tropischen Atlantischen Ozean befindet sich im Aufbau.
Weitere traditionelle Messungen werden mit Verankerungen
gewonnen. In verschiedenen Wassertiefen werden Strömungsmesser, Temperatur- und Salzgehaltssensoren verankert und
promet, Jahrg. 29, Nr. 1- 4, 2003
J. Schröter: Assimilierung von Messdaten, Ozean
nach einer Messdauer von Wochen bis zu einem Jahr geborgen.Die Datenauswertung zieht sich durch sorgfältiges Nacheichen der stark beanspruchten Geräte in die Länge, so dass
diese traditionellen Messungen vor allem der Bestimmung
der Klimatologie und nicht dagegen eines aktuellen Zustands
des Ozeans dienen.
Um diese Nachteile zu überwinden, wurde eine großes Programm mit autonomen, profilierenden Tiefendriftkörpern
unter der Bezeichnung ARGO begonnen. Die Drifter treiben
in einer einstellbaren Wassertiefe von typischerweise 2000 m
für zehn Tage mit der Tiefenströmung. Sie tauchen anschließend auf und messen beim Aufstieg ein Temperatur- und
Salzgehaltsprofil.An der Wasseroberfläche wird ihre Position
über Satellitentelemetrie bestimmt und sie senden ihre aktuellen Messdaten ebenfalls per Satellit an die Datenzentren. Sie
entsprechen damit einem Radiosondensystem mit variablen
Messorten. Nach Absetzen ihrer Messdaten tauchen die
Driftkörper wieder für zehn Tage in die Tiefe ab und der
Zyklus beginnt von vorn. In den kommenden Jahren werden
über 3000 solcher ARGO-Drifter eine Fülle von neuen Messdaten aus den mittleren und oberen Schichten des Ozeans liefern und Aufschluss über das schwer zu erfassende Strömungsfeld bieten. Wegen der kleinräumigen Strukturen der Wirbel
im Ozean sind die vorgesehenen Drifter nicht in der Lage, ein
vollständiges synoptisches Abbild des Wirbelfeldes zu liefern.
Eine dafür ausreichende Anzahl von Driftern ist wegen der
relativ hohen Kosten nicht in Sicht. An dieser Stelle hat die
Datenassimilation die entscheidende Rolle, die Messdaten
richtig einzuordnen und so optimal zu nutzen.
Die genannten Daten werden in ihrer Anzahl und Überdeckung bei weitem von globalen Fernerkundungsmessungen übertroffen. Niedrig fliegende Satelliten messen die
Oberflächentemperatur und -farbe des Meers. Mit aktiven
und passiven Mikrowellensensoren werden Wellenhöhe und
Oberflächenrauigkeit gemessen und daraus Windstärke und
-richtung bestimmt.Eine der wichtigsten Messungen wird mit
Radaraltimetern gewonnen. Entlang der Satellitenspur wird
wie mit einem Gezeitenpegel der Wasserstand gemessen. Der
Wasserstand beeinflusst über das Druckfeld unmittelbar das
dreidimensionale Strömungsfeld im Ozean. Das Messnetz
des Altimeters ist sehr grobmaschig und es müssen stets
mehrere Satelliten kombiniert werden, um zu einer befriedigenden Überdeckung zu gelangen. An einer Verbesserung
der Datendichte durch eine Vielzahl von preiswerten Kleinstsatelliten wird gearbeitet. Eine weitere zukünftige Methode
hierzu führt über die Reflexion von elektromagnetischen
Wellen an der Meeresoberfläche auf dem indirekten Weg
zwischen zwei Satelliten. Auch an abbildenden Radarhöhenmessungen wird gearbeitet.
Die Satellitenaltimetrie wird ergänzt durch Messungen des
Schwerefeldes von Satelliten und der Erdoberfläche aus.Aus
diesen Daten wird das Geoid, eine Äquipotentialfläche, die
als Referenz dient, berechnet.Altimeterdaten können darauf
bezogen werden und dienen dann als Messung der freien
Oberflächenauslenkung des Ozeans, die sonst nur schwer zu
bestimmen ist. Die Bedeutung dieser Messungen, die in etwa
dem Bodendruck in der Meteorologie entspricht, ist kaum zu
57
überschätzen. Heutige Geoide sind allerdings auf Längenskalen von unterhalb 2500 km stark fehlerbehaftet. Die
„absolute Altimetrie“, also auf das Geoid bezogen und nicht
nur als Anomalie zu einem unbekannten Mittelwert genommen, findet daher bislang kaum Verwendung in der Ozeanographie. Neue Satellitenmissionen der Geodäsie lassen aber
auf einen gewissen Durchbruch hoffen. Mit dem Satelliten
GOCE der ESA, dessen Start 2006 vorgesehen ist, werden im
Geoid auch Längenskalen von wenigen hundert Kilometern
brauchbar. Das gemessene, hochauflösende Geoid kann
später auch als Referenz für die Altimeterdaten der vergangenen 20 Jahre herangezogen werden. Für die Ozeanographie erschließt sich dann ein enormer Datenreichtum. Vor
allem auf dem Gebiet der mittleren Ozeanzirkulation wird
für die Klimatologie ein bedeutender Fortschritt erwartet.
Die geodätischen Satelliten sind auf großen Längenskalen ausgesprochen sensitiv. Sie werden Massenveränderungen an der
Erdoberfläche erkennbar machen, die aufgrund von Schwankungen des Grundwasserspiegels, der Schneebedeckung und
des Volumens von Inlandeis entstehen.Neben der Möglichkeit,
auch tiefgehende Veränderungen der Ozeanzirkulation zu
messen, werden die größten Fortschritte dieser neuen Missionen für den hydrologischen Zyklus erwartet. Die Ergebnisse
sind daher unmittelbar für die Meteorologie nutzbar. Schließlich lassen sich auch Verdunstung und Niederschlag über dem
eisfreien Meer durch Fernerkundung messen. Diese sehr
schwer zugängliche Größe stellt einen wesentlichen Faktor im
Antrieb der Ozeanzirkulation dar.Sie musste bisher aus Wettervorhersagemodellen oder Reanalysen entnommen werden und
wurde als zu unzuverlässig betrachtet. Die neuen Messungen
zeigen, wie kleinräumig und intensiv Niederschlag sein kann.
Mit der zunehmenden Länge der Datenserien und Verbesserungen in den Auswertungsalgorithmen wird sich diese Datenquelle mehr und mehr durchsetzen.
Messungen der Oberflächentemperatur von Satelliten aus ist
mit Infrarotverfahren sehr gut möglich. Leider behindern
Wolken oft die freie Sicht, so dass Karten der Temperatur aus
vielen verschiedenen Satellitenüberflügen zusammengestellt
werden. Mikrowellenverfahren, die wetterunabhängig sind,
spielen nur zur Erkennung der Windstärke und -richtung eine
wesentliche Rolle. Die Möglichkeit auch den Salzgehalt vom
Weltraum aus zu messen, wird von neuen Satellitenmissionen
verfolgt. Wie genau und wie aussagekräftig die Ergebnisse
sein werden, lässt sich aber noch schlecht abschätzen. In der
Eisfernerkundung hat sich die Methode bewährt, durch
Mustererkennung Verschiebungsgeschwindigkeiten zwischen
zeitlich auseinanderliegenden Bildern zu berechnen, ähnlich
wie dies auch für Wolken geschieht. Eine entsprechende
Technik, auch aus den Mustern von Trübstoffen oder biologischen Beimengungen Verwirbelungen im Ozean genau zu
beschreiben, steht noch aus. Für kleinräumige Phänomene
wäre dies aber durchaus interessant.
Insgesamt muss man festhalten, dass es trotz der genannten
Fülle von verschiedenen Messsystemen nicht gelingt, den
Ozean umfassend zu beobachten. Der Direktor des WeltOzean-Datenzentrums, Sydney Levitus, bezeichnet das Meer
als das am schlechtesten beobachtete System auf der Erde.
58
J. Schröter: Assimilierung von Messdaten, Ozean
promet, Jahrg. 29, Nr. 1- 4, 2003
2.2 Traditionelle Assimilationsmethoden
Wie in der Meteorologie müssen die Messungen vor der Assimilation genau geprüft werden. Die Frage nach groben Fehlern beziehungsweise der Konsistenz mit anderen Messwerten ist oft schwer zu beantworten. Die geringen Korrelationslängen im Ozean bedeuten, dass eine Messung nur für ein
kleines Ozeanvolumen repräsentativ ist. Dies wird in der
Kovarianzmatrix O(1) (s. Gl.(2) im Kapitel 14) mathematisch
ausgedrückt. Große Unterschiede in Messwerten sollten
daher nicht überraschen und bedeuten nicht automatisch
Messfehler. Die Bedeutung von Beobachtungsfehlern ist
relativ gering. Die Meßsysteme arbeiten im Allgemeinen
recht genau. Viel entscheidender ist der Repräsentationsfehler F, der angibt, ob das Modell prinzipiell in der Lage ist,
den gemessenen Prozess zu beschreiben.Angesichts der vielen
Vereinfachungen, die in einem Ozeanmodell gemacht werden
müssen, überwiegt dieser Fehler deutlich alle anderen.
Die in der Vergangenheit erfolgreich eingesetzten Methoden
zeichnen sich in erster Linie durch einen überschaubaren
Rechenaufwand aus. Die einfachste Assimilation, das simple
Ersetzen von Modellwerten durch Messdaten, hat sich nicht
bewährt. Die hiervon erzeugten Imbalancen im Modell sowie
die Vernachlässigung von Messfehlern machen die Methode
in der Praxis erfolglos. Nahe verwandt ist die Erkennung von
bestimmten Mustern aus Messungen. Beispiele dazu wären
Golfstromringe oder die Lage eines als Gaußisch vorgeschriebenen Strömungsprofils. Diese Muster werden nach
der Methode der ‘feature models’ dynamisch balanciert und
in das Ozeanmodell eingesetzt.
Die schon erwähnten stationären Box-Inversmodelle wurden
zu einer großen Reife entwickelt. Sie behandeln die Budgets
an Wärme, Salz und Spurenstoffen in großen Ozeanvolumen,
die durch hydrographische Schnitte sowie Dichteflächen
voneinander abgegrenzt sind. Flüsse zwischen den Volumen
und der Austausch mit der Atmosphäre werden invers bestimmt. Gelöst wird das entsprechende lineare Gleichungssystem vorzugsweise mit Singulärwertzerlegung und geeignetem Abschneiden der Singulärwerte entsprechend den geschätzten Fehlern. Letztlich findet diese beliebte Methode
ihre Grenzen in der Annahme der Stationarität. Sich kreuzende hydrographische Schnitte mit unterschiedlichen Messungen für den selben Ort bereiten ein noch nicht zufriedenstellend gelöstes Problem. Mit nicht-linearen Methoden
lassen sich Geschwindigkeiten bzw. Transporte und die
Dichteverteilung gleichzeitig bestimmen. Gewöhnlich bleibt
dabei aber die räumliche Auflösung unbefriedigend.
Für die Paläoozeanographie gibt es ebenfalls Bestrebungen,
die Ozeanzirkulation aus Daten für weit zurückliegende Zeiten zu ermitteln. Allerdings ist hier die räumliche Überdeckung der aus Sedimentbohrkernen gewonnenen Daten
problematisch, so dass nur qualitative und wenig quantitative
Aussagen gemacht werden können.
1
Die Bezeichnungen von Matrizen und Vektoren sind aus dem
vorangegangenen Kapitel 14 übernommen, um eine einheitliche Beschreibung beizubehalten.
Einigen Erfolg hat die „nudging“-Methode. Sie wird auch als
„Newtonian damping“ bezeichnet. Anstatt den Modellzustand zu ändern wird hier eine korrigierende Kraft auf der
rechte Seite des Gleichungssystems eingeführt. Diese Kraft
ist proportional zur Differenz zwischen Modellzustand und
Beobachtung. Das Modell wird so permanent in Richtung der
Messungen getrieben, selbst wenn die Modelldynamik dazu
nicht ausreicht.Von Nachteil beim „nudging“ ist die fehlende
Berücksichtigung von Modell- und Messfehlern.
Diese steht bei der objektiven Analyse beziehungsweise objektiven Interpolation obenan. Hier wird nach einer sorgfältigen
Feststellung der verschiedenen Fehlerkovarianzen der Analysefehler im Sinne der kleinsten Quadrate minimiert. Er
entspricht der in der Datenassimilation für die Atmosphäre
(Kapitel 14,Abschnitt 4 in diesem Heft) vorgestellten Gl. (5),
die häufig auch als Kostenfunktion bezeichnet wird:
J(X) = 1/2 [(Y–K(X))T(O+F)-1(Y–K(X))+(X–Xs)TS-1(X-Xs)].
(1)
Gesucht wird das Minimum von J(X). Ist K(X) linear so
ergibt sich als Lösung
X = [KT (O+F)-1 K+S-1]-1 [KT (O+F)-1Y+S-1Xs].
(2)
Wie man sieht spielen neben den Messdaten Y selbst deren
Messfehler O, der Repräsentationsfehler F aber auch die
Hintergrundsinformation Xs und ihr Fehler S eine Rolle. Für
den Idealfall, dass die Fehler Gauß-verteilt sind und sich
durch ihre Fehlerkovarianzmatrix vollständig beschreiben
lassen, ist die oben genannte Lösung perfekt. Sie stellt das
Maximum der Wahrscheinlichkeitsverteilung für den Modellzustand unter Berücksichtigung der Messungen dar, ist also
die wahrscheinlichste Lösung. Gleichzeitig ist sie auch das
Minimum der quadratischen Abweichungen. Die Probleme
für die Datenassimilation ergeben sich daraus, dass die Fehler
nicht wirklich bekannt sind,sondern geschätzt werden müssen.
Da außerdem die Anzahl der Modellvariablen die der Messungen weit übersteigt, stellt S eine wichtige Regularisierung
dar. Werden die Fehlerkovarianzen als zeitlich variabel
behandelt, eröffnet sich der Weg zur Kalman-Filterung.
Ein weites Feld stellen systematische Fehler dar, die man
beseitigen muss, soweit sie erkannt werden. Ausschließen
kann man sie aber nicht. Schließlich ist der Ozean ebenso wie
die Atmosphäre ein nichtlineares dynamisches System.
Kleine Fehler können mit der Zeit stark anwachsen. Iterative
Methoden wie das 4DVAR oder sequentielle Verfahren wie
zum Beispiel der Extended Kalman Filter (EKF) stellen
angemessene wenn auch aufwändige Lösungsansätze dar.
Einen Sonderfall der Datenassimilation in der Ozeanographie stellt das „Representer“-Verfahren dar.Vor dem Hintergrund, dass die Zahl der Modellvariablen die Zahl der
Messungen manchmal um mehrere Größenordnungen überschreitet, kann man die Optimierung sinnvollerweise im
Raum mit der kleineren Zahl an Unbekannten vornehmen.
Jede Messung wird durch eine eigene, individuelle Modelllösung repräsentiert. Die Gesamtlösung stellt sich dann als
promet, Jahrg. 29, Nr. 1- 4, 2003
J. Schröter: Assimilierung von Messdaten, Ozean
eine Linearkombination des Modells ohne Assimilation und
der individuellen Representerlösungen dar. Die Gewichte
der Teillösungen werden unter Berücksichtigung von Modellfehler und Messfehler berechnet. Erfolgreiche Beispiele für
das Representer-Verfahren gibt es vor allem bei der Datenassimilation in Gezeitenmodellen. In sehr ähnlicher Weise
arbeitet die Methode der Greens-Funktionen.Auch hier werden individuelle Modelllösungen zur Gesamtlösung miteinander kombiniert.
3
Heutige Methoden der Datenassimilation
Bei vielen praktischen Anwendungen konzentriert man sich
zunächst auf eine Analyse. Das Interesse besteht unmittelbar
an den dreidimensionalen Temperatur- und Salzgehaltsfeldern sowie den zugehörigen Strömungsfeldern zu einem
festen Zeitpunkt. Sie bilden eine Synthese der Beobachtungen und liefern Aussagen über nicht gemessene Eigenschaften des Ozeans.Die Analysen werden miteinander verglichen
und bilden die Grundlage zur Bewertung von Modellläufen
ohne Datenassimilation. Sie stellen außerdem häufig den
Anfangszustand für Ozeanvorhersagen dar. Operationell
dienen Analysen zum Beispiel dazu,Schallgeschwindigkeiten
im Meer zu berechnen und die Suche nach U-Booten zu
unterstützen. Die Amerikanische Marine benutzt in diesem
Zusammenhang sehr ausgefeilte Methoden der objektiven
Analyse. Neben klimatologischen Messungen als Hintergrundinformation werden aktuelle Beobachtungen von
Schiffen und von Satelliten herangezogen. Noch präziser
arbeitet der in Frankreich entwickelte „SOFA“-Algorithmus
bei der Schätzung der Korrelationen in Abhängigkeit vom
Ort sowie von Mess- und Vorhersagefehlern.
Wird jedoch ein Assimilationsverfahren verwendet, dann
meist für Radaraltimeteranomalien sowie Oberflächentemperaturen. Die Extrapolation der Messung von der Oberfläche in die Tiefe ist nicht eindeutig. Die Korrelationen
beispielsweise zwischen Radaraltimetermessungen und dem
vertikalen Temperaturprofil hängen nicht nur vom Ort sondern auch von der Jahreszeit ab.Teilweise werden empirische
Orthogonalfunktionen (EOF) aus älteren Daten geschätzt.
Entsprechend der Variabilität des Ozeans genügen oft ein bis
zwei, um über 90 % der Varianz und ihre vertikale Struktur zu
beschreiben. Die Datenassimilation berechnet dann nur die
Amplituden der notwendigen Korrekturen.Andere vertikale
Fortsetzungen von Oberflächenmessungen beruhen auf dynamischen Annahmen. So kann man beispielsweise das Dichtefeld anpassen, um eine geostrophisch balancierte Strömungskorrektur zu erhalten. Methoden, die die potentielle Vorticity
erhalten, arbeiten in einer ähnlichen Art.
Neben objektiver Analyse bilden die verschiedenen Formen
der Kalman-Filterung das Rückgrat der Datenassimilation in
der Ozeanographie. Dabei sind die praktischen Probleme die
gleichen wie in der Meteorologie. Während die Kovarianzmatrix der Messfehler O sich noch gut abschätzen lässt, gibt
es für die Fehlerkovarianzmatrix des Modellzustands S nur
unzureichende Annahmen. Diese Matrix ist so groß, dass sie
sich nicht mehr auf dem Computer speichern lässt. Wesent-
59
liche, zum Teil einschneidende Vereinfachungen müssen
vorgenommen werden. In der Wahl der Vereinfachungen und
in der Behandlung der Zeitabhängigkeit von S unterscheiden
sich die in der Praxis verwendeten Methoden.
Eine Vereinfachung besteht darin, S asymptotisch für lange
Perioden zu berechnen, und es dann als zeitlich konstant in
der Assimilation einzusetzen. Für große Modelle hat sich dies
aber nicht bewährt. Ein interessanter und zukunftsweisender
Ansatz liegt darin, S nach verschiedenen ozeanischen Prozessen aufzuteilen. Entsprechend der unterschiedlichen Geschwindigkeit der barotropen und der baroklinen Dynamik
wird die Assimilation in zwei Teile aufgeteilt. Das barotrope
S entwickelt sich schnell. Es beschreibt aber nur einen zweidimensionalen Prozess und kann vollständig berechnet werden.
Barokline Prozesse sind dreidimensional. Sie können aber
gut lokal angenähert werden, da ihre Korrelationslängen begrenzt sind. S besitzt dann eine relativ schmale Bandbreite.
Ein anderer Weg,S mit wenig Aufwand zu beschreiben,wird mit
der „Ensemble Kalman Filterung“, (EnKF) beschritten. Auch
diese Idee ist der Meteorologie entnommen. Dort werden bei
dem „Ensemble Forecast“ eine Serie von statistisch gleichwertigen Vorhersagen für den selben Termin gerechnet. Dies
bedeutet einen großen Aufwand und es werden typischerweise
nur etwa 10 verschiedene Berechnungen gemacht. Jede dieser
Vorhersagen ist gleich gut. Sie sind aber verschieden und die
Unterschiede geben uns ein Maß an, wo der Vorhersagefehler
groß und wo er gering ist. Aus den Vorhersagen lässt sich so
deren Fehlerkovarianzmatrix S abschätzen. Freilich ist diese
Schätzung recht grob, da sie nur etwa 10 Freiheitsgrade besitzt.
In der Ozeanographie werden beim EnKF typischerweise 100
bis 1000 gleichwertige Vorhersagen gemacht und daraus S
berechnet. Ein wichtiger Vorteil der Methode ist, dass auf
Linearisierungen verzichtet wird und die volle Modelldynamik
Berücksichtigung findet. Dagegen spricht der hohe Rechenaufwand. Der Ensemble-Kalman-Filter ist aber die zur Zeit
wohl erfolgreichste Assimilationsmethode der Ozeanographie.
Um den Aufwand zu vermindern,gibt es auch zum EnKF Vereinfachungen. Man kann eine einmal geschätzte Kovarianzmatrix S auch nach Singulärwerten und Singulärvektoren
zerlegen und so mit sehr wenigen Freiheitsgraden annähern.
Hierauf beruht eine ganze Serie, die sogenannten „Singular
Evolutive Ensemble Kalman“ (SEEK) Kalman-Filter-Verfahren. In zahlreichen Fällen sind sie sehr erfolgreich, insbesondere bei nahezu linearer Ozeandynamik. Die gemachten
Vereinfachungen sind jedoch teilweise umstritten und die
Methoden sind noch nicht allgemein anerkannt. Eine zusammenfassende Darstellung und ein bewertender Vergleich
von modernen Methoden der Datenassimilation im Ozean
wurde kürzlich von BRUSDAL et al. (2003) veröffentlicht.
Datenassimilation im Ozean wird zuweilen auch auf Ökosysteme
ausgedehnt. Der Lebenszyklus von Plankton wird modelliert
ebenso wie der Kreislauf von bio-geochemischen Substanzen.
In diesen Modellen gibt es verschiedene freie Parameter, die
sich nicht durch Laborexperimente messen lassen, sondern
durch Assimilation von Daten aus dem Ozean bestimmt
60
J. Schröter: Assimilierung von Messdaten, Ozean
werden müssen.Hierfür hat sich besonders ein neues Verfahren
ausgezeichnet: Der „Sequential Importance Resampling
Filter“ (SIRF) oder auch „Particle Filter“. Er ist ebenfalls eine
Ensemble Methode und ermittelt die optimalen Werte durch
eine Schätzung der Wahrscheinlichkeitsverteilung.
4
Reanalysen und Vorhersagen
Von wenigen Versuchen die regionale oder globale Zirkulation vorherzusagen abgesehen, wird die Datenassimilation
über längere Perioden zur Beschreibung der Ozeanklimas
und seiner Schwankungen genutzt. Ähnlich den großen
Analyseprojekten in der Atmosphäre wird im Ozean eine
Analyse der Messungen in Sinne einer „Nachhersage“ von
mehreren Gruppen verfolgt. Das Ergebnis wird oft als „state
estimation“ bezeichnet. Ein wichtiger Unterschied zur
Datenassimilation in der Atmosphäre besteht darin, dass für
ein Ozeanmodell die Modellbasis X als vollständige dreidimensionale Darstellung aller Modellvariablen üblicherweise
nicht ausreicht. Der Antrieb des Ozeans durch die Atmosphäre spielt immer eine wichtige Rolle. Für eine Ozeanvorhersage muss auch eine Wettervorhersage vorliegen. Gekoppelte Vorhersagen sind selten. Statt dessen werden häufig
die Wettervorhersagen der großen Zentren übernommen.
Für zurückliegende Zeiträume finden Reanalysen der Atmosphäre Verwendung. Sie werden allerdings häufig von den
Ozeanographen als zu ungenau angesehen. Kleine Abweichungen von den Reanalysen werden gewünscht, die sich im
Rahmen der Analysefehler bewegen müssen. Sie sollen dem
Ozeanmodell erlauben, näher an die gemessenen Werte zu
gelangen. Diese kleinen Abweichungen sind unbekannt und
müssen durch die Datenassimilation bestimmt werden. Sie
werden so Teil der Modellbasis, die jetzt nicht mehr nur den
dreidimensionalen Zustandsvektor des Ozeanmodells ent-
Abb. 15-1:
Oben:Der durch Datenassimilation in
das „ECCO“ Modell berechnete mittlere Wärmestrom für die Jahre 1993 bis
2000. Unten: Die Abweichung des
optimierten Wärmestroms von den
entsprechenden Berechnungen aus
den Atmosphäre-Reanalysen vom
NCEP. Alle Zahlenagaben in W/m2.
Die Abweichungen sind besonders
deutlich in den Randströmen.
promet, Jahrg. 29, Nr. 1- 4, 2003
hält, sondern auch noch Zeitserien von zweidimensionalen
Antriebsfeldern. In extremen Fällen, wie bei dem ECCOProjekt (STAMMER et al. 2003), erhöht sich so die Zahl der
Unbekannten auf die Größenordnung von atmosphärischen
Modellen. Üblicherweise liegt sie aber deutlich darunter.
Ein interessantes Ergebnis der Assimilation im Ozean ist damit
eine ozeanseitige Abschätzung des Austauschs zwischen Atmosphäre und Ozean. Diese Größen lassen sich nur schwer messen
und stellen für Ozeanmodelle einen erheblichen Unsicherheitsfaktor dar. Diskrepanzen zwischen Berechnungen aus Atmosphärenmodellen und Ozeanmodellen, wie sie in Abb. 15-1
dargestellt werden, deuten auf systematische Unterschiede hin.
In gekoppelten Modellen führen Diskrepanzen in den Flüssen
zu den bekannten Problemen einer langsamen Klimadrift.
An dieser Stelle ist Vorsicht geboten. Die durch Datenassimilation in den Ozean berechneten optimalen meteorologischen
Felder sind nicht notwendig besser als die entsprechenden
Reanalysefelder aus den Wettervorhersagezentren. Sie sind
lediglich optimal geeignet, das Ozeanmodell zu verbessern.
Dabei können sie auch dazu dienen, systematische Fehler des
Ozeanmodells zu kompensieren. Ein typisches Beispiel wäre
hier die Ablösung des Golfstroms an der Amerikanischen
Küste bei Kap Hatteras.In fast allen Ozeanmodellen bleibt der
Golfstrom zu lange an der Küste und verlässt sie damit zu weit
nördlich. Im Vergleich zu den Messungen sind dann die
modellierten Temperaturen zu hoch und dieser Fehler lässt
sich durch Abkühlen verringern.Weiter östlich kommt nun der
Golfstrom im Modell in die Region, in der er auch beobachtet
wird. Allerdings ist er durch die vorangegangene „Korrektur“
nun zu kalt geworden und er wird in einer zweiten Anpassung
der Wärmeflüsse auf seine richtige Temperatur aufgeheizt.
Diese Prozedur verbessert die modellierten Temperaturen im
Ozean. Die optimierten Wärmeflüsse sind dort aber aus
meteorologischer Sicht systematisch falsch.
promet, Jahrg. 29, Nr. 1- 4, 2003
J. Schröter: Assimilierung von Messdaten, Ozean
Bei der Datenassimilation über lange Zeiträume steht häufig
nicht die Beschreibung der Ozeanzirkulation in Raum und
Zeit im Vordergrund. Hauptanliegen ist es dann, verschiedene Prozesse im Ozean zu verstehen, sie einzuordnen und
ihre relative Bedeutung zu ermitteln. Das eben vorgestellte
ECCO-Modell ist ein Beispiel dafür. Für diese Fragen ist es
notwendig, konsistente Assimilationsmethoden anzuwenden.
Re-initialisierungsmethoden wie sie die objektive Analyse
bietet oder auch der Kalman-Filter dem Modell zu jedem
Analysezeitpunkt einen kleinen Initialisierungsschock, ein
Problem das aus der Meteorologie wohlbekannt ist. Problematischer als kleine dynamische Anpassungen ist in diesem
Zusammenhang, dass Wärme, Salz und Spurenstoffe auf eine
Art geändert werden, die keinem Ozeanprozess entspricht.
Für Klimafragen ergibt sich, dass nicht nur die Ozeandynamik, sondern auch die Assimilationstechnik zu Stofftransporten, Wassermassentransformationen usw. führt. Die beiden
konkurrierenden Prozesse voneinander zu trennen ist nicht
einfach.Aussagen über die Vorgänge im Ozean und nicht nur
im Modell werden damit erschwert. Als Ausweg bieten sich
hier Glättetechniken an, die auch formal noch in der Zukunft
liegende Daten berücksichtigen und insgesamt zu einem
glatten Modellverlauf auch während der Analysezeitpunkte
führen. Eine der prominentesten Methoden, die 4-dimensionale Variationsanalyse (4DVAR), ist ein solches Glätteverfahren und daher gebräuchlich für ozeanische Reanalyseprojekte. Die in diesem Artikel gezeigten Beispiele sind alle
mit 4DVAR erzielt worden.
61
ozeanische Entsprechung, der Wärmetransport innerhalb des
Ozeans selbst, wird in Abb. 15-2 gezeigt. Dargestellt wird der
zonal gemittelte, meridionale Transport. In diesem HovmöllerDiagramm sieht man den Transport in Abhängigkeit von der
Breite und von der Zeit. Die Wärme wird in beiden Hemisphären im Mittel polwärts transportiert. Stark ausgeprägt ist der
Jahresgang zwischen dem Äquator und etwas 20° Nord. In
diesem Bereich treten auch die stärksten zwischenjährlichen
Schwankungen beispielsweise durch El Niño/Southern Oszillation auf. Unser Ergebnis wird wesentlich durch die Altimetermessungen von TOPEX/Poseidon mitbestimmt und führt so zu
einer Interpretation der Satellitendaten in Hinsicht auf lokale
Wärmespeicherung und auf globale Transporte.
Unser drittes Beispiel haben wir aus dem Bereich der Klimaanalyse gewählt. Im Zusammenhang mit dem Anstieg des globalen Meeresspiegels stellt sich die Frage, wie die Beobachtungen an Pegeln und neuerdings aus Radaraltimetrie erklärt werden können. Ein Hauptgrund wird in einem Anstieg der mittleren Temperatur des Ozeans gesehen,der zu einer Vergrößerung
des Ozeanvolumens geführt hat. Als zweite Ursache wird eine
Zunahme der Ozeanmasse durch einen Überschuss an Niederschlag sowie vermehrten Eintrag durch Flüsse und schmelzendes Inlandeis gegenüber der Verdunstung angesehen.Der Rückgang der alpinen Gletscher spricht für diesen Mechanismus.
Die Bestimmung von Kenngrößen des Ozeans, insbesondere
von nicht direkt messbaren Transporten, ist auch das wesentliche Ziel der Datenassimilation in das globale Zirkulationsmodell des Alfred-Wegener-Instituts (AWI). Wir wenden die
adjungierte Methode an,um konsistente Transportschätzungen
zu erhalten. Ähnlich wie beim gezeigten ECCO berechnen wir
einen optimalen Wärmeaustausch mit der Atmosphäre. Die
Mit Hilfe eines globalen Ozeanmodells, das eine freie Oberfläche besitzt, wollen wir die verschiedenen Prozesse verstehen
und insbesondere lokale und globale Effekte voneinander
trennen. Das Modell tauscht Masse mit seiner Umgebung über
Verdunstung, Niederschlag und Zuflüsse aus. Sterische Ausdehnung durch Variationen von Temperatur und Salzgehalt
führen zu Volumenänderungen, Salz bleibt dagegen streng
erhalten. Für das Modell wurden durch Datenassimilation
optimale mittlere atmosphärische Antriebe berechnet. Dieser
Schritt stellt eine Art Fluss-Korrektur dar. Das Ozeanmodell
erhält so einen realistischen und konsistenten Jahresgang, der
Abb. 15-2: Hovmöller-Diagramm (Breite-Zeit-Diagramm) des meridionalen Wärmetransports im Pazifischen Ozean. Dargestellt ist das Ergebnis des globalen Datenassimilationsmodells des AWI für eine Periode von 9 Jahren. Die Einheit
ist PW (1015 W). Gut sichtbar sind der Jahresgang und die
zwischenjährlichen Schwankungen. Besonders ausgeprägt
sind die Signale während El Niño.
Abb. 15-3: Zeitliche Entwicklung des über den Nordatlantik gemittelten Meeresspiegels für die Jahre 1950 bis 2000. Schwarz:
Ergebnis einer Modellrechnung nach Datenassimilation.
Grün:Meeresspiegelschwankungen,die sich durch sterische
Ausdehnung aus Änderungen von Temperatur und Salzgehalt ergeben. Rot: Änderungen durch Abfließen in andere
Meeresgebiete. Blau: Von TOPEX/Poseidon gemessene
Variationen für den Nordatlantik.
62
J. Schröter: Assimilierung von Messdaten, Ozean
nahe an den Beobachtungen liegt. Über 50 Jahre wird das
Modell nun zusätzlich mit Anomalien der NCEP-Reanalysen
angetrieben. Ohne Datenassimilation hätten Trends im Modell
eine korrekte Analyse erschwert, wenn nicht verhindert. Oder
man hätte das Modell über mehrere tausend Jahre rechnen
müssen, was zu einer unrealistischen Temperatur- und Salgehaltsverteilung führt und damit die Analyse entwertet.
Eine Beschreibung der Prozesse,die den Meeresspiegel im Nordatlantik zwischen 30° und 60° Nord beeinflussen,wird in Abb.15-3
vorgenommen. Die schwarze Linie stellt den mittleren Meeresspiegel dar.Der Jahresgang ist ausgeprägt,wird aber unterschätzt,
was sich am Vergleich mit gemessenen Werten von TOPEX/Poseidon (blau) überprüfen lässt. Die Zunahme der Temperaturen im
Nordatlantik dehnt das Meeresvolumen aus (grün) und zeigt
einen starken positiven Trend. Ein Teil des Anstiegs ist aber auch
durch verstärkte Tiefenwasserbildung mit relativ schwächer salzhaltigem Wasser zu erklären. Große zwischenjährliche Schwankungen ergeben sich aus der Massenbilanz, wobei das Abfließen
in andere Ozeanregionen klar überwiegt.
5
GODAE
Einen wesentlichen Schritt in Richtung auf eine operationelle Ozeanvorhersage wird mit dem Global Ocean Data
Assimilation Experiment (GODAE) unternommen. Hierzu
hat sich eine große Gemeinschaft von Gruppen und Instituten
zusammengefunden. Schon jetzt arbeiten einzelne Gruppen
mit operationellen oder prä-operationellen Ozeanvorhersagen. Zur Zeit sind jedoch die meisten noch regional
angelegt. Ziel von GODAE ist es, globale Vorhersagen von
vielen Seiten mit verschiedenen Methoden und verschiedenen Ozeanmodellen zu erzielen. Erfahrungen werden
ergeben, welche Methoden, Daten und Modelle vorteilhaft
sind. Damit soll der Weg zu einem dem Europäischen Wettervorhersagezentrum EZMW entsprechenden Ozeanvorhersagezentrum geebnet werden.
Die erste Phase in GODAE in den Jahren 2003 bis 2005 stellt
eine Machbarkeitsstudie dar. In der zweiten Phase von 2005
bis 2007 werden sich Gemeinsamkeiten entwickeln, es soll
eine Konvergenz in der Vorgehensweise erzielt werden und
der Übergang zu regulären globalen Ozeanvorhersagen
erfolgen. Systematische Verbesserungen in der Modellierung,
bei effizienten Assimilationsalgorithmen und in der routinemäßigen Datenbasis werden angestrebt. Zunächst müssen
jedoch Voraussetzungen geschaffen werden, die Meteorologen selbstverständlich vorkommen. Datenzentren müssen
entstehen, die allen Beteiligten sofortigen Zugang zu allen
Messungen ermöglichen. Die Datenströme zu den Zentren
und von diesen zu den Nutzern sind sicherzustellen. Hier sind
die Ozeanographen unserer Zeit noch weit hinterher. Das
unmittelbare Veröffentlichen der Assimilationsergebnisse im
Internet ist bis heute noch keine Selbstverständlichkeit.
Innerhalb von GODAE steht das oben erwähnte ARGOSystem hoch auf der Liste der Prioritäten. Ohne ein solches
Messprogramm wäre GOADE kaum denkbar. Schon in
kurzer Zeit wird ARGO unser Verständnis für den tiefen
promet, Jahrg. 29, Nr. 1- 4, 2003
Ozean erheblich verbessern. In den frühen Jahren der Beobachtung des Ozeans von Satelliten aus hat sich das Weltbild
der Ozeanographen entscheidend verändert. Vieles, was uns
heute selbstverständlich erscheint, wurde erst in dieser Zeit
für alle offenbar. Die Möglichkeit durch Messung und Datenassimilation in GODAE mehr über den tiefen Ozean zu
lernen ist aufregend und faszinierend. So kommen wir verlässlicheren jahreszeitlichen Vorhersagen und glaubhaften
Klimavorhersagen näher.
6
Ausblick
Anspruchsvolle Ansätze zur Datenassimilation im Ozean haben
in der Vergangenheit unterschiedliche Wege beschritten. Der
eine Weg stützt sich auf eine immer bessere und aufwändigere
Beschreibung der Ozeanzirkulation in Kombination mit einfachen Assimilationsmethoden. Komplementär dazu ist der
Ansatz, sehr komplexe und rechenintensive Assimilationsverfahren auf Ozeanmodelle mit grober Auflösung oder anderen
Vereinfachungen anzuwenden. Im Verlauf von GODAE
werden sich diese Wege einander annähern. Zur Kurzfristvorhersage des Ozeans für ein bis zwei Wochen können wir ausgereifte Modelle mit relativ guter räumlicher Auflösung und
hochentwickelten Assimilationsverfahren erwarten.
Wichtige Fragen der Klimatologie oder des Verständnisses von
Ozeanprozessen lassen sich aber nur durch Reanalysen über
lange Zeiträume klären. Ähnlich gelagert ist die mittelfristige
Ozeanvorhersage zum Beispiel für El Niño oder zur Unterstützung der Wettervorhersage. Für diese Klasse von Problemen wird die Zweiteilung der Datenassimilation noch lange
bestehen bleiben. Das Schwergewicht liegt dann alternativ
auf der Qualität des Ozeanmodells oder auf der Assimilationsmethode.Auf beiden Wegen sind noch viele interessante
Aufgaben zu lösen. Schließlich gilt in der Ozeanographie wie
in der Meteorologie, dass Messungen unersetzlich sind.Trotz
Fernerkundung und automatischen Messsystemen die immer
wichtiger werden, kann man auch in Zukunft auf den
gezielten Einsatz von Forschungsschiffen nicht verzichten.
Literatur
BEHRENS, A., 2002: Seegangsvorhersage, Promet 28, H 1/2, 17-23.
BRUSDAL, K., J. M. BRANKART, G. HALBERSTADT, G. EVENSEN, P. BRASSEUR, P. J. VAN LEEUWEN, E. DOMBROWSKY,
J. VERRON, 2003: A demonstration of ensemble based assimilation
methods with a layered OGCM from the perspective of operational
ocean forecasting systems, J. Mar. Syst, Proof online verfügbar.
STAMMER, D., C. WUNSCH, R. GIERING, C. ECKERT, P. HEIMBACH, J. MAROTZKE,A.ADCROFT, C. N. HILL, J. MARSHALL,
2003: Volume, Heat and Freshwater Transports of the Global Ocean
Circulation 1993-2000, Estimated from a General Circulation Model
Constrained by WOCE Data, J. Geophys. Res., 108, C1, 3007 doi:
10.1029/2001 JC 001115.
WENZEL, M., J. SCHRÖTER, D. OLBERS, 2001: The annual cycle of
the global ocean circulation as determined by 4D VAR data assimilation, Progress in Oceanography 48, 73-119.
Herunterladen