55 promet, Jahrg. 29, Nr. 1- 4, 55-62 (Juni 2003) © Deutscher Wetterdienst 2003 J. SCHRÖTER 15 Assimilierung von Messdaten, Ozean 1 Einleitung Mit Datenassimilation bezeichnen wir eine Synthese aus gemessenen Daten und Modellen. Ziel ist es, die Messungen besser zu verstehen, sie in einen größeren Zusammenhang zu stellen und so optimal auszunutzen. Es geht darum, Modelle näher an die Wirklichkeit zu führen und so die Prozesse im Ozean besser zu verstehen und gegebenenfalls auch vorherzusagen. Ein besonderes Anliegen ist, nicht direkt beobachtete Größen zu bestimmen. So ist zum Beispiel die Berechnung von Strömungen und Transporten aus einer gemessenen Dichteverteilung eine typische Aufgabe in der Ozeanographie. Als Modell dient hier das geostrophische Gleichgewicht zwischen der Coriolis- und der Druckgradientkraft. Diese einfache Anwendung wird man noch als Diagnose und nicht als Datenassimilation bezeichnen, denn dazu gehört, dass Fehler in den Messungen und auch im Modell berücksichtigt werden. In den vergangenen Jahren hat die Ozeanographie erhebliche Fortschritte bei der Modellierung gemacht. Einzelne Prozesse sind inzwischen gut verstanden und können erfolgreich modelliert werden. Die relative Bedeutung dieser in der Natur gleichzeitig ablaufenden Prozesse muss aus Messungen bestimmt werden.Datenassimilation wird eingesetzt,um die Messungen zu interpolieren, gegebenenfalls zu korrigieren aber auch zu extrapolieren. In einer Synthese wird eine mit den Daten und mit der Modelldynamik konsistente Zirkulation bestimmt. Mess- und Modellfehler werden so reduziert. Die Synthese stellt die Bedeutung einzelner Prozesse fest. Sie erlaubt die Berechnung von Parametern,die nicht gemessen wurden oder solchen die schlecht messbar sind wie zum Beispiel Wärme- und Stofftransporte. Datenassimilation im engeren Sinn setzt ein zeitabhängiges Modell und zeitabhängige Daten voraus. Die Assimilation erstreckt sich über einen gewissen Zeitraum. Ist das benutzte Modell zeitunabhängig und wird mit gemittelten Daten kombiniert, so sprechen wir von inverser Modellierung. Atmosphäre und Ozean gleichen sich in zahlreichen Eigenschaften. Insbesondere ihre Beschreibung mit mathematischen Gleichungen, die auf Rechnern gelöst werden, fußt auf den selben Grundlagen. Es ist daher leicht verständlich, dass in der Meteorologie und der Ozeanographie die Assimilierung von Messdaten in numerische Modelle sehr ähnlich ist.Die zugrundeliegende Theorie und ihre mathematische Umsetzung ist einheitlich. Dies geht so weit, dass in einzelnen Fällen sogar ein Computercode geeignet sein kann, um alternativ meteorologische Messungen in atmosphärische Modelle oder ozeanographische Messungen in Modelle des Ozeans zu assimilieren. Bei soviel Gemeinsamkeit kann dieses Kapitel unmittelbar auf das vorangegangene über die Assimilierung von Daten in der Meteorologie Bezug nehmen und auf ihm aufbauen. Die Bezeichnungen von Zustandsvariablen, Kovarianzmatrizen und Verfahren sind die gleichen.Auf die inhaltlichen Parallelen wird Wert gelegt.Es wird aber auch in weiten Teilen um die Unterschiede im Detail gehen, die für die Praxis große Bedeutung haben. Historisch gesehen hinkt die Assimilierung von Messdaten im Ozean im Vergleich zur Atmosphäre deutlich hinterher. Hierfür gibt es eine ganze Reihe von Gründen:Der wichtigste dürfte sein, dass der wirtschaftliche Nutzen einer durch Datenassimilation gestützten Ozeanvorhersage geringer ist, als der der Wettervorhersage. Sturmflutvorhersage und Wasserstandsvorhersage bilden hier positive Ausnahmen.Sie sind gut entwickelt gegenüber einer noch in den Anfängen steckenden globalen Ozeanvorhersage.Ein großes Hemmnis stellte das traditionelle Weltbild der Ozeanographen dar.In ihren Köpfen war lange die Sichtweise von Ozeanströmungen im stationären Gleichgewicht verankert. Diese Vorstellung hat auch die Planung des „World Ocean Circulation Experiments“ (WOCE) geprägt. In den vergangenen zehn Jahren wurde mit einem sehr großen Aufwand an Personal und an Forschungsschiffen vor allem ein Wassermassenzensus, also eine Bilanzierung der Temperaturund Salzgehaltsverteilung im Ozean, gemessen. Einer der führenden Ozeanographen der vergangenen 50 Jahre, Walter Munk,geht in seiner Charakterisierung der Ozeanographie des 20. Jahrhunderts so weit zu sagen, es handele sich um ein Jahrhundert von systematisch fehlenden Messungen (a century of undersampling). Es war in der Tat lange verpönt, an einem Ort mehr als einmal zu messen, weil man dort prinzipiell nichts Neues erwartete. Vor diesem Hintergrund gibt es in der Ozeanographie zahlreiche,hochentwickelte Inversmodelle.Sie beschreiben eine zeitunabhängige Ozeanzirkulation, die dynamische Gleichgewichte erfüllt, Wärme und Volumen im Sinne der kleinsten Quadrate erhält und die Messungen gut wiedergibt. Diese Modelle haben nach wie vor starke Verbreitung. Sie werden als klimatologische Beschreibungen verstanden. Ihre Grenzen liegen jedoch auf der Hand. Vor allem Satellitenmessungen der Oberflächentemperatur sowie der Ozeanoberflächenauslenkung haben deutlich gemacht, dass das Meer nicht nur bei den Gezeiten und beim Jahresgang, sondern auf allen Zeitskalen eine große Variabilität aufweist. Eines der hervorragenden Ergebnisse von WOCE war es zu zeigen, dass nicht nur Golfstrom und Kuroschio mäandern und sich dort gelegentlich Ringe abschnüren oder mit der El Niño – Southern Oszillation (ENSO) großräumige Fluktuationen im Pazifik auftreten. Vielmehr weist die allgemeine Zirkulation überall turbulente und bisweilen chaotische Schwankungen auf. Kurzum,es wurden die Ähnlichkeiten zwischen der ozeanischen und der atmosphärischen Zirkulation nachgewiesen. Zum richtigen Verständnis ihrer Messungen sollten Ozeanographen daher auf die Erfahrungen aus der Meteorologie zurückgreifen. Andererseits ist die Ozeanographie auf zwei Gebieten auf einem erstklassigen Stand. Die Vorhersage von Gezeiten gelingt glo- 56 J. Schröter: Assimilierung von Messdaten, Ozean bal mit einer verblüffenden Genauigkeit. Während die Dynamik der Gezeiten und ihre erzeugenden Kräfte sehr gut verstanden sind, gibt es Probleme bei der genauen Beschreibung der Reibung. Auch ist die exakte Form der Ozeanbecken, die einen Einfluss auf das Resonanzverhalten hat,nicht ausreichend genug vermessen.So spielt dabei selbst das Profil der Unterseite von schwimmenden Schelfeisschilden eine Rolle. Die guten Ergebnisse der Tidenmodellierung beruhen daher auch auf der Datenassimilation von Gezeitenpegeln und von Satellitenaltimetermessungen. Ferner wird mit der Modellierung und der Vorhersage von globalen Seegangsfeldern ein für die Schifffahrt wichtiger Dienst angeboten, der natürlich auch auf die Wettervorhersage angewiesen ist.Die Seegangsmodellierung wurde in einem eigenen Beitrag von BEHRENS (2002) in einem früheren Heft von promet (Jahrgang 28,Heft 1/2,Kapitel 10) ausführlich dargestellt. Der ebenfalls wichtige Eisdienst beschränkt sich bisher vor allem auf die sorgfältige Auswertung von Messdaten ohne Datenassimilation in prognostische Modelle. Nach diesem kurzen Blick in die Vergangenheit soll im Folgenden über den Stand der Forschung berichtet werden.Die zugrunde liegende Philosophie der Datenassimilation sowie die mathematische Beschreibung verschiedener Methoden ist schon im vorangegangenen Kapitel zur Assimilation von Daten in der Atmosphäre dargestellt worden.Wir beziehen uns auf diese Arbeit und werden vor allem auf die Unterschiede zwischen Atmosphäre und Ozean eingehen. Sie werden vor allem in der Datengrundlage, der Zielsetzung und in den Zeitskalen deutlich. Ozeanmodelle und Assimilationsmethoden haben sich parallel zur Entwicklung der Computertechnik verbessert. Geradezu revolutionär ist dagegen der Fortschritt bei den Messungen, der die Ozeanographie tiefgehend beeinflusst und ungeahnte Möglichkeiten eröffnet. Auf neuartige Messtechniken wird daher ausführlich eingegangen. Nach dem Stand der Technik werden einige Ergebnisse vorgestellt, die gerade in Bezug auf die Meteorologie interessant sind. Abschließend geben wir einen Ausblick auf das „Global Ocean Data Assimilation Experiment“ GODAE, bei dem in den kommenden Jahren die weltweit führenden Gruppen auf dem Gebiet der Datenassimilation im Ozean zusammenarbeiten. 2 Stand der Forschungen Methodische Fragen der Datenassimilation sind häufig aus der Meteorologie beziehungsweise der Kontrolltheorie übernommen worden. Es herrscht eine weitgehende Übereinstimmung zwischen Ozeanographen und Meteorologen. Der Stand der Forschung richtete sich traditionell in erster Linie nach den Rechnerressourcen, die zur Verfügung standen. Da diese in den letzten Jahren stark verbessert wurden, treten inzwischen mehr die Unterschiede in den verschiedenen Assimilationsmodellen zu Tage.Hauptmerkmal zur Unterscheidung sind aber zur Zeit die Messungen, die zur Assimilation genutzt werden. Hier schreitet die Entwicklung rasch voran und wir können gute Fortschritte in der Zukunft erwaren. Ein schneller und kostenloser Zugang zu den Messungen und zu Wettervorhersagen war bisher nicht immer gegeben. Dies wird sich im Rahmen des Global Ocean Data Assimilation Experiment noch entscheidend verbessern. promet, Jahrg. 29, Nr. 1- 4, 2003 2.1 Die Messdaten In der Art und der Verfügbarkeit der Messdaten unterscheiden sich Meteorologie und Ozeanographie stark voneinander. Das liegt zum einen in der Langsamkeit, mit der sich das Wetter im Ozean im Vergleich zu dem der Atmosphäre entwickelt.Zum anderen ist das gesellschaftliche Interesse an einer guten Wettervorhersage größer als an der Ozeanvorhersage. Entsprechend ist die ozeanographische Gemeinde zahlenmäßig kleiner als die meteorologische. Der hohe finanzielle und zeitliche Aufwand für Forschungsschiffe beeinflusst darüber hinaus die Datenbasis. Traditionelle hydrographische Messungen erfordern Wasserproben aus verschiedenen Tiefen, die von Forschungsschiffen aus in zeitraubender Arbeit gewonnen werden. Die Mehrzahl der Ozeanographen halten einen in situ-Datensatz für „synoptisch“, wenn er innerhalb von wenigen Monaten gemessen wurde. Der sich hier offenbarende Datenmangel hat seine Ursache darin, dass der Ozean weitgehend undurchsichtig ist. Das Licht dringt nicht ausreichend ins Meer ein und erlaubt uns nicht, von der Oberfläche aus den tiefen Ozean zu beobachten. Nur für Schallwellen ist das Meer gut durchlässig. Dies nutzt die Schifffahrt mit dem Echolot zu Messung der Wassertiefe. Spezielle Echolote, die „Acoustic Doppler Current Profiler“ (ADCP), sind geeignet, die Strömung unterhalb des Schiffs bis in einige hundert Meter Tiefe zu messen. Es ist auch möglich, die Meerestemperatur über große Strecken akustisch zu messen. Dies geschieht bisher jedoch nur in Einzelfällen, da von manchen Gruppen ein negativer Einfluss des Unterwasserschalls auf die Meeressäugetiere befürchtet wird. In einigen Experimenten konnte gezeigt werden, dass regional mit Schallwellen eine akustische Tomographie möglich ist. Darin wird kontinuierlich die dreidimensionale Verteilung der Schallgeschwindigkeit und damit im Wesentlichen die Temperaturverteilung abgebildet. Die akustischen Methoden sind technisch weit entwickelt, sie haben sich aber noch nicht allgemein durchgesetzt. Den standardmäßigen Flugzeugmessungen der Meteorologie entsprechen in gewisser Weise Messungen von Handelsschiffen. Mit „expendable bathythermographs“, den XBT’s, wird das vertikale Temperaturprofil der obersten Wasserschichten mehrmals am Tag entlang der Schiffsroute bestimmt. Diese Messungen werden über das Datennetzwerk der WMO (GTS) verbreitet. Ozeanographische Stationen sind in den letzten Jahren rar geworden. Die Wetterdienste verzichteten auf Wetterschiffe, die für die Ozeanographie unschätzbare Zeitreihen von Temperatur und Salzgehalt aus allen Tiefen gewissermaßen als Nebenprodukt gemessen haben. Das Ende dieser Messserien bedeutet einen schweren Verlust für die Meeres- und die Klimaforschung. Nur im tropischen Pazifik wird wegen der Bedeutung der El Niño – Southern Oszillation ein permanentes Messnetz von Bojen und Pegeln seit mehreren Jahren betrieben. Ein Messnetz für den tropischen Atlantischen Ozean befindet sich im Aufbau. Weitere traditionelle Messungen werden mit Verankerungen gewonnen. In verschiedenen Wassertiefen werden Strömungsmesser, Temperatur- und Salzgehaltssensoren verankert und promet, Jahrg. 29, Nr. 1- 4, 2003 J. Schröter: Assimilierung von Messdaten, Ozean nach einer Messdauer von Wochen bis zu einem Jahr geborgen.Die Datenauswertung zieht sich durch sorgfältiges Nacheichen der stark beanspruchten Geräte in die Länge, so dass diese traditionellen Messungen vor allem der Bestimmung der Klimatologie und nicht dagegen eines aktuellen Zustands des Ozeans dienen. Um diese Nachteile zu überwinden, wurde eine großes Programm mit autonomen, profilierenden Tiefendriftkörpern unter der Bezeichnung ARGO begonnen. Die Drifter treiben in einer einstellbaren Wassertiefe von typischerweise 2000 m für zehn Tage mit der Tiefenströmung. Sie tauchen anschließend auf und messen beim Aufstieg ein Temperatur- und Salzgehaltsprofil.An der Wasseroberfläche wird ihre Position über Satellitentelemetrie bestimmt und sie senden ihre aktuellen Messdaten ebenfalls per Satellit an die Datenzentren. Sie entsprechen damit einem Radiosondensystem mit variablen Messorten. Nach Absetzen ihrer Messdaten tauchen die Driftkörper wieder für zehn Tage in die Tiefe ab und der Zyklus beginnt von vorn. In den kommenden Jahren werden über 3000 solcher ARGO-Drifter eine Fülle von neuen Messdaten aus den mittleren und oberen Schichten des Ozeans liefern und Aufschluss über das schwer zu erfassende Strömungsfeld bieten. Wegen der kleinräumigen Strukturen der Wirbel im Ozean sind die vorgesehenen Drifter nicht in der Lage, ein vollständiges synoptisches Abbild des Wirbelfeldes zu liefern. Eine dafür ausreichende Anzahl von Driftern ist wegen der relativ hohen Kosten nicht in Sicht. An dieser Stelle hat die Datenassimilation die entscheidende Rolle, die Messdaten richtig einzuordnen und so optimal zu nutzen. Die genannten Daten werden in ihrer Anzahl und Überdeckung bei weitem von globalen Fernerkundungsmessungen übertroffen. Niedrig fliegende Satelliten messen die Oberflächentemperatur und -farbe des Meers. Mit aktiven und passiven Mikrowellensensoren werden Wellenhöhe und Oberflächenrauigkeit gemessen und daraus Windstärke und -richtung bestimmt.Eine der wichtigsten Messungen wird mit Radaraltimetern gewonnen. Entlang der Satellitenspur wird wie mit einem Gezeitenpegel der Wasserstand gemessen. Der Wasserstand beeinflusst über das Druckfeld unmittelbar das dreidimensionale Strömungsfeld im Ozean. Das Messnetz des Altimeters ist sehr grobmaschig und es müssen stets mehrere Satelliten kombiniert werden, um zu einer befriedigenden Überdeckung zu gelangen. An einer Verbesserung der Datendichte durch eine Vielzahl von preiswerten Kleinstsatelliten wird gearbeitet. Eine weitere zukünftige Methode hierzu führt über die Reflexion von elektromagnetischen Wellen an der Meeresoberfläche auf dem indirekten Weg zwischen zwei Satelliten. Auch an abbildenden Radarhöhenmessungen wird gearbeitet. Die Satellitenaltimetrie wird ergänzt durch Messungen des Schwerefeldes von Satelliten und der Erdoberfläche aus.Aus diesen Daten wird das Geoid, eine Äquipotentialfläche, die als Referenz dient, berechnet.Altimeterdaten können darauf bezogen werden und dienen dann als Messung der freien Oberflächenauslenkung des Ozeans, die sonst nur schwer zu bestimmen ist. Die Bedeutung dieser Messungen, die in etwa dem Bodendruck in der Meteorologie entspricht, ist kaum zu 57 überschätzen. Heutige Geoide sind allerdings auf Längenskalen von unterhalb 2500 km stark fehlerbehaftet. Die „absolute Altimetrie“, also auf das Geoid bezogen und nicht nur als Anomalie zu einem unbekannten Mittelwert genommen, findet daher bislang kaum Verwendung in der Ozeanographie. Neue Satellitenmissionen der Geodäsie lassen aber auf einen gewissen Durchbruch hoffen. Mit dem Satelliten GOCE der ESA, dessen Start 2006 vorgesehen ist, werden im Geoid auch Längenskalen von wenigen hundert Kilometern brauchbar. Das gemessene, hochauflösende Geoid kann später auch als Referenz für die Altimeterdaten der vergangenen 20 Jahre herangezogen werden. Für die Ozeanographie erschließt sich dann ein enormer Datenreichtum. Vor allem auf dem Gebiet der mittleren Ozeanzirkulation wird für die Klimatologie ein bedeutender Fortschritt erwartet. Die geodätischen Satelliten sind auf großen Längenskalen ausgesprochen sensitiv. Sie werden Massenveränderungen an der Erdoberfläche erkennbar machen, die aufgrund von Schwankungen des Grundwasserspiegels, der Schneebedeckung und des Volumens von Inlandeis entstehen.Neben der Möglichkeit, auch tiefgehende Veränderungen der Ozeanzirkulation zu messen, werden die größten Fortschritte dieser neuen Missionen für den hydrologischen Zyklus erwartet. Die Ergebnisse sind daher unmittelbar für die Meteorologie nutzbar. Schließlich lassen sich auch Verdunstung und Niederschlag über dem eisfreien Meer durch Fernerkundung messen. Diese sehr schwer zugängliche Größe stellt einen wesentlichen Faktor im Antrieb der Ozeanzirkulation dar.Sie musste bisher aus Wettervorhersagemodellen oder Reanalysen entnommen werden und wurde als zu unzuverlässig betrachtet. Die neuen Messungen zeigen, wie kleinräumig und intensiv Niederschlag sein kann. Mit der zunehmenden Länge der Datenserien und Verbesserungen in den Auswertungsalgorithmen wird sich diese Datenquelle mehr und mehr durchsetzen. Messungen der Oberflächentemperatur von Satelliten aus ist mit Infrarotverfahren sehr gut möglich. Leider behindern Wolken oft die freie Sicht, so dass Karten der Temperatur aus vielen verschiedenen Satellitenüberflügen zusammengestellt werden. Mikrowellenverfahren, die wetterunabhängig sind, spielen nur zur Erkennung der Windstärke und -richtung eine wesentliche Rolle. Die Möglichkeit auch den Salzgehalt vom Weltraum aus zu messen, wird von neuen Satellitenmissionen verfolgt. Wie genau und wie aussagekräftig die Ergebnisse sein werden, lässt sich aber noch schlecht abschätzen. In der Eisfernerkundung hat sich die Methode bewährt, durch Mustererkennung Verschiebungsgeschwindigkeiten zwischen zeitlich auseinanderliegenden Bildern zu berechnen, ähnlich wie dies auch für Wolken geschieht. Eine entsprechende Technik, auch aus den Mustern von Trübstoffen oder biologischen Beimengungen Verwirbelungen im Ozean genau zu beschreiben, steht noch aus. Für kleinräumige Phänomene wäre dies aber durchaus interessant. Insgesamt muss man festhalten, dass es trotz der genannten Fülle von verschiedenen Messsystemen nicht gelingt, den Ozean umfassend zu beobachten. Der Direktor des WeltOzean-Datenzentrums, Sydney Levitus, bezeichnet das Meer als das am schlechtesten beobachtete System auf der Erde. 58 J. Schröter: Assimilierung von Messdaten, Ozean promet, Jahrg. 29, Nr. 1- 4, 2003 2.2 Traditionelle Assimilationsmethoden Wie in der Meteorologie müssen die Messungen vor der Assimilation genau geprüft werden. Die Frage nach groben Fehlern beziehungsweise der Konsistenz mit anderen Messwerten ist oft schwer zu beantworten. Die geringen Korrelationslängen im Ozean bedeuten, dass eine Messung nur für ein kleines Ozeanvolumen repräsentativ ist. Dies wird in der Kovarianzmatrix O(1) (s. Gl.(2) im Kapitel 14) mathematisch ausgedrückt. Große Unterschiede in Messwerten sollten daher nicht überraschen und bedeuten nicht automatisch Messfehler. Die Bedeutung von Beobachtungsfehlern ist relativ gering. Die Meßsysteme arbeiten im Allgemeinen recht genau. Viel entscheidender ist der Repräsentationsfehler F, der angibt, ob das Modell prinzipiell in der Lage ist, den gemessenen Prozess zu beschreiben.Angesichts der vielen Vereinfachungen, die in einem Ozeanmodell gemacht werden müssen, überwiegt dieser Fehler deutlich alle anderen. Die in der Vergangenheit erfolgreich eingesetzten Methoden zeichnen sich in erster Linie durch einen überschaubaren Rechenaufwand aus. Die einfachste Assimilation, das simple Ersetzen von Modellwerten durch Messdaten, hat sich nicht bewährt. Die hiervon erzeugten Imbalancen im Modell sowie die Vernachlässigung von Messfehlern machen die Methode in der Praxis erfolglos. Nahe verwandt ist die Erkennung von bestimmten Mustern aus Messungen. Beispiele dazu wären Golfstromringe oder die Lage eines als Gaußisch vorgeschriebenen Strömungsprofils. Diese Muster werden nach der Methode der ‘feature models’ dynamisch balanciert und in das Ozeanmodell eingesetzt. Die schon erwähnten stationären Box-Inversmodelle wurden zu einer großen Reife entwickelt. Sie behandeln die Budgets an Wärme, Salz und Spurenstoffen in großen Ozeanvolumen, die durch hydrographische Schnitte sowie Dichteflächen voneinander abgegrenzt sind. Flüsse zwischen den Volumen und der Austausch mit der Atmosphäre werden invers bestimmt. Gelöst wird das entsprechende lineare Gleichungssystem vorzugsweise mit Singulärwertzerlegung und geeignetem Abschneiden der Singulärwerte entsprechend den geschätzten Fehlern. Letztlich findet diese beliebte Methode ihre Grenzen in der Annahme der Stationarität. Sich kreuzende hydrographische Schnitte mit unterschiedlichen Messungen für den selben Ort bereiten ein noch nicht zufriedenstellend gelöstes Problem. Mit nicht-linearen Methoden lassen sich Geschwindigkeiten bzw. Transporte und die Dichteverteilung gleichzeitig bestimmen. Gewöhnlich bleibt dabei aber die räumliche Auflösung unbefriedigend. Für die Paläoozeanographie gibt es ebenfalls Bestrebungen, die Ozeanzirkulation aus Daten für weit zurückliegende Zeiten zu ermitteln. Allerdings ist hier die räumliche Überdeckung der aus Sedimentbohrkernen gewonnenen Daten problematisch, so dass nur qualitative und wenig quantitative Aussagen gemacht werden können. 1 Die Bezeichnungen von Matrizen und Vektoren sind aus dem vorangegangenen Kapitel 14 übernommen, um eine einheitliche Beschreibung beizubehalten. Einigen Erfolg hat die „nudging“-Methode. Sie wird auch als „Newtonian damping“ bezeichnet. Anstatt den Modellzustand zu ändern wird hier eine korrigierende Kraft auf der rechte Seite des Gleichungssystems eingeführt. Diese Kraft ist proportional zur Differenz zwischen Modellzustand und Beobachtung. Das Modell wird so permanent in Richtung der Messungen getrieben, selbst wenn die Modelldynamik dazu nicht ausreicht.Von Nachteil beim „nudging“ ist die fehlende Berücksichtigung von Modell- und Messfehlern. Diese steht bei der objektiven Analyse beziehungsweise objektiven Interpolation obenan. Hier wird nach einer sorgfältigen Feststellung der verschiedenen Fehlerkovarianzen der Analysefehler im Sinne der kleinsten Quadrate minimiert. Er entspricht der in der Datenassimilation für die Atmosphäre (Kapitel 14,Abschnitt 4 in diesem Heft) vorgestellten Gl. (5), die häufig auch als Kostenfunktion bezeichnet wird: J(X) = 1/2 [(Y–K(X))T(O+F)-1(Y–K(X))+(X–Xs)TS-1(X-Xs)]. (1) Gesucht wird das Minimum von J(X). Ist K(X) linear so ergibt sich als Lösung X = [KT (O+F)-1 K+S-1]-1 [KT (O+F)-1Y+S-1Xs]. (2) Wie man sieht spielen neben den Messdaten Y selbst deren Messfehler O, der Repräsentationsfehler F aber auch die Hintergrundsinformation Xs und ihr Fehler S eine Rolle. Für den Idealfall, dass die Fehler Gauß-verteilt sind und sich durch ihre Fehlerkovarianzmatrix vollständig beschreiben lassen, ist die oben genannte Lösung perfekt. Sie stellt das Maximum der Wahrscheinlichkeitsverteilung für den Modellzustand unter Berücksichtigung der Messungen dar, ist also die wahrscheinlichste Lösung. Gleichzeitig ist sie auch das Minimum der quadratischen Abweichungen. Die Probleme für die Datenassimilation ergeben sich daraus, dass die Fehler nicht wirklich bekannt sind,sondern geschätzt werden müssen. Da außerdem die Anzahl der Modellvariablen die der Messungen weit übersteigt, stellt S eine wichtige Regularisierung dar. Werden die Fehlerkovarianzen als zeitlich variabel behandelt, eröffnet sich der Weg zur Kalman-Filterung. Ein weites Feld stellen systematische Fehler dar, die man beseitigen muss, soweit sie erkannt werden. Ausschließen kann man sie aber nicht. Schließlich ist der Ozean ebenso wie die Atmosphäre ein nichtlineares dynamisches System. Kleine Fehler können mit der Zeit stark anwachsen. Iterative Methoden wie das 4DVAR oder sequentielle Verfahren wie zum Beispiel der Extended Kalman Filter (EKF) stellen angemessene wenn auch aufwändige Lösungsansätze dar. Einen Sonderfall der Datenassimilation in der Ozeanographie stellt das „Representer“-Verfahren dar.Vor dem Hintergrund, dass die Zahl der Modellvariablen die Zahl der Messungen manchmal um mehrere Größenordnungen überschreitet, kann man die Optimierung sinnvollerweise im Raum mit der kleineren Zahl an Unbekannten vornehmen. Jede Messung wird durch eine eigene, individuelle Modelllösung repräsentiert. Die Gesamtlösung stellt sich dann als promet, Jahrg. 29, Nr. 1- 4, 2003 J. Schröter: Assimilierung von Messdaten, Ozean eine Linearkombination des Modells ohne Assimilation und der individuellen Representerlösungen dar. Die Gewichte der Teillösungen werden unter Berücksichtigung von Modellfehler und Messfehler berechnet. Erfolgreiche Beispiele für das Representer-Verfahren gibt es vor allem bei der Datenassimilation in Gezeitenmodellen. In sehr ähnlicher Weise arbeitet die Methode der Greens-Funktionen.Auch hier werden individuelle Modelllösungen zur Gesamtlösung miteinander kombiniert. 3 Heutige Methoden der Datenassimilation Bei vielen praktischen Anwendungen konzentriert man sich zunächst auf eine Analyse. Das Interesse besteht unmittelbar an den dreidimensionalen Temperatur- und Salzgehaltsfeldern sowie den zugehörigen Strömungsfeldern zu einem festen Zeitpunkt. Sie bilden eine Synthese der Beobachtungen und liefern Aussagen über nicht gemessene Eigenschaften des Ozeans.Die Analysen werden miteinander verglichen und bilden die Grundlage zur Bewertung von Modellläufen ohne Datenassimilation. Sie stellen außerdem häufig den Anfangszustand für Ozeanvorhersagen dar. Operationell dienen Analysen zum Beispiel dazu,Schallgeschwindigkeiten im Meer zu berechnen und die Suche nach U-Booten zu unterstützen. Die Amerikanische Marine benutzt in diesem Zusammenhang sehr ausgefeilte Methoden der objektiven Analyse. Neben klimatologischen Messungen als Hintergrundinformation werden aktuelle Beobachtungen von Schiffen und von Satelliten herangezogen. Noch präziser arbeitet der in Frankreich entwickelte „SOFA“-Algorithmus bei der Schätzung der Korrelationen in Abhängigkeit vom Ort sowie von Mess- und Vorhersagefehlern. Wird jedoch ein Assimilationsverfahren verwendet, dann meist für Radaraltimeteranomalien sowie Oberflächentemperaturen. Die Extrapolation der Messung von der Oberfläche in die Tiefe ist nicht eindeutig. Die Korrelationen beispielsweise zwischen Radaraltimetermessungen und dem vertikalen Temperaturprofil hängen nicht nur vom Ort sondern auch von der Jahreszeit ab.Teilweise werden empirische Orthogonalfunktionen (EOF) aus älteren Daten geschätzt. Entsprechend der Variabilität des Ozeans genügen oft ein bis zwei, um über 90 % der Varianz und ihre vertikale Struktur zu beschreiben. Die Datenassimilation berechnet dann nur die Amplituden der notwendigen Korrekturen.Andere vertikale Fortsetzungen von Oberflächenmessungen beruhen auf dynamischen Annahmen. So kann man beispielsweise das Dichtefeld anpassen, um eine geostrophisch balancierte Strömungskorrektur zu erhalten. Methoden, die die potentielle Vorticity erhalten, arbeiten in einer ähnlichen Art. Neben objektiver Analyse bilden die verschiedenen Formen der Kalman-Filterung das Rückgrat der Datenassimilation in der Ozeanographie. Dabei sind die praktischen Probleme die gleichen wie in der Meteorologie. Während die Kovarianzmatrix der Messfehler O sich noch gut abschätzen lässt, gibt es für die Fehlerkovarianzmatrix des Modellzustands S nur unzureichende Annahmen. Diese Matrix ist so groß, dass sie sich nicht mehr auf dem Computer speichern lässt. Wesent- 59 liche, zum Teil einschneidende Vereinfachungen müssen vorgenommen werden. In der Wahl der Vereinfachungen und in der Behandlung der Zeitabhängigkeit von S unterscheiden sich die in der Praxis verwendeten Methoden. Eine Vereinfachung besteht darin, S asymptotisch für lange Perioden zu berechnen, und es dann als zeitlich konstant in der Assimilation einzusetzen. Für große Modelle hat sich dies aber nicht bewährt. Ein interessanter und zukunftsweisender Ansatz liegt darin, S nach verschiedenen ozeanischen Prozessen aufzuteilen. Entsprechend der unterschiedlichen Geschwindigkeit der barotropen und der baroklinen Dynamik wird die Assimilation in zwei Teile aufgeteilt. Das barotrope S entwickelt sich schnell. Es beschreibt aber nur einen zweidimensionalen Prozess und kann vollständig berechnet werden. Barokline Prozesse sind dreidimensional. Sie können aber gut lokal angenähert werden, da ihre Korrelationslängen begrenzt sind. S besitzt dann eine relativ schmale Bandbreite. Ein anderer Weg,S mit wenig Aufwand zu beschreiben,wird mit der „Ensemble Kalman Filterung“, (EnKF) beschritten. Auch diese Idee ist der Meteorologie entnommen. Dort werden bei dem „Ensemble Forecast“ eine Serie von statistisch gleichwertigen Vorhersagen für den selben Termin gerechnet. Dies bedeutet einen großen Aufwand und es werden typischerweise nur etwa 10 verschiedene Berechnungen gemacht. Jede dieser Vorhersagen ist gleich gut. Sie sind aber verschieden und die Unterschiede geben uns ein Maß an, wo der Vorhersagefehler groß und wo er gering ist. Aus den Vorhersagen lässt sich so deren Fehlerkovarianzmatrix S abschätzen. Freilich ist diese Schätzung recht grob, da sie nur etwa 10 Freiheitsgrade besitzt. In der Ozeanographie werden beim EnKF typischerweise 100 bis 1000 gleichwertige Vorhersagen gemacht und daraus S berechnet. Ein wichtiger Vorteil der Methode ist, dass auf Linearisierungen verzichtet wird und die volle Modelldynamik Berücksichtigung findet. Dagegen spricht der hohe Rechenaufwand. Der Ensemble-Kalman-Filter ist aber die zur Zeit wohl erfolgreichste Assimilationsmethode der Ozeanographie. Um den Aufwand zu vermindern,gibt es auch zum EnKF Vereinfachungen. Man kann eine einmal geschätzte Kovarianzmatrix S auch nach Singulärwerten und Singulärvektoren zerlegen und so mit sehr wenigen Freiheitsgraden annähern. Hierauf beruht eine ganze Serie, die sogenannten „Singular Evolutive Ensemble Kalman“ (SEEK) Kalman-Filter-Verfahren. In zahlreichen Fällen sind sie sehr erfolgreich, insbesondere bei nahezu linearer Ozeandynamik. Die gemachten Vereinfachungen sind jedoch teilweise umstritten und die Methoden sind noch nicht allgemein anerkannt. Eine zusammenfassende Darstellung und ein bewertender Vergleich von modernen Methoden der Datenassimilation im Ozean wurde kürzlich von BRUSDAL et al. (2003) veröffentlicht. Datenassimilation im Ozean wird zuweilen auch auf Ökosysteme ausgedehnt. Der Lebenszyklus von Plankton wird modelliert ebenso wie der Kreislauf von bio-geochemischen Substanzen. In diesen Modellen gibt es verschiedene freie Parameter, die sich nicht durch Laborexperimente messen lassen, sondern durch Assimilation von Daten aus dem Ozean bestimmt 60 J. Schröter: Assimilierung von Messdaten, Ozean werden müssen.Hierfür hat sich besonders ein neues Verfahren ausgezeichnet: Der „Sequential Importance Resampling Filter“ (SIRF) oder auch „Particle Filter“. Er ist ebenfalls eine Ensemble Methode und ermittelt die optimalen Werte durch eine Schätzung der Wahrscheinlichkeitsverteilung. 4 Reanalysen und Vorhersagen Von wenigen Versuchen die regionale oder globale Zirkulation vorherzusagen abgesehen, wird die Datenassimilation über längere Perioden zur Beschreibung der Ozeanklimas und seiner Schwankungen genutzt. Ähnlich den großen Analyseprojekten in der Atmosphäre wird im Ozean eine Analyse der Messungen in Sinne einer „Nachhersage“ von mehreren Gruppen verfolgt. Das Ergebnis wird oft als „state estimation“ bezeichnet. Ein wichtiger Unterschied zur Datenassimilation in der Atmosphäre besteht darin, dass für ein Ozeanmodell die Modellbasis X als vollständige dreidimensionale Darstellung aller Modellvariablen üblicherweise nicht ausreicht. Der Antrieb des Ozeans durch die Atmosphäre spielt immer eine wichtige Rolle. Für eine Ozeanvorhersage muss auch eine Wettervorhersage vorliegen. Gekoppelte Vorhersagen sind selten. Statt dessen werden häufig die Wettervorhersagen der großen Zentren übernommen. Für zurückliegende Zeiträume finden Reanalysen der Atmosphäre Verwendung. Sie werden allerdings häufig von den Ozeanographen als zu ungenau angesehen. Kleine Abweichungen von den Reanalysen werden gewünscht, die sich im Rahmen der Analysefehler bewegen müssen. Sie sollen dem Ozeanmodell erlauben, näher an die gemessenen Werte zu gelangen. Diese kleinen Abweichungen sind unbekannt und müssen durch die Datenassimilation bestimmt werden. Sie werden so Teil der Modellbasis, die jetzt nicht mehr nur den dreidimensionalen Zustandsvektor des Ozeanmodells ent- Abb. 15-1: Oben:Der durch Datenassimilation in das „ECCO“ Modell berechnete mittlere Wärmestrom für die Jahre 1993 bis 2000. Unten: Die Abweichung des optimierten Wärmestroms von den entsprechenden Berechnungen aus den Atmosphäre-Reanalysen vom NCEP. Alle Zahlenagaben in W/m2. Die Abweichungen sind besonders deutlich in den Randströmen. promet, Jahrg. 29, Nr. 1- 4, 2003 hält, sondern auch noch Zeitserien von zweidimensionalen Antriebsfeldern. In extremen Fällen, wie bei dem ECCOProjekt (STAMMER et al. 2003), erhöht sich so die Zahl der Unbekannten auf die Größenordnung von atmosphärischen Modellen. Üblicherweise liegt sie aber deutlich darunter. Ein interessantes Ergebnis der Assimilation im Ozean ist damit eine ozeanseitige Abschätzung des Austauschs zwischen Atmosphäre und Ozean. Diese Größen lassen sich nur schwer messen und stellen für Ozeanmodelle einen erheblichen Unsicherheitsfaktor dar. Diskrepanzen zwischen Berechnungen aus Atmosphärenmodellen und Ozeanmodellen, wie sie in Abb. 15-1 dargestellt werden, deuten auf systematische Unterschiede hin. In gekoppelten Modellen führen Diskrepanzen in den Flüssen zu den bekannten Problemen einer langsamen Klimadrift. An dieser Stelle ist Vorsicht geboten. Die durch Datenassimilation in den Ozean berechneten optimalen meteorologischen Felder sind nicht notwendig besser als die entsprechenden Reanalysefelder aus den Wettervorhersagezentren. Sie sind lediglich optimal geeignet, das Ozeanmodell zu verbessern. Dabei können sie auch dazu dienen, systematische Fehler des Ozeanmodells zu kompensieren. Ein typisches Beispiel wäre hier die Ablösung des Golfstroms an der Amerikanischen Küste bei Kap Hatteras.In fast allen Ozeanmodellen bleibt der Golfstrom zu lange an der Küste und verlässt sie damit zu weit nördlich. Im Vergleich zu den Messungen sind dann die modellierten Temperaturen zu hoch und dieser Fehler lässt sich durch Abkühlen verringern.Weiter östlich kommt nun der Golfstrom im Modell in die Region, in der er auch beobachtet wird. Allerdings ist er durch die vorangegangene „Korrektur“ nun zu kalt geworden und er wird in einer zweiten Anpassung der Wärmeflüsse auf seine richtige Temperatur aufgeheizt. Diese Prozedur verbessert die modellierten Temperaturen im Ozean. Die optimierten Wärmeflüsse sind dort aber aus meteorologischer Sicht systematisch falsch. promet, Jahrg. 29, Nr. 1- 4, 2003 J. Schröter: Assimilierung von Messdaten, Ozean Bei der Datenassimilation über lange Zeiträume steht häufig nicht die Beschreibung der Ozeanzirkulation in Raum und Zeit im Vordergrund. Hauptanliegen ist es dann, verschiedene Prozesse im Ozean zu verstehen, sie einzuordnen und ihre relative Bedeutung zu ermitteln. Das eben vorgestellte ECCO-Modell ist ein Beispiel dafür. Für diese Fragen ist es notwendig, konsistente Assimilationsmethoden anzuwenden. Re-initialisierungsmethoden wie sie die objektive Analyse bietet oder auch der Kalman-Filter dem Modell zu jedem Analysezeitpunkt einen kleinen Initialisierungsschock, ein Problem das aus der Meteorologie wohlbekannt ist. Problematischer als kleine dynamische Anpassungen ist in diesem Zusammenhang, dass Wärme, Salz und Spurenstoffe auf eine Art geändert werden, die keinem Ozeanprozess entspricht. Für Klimafragen ergibt sich, dass nicht nur die Ozeandynamik, sondern auch die Assimilationstechnik zu Stofftransporten, Wassermassentransformationen usw. führt. Die beiden konkurrierenden Prozesse voneinander zu trennen ist nicht einfach.Aussagen über die Vorgänge im Ozean und nicht nur im Modell werden damit erschwert. Als Ausweg bieten sich hier Glättetechniken an, die auch formal noch in der Zukunft liegende Daten berücksichtigen und insgesamt zu einem glatten Modellverlauf auch während der Analysezeitpunkte führen. Eine der prominentesten Methoden, die 4-dimensionale Variationsanalyse (4DVAR), ist ein solches Glätteverfahren und daher gebräuchlich für ozeanische Reanalyseprojekte. Die in diesem Artikel gezeigten Beispiele sind alle mit 4DVAR erzielt worden. 61 ozeanische Entsprechung, der Wärmetransport innerhalb des Ozeans selbst, wird in Abb. 15-2 gezeigt. Dargestellt wird der zonal gemittelte, meridionale Transport. In diesem HovmöllerDiagramm sieht man den Transport in Abhängigkeit von der Breite und von der Zeit. Die Wärme wird in beiden Hemisphären im Mittel polwärts transportiert. Stark ausgeprägt ist der Jahresgang zwischen dem Äquator und etwas 20° Nord. In diesem Bereich treten auch die stärksten zwischenjährlichen Schwankungen beispielsweise durch El Niño/Southern Oszillation auf. Unser Ergebnis wird wesentlich durch die Altimetermessungen von TOPEX/Poseidon mitbestimmt und führt so zu einer Interpretation der Satellitendaten in Hinsicht auf lokale Wärmespeicherung und auf globale Transporte. Unser drittes Beispiel haben wir aus dem Bereich der Klimaanalyse gewählt. Im Zusammenhang mit dem Anstieg des globalen Meeresspiegels stellt sich die Frage, wie die Beobachtungen an Pegeln und neuerdings aus Radaraltimetrie erklärt werden können. Ein Hauptgrund wird in einem Anstieg der mittleren Temperatur des Ozeans gesehen,der zu einer Vergrößerung des Ozeanvolumens geführt hat. Als zweite Ursache wird eine Zunahme der Ozeanmasse durch einen Überschuss an Niederschlag sowie vermehrten Eintrag durch Flüsse und schmelzendes Inlandeis gegenüber der Verdunstung angesehen.Der Rückgang der alpinen Gletscher spricht für diesen Mechanismus. Die Bestimmung von Kenngrößen des Ozeans, insbesondere von nicht direkt messbaren Transporten, ist auch das wesentliche Ziel der Datenassimilation in das globale Zirkulationsmodell des Alfred-Wegener-Instituts (AWI). Wir wenden die adjungierte Methode an,um konsistente Transportschätzungen zu erhalten. Ähnlich wie beim gezeigten ECCO berechnen wir einen optimalen Wärmeaustausch mit der Atmosphäre. Die Mit Hilfe eines globalen Ozeanmodells, das eine freie Oberfläche besitzt, wollen wir die verschiedenen Prozesse verstehen und insbesondere lokale und globale Effekte voneinander trennen. Das Modell tauscht Masse mit seiner Umgebung über Verdunstung, Niederschlag und Zuflüsse aus. Sterische Ausdehnung durch Variationen von Temperatur und Salzgehalt führen zu Volumenänderungen, Salz bleibt dagegen streng erhalten. Für das Modell wurden durch Datenassimilation optimale mittlere atmosphärische Antriebe berechnet. Dieser Schritt stellt eine Art Fluss-Korrektur dar. Das Ozeanmodell erhält so einen realistischen und konsistenten Jahresgang, der Abb. 15-2: Hovmöller-Diagramm (Breite-Zeit-Diagramm) des meridionalen Wärmetransports im Pazifischen Ozean. Dargestellt ist das Ergebnis des globalen Datenassimilationsmodells des AWI für eine Periode von 9 Jahren. Die Einheit ist PW (1015 W). Gut sichtbar sind der Jahresgang und die zwischenjährlichen Schwankungen. Besonders ausgeprägt sind die Signale während El Niño. Abb. 15-3: Zeitliche Entwicklung des über den Nordatlantik gemittelten Meeresspiegels für die Jahre 1950 bis 2000. Schwarz: Ergebnis einer Modellrechnung nach Datenassimilation. Grün:Meeresspiegelschwankungen,die sich durch sterische Ausdehnung aus Änderungen von Temperatur und Salzgehalt ergeben. Rot: Änderungen durch Abfließen in andere Meeresgebiete. Blau: Von TOPEX/Poseidon gemessene Variationen für den Nordatlantik. 62 J. Schröter: Assimilierung von Messdaten, Ozean nahe an den Beobachtungen liegt. Über 50 Jahre wird das Modell nun zusätzlich mit Anomalien der NCEP-Reanalysen angetrieben. Ohne Datenassimilation hätten Trends im Modell eine korrekte Analyse erschwert, wenn nicht verhindert. Oder man hätte das Modell über mehrere tausend Jahre rechnen müssen, was zu einer unrealistischen Temperatur- und Salgehaltsverteilung führt und damit die Analyse entwertet. Eine Beschreibung der Prozesse,die den Meeresspiegel im Nordatlantik zwischen 30° und 60° Nord beeinflussen,wird in Abb.15-3 vorgenommen. Die schwarze Linie stellt den mittleren Meeresspiegel dar.Der Jahresgang ist ausgeprägt,wird aber unterschätzt, was sich am Vergleich mit gemessenen Werten von TOPEX/Poseidon (blau) überprüfen lässt. Die Zunahme der Temperaturen im Nordatlantik dehnt das Meeresvolumen aus (grün) und zeigt einen starken positiven Trend. Ein Teil des Anstiegs ist aber auch durch verstärkte Tiefenwasserbildung mit relativ schwächer salzhaltigem Wasser zu erklären. Große zwischenjährliche Schwankungen ergeben sich aus der Massenbilanz, wobei das Abfließen in andere Ozeanregionen klar überwiegt. 5 GODAE Einen wesentlichen Schritt in Richtung auf eine operationelle Ozeanvorhersage wird mit dem Global Ocean Data Assimilation Experiment (GODAE) unternommen. Hierzu hat sich eine große Gemeinschaft von Gruppen und Instituten zusammengefunden. Schon jetzt arbeiten einzelne Gruppen mit operationellen oder prä-operationellen Ozeanvorhersagen. Zur Zeit sind jedoch die meisten noch regional angelegt. Ziel von GODAE ist es, globale Vorhersagen von vielen Seiten mit verschiedenen Methoden und verschiedenen Ozeanmodellen zu erzielen. Erfahrungen werden ergeben, welche Methoden, Daten und Modelle vorteilhaft sind. Damit soll der Weg zu einem dem Europäischen Wettervorhersagezentrum EZMW entsprechenden Ozeanvorhersagezentrum geebnet werden. Die erste Phase in GODAE in den Jahren 2003 bis 2005 stellt eine Machbarkeitsstudie dar. In der zweiten Phase von 2005 bis 2007 werden sich Gemeinsamkeiten entwickeln, es soll eine Konvergenz in der Vorgehensweise erzielt werden und der Übergang zu regulären globalen Ozeanvorhersagen erfolgen. Systematische Verbesserungen in der Modellierung, bei effizienten Assimilationsalgorithmen und in der routinemäßigen Datenbasis werden angestrebt. Zunächst müssen jedoch Voraussetzungen geschaffen werden, die Meteorologen selbstverständlich vorkommen. Datenzentren müssen entstehen, die allen Beteiligten sofortigen Zugang zu allen Messungen ermöglichen. Die Datenströme zu den Zentren und von diesen zu den Nutzern sind sicherzustellen. Hier sind die Ozeanographen unserer Zeit noch weit hinterher. Das unmittelbare Veröffentlichen der Assimilationsergebnisse im Internet ist bis heute noch keine Selbstverständlichkeit. Innerhalb von GODAE steht das oben erwähnte ARGOSystem hoch auf der Liste der Prioritäten. Ohne ein solches Messprogramm wäre GOADE kaum denkbar. Schon in kurzer Zeit wird ARGO unser Verständnis für den tiefen promet, Jahrg. 29, Nr. 1- 4, 2003 Ozean erheblich verbessern. In den frühen Jahren der Beobachtung des Ozeans von Satelliten aus hat sich das Weltbild der Ozeanographen entscheidend verändert. Vieles, was uns heute selbstverständlich erscheint, wurde erst in dieser Zeit für alle offenbar. Die Möglichkeit durch Messung und Datenassimilation in GODAE mehr über den tiefen Ozean zu lernen ist aufregend und faszinierend. So kommen wir verlässlicheren jahreszeitlichen Vorhersagen und glaubhaften Klimavorhersagen näher. 6 Ausblick Anspruchsvolle Ansätze zur Datenassimilation im Ozean haben in der Vergangenheit unterschiedliche Wege beschritten. Der eine Weg stützt sich auf eine immer bessere und aufwändigere Beschreibung der Ozeanzirkulation in Kombination mit einfachen Assimilationsmethoden. Komplementär dazu ist der Ansatz, sehr komplexe und rechenintensive Assimilationsverfahren auf Ozeanmodelle mit grober Auflösung oder anderen Vereinfachungen anzuwenden. Im Verlauf von GODAE werden sich diese Wege einander annähern. Zur Kurzfristvorhersage des Ozeans für ein bis zwei Wochen können wir ausgereifte Modelle mit relativ guter räumlicher Auflösung und hochentwickelten Assimilationsverfahren erwarten. Wichtige Fragen der Klimatologie oder des Verständnisses von Ozeanprozessen lassen sich aber nur durch Reanalysen über lange Zeiträume klären. Ähnlich gelagert ist die mittelfristige Ozeanvorhersage zum Beispiel für El Niño oder zur Unterstützung der Wettervorhersage. Für diese Klasse von Problemen wird die Zweiteilung der Datenassimilation noch lange bestehen bleiben. Das Schwergewicht liegt dann alternativ auf der Qualität des Ozeanmodells oder auf der Assimilationsmethode.Auf beiden Wegen sind noch viele interessante Aufgaben zu lösen. Schließlich gilt in der Ozeanographie wie in der Meteorologie, dass Messungen unersetzlich sind.Trotz Fernerkundung und automatischen Messsystemen die immer wichtiger werden, kann man auch in Zukunft auf den gezielten Einsatz von Forschungsschiffen nicht verzichten. Literatur BEHRENS, A., 2002: Seegangsvorhersage, Promet 28, H 1/2, 17-23. BRUSDAL, K., J. M. BRANKART, G. HALBERSTADT, G. EVENSEN, P. BRASSEUR, P. J. VAN LEEUWEN, E. DOMBROWSKY, J. VERRON, 2003: A demonstration of ensemble based assimilation methods with a layered OGCM from the perspective of operational ocean forecasting systems, J. Mar. Syst, Proof online verfügbar. STAMMER, D., C. WUNSCH, R. GIERING, C. ECKERT, P. HEIMBACH, J. MAROTZKE,A.ADCROFT, C. N. HILL, J. MARSHALL, 2003: Volume, Heat and Freshwater Transports of the Global Ocean Circulation 1993-2000, Estimated from a General Circulation Model Constrained by WOCE Data, J. Geophys. Res., 108, C1, 3007 doi: 10.1029/2001 JC 001115. WENZEL, M., J. SCHRÖTER, D. OLBERS, 2001: The annual cycle of the global ocean circulation as determined by 4D VAR data assimilation, Progress in Oceanography 48, 73-119.