2. zwischenbericht - Bundesanstalt für Wasserbau

Werbung
2. ZWISCHENBERICHT
KoDiBa
Entwicklung und Implementierung von Methoden zur Aufbereitung
konsistenter digitaler Bathymetrien
Förderkennzeichen: 03 KIS 042
smile consult GmbH
Vahrenwalder Strasse 7
30165 Hannover
2. Zwischenbericht
KoDiBa – Entwicklung und Implementierung von
Methoden zur Aufbereitung konsistenter digitaler
Bathymetrien
2. Zwischenbericht zu Nr. 8.1 NBKF 98
Zahlungsempfänger:
smile consult GmbH
Vahrenwalder Straße 7
30165 Hannover
Förderkennzeichen:
03 KIS 042
Vorhabensbezeichnung:
KoDiBa – Entwicklung und Implementierung von Methoden zur
Aufbereitung konsistenter digitaler Bathymetrien
Laufzeit des Vorhabens:
01.10.2002–30.09.2004
Berichtszeitraum:
01.07.2003–31.12.2003
Hannover, den 27.02.2004
Frank Sellerhoff
smile consult GmbH
Vahrenwalder Strasse 7
30165 Hannover
Fon 0511/9357–620
Fax 0511/9357–629
[email protected]
www.smileconsult.de
Angaben zum Vorhaben
1
Regelmäßig durchgeführte Seevermessungen bilden die Datengrundlage
für großräumige Betrachtungen der Tiefenverteilung entlang der deutschen
Küsten. Der Vergleich solcher Tiefenverteilungen aus unterschiedlichen
Epochen ermöglicht darüberhinaus die Beurteilung der morphologischen
Veränderungen in diesem Gebiet.
Die unterschiedlichen Aufnahmezeitpunkte sowie die vielfältigen Aufnahmeverfahren, die ihrerseits unterschiedliche räumliche Auflösungen besitzen,
führen jedoch zu Schwierigkeiten bei der Erstellung von quasi-synoptischen
Bathymetrien. Im Zentrum des KFKI–Projektes “Entwicklung und Implementierung von Methoden zur Aufbereitung konsistenter digitaler Bathymetrien – KoDiBa” steht die Entwicklung und Implementierung von
Algorithmen zur Generierung konsistenter digitaler Bathymetrien. Die
entwickelten Methoden werden an ausgewählten Naturdatensätzen getestet. Die Ergebnisse werden im Rahmen eines Web–Portals präsentiert.
Die Schwerpunkte im ersten Jahr der Projektlaufzeit lagen in:
H
Der Aufbereitung und Verarbeitung der von den zuständigen Ämtern
zur Verfügung gestellten Daten,
H
der Analyse der verwendeten Formate mit dem Ziel der Übernahme
bzw. der Erzeugung von Metadaten,
H
der Analyse und Darstellung der Daten und zugehörigen Metadaten,
H
der Entwicklung, der Implementierung und im Test
von Fehleranalysemethoden,
H
der Zusammenstellung und Implementierung von räumlichen
Interpolationsverfahren,
H
der Untersuchung von Interpolationsverfahren, die gleichermaßen Informationen aus Raum und Zeit berücksichtigen.
Im folgenden Abschnitt werden die wichtigsten wissenschaftlichen und
technischen Ergebnisse der ersten 12 Monate in kurzer Form dargestellt.
2. Zwischenbericht
1
Wissenschaftliche und
technische Ergebnisse
2
2.1 Datenbeschaffung und Datenanalyse
Zu Beginn des Projektes wurde durch die projektbegleitende Gruppe in
Absprache mit dem Forschungsleiter Küste das Projektgebiet festgelegt.
Das Projektgebiet umfasst den Bereich der Inseln Borkum, Juist, Norderney
bis zum Festland. Ausschlaggebend für die Wahl des Projektgebietes war
zum einen die Anzahl der verfügbaren Datensätze, deren Aufnahmeintervall
sowie die zu beobachtenden morphologischen Effekte. Es wurde weiterhin
festgelegt, dass die im Projekt durchzuführenden Fallstudien sich mit
Effekten beschäftigen sollen, die in diesem Gebiet zu beobachten sind. Das
Projektgebiet ist in Lage und Ausdehnung in Abbildung 2-1 gezeigt.
Abbildung 2-1.
Lage des Untersuchungsgebietes
Der Versuch als weiteres Untersuchungsgebiet die Dithmarscher Bucht
heranzuziehen wurde aufgrund der unzureichenden Verfügbarkeit von
Daten in Übereinkunft mit den Mitgliedern der projektbegleitenden Gruppe
eingestellt.
2. Zwischenbericht
2
Die im Projektgebiet für die Seevermessung zuständigen Stellen sind das
Wasser- und Schifffahrtsamt Emden (WSA Emden) sowie das Bundesamt für
Seeschifffahrt und Hydrographie in Hamburg (BSH). Die gemessenen Daten
der Ämter werden vollständig in die Peildatenbank-Küste (PDBK) eingepflegt. Die Verwaltung der PDBK obliegt der Fachstelle für Informationstechnik der Wasser- und Schifffahrtsverwaltung bei der Bundesanstalt für
Wasserbau in Ilmenau (F-IT Ilmenau).
Bevor die Daten in den Bestand der PDBK eingepflegt werden, werden sie
von der jeweils erzeugenden Stelle unterschiedlichen Plausibilitätskontrollen
unterzogen. Da bei der Plausibilisierung in den Institutionen unterschiedliche
Verfahren zum Einsatz kommen, unterscheiden sich auch die abgelieferten
Endprodukte der Ämter. Um die Unterschiede der Verfahren genauer zu
beleuchten, sind weitere Gespräche mit den zuständigen Ämtern zu führen.
Mit Unterstützung der Vermessungs- und Kartenstelle der Wasser- und
Schifffahrtsdirektion Nordwest (WSD-NW) konnten von der F-IT für den
Zeitraum von 1989 bis 2002 Tripeldaten bezogen werden. Durch das
Forschungsprojekt NOKIS wurden für die Daten in der PDBK Metadaten
ermittelt und archiviert. Die Archivierung der Metadaten erfolgte dabei
getrennt von den Daten. Aus diesem Grund musste eine Zuordnung
zwischen den Daten und Metadaten geschaffen werden. Zu dem damaligen
Projektstand von NOKIS war es noch nicht möglich, die Metadaten
automatisch zu erhalten. Deswegen wurden von der F-IT diese Metadaten
manuell extrahiert. Die Analyse der Metadaten ergab, dass sich jede
Metadatei auf ein einzelnes Vermessungsprojekt bezieht. Aus den erhaltenen Tripeldaten konnten allerdings die einzelnen Projekte nicht mehr
abgeleitet werden, da die Tripeldaten unstrukturiert in einer Datei vorlagen.
Aus diesem Grund waren die NOKIS-Metadaten für die Tripel-Daten nur
bedingt verwendbar.
In weiterführenden Diskussionen mit der WSD-NW wurde daher die
Verwendung des Kuefo-Formates vorgeschlagen [Kue98]. Seit dem Jahre
1990 werden alle Peilungen in der PDBK in diesem Format gespeichert. Das
Kuefo-Format besitzt neben den Tripeldaten auch Angaben zum Datum und
Aufnahmezeitpunkt einer Vermessung (Abbildung 2-2). Weitere Informationen lagen nur in sehr wenigen Datensätzen vor und konnten deshalb nur
bedingt verwendet werden.
H
B
B
B
R
R
R
R
2230101100540 1191
1200
91158
91884 –1200
0 2591246.02 5886794.81 2591048.64 5887073.29
0 2591350.87 5886914.66 2591428.70 5887062.93
0 2591428.70 5887062.93 2592062.18 5886730.43
2542195.6 5940000.1 –9.23 –10.63
2542194.9 5940000.6 –9.13 –10.53
2542194.2 5940001.2 –9.11 –10.51
2542193.5 5940001.7 –9.15 –10.55
214
0.0000
0.0000
0.0000
200041
–1
0
1
H
7110901140200 7000
300
298
–250 1200
B
0 2576001.00 5946432.00 2574747.00 5947887.00
R 2576030.7 5946855.1 –0.09 –1.59
R 2576030.5 5946854.9 –0.09 –1.59
R 2576029.8 5946854.3 –0.11 –1.61
214
0.0000
200042
0
Abbildung 2-2.
Ausschnitt aus einer Vermessungsdatei im Kuefo-Format
Der Selektionsmechanismus der PDBK sieht zwar vor, dass die Daten mit
ihren Metainformationen exportiert werden, allerdings können keine einzelnen Messkampagnen selektiert werden. Die selektierten Datensätze werden
alle in eine einzige Ausgabedatei geschrieben. Während der Selektion kann
2. Zwischenbericht
3
nur das gewünschte Jahr und ein den gesuchten Bereich umschreibendes
Rechteck angegeben werden. Schneidet dieses Rechteck einen Datensatz,
so werden nur die Punkte innerhalb des Rechteckes von der Selektion
erfasst und die restlichen Messungen verworfen. Die gleichzeitig ermittelten
Metadaten beziehen sich aber auf den gesamten Datensatz. Dadurch kann
es zu Inkonsistenzen zwischen den extrahierten Daten und den zugehörigen
Metadaten kommen.
Die auf diesem Wege erzeugte Jahresdatei besteht demnach aus den
einzelnen “Kuefo-Abschnitten”. Für die weitere Verarbeitung mussten diese
Jahresdateien in die einzelnen Abschnitte des Kuefo-Formates überführt
werden. Untersuchungen ergaben, dass diese einzelnen Abschnitte Teile
einer Messkampagne waren. Aus diesem Grund mussten Mengenoperationen entwickelt werden, die die einzelnen Abschnitte zu einer Messkampagne
zusammenfügten. Da nicht erkennbar war, welchen Umfang eine Messkampagne besitzt, wurden alle Daten eines Tages zu einer Messkampagne
zusammengefasst.
In den Gesprächen mit der WSD-NW wurde auch über das dort neuentwickelte MBES-Format (MultiBeamEchoSounder) diskutiert [MBS02]. Dieses Format ist vor allem zur Speicherung von Fächerecholotdaten vorgesehen. Dabei wird jede einzelne Messkampagne in einer Datei gesichert.
Zusätzlich zu den Daten wird auch eine Anzahl von Metadaten mitgeführt.
Beispiele für diese Metadaten sind Datum, Uhrzeit, aber auch Lage- und
Höhenbezug (Abbildung 2-3). Neben vordefinierten Metadaten existiert die
Möglichkeit weiterführende Metadaten in einer separaten XML-Datei zu
sichern.
Wasserstrassennummer 7001 Dienststellennummer 213
Schiffsname Jade Projektname Drempeltest Auftragsname EIVA
Datum 2003-11-3 07:48:29
MinRechts 3444079.57 MinHoch 5933132.03 MaxRechts 3444193.72 MaxHoch 5933327.19
AnzTiefen 227783 Lagestatus Datum Rauenberg HoehenStatus NN
R 3444056.77 H 5933167.05 T –13.41 Stat ACTIVATED
R 3444056.86 H 5933166.96 T –13.42 Stat ACTIVATED
R 3444057.31 H 5933166.54 T –13.49 Stat ACTIVATED
R 3444057.37 H 5933166.48 T –13.51 Stat ACTIVATED
R 3444057.73 H 5933166.14 T –13.43 Stat ACTIVATED
R 3444057.66 H 5933166.21 T –13.56 Stat ACTIVATED
Abbildung 2-3.
Ausschnitt aus einer Vermessungsdatei im MBES-Format
Für das Projektgebiet lagen keine Messungen im MBES-Format vor. Um
auch zukünftige Entwicklungen berücksichtigen zu können, wurden deswegen beispielhaft Daten aus anderen Gebieten betrachtet. Die Untersuchungen zeigten, dass derzeit noch nicht von Möglichkeit Gebrauch gemacht
wird, zusätzliche Metadaten zu speichern. Die Menge der verbindlich
definierten Metadaten einer MBES-Datei entspricht dem Informationsgehalt
der Metadaten im Kuefo-Format. Als Minimalanforderung für die Metadaten
wurden daher die Metadaten des Kuefo-Formates verwendet.
Ein Teilaspekt des Projektes KoDiBa ist die enge Verknüpfung mit dem
Projekt NOKIS. So wurden für die Daten in der PDBK NOKIS-konforme
Metadaten generiert. Wie schon erläutert, war eine eindeutige Verknüpfung
der NOKIS-Metadaten zu den Tripeldaten nicht möglich.
Ein Versuch, die NOKIS-Metadaten mit den Messkampagnen zu verknüpfen,
scheiterte. Die einzelnen Messkampagnen liegen in einer viel feineren
Aufteilung vor als die NOKIS-Metadaten. Es existieren keine Informationen
2. Zwischenbericht
4
darüber, welche Messkampagnen zu den einzelnen Metadaten gehören.
Deshalb konnten die NOKIS-Metadaten der PDBK nicht für das Projekt
verwendet werden. Die Metadaten des Kuefo-Formates sind jedoch derzeit
für die Projektarbeit als ausreichend einzustufen.
Um trotzdem eine Verknüpfung mit dem Forschungsprojekt NOKIS herstellen zu können, wird angestrebt, für die in den weiteren Arbeiten entstehenden Ergebnisse automatisch NOKIS-Metadaten zu generieren und als
XML-Datei zur Verfügung zu stellen.
2.2 Datenhaltung
Die analysierten Daten werden vor der Weiterverarbeitung archiviert. Für die
Archivierung soll ein System verwendet werden, das die folgenden
Eigenschaften besitzt:
H
Daten und Metadaten
Das Archivierungssystem soll die Möglichkeit bieten, gleichermaßen
die Daten und die zugehörigen Metadaten in einer Datenbank zu verwalten.
H
Identifikation und Zugriff
Es muss sichergestellt sein, dass der logische Zusammenhang der
Daten (einer Messkampagne) erhalten bleibt und die entsprechenden
Metadaten zugeordnet werden können.
Darüberhinaus muss der Zugriff auf ein einzelnes Datum (Messpunkt)
gewährleistet sein, ohne dass die begleitenden Informationen (Aufnahmezeitpunkt etc.) verloren gehen.
H
Strukturierung
Das System muss die Möglichkeit der (räumlichen und zeitlichen)
Strukturierung der enthaltenen Datensätze bieten, um den im Nachlauf anzuwendenden Methoden den effizienten Zugriff auch auf umfangreiche Datenbestände zu ermöglichen.
H
Protokollierung
Alle Modifikationen der enthaltenen Daten sollten protokollierbar und
umkehrbar sein. Der Urzustand der importierten Datensätze sollte jederzeit wiederherstellbar sein (Reversibles Datenmodell), um auch zu
einem späteren Zeitpunkt die dem aktuellen Kenntnisstand entsprechenden Methoden anwenden zu können.
Die aufgestellten Anforderungen wurden herangezogen um ein geeignetes
Archivierungssystem für die Projektarbeit auszuwählen. Es konnte jedoch
kein System gefunden werden, welches ohne Modifikationen den Ansprüchen des reversiblen Datenmodells genügt. Aus diesem Grund wurde
beschlossen, ein projekteigenes Archivierungssystem zu entwickeln.
Um Daten elektronisch zu archivieren, kann entweder ein dateigestütztes
oder ein datenbankgestütztes System verwendet werden. Ein Datenbanksystem bietet den Vorteil, dass es bereits komfortable, standardisierte
Methoden für die Organisation und Abfrage bereitstellt. Aus diesem Grund
fiel die Entscheidung zugunsten eines Datenbanksystems.
2. Zwischenbericht
5
Für einige Datenbanksysteme existieren Erweiterungen zur Speicherung
georeferenzierter Sachdaten (Spatial-Cartridge). Diese Erweiterungen sind
für die Verwendung im Zusammenhang mit Geo-Informationssystemen
ausgelegt und unterstützen vorwiegend die geometrischen Objekte “Fläche”
und “Linie”. Alle Maßnahmen zur performaten Suche nach geometrischen
Objekten konzentrieren sich ebenfalls auf diese Primitive mit räumlicher
Ausdehnung. Die im Rahmen der Projektarbeit zu archivierenden Datenbestände unterscheiden sich in ihrer Struktur wesentlich von den vorgenannten
Datentypen. Aufgrund dieser Tatsache ist bei der Verwendung einer solchen
Erweiterung im Rahmen der vorliegenden Aufgabenstellung nicht mit einem
nennenswerten Performanzgewinn zu rechnen. Aus diesem Grunde wurde
als Grundlage für die Speicherung der Projektdaten ein relationales
Datenbanksystem verwendet und eine spezielle, der Aufgabenstellung
angepasste Datenbankstruktur entwickelt und umgesetzt.
Für die technische Umsetzung wurde das entwickelte, reversible Datenmodell in ein Entity-Relationship-Modell überführt. Es wurde dabei darauf
geachtet, dass die zuvor formulierten Anforderungen erfüllt werden können.
Abbildung 2-4.
Schema der entwickelten Datenbank
Für die so entwickelte Datenbank wurden Importmethoden implementiert.
Anschließend wurde die Projektdatenbank mit den Kuefo-Daten gefüllt. Auf
die Hinzunahme der Tripel-Daten vor dem Jahr 1990 wurde verzichtet, da für
diese keine eindeutigen Metadaten existierten.
2.3 Verifikation
Bei dem Import der Daten in die Datenbank wurde eine Verifikationsanalyse
durchgeführt. Die Verifikation der Daten bestand darin, dass die Daten in
Hinblick auf unplausible bzw. inkonsistente Aussagen überprüft wurden.
Gleichzeitig wurden aus den Daten zusätzliche Metadaten abgeleitet.
2. Zwischenbericht
6
Im Folgenden werden die Ergebnisse der Untersuchungen dargestellt. Die
einzelnen Messungen besaßen sehr unterschiedliche Dichten und Verteilungen. Der Grund für diese Unterschiede sind die verschiedenen Peilverfahren
der einzelnen Ämter(BSH, WSA). Jedes Amt verwendet ein Peilverfahren,
welches seinen Aufgabenbereich am Besten erfüllt. Die Weiterentwicklung
der Messtechnik ist eine andere Ursache für den Unterschied. Die
Linienpeilungen neueren Datums besitzen eine wesentlich höhere Auflösung als zu Beginn des Betrachtungszeitraumes.
Abbildung 2-5.
Beispiel von einzelnen Messungen
links: BSH; mitte, rechts: WSA Emden
Jeder Messpunkt besteht aus zwei Lagekoordinaten und einem Messwert.
Der Messwert beschreibt die Höhe des Bodens über bzw. unter NN. Keine
Messung enthielt eine Information über den Aussagebereich und Angaben
zur Interpretation ihrer Informationen. Streng genommen stehen nur
Aussagen an den tatsächlich gemessenen Punkten zur Verfügung. Für die
flächige Interpretation der Daten muss deshalb ein Aussagebereich festgelegt werden. Dabei ist zwischen einem räumlichen und einem zeitlichen
Aussagebereich zu unterscheiden. Als zeitlicher Aussagebereich wird
vereinfacht von einem festen Zeitpunkt ausgegangen. Für den räumlichen
Aussagebereich wurden Methoden zur Generierung von umschreibenden
Polygonen entwickelt und implementiert. Die generierten Polygone werden
als zusätzliche Metainformationen mit in die Datenbank aufgenommen. Der
generierte Aussagebereich vereinfacht die Navigation auf den Metadaten,
da mit seiner Hilfe sofort erkennbar ist, welcher Bereich durch die Messung
abdeckt wird (Abbildung 2-6). Die Kombination und gemeinsame Auswertung mit anderen Metadaten eröffnet ein weites Feld von Analysemöglichkeiten allein durch Verwendung der Metadaten.
2. Zwischenbericht
7
Zeit
y
x
Abbildung 2-6.
Einflussbereiche unterschiedlicher Messkampagnen
Die Analyse der Daten zeigte, dass in den Datensätzen teilweise doppelte
und lagegleiche Punkte vorhanden sein können. Als doppelte Punkte
werden Punkte bezeichnet, bei denen sowohl die Lagekoordinaten als auch
der Messwert identisch sind. Lagegleiche Punkte besitzen gleiche Lagekoordinaten aber verschiedene Messwerte (Abbildung 2-7). Das bedeutet, dass
an einer Stelle widersprüchliche Informationen vorliegen.
Für diese Problematik wurden automatisierte Methoden entwickelt und
implementiert. Die Daten werden auf solche Punkte hin untersucht und
gefundene Punkte gekennzeichnet. Der Benutzer kann interaktiv, die
Bearbeitung eines solchen Punktes vorgeben.
Abbildung 2-7.
2. Zwischenbericht
Doppelte (rot) und lagegleiche (grün) Punkte
8
2.4 Fehleranalyse
Ein anderer Abschnitt des Projektes ist die Fehleranalyse. Die Bearbeitung
zeigte, dass es sehr schwierig ist, konkrete Fehlermethoden zu entwickeln.
Der Grund hierfür ist die Definition des Fehlers. Um einen Fehler zu ermitteln,
müsste das richtige Ergebnis bekannt sein. Ein richtiges Ergebnis ist aber bei
Seevermessungen nicht bekannt. Für die Fehleranalyse muss daher eine
Vorstellung über die Form des Geländes entwickelt werden.
Ein Beispiel für eine solche Vorstellung zeigt Abbildung 2-8. Die Vorstellung
des Geländes kann dann als “richtig” angenommen und die gemessenen
Punkte können mit dieser verglichen werden.
Abbildung 2-8.
Annahme für eine Geländeoberfläche
Weiterhin spielt auch die Fehlerart eine wichtige Rolle. Wir unterscheiden
zwischen unsystematischen, lokal auftretenden und systematischen Fehlern. Lokale Ausreißer können mit Hilfe der restlichen Punkte einer Messung
aus der Umgebung identifiziert werden. Bei solchen lokalen Fehlern handelt
es sich im Allgemeinen um Messfehler.
Systematische Fehler beziehen sich immer auf eine gesamte Messung
Mögliche Ursachen für systematische Fehler sind fehlerhafte Beschickungen. Diese Fehler zu erkennen fällt insofern schwer, da die gewählte
Verfahrensweise zur Beschickung eines Datensatzes in der Regel nicht
bekannt ist. Aus diesem Grund sollen im Folgenden zunächst nur lokale
Fehler betrachtet werden.
Derzeit wird an den WSÄ ein Verfahren eingesetzt, welches von der
Bundesanstalt für Gewässerkunde entwickelt wurde [Wir99]. Dabei wird mit
Hilfe der Messpunkte eine Ausgleichsfläche aus Polynomen erzeugt. Liegen
Punkte weiter von dieser Ausgleichsfläche entfernt als ein definierter
Schwellenwert, so werden diese Punkte als fehlerhaft eliminiert. Das
Verfahren lässt sich durch sehr viele Parametern steuern, so dass das
Ergebnis recht stark beeinflusst werden kann.
Im Projekt KoDiBa wurde eine andere Bearbeitungsstrategie entwickelt.
Hierbei wird der an einem Ort gemessene Wert mit den Werten in seiner
unmittelbaren Umgebung verglichen. Unter dem Begriff “Umgebung” ist
dabei sowohl die räumliche Umgebung als auch eine noch zu definierende
“zeitliche Umgebung” zu verstehen. Für jeden Punkt muss zunächst eine
Umgebung definiert werden. Dies kann beispielsweise dadurch geschehen,
dass eine Distanz vorgegeben wird und sämtliche Punkte als Umgebung
akzeptiert werden, deren Abstand vom betrachteten Punkt geringer ist als die
vorgegebene Distanz.
2. Zwischenbericht
9
Eine andere Möglichkeit besteht darin, nur solche Punkte zu der Umgebung
hinzuzuziehen, die mit dem betrachteten Punkt “benachbart” sind. Die
Definition einer Nachbarschaft geht zurück auf die Triangulation der Menge
der Messpunkte (Abbildung 2-9). Auf der Grundlage einer solchen Triangulation lassen sich wiederum verschiedene Nachbarschaften, beispielsweise
verschiedener Ordnungen, definieren. Abbildung 2-9 zeigt die Nachbarn
erster und zweiter Ordnung des in roter Farbe markierten Punktes.
Abbildung 2-9.
Beispiel für die Definition der Umgebung auf der Basis
einer Delaunay-Triangulation
Weiterhin wird bei Suche nach einem Fehler kein verwendetes Kriterium als
absolutes Kriterium aufgefasst. Vielmehr wird das Ergebnis jedes Verfahrens
nur als Indikator für einen Fehler herangezogen. Dies bedeutet, dass keine
entwickelte Methode ermittelt, ob es sich bei dem Punkt um einen Fehler
handelt. Vielmehr wird ein Hinweis erzeugt, dass es sich bei dem
untersuchten Punkt um einen Fehler handeln könnte. Wird ein Messpunkt
mehrfach als “Kandidat” erkannt, so handelt es sich mit großer Sicherheit um
einen Fehler (Abbildung 2-10). Eine Erweiterungsmöglichkeit des Prinzips
ist die Einführung von Wahrscheinlichkeiten. So generiert jede Methode
einen Gewicht, welches beschreibt, mit welcher Wahrscheinlichkeit sie den
betrachteten Punkt als einen Fehler identifiziert. Durch die Kombination
mehrerer Fehlermethoden erhält jeder Punkt eine Gesamtwahrscheinlichkeit
für das Vorhandensein eines Fehlers.
Diese Erweiterung konnte bislang noch nicht algorithmisch umgesetzt
werden, da der Einfluss der einzelnen Fehleranalysemethoden noch
genauer untersucht werden muss.
2. Zwischenbericht
10
Fehleridentifikator 1
Fehleridentifikator 2
Fehleridentifikator 3
Fehler
Abbildung 2-10.
Prinzip der Fehleridentifikatoren
Nach dem Aufstellen des allgemeinen Prinzips zur Fehlerbetrachtung
wurden auch einzelne Fehlermethoden entwickelt. Eine sehr einfache
Analyse ermittelt, ob es sich bei dem betrachteten Punkt, verglichen mit
seiner Umgebung, um ein lokales Minimum oder Maximum handelt
(Abbildung 2-11). Die Untersuchung dieser Eigenschaft hängt sehr stark von
der Definition der Umgebung ab.
Abbildung 2-11.
Darstellung der lokalen Minima (rot) und Maxima (blau)
Eine andere Fehleruntersuchung wurde mit der Verwendung von Interpolationsmethoden entwickelt. Dabei wird der Höhenwert des zu untersuchenden
Punktes aus den Punkten der Umgebung ermittelt. Weicht der Originalwert
gravierend vom interpolierten Wert ab, so wird dieser Punkt als fehlerhaft
gekennzeichnet. Als zulässige Abweichung kann ein fest definierter Schwellenwert verwendet werden (Abbildung 2-12).
-10m
-2m
0m
+2m
+10m
Abbildung 2-12.
2. Zwischenbericht
Darstellung der Abweichungen
11
Ein ähnliches Verfahren ist die Ermittlung der Varianz und Standardabweichung der Umgebung. Sind diese beiden Werte in Bezug auf die Umgebung
ermittelt, so wird der Messwert damit verglichen. Fällt der gemessene Wert
außerhalb des von Standardabweichung und Varianz definierten Bereichs,
so wird der Punkt als fehlerhaft gekennzeichnet.
Eine wichtige Erkenntnis der Fehleruntersuchungen war, dass es sehr
hilfreich gewesen wäre, wenn Strukturinformationen des Geländes und der
Messungen vorhanden gewesen wären. Dies würde die Identifikation von
möglichen Fehlern bzw. Nichtfehlern vereinfachen. Aus diesem Grund wurde
ansatzweise versucht, in den Daten eine Strukturerkennung durchzuführen.
Eine Möglichkeit der Strukturerkennung ist die Verwendung von so
genannten Abflussbäumen [Kol00]. Abflussbäume ordnen dabei benachbarte Punkte nach ihrer Höhe. Verbindet man die Anfangs– und Endpunkte
der entstehenden Bäume, so erhält man Kamm– und Tallinien des Geländes
(Abbildung 2-13). Dieses Vorgehen ist aber sehr stark von den definierten
Nachbarschaften der Punkte abhängig. Außerdem ist das Verfahren sehr
zeitaufwendig und müsste bei einer Veränderung der Nachbarschaftsverhältnisse erneut durchgeführt werden.
Abbildung 2-13.
Darstellung der Tal- (rot) und Kammlinien (grün)
Festgestellte Fehler auf erkannten oder bekannten Strukturen müssen
besonders betrachtet werden. Nicht immer handelt es sich bei markierten
Punkten auf Strukturkanten um tatsächliche Fehler. Allerdings ist die
Strukturerkennung ein sehr weitreichendes und aufwendiges Feld, so dass
die Problematik im Projekt KoDiBa nur ansatzweise untersucht werden kann.
2.5 Interpolationsmethoden
Wie schon in den vorangegangenen Abschnitten beobachtet, liefern die
aufgenommenen Messungen nur punktuelle Informationen. Für die Erstellung von Bathymetrien werden aber flächenhafte Informationen benötigt.
Daher müssen innerhalb des Aussagebereiches einer Messung Interpretationsregeln definiert werden, wie mit Bereichen umgegangen wird, an denen
keine Messpunkte vorliegen. Die gängigste Interpretation solcher Stellen ist
die Ermittlung eines Höhenwertes mit Hilfe einer Interpolationsvorschrift. Der
Vorteil jeder Interpolation ist, dass an der Stelle eines gemessenen Punktes
die Interpolationsmethode immer den gemessenen Höhenwert ermittelt. Die
2. Zwischenbericht
12
Reihe der Interpolationsmethoden ist sehr vielfältig und auch meistens
aufgabenabhängig.
Im Folgenden sollen daher die für die Erstellung von Bathymetrien
wichtigsten Interpolationsmethoden beschrieben werden. Es werden nur die
Verfahren in der räumlichen Ebene beschrieben. Allerdings wurden die
Interpolationsvorschriften mit der Fragestellung auf die Übertragbarkeit in
eine zeitliche Ebene ausgewählt.
Die bekannteste Interpolationsvorschrift ist die lineare Interpolation. Der
Grundgedanke ist, dass die Verteilung der Gewichte für die Ermittlung des
neuen Höhenwertes linear erfolgt [HoL92]. Wie die Verteilung der Gewichte
bestimmt wird, hängt von der verwendeten Dimension ab. Für die Ermittlung
von Höhenwerten wird im Allgemeinen eine 2–dimensionale lineare Interpolation verwendet. Um die Interpolation durchführen zu können, müssen für
alle Messpunkte untereinander die Nachbarschaftsverhältnisse definiert
werden. Dies geschieht meist durch eine Triangulation der Punktmenge, weil
hierdurch immer nur drei Punkte einen Einfluss auf den zu ermittelnden Punkt
haben. Der gebräuchlichste Algorithmus zur Erstellung einer Triangulation ist
der Delaunay–Algorithmus. Sollen bestimmte Strukturen bei der Triangulation berücksichtigt werden, so kann der Delaunay–Algorithmus abgewandelt
werden. Durch die Triangulation ist der Aussagebereich in viele kleine
Teilflächen unterteilt. Alle Teilflächen bilden eine stetige Fläche ohne
Sprünge. Die Interpolation eines Punktes folgt nur auf einem dieser
Teilbereiche. Deshalb handelt es sich bei der linearen Interpolation um eine
lokale Interpolationsmethode. Der einzufügende Punkt teilt den Bereich in
einzelne Flächen ein. Das Verhältnis der Flächen zur Gesamtfläche eines
Teilgebietes liefert das Gewicht für die Interpolation (Abbildung 2-14). Durch
die Lokalität ist die lineare Interpolation ein sehr schnelles und einfaches
Verfahren, da immer nur drei Punkte betrachtet werden müssen. Der Vorteil
an Zeit und Rechenkapazität macht es zu der derzeit am meisten
verbreiteten Methode.
X1
?
A2
z0 +
? A3
ȍ x * AA
i
i
g
A1
X3
Abbildung 2-14.
X2
Prinzip der räumlich-linearen Interpolation
Eine andere Interpolationsmethode ist die Shepard–Interpolation. Sie wurde
1969 von Shepard das erste Mal veröffentlicht [HoL92]. Im Gegensatz zur
linearen Interpolation werden die Gewichte der Interpolation mit Hilfe der
Abstände der Punkte ermittelt (Abbildung 2-15). So muss also keine
Triangulation der Punktmenge durchgeführt werden. Allerdings müssen für
die Ermittlung eines Wertes immer alle anderen Punkte betrachtet werden.
Dies ist ein Nachteil bei großen Punktmengen. Ein Vorteil dieser Interpolationsmethode ist die Flexibilität bei der Gewichtung der Abstände. So ist es
möglich, die Abstände selbst nochmals zu gewichten. Dadurch können
2. Zwischenbericht
13
Punkte mit einem geringeren Abstand einen höheren Einfluss bekommen,
als solche die weiter entfernt liegen.
d7
d2
d1
d3
z+
z
ȍx *
i
1
dm
i
ȍ
1
dm
i
d4
d6
d5
Abbildung 2-15.
Prinzip der räumlichen Shepard-Interpolation
Neben der Gewichtung der Abstände können auch nur Punkte berücksichtigt
werden, die innerhalb eines zuvor definierten Radius liegen. Dieser Schritt
überführt die globale Shepard-Interpolation in eine lokale Interpolation.
Allerdings kann die Bestimmung solcher Punkte auch sehr zeitintensiv sein,
so dass kaum ein Performanzgewinn entsteht.
Ein der Shepard-Interpolation ähnliches Verfahren ist das Kriging-Verfahren [Bur86]. Auch bei diesem Interpolationsverfahren spielen die Abstände
der Punkte untereinander eine wichtige Rolle. Der Lage- und Höhenunterschied zweier Punkte wird in einem Diagramm aufgetragen. Das entstehende Diagramm wird Variogramm genannt. Ziel des Verfahrens nach Krige
ist, dass beim Einfügen eines Punktes die Varianz der gesamten Punktmenge sich nicht verändert. Aus diesem Grund werden aus den Variogramm
die Kenngrößen der Punktmenge ermittelt. Die Gewichte des zu errechnenden Höhenwertes werden dann mittels eines linearen Gleichungssystems
berechnet. Wie man schon aus der Beschreibung erkennt, ist dieses
Verfahren sehr zeit- und rechenintensiv. Auch muss die zusätzliche
Problematik für das Lösen von Gleichungssystemen berücksichtigt werden,
weil immer ein iterativer Lösungsweg gewählt werden muss. Deshalb ist
dieses Verfahren nur für Punktmengen geeignet, die eine geringe Anzahl von
Punkten besitzen.
Für die Durchführung der Sibson-Interpolation muss der Aussagebereich in
Teilbereiche unterteilt werden [Sel02]. Dies geschieht durch eine VoronoiZerlegung. Die einzelnen Zellen einer Voronoi-Zerlegung werden dabei wie
folgt definiert:
Für jede Stelle wird der Punkt mit dem geringsten Abstand ermittelt. Ist dieser
Punkt ermittelt, wird die Stelle diesem Punkt zu geordnet. Das Ergebnis ist
eine eindeutige Aufteilung des Aussagebereiches. Um einen Höhenwert zu
interpolieren wird angenommen, dass ein Punkt eingefügt wird. Das
Einfügen eines Punktes verändert die Voronoi-Zerlegung. Dabei nimmt
dieser Punkt von einzelnen Zellen Teilflächen. Die Verhältnisse dieser
Teilflächen zur entstehenden Gesamtfläche werden als Gewichtung zur
Ermittlung des Höhenwertes verwendet (Abbildung 2-16). Die Ermittlung
des Höhenwertes zeigt, wie aufwendig das Verfahren ist, da immer eine neue
Zerlegung erzeugt werden muss. Schon die Erstellung der Ausgangszerlegung nimmt sehr viel Zeit- und Rechenkapazität in Anspruch. Aus diesem
Grund wird das Verfahren sehr selten verwendet. Es bleibt aber zu
2. Zwischenbericht
14
untersuchen, ob eine Zerlegung in Raum und Zeit ein brauchbares Ergebnis
liefern kann.
x1
ÏÏÏÏÏÏÏÏÏ
ÏÏÏÏÏÏÏÏÏ
ÏÏÏÏÏÏÏÏÏ
ÏÏÏÏÏÏÏÏÏ
ÏÏÏÏÏÏÏÏÏ
x4
z0 +
?
ȍ x * AA
i
i
g
x2
x3
Abbildung 2-16.
Prinzip der Sibson-Interpolation
2.6 Zeitliche Betrachtung
Neben den räumlichen Untersuchungen spielen für das Projekt KoDiBa vor
allem die zeitlichen Aspekte eine wichtige Rolle. Um Aussagen in der
Zeitebene zu treffen, wird in einem ersten Schritt versucht, die räumlichen
Interpolationsmethoden auf die Zeitebene zu übertragen.
Vor diesem Schritt wurde zuerst eine Modellvorstellung zur Beschreibung der
zeitlichen Aspekte entwickelt. Das Modell wird Zeitstrahl genannt und soll alle
Messungen an einer Stelle über die Zeit beschreiben. Dazu wird ein Strahl
an einer Stelle innerhalb des Untersuchungsgebietes erzeugt. Die Schnittpunkte des Zeitstrahls (z) mit einem Aussagebereich werden als Durchstoßpunkte bezeichnet (Abbildung 2-17). Mit Hilfe dieser Durchstoßpunkte
(z1,z2,z3) können vollkommen neue Analysemöglichkeiten entwickelt werden.
Von zwei zeitlich benachbarten Durchstoßpunkten kann die Differenz
gebildet werden. Stellt man alle Differenzen dar, so erhält man die zeitlichen
Veränderungen. Mit Hilfe dieser Veränderungen können Ansätze über eine
zeitliche Entwicklung beschrieben werden. Durch die Ableitung von Trends
aus diesen Entwicklungen ist es sogar möglich, in einem begrenzten
Zeitraum gewisse Vorhersagen zu treffen.
2. Zwischenbericht
15
Zeitstrahl z
Zeit
z2
t2
z1
t1
z0
t0
Abbildung 2-17.
Ermittlung der Durchstoßpunkte
Gleichzeitig bietet die zeitliche Betrachtung die Möglichkeit weiterführende
Plausibilitätskontrollen und Fehleranalysen anzustellen. Als Beispiel sei hier
nur die Übertragung der räumlichen Ausreißer auf die zeitlichen Ausreißer
erwähnt. Im Gegensatz zu den räumlichen Methoden können mit den
zeitlichen Methoden eventuell auch strukturelle Fehler erkannt werden.
Allerdings muss hierfür eine flächige Betrachtung durchgeführt werden.
Für die flächige Betrachtung werden die punktuellen Zeitstrahlen miteinander kombiniert. Dieses Vorgehen wurde am Beispiel eines Schnittes
durchgeführt. Es wurde eine Trägermenge von Punkten definiert. Für jeden
Punkt wird dann der Zeitstrahl ermittelt. Die flächige Darstellung, wie in
Abbildung 2-18, kann für weitere Untersuchung verwendet werden.
Jahr
2002
2001
2000
1999
1998
1997
1996
1995
1994
1993
1992
1991
1990
0
250
Abbildung 2-18.
500
750
1000
1250
1500
1750
Ort
20
Flächige Darstellung der Durchstoßpunkte.
Höhenwerte sind farblich kodiert.
Neben den weiterführenden Analysen ist die Ermittlung von zeitlich nicht
gemessenen Punkten von großer Bedeutung. Für aktuelle Fragestellungen
werden derzeit von den verschiedensten Institutionen hauptsächlich aktuelle
Bathymetrien erstellt. Dies geschieht durch ein sogenanntes ”Aufprägen”.
Dabei werden jeweils die neusten gemessenen Daten an einer Stelle
2. Zwischenbericht
16
verwendet (Abbildung 2-19). Dadurch kommt es an den Übergängen von
zwei Messungen unter Umständen zu Inkonsistenzen, weil diese im
Allgemeinen zu verschiedenen Zeiten aufgenommen wurden. Außerdem
liefert diese Methode nicht wirklich aktuelle Bathymetrien, sondern nur eine
vergangene Bathymetrie mit zeitlichen Sprüngen.
Zeit
2003
Ort
Abbildung 2-19.
Schematische Darstellung der aktuellen
Vorgehensweise
Im Projekt KoDiBa wird zunächst untersucht, inwieweit aus “historischen”
Daten konsistente Bathymetrien für Zeitpunkte in der Vergangenheit erstellt
werden können. Der Vorteil dieser Betrachtungsweise ist, dass davon
ausgegangen werden kann, dass Messungen zu einem früheren und
späteren Zeitpunkt existieren (Abbildung 2-20). Verwendet man diese
Messungen zur Erstellung der Bathymetrie, so treten weniger Inkonsistenzen auf.
Zeit
2003
Ort
Abbildung 2-20.
Prinzip zur Erstellung von vergangenen Bathymetrien
Die einfachste Möglichkeit ist die Verbindung zweier lagegleicher Punkte aus
zwei Zeitebenen. Zwischen diesen Punkten kann eine lineare Interpolation
über die Zeit durchgeführt werden. Als Gewichtung werden die zeitlichen
Abstände verwendet.
2. Zwischenbericht
17
Um dieses Verfahren zu analysieren, wurde in einer Untersuchung eine
Zeitebene ausgelassen und durch eine zeitliche Interpolation ermittelt. Bildet
man die Differenz zwischen der berechneten und gemessenen Zeitebene, so
kann man eine Aussage über die Güte des Verfahrens machen. In einem
konkreten Beispiel wurden Daten des BSH analysiert. Es lagen dabei Daten
aus den Jahren 1992, 1995 und 1998 vor. Das Jahr 1995 wurde mit Hilfe der
zeitlichen linearen Interpolation aus den Jahren 1992 und 1998 ermittelt
(Abbildung 2-21). Der Vergleich mit den gemessenen Daten zeigte erwartungsgemäß, dass in einigen Bereichen eine sehr gute Übereinstimmung
vorlag, während es in Bereichen mit größerer morphodynamischer Änderungen größere Abweichungen gab.
Abbildung 2-21.
Vergleich der gemessenen (Isolinien) zu berechneten
(Isoflächen) Daten
Diese Untersuchung zeigte, dass es wichtig ist, Strukturen auch über die Zeit
zu berücksichtigen [Kin03]. Bei der einfachen linearen Interpolation werden
diese nicht berücksichtigt. Dadurch gehen im Allgemeinen wichtige Informationen verloren. Es muss allerdings untersucht werden, welche Strukturen
als wichtig erachtet werden müssen. Am Beispiel einer einfachen Rinne
konnte gezeigt werden, dass es nicht ausreichend ist, nur den Talweg als
Strukturkante zu verwenden. Erst durch die Berücksichtigung von Uferkanten konnte ein Ergebnis erzeugt werden, welches das Gelände gut
approximiert (Abbildung 2-22). Solche Strukturkanten werden in Anlehnung
an örtliche Bruchkanten in Digitalen Geländemodellen als zeitliche Bruchkanten bezeichnet.
Zeit
Ort
Abbildung 2-22.
2. Zwischenbericht
Darstellung von zeitlichen Bruchkanten
18
Das Auffinden von zeitlichen Bruchkanten kann derzeit allerdings nur
manuell erfolgen. Eine automatische Erkennung solcher Strukturen ist
bislang noch nicht möglich.
Wie die lineare Interpolation kann auch die Shepard-Interpolation in die Zeit
übertragen werden. Dabei werden dann mehrere Zeitebenen betrachtet
(Abbildung 2-23). Da im Allgemeinen nicht sehr viele Zeitebenen vorliegen,
können alle Zeiten verwendet werden. Die Gewichtung zur Ermittlung des
Höhenwertes erfolgt über den zeitlichen Abstand. Durch dieses Vorgehen
kann erwartet werden, dass durch die Betrachtung mehrerer Zeitebenen
zeitliche Trends besser berücksichtigt werden. Allerdings muss noch
untersucht werden, wie die zeitlichen Abstände gewichtet werden sollten.
Zeit
2003
Ort
Abbildung 2-23.
Übertragung der Shepard-Methode
Neben der rein zeitlichen Analyse ist auch die gleichzeitige Verwendung von
Raum und Zeit möglich (Abbildung 2-24). Damit könnten dann auch
räumliche und zeitliche Entwicklungen berücksichtigt werden. Jedoch muss
der Zusammenhang zwischen den räumlichen und zeitlichen Koordinaten
definiert werden. Untersuchungen ergaben, dass die Metrik von Raum und
Zeit einen wesentlichen Einfluss auf die Ergebnisse hat. Eine Definition einer
solchen Metrik gelang bisher allerdings noch nicht.
2. Zwischenbericht
19
Zeit
2003
Ort
Abbildung 2-24.
Zeitlich und räumliche Berücksichtigung
Um eine Interpolation, die räumliche und zeitliche Koordinaten verwendet,
durchführen zu können, muss nicht nur ein räumlicher Aussagebereich
sondern auch ein zeitlicher Aussagebereich bestimmt werden. Es bleibt zu
untersuchen, wie ein zeitlicher Aussagebereich ermittelt werden kann und
von welchen Parametern dieser Bereich abhängt. Mit den Aussagebereichen können verschiedene Metriken untersucht werden. Der Einfluss der
verwendeten Metrik auf das Ergebnis muss bei den Untersuchungen
eingehender betrachtet werden.
2.7 Präsentation der Ergebnisse
Die Präsentation der Ergebnisse soll durch verschiedene Formen erfolgen.
Neben der Erstellung von Berichten werden die Methoden und Ergebnisse
der Öffentlichkeit durch das Internet zugänglich gemacht. Die Präsentation
erfolgt mit Hilfe eines Web-Servers.
So wurde für die Web-Präsentation schon zum Beginn der Projektlaufzeit ein
Server beschafft. Um eine kostengünstige Plattform aufzubauen, werden für
das Projekt nur OpenSource-Produkte verwendet. Die verwendeten Produkte für die Web-Präsentation sind Apache und Tomcat. Als DatenbankSoftware wurde das weit verbreitete Produkt MySQL installiert. Die
Verbindung dieser beiden Bereiche wird mit Hilfe der Programmiersprache
Java realisiert. Dadurch ist ein Zugriff über das Web-Portal auf die Daten
möglich.
Um auch schon zur Laufzeit über das Projekt zu informieren, wurde der
Server gleich nach Beschaffung online geschaltet. Die Präsentation erfolgt
getrennt in einen internen und einen externen Bereich. Dadurch besteht die
Möglichkeit, bereits am Anfang der breiten Öffentlichkeit Informationen über
das Projekt zur Verfügung zu stellen.
2. Zwischenbericht
20
Der externe Bereich, und damit der Öffentlichkeit zugängliche Bereich,
informiert über das Projekt selbst, die Zielsetzung und über die letzten
Fortschritte.
Abbildung 2-25.
Webseite des Projektes
Die Diskussionen mit der projektbegleitenden Gruppe zeigten, dass die
Daten als sensibel eingestuft werden müssen und daher noch nicht der
Öffentlichkeit zugänglich gemacht werden sollten. Aus diesem Grunde
wurde ein interner Bereich definiert, zu dem nur die Mitglieder der
projektbegleitenden Gruppe Zugriff haben.
In diesem geschützten Bereich wurde der Prototyp eines Web-Portals
eingestellt, über das der Zugriff auf die Daten durchgeführt werden kann. Die
Darstellung der Daten erfolgt mit Hilfe der Java-Applet-Technologie.
2. Zwischenbericht
21
Abbildung 2-26.
Prototyp des Web-Portals mit Passwortabfrage
Neben der Darstellung der Daten dient der interne Bereich auch als
Kommunikationsplattform für die projektbegleitende Gruppe. So werden
neben Neuigkeiten aus dem Projekt dort auch die Sitzungsprotokolle und
andere Dokumente zum Projekt als PDF-Version zur Verfügung gestellt.
2. Zwischenbericht
22
Projektstand
3
Der Vergleich des Standes des Projektes zum aktuellen Zeitpunkt mit dem
im Projektantrag verfassten Zeitplan zeigt im Wesentlichen eine gute
Übereinstimmung. Zum Zeitpunkt der Erstellung dieses Berichtes wurden die
Arbeitspakete “Zeitlicher Trend” und “Web-Portal” bearbeitet.
Monate ab Projektbeginn
1
2
3
4
5
6
Datenbeschaffung
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
Verifikation, Bereinigung
Visualisierung
Fehleranalysemethoden
Interpolationsmethoden
Differenzen bilden
Zeitlicher Trend
7
8
9
10
11
12
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
ǰ
Import/Export Filter
Metadaten
WebĆPortal
3 Feinstudien
13
14
15
16
17
ǰ
Ę
Ę
ǰ
ǰ
ǰ
ǰ
ǰ
Ę
ǰ
ǰ
18
19
20
21
ǰ
Ę
Ę
Ę
Ę
Ę
Ę
Ę
Bericht
Abbildung 3-1.
22
23
Ę
Ę
Ę
Ę
24
Ę
Tabellarische Übersicht über den Projektstand
ǰ = abgearbeitet; Ę = noch zu bearbeiten.
Es wird davon ausgegangen, dass auch weiterhin eine gute Übereinstimmung zum aufgestellten Arbeitsplan bestehen wird.
Aussichten für die Erreichung der Ziele
Die Rückmeldungen von den Mitgliedern der projektbegleitenden Gruppe
zeigten, dass die im Projektantrag gesteckten Ziele erreicht werden. Auch
der Projektstand und die durchgeführten Arbeiten lassen hieran keinen
Zweifel entstehen.
Relevante Ergebnisse Dritter
Derzeit sind keine Forschungsaktivitäten bekannt, deren Ergebnisse das
Projekt beeinflussen könnten.
Verwertungsplan
Es liegen keine Veränderungen des Verwertungsplans zum letzen Zwischenbericht vor.
2. Zwischenbericht
23
Literatur
4
[Bar00]
Bartelme, N.: Geoinformatik - Modelle, Strukturen, Funktionen. Springer Verlag, Berlin, 2000
[Bro95]
Bronstein, I.N.m Semendjajew G.M.: Taschenbuch der Mathematik. Harri
Deutsch Verlag, 1995
[Bur86]
Burrough, P.A., McDonnell R.A.: Principles of Geographical Information Systems, Oxford University Press, 1986
[HoL92]
Hoscheck, J., Lasser, D.: Grundlagen der geometrischen Datenverarbeitung.
Teubner Verlag, Stuttgart, 1992
[Kin03]
Kinkeldey, C.: Digitale Geländemodellierung unter Berücksichtigung von
Raum und Zeit, Studienarbeit, Institut für Bauinformatik, Universität Hannover,
2003 (nicht veröffentlicht)
[Kof03]
Kofler, M.: MySQL – Einführung, Programmierung, Referenz, Addison-Wesley,
2003
[Kol00]
Kolesnikov, N.: Ermittlung und Nutzung von Strukturinformationen für die Auswahl der Gradienten zur Erfassung der räumlichen Veränderlichkeit einer Fläche, In: Angewandte Geostatistik im Bergbau, Geologie, Geophysik, Geodäsie
und Umweltschutz, Dresden, 2000
[Kue98]
Jürges, J.: BAW–AK–Dateikennblatt: kuedat.dat (Kuefo-Format), Bundesanstalt für Wasserbau, Dienststelle Hamburg, 1998
[MBS02]
unbekannt: Metadaten für das Peilwesen, Beschreibung des MBES-Formates,
Bundesanstalt für Gewässerkunde, Koblenz und Wasser- und Schifffahrtsdirektion Nordwest, Aurich, 2002
[Mil01]
Milbradt, P.: Algorithmische Geometrie in der Bauinformatik, Habilitationsschrift, Institut für Bauinformatik, Universität Hannover, 2001
[Sel02]
Sellerhoff, F.: Ein punktbasiertes Informationsmodell für das Küsteningenieurwesen, Dissertation, Institut für Bauinformatik, Universität Hannover, 2002
[Wir99]
Wirth, H.: Flächenhafte Plausibilisierung von Peildaten, Bundesanstalt für Gewässerkunde, Koblenz, 1999
2. Zwischenbericht
24
Herunterladen