2. ZWISCHENBERICHT KoDiBa Entwicklung und Implementierung von Methoden zur Aufbereitung konsistenter digitaler Bathymetrien Förderkennzeichen: 03 KIS 042 smile consult GmbH Vahrenwalder Strasse 7 30165 Hannover 2. Zwischenbericht KoDiBa – Entwicklung und Implementierung von Methoden zur Aufbereitung konsistenter digitaler Bathymetrien 2. Zwischenbericht zu Nr. 8.1 NBKF 98 Zahlungsempfänger: smile consult GmbH Vahrenwalder Straße 7 30165 Hannover Förderkennzeichen: 03 KIS 042 Vorhabensbezeichnung: KoDiBa – Entwicklung und Implementierung von Methoden zur Aufbereitung konsistenter digitaler Bathymetrien Laufzeit des Vorhabens: 01.10.2002–30.09.2004 Berichtszeitraum: 01.07.2003–31.12.2003 Hannover, den 27.02.2004 Frank Sellerhoff smile consult GmbH Vahrenwalder Strasse 7 30165 Hannover Fon 0511/9357–620 Fax 0511/9357–629 [email protected] www.smileconsult.de Angaben zum Vorhaben 1 Regelmäßig durchgeführte Seevermessungen bilden die Datengrundlage für großräumige Betrachtungen der Tiefenverteilung entlang der deutschen Küsten. Der Vergleich solcher Tiefenverteilungen aus unterschiedlichen Epochen ermöglicht darüberhinaus die Beurteilung der morphologischen Veränderungen in diesem Gebiet. Die unterschiedlichen Aufnahmezeitpunkte sowie die vielfältigen Aufnahmeverfahren, die ihrerseits unterschiedliche räumliche Auflösungen besitzen, führen jedoch zu Schwierigkeiten bei der Erstellung von quasi-synoptischen Bathymetrien. Im Zentrum des KFKI–Projektes “Entwicklung und Implementierung von Methoden zur Aufbereitung konsistenter digitaler Bathymetrien – KoDiBa” steht die Entwicklung und Implementierung von Algorithmen zur Generierung konsistenter digitaler Bathymetrien. Die entwickelten Methoden werden an ausgewählten Naturdatensätzen getestet. Die Ergebnisse werden im Rahmen eines Web–Portals präsentiert. Die Schwerpunkte im ersten Jahr der Projektlaufzeit lagen in: H Der Aufbereitung und Verarbeitung der von den zuständigen Ämtern zur Verfügung gestellten Daten, H der Analyse der verwendeten Formate mit dem Ziel der Übernahme bzw. der Erzeugung von Metadaten, H der Analyse und Darstellung der Daten und zugehörigen Metadaten, H der Entwicklung, der Implementierung und im Test von Fehleranalysemethoden, H der Zusammenstellung und Implementierung von räumlichen Interpolationsverfahren, H der Untersuchung von Interpolationsverfahren, die gleichermaßen Informationen aus Raum und Zeit berücksichtigen. Im folgenden Abschnitt werden die wichtigsten wissenschaftlichen und technischen Ergebnisse der ersten 12 Monate in kurzer Form dargestellt. 2. Zwischenbericht 1 Wissenschaftliche und technische Ergebnisse 2 2.1 Datenbeschaffung und Datenanalyse Zu Beginn des Projektes wurde durch die projektbegleitende Gruppe in Absprache mit dem Forschungsleiter Küste das Projektgebiet festgelegt. Das Projektgebiet umfasst den Bereich der Inseln Borkum, Juist, Norderney bis zum Festland. Ausschlaggebend für die Wahl des Projektgebietes war zum einen die Anzahl der verfügbaren Datensätze, deren Aufnahmeintervall sowie die zu beobachtenden morphologischen Effekte. Es wurde weiterhin festgelegt, dass die im Projekt durchzuführenden Fallstudien sich mit Effekten beschäftigen sollen, die in diesem Gebiet zu beobachten sind. Das Projektgebiet ist in Lage und Ausdehnung in Abbildung 2-1 gezeigt. Abbildung 2-1. Lage des Untersuchungsgebietes Der Versuch als weiteres Untersuchungsgebiet die Dithmarscher Bucht heranzuziehen wurde aufgrund der unzureichenden Verfügbarkeit von Daten in Übereinkunft mit den Mitgliedern der projektbegleitenden Gruppe eingestellt. 2. Zwischenbericht 2 Die im Projektgebiet für die Seevermessung zuständigen Stellen sind das Wasser- und Schifffahrtsamt Emden (WSA Emden) sowie das Bundesamt für Seeschifffahrt und Hydrographie in Hamburg (BSH). Die gemessenen Daten der Ämter werden vollständig in die Peildatenbank-Küste (PDBK) eingepflegt. Die Verwaltung der PDBK obliegt der Fachstelle für Informationstechnik der Wasser- und Schifffahrtsverwaltung bei der Bundesanstalt für Wasserbau in Ilmenau (F-IT Ilmenau). Bevor die Daten in den Bestand der PDBK eingepflegt werden, werden sie von der jeweils erzeugenden Stelle unterschiedlichen Plausibilitätskontrollen unterzogen. Da bei der Plausibilisierung in den Institutionen unterschiedliche Verfahren zum Einsatz kommen, unterscheiden sich auch die abgelieferten Endprodukte der Ämter. Um die Unterschiede der Verfahren genauer zu beleuchten, sind weitere Gespräche mit den zuständigen Ämtern zu führen. Mit Unterstützung der Vermessungs- und Kartenstelle der Wasser- und Schifffahrtsdirektion Nordwest (WSD-NW) konnten von der F-IT für den Zeitraum von 1989 bis 2002 Tripeldaten bezogen werden. Durch das Forschungsprojekt NOKIS wurden für die Daten in der PDBK Metadaten ermittelt und archiviert. Die Archivierung der Metadaten erfolgte dabei getrennt von den Daten. Aus diesem Grund musste eine Zuordnung zwischen den Daten und Metadaten geschaffen werden. Zu dem damaligen Projektstand von NOKIS war es noch nicht möglich, die Metadaten automatisch zu erhalten. Deswegen wurden von der F-IT diese Metadaten manuell extrahiert. Die Analyse der Metadaten ergab, dass sich jede Metadatei auf ein einzelnes Vermessungsprojekt bezieht. Aus den erhaltenen Tripeldaten konnten allerdings die einzelnen Projekte nicht mehr abgeleitet werden, da die Tripeldaten unstrukturiert in einer Datei vorlagen. Aus diesem Grund waren die NOKIS-Metadaten für die Tripel-Daten nur bedingt verwendbar. In weiterführenden Diskussionen mit der WSD-NW wurde daher die Verwendung des Kuefo-Formates vorgeschlagen [Kue98]. Seit dem Jahre 1990 werden alle Peilungen in der PDBK in diesem Format gespeichert. Das Kuefo-Format besitzt neben den Tripeldaten auch Angaben zum Datum und Aufnahmezeitpunkt einer Vermessung (Abbildung 2-2). Weitere Informationen lagen nur in sehr wenigen Datensätzen vor und konnten deshalb nur bedingt verwendet werden. H B B B R R R R 2230101100540 1191 1200 91158 91884 –1200 0 2591246.02 5886794.81 2591048.64 5887073.29 0 2591350.87 5886914.66 2591428.70 5887062.93 0 2591428.70 5887062.93 2592062.18 5886730.43 2542195.6 5940000.1 –9.23 –10.63 2542194.9 5940000.6 –9.13 –10.53 2542194.2 5940001.2 –9.11 –10.51 2542193.5 5940001.7 –9.15 –10.55 214 0.0000 0.0000 0.0000 200041 –1 0 1 H 7110901140200 7000 300 298 –250 1200 B 0 2576001.00 5946432.00 2574747.00 5947887.00 R 2576030.7 5946855.1 –0.09 –1.59 R 2576030.5 5946854.9 –0.09 –1.59 R 2576029.8 5946854.3 –0.11 –1.61 214 0.0000 200042 0 Abbildung 2-2. Ausschnitt aus einer Vermessungsdatei im Kuefo-Format Der Selektionsmechanismus der PDBK sieht zwar vor, dass die Daten mit ihren Metainformationen exportiert werden, allerdings können keine einzelnen Messkampagnen selektiert werden. Die selektierten Datensätze werden alle in eine einzige Ausgabedatei geschrieben. Während der Selektion kann 2. Zwischenbericht 3 nur das gewünschte Jahr und ein den gesuchten Bereich umschreibendes Rechteck angegeben werden. Schneidet dieses Rechteck einen Datensatz, so werden nur die Punkte innerhalb des Rechteckes von der Selektion erfasst und die restlichen Messungen verworfen. Die gleichzeitig ermittelten Metadaten beziehen sich aber auf den gesamten Datensatz. Dadurch kann es zu Inkonsistenzen zwischen den extrahierten Daten und den zugehörigen Metadaten kommen. Die auf diesem Wege erzeugte Jahresdatei besteht demnach aus den einzelnen “Kuefo-Abschnitten”. Für die weitere Verarbeitung mussten diese Jahresdateien in die einzelnen Abschnitte des Kuefo-Formates überführt werden. Untersuchungen ergaben, dass diese einzelnen Abschnitte Teile einer Messkampagne waren. Aus diesem Grund mussten Mengenoperationen entwickelt werden, die die einzelnen Abschnitte zu einer Messkampagne zusammenfügten. Da nicht erkennbar war, welchen Umfang eine Messkampagne besitzt, wurden alle Daten eines Tages zu einer Messkampagne zusammengefasst. In den Gesprächen mit der WSD-NW wurde auch über das dort neuentwickelte MBES-Format (MultiBeamEchoSounder) diskutiert [MBS02]. Dieses Format ist vor allem zur Speicherung von Fächerecholotdaten vorgesehen. Dabei wird jede einzelne Messkampagne in einer Datei gesichert. Zusätzlich zu den Daten wird auch eine Anzahl von Metadaten mitgeführt. Beispiele für diese Metadaten sind Datum, Uhrzeit, aber auch Lage- und Höhenbezug (Abbildung 2-3). Neben vordefinierten Metadaten existiert die Möglichkeit weiterführende Metadaten in einer separaten XML-Datei zu sichern. Wasserstrassennummer 7001 Dienststellennummer 213 Schiffsname Jade Projektname Drempeltest Auftragsname EIVA Datum 2003-11-3 07:48:29 MinRechts 3444079.57 MinHoch 5933132.03 MaxRechts 3444193.72 MaxHoch 5933327.19 AnzTiefen 227783 Lagestatus Datum Rauenberg HoehenStatus NN R 3444056.77 H 5933167.05 T –13.41 Stat ACTIVATED R 3444056.86 H 5933166.96 T –13.42 Stat ACTIVATED R 3444057.31 H 5933166.54 T –13.49 Stat ACTIVATED R 3444057.37 H 5933166.48 T –13.51 Stat ACTIVATED R 3444057.73 H 5933166.14 T –13.43 Stat ACTIVATED R 3444057.66 H 5933166.21 T –13.56 Stat ACTIVATED Abbildung 2-3. Ausschnitt aus einer Vermessungsdatei im MBES-Format Für das Projektgebiet lagen keine Messungen im MBES-Format vor. Um auch zukünftige Entwicklungen berücksichtigen zu können, wurden deswegen beispielhaft Daten aus anderen Gebieten betrachtet. Die Untersuchungen zeigten, dass derzeit noch nicht von Möglichkeit Gebrauch gemacht wird, zusätzliche Metadaten zu speichern. Die Menge der verbindlich definierten Metadaten einer MBES-Datei entspricht dem Informationsgehalt der Metadaten im Kuefo-Format. Als Minimalanforderung für die Metadaten wurden daher die Metadaten des Kuefo-Formates verwendet. Ein Teilaspekt des Projektes KoDiBa ist die enge Verknüpfung mit dem Projekt NOKIS. So wurden für die Daten in der PDBK NOKIS-konforme Metadaten generiert. Wie schon erläutert, war eine eindeutige Verknüpfung der NOKIS-Metadaten zu den Tripeldaten nicht möglich. Ein Versuch, die NOKIS-Metadaten mit den Messkampagnen zu verknüpfen, scheiterte. Die einzelnen Messkampagnen liegen in einer viel feineren Aufteilung vor als die NOKIS-Metadaten. Es existieren keine Informationen 2. Zwischenbericht 4 darüber, welche Messkampagnen zu den einzelnen Metadaten gehören. Deshalb konnten die NOKIS-Metadaten der PDBK nicht für das Projekt verwendet werden. Die Metadaten des Kuefo-Formates sind jedoch derzeit für die Projektarbeit als ausreichend einzustufen. Um trotzdem eine Verknüpfung mit dem Forschungsprojekt NOKIS herstellen zu können, wird angestrebt, für die in den weiteren Arbeiten entstehenden Ergebnisse automatisch NOKIS-Metadaten zu generieren und als XML-Datei zur Verfügung zu stellen. 2.2 Datenhaltung Die analysierten Daten werden vor der Weiterverarbeitung archiviert. Für die Archivierung soll ein System verwendet werden, das die folgenden Eigenschaften besitzt: H Daten und Metadaten Das Archivierungssystem soll die Möglichkeit bieten, gleichermaßen die Daten und die zugehörigen Metadaten in einer Datenbank zu verwalten. H Identifikation und Zugriff Es muss sichergestellt sein, dass der logische Zusammenhang der Daten (einer Messkampagne) erhalten bleibt und die entsprechenden Metadaten zugeordnet werden können. Darüberhinaus muss der Zugriff auf ein einzelnes Datum (Messpunkt) gewährleistet sein, ohne dass die begleitenden Informationen (Aufnahmezeitpunkt etc.) verloren gehen. H Strukturierung Das System muss die Möglichkeit der (räumlichen und zeitlichen) Strukturierung der enthaltenen Datensätze bieten, um den im Nachlauf anzuwendenden Methoden den effizienten Zugriff auch auf umfangreiche Datenbestände zu ermöglichen. H Protokollierung Alle Modifikationen der enthaltenen Daten sollten protokollierbar und umkehrbar sein. Der Urzustand der importierten Datensätze sollte jederzeit wiederherstellbar sein (Reversibles Datenmodell), um auch zu einem späteren Zeitpunkt die dem aktuellen Kenntnisstand entsprechenden Methoden anwenden zu können. Die aufgestellten Anforderungen wurden herangezogen um ein geeignetes Archivierungssystem für die Projektarbeit auszuwählen. Es konnte jedoch kein System gefunden werden, welches ohne Modifikationen den Ansprüchen des reversiblen Datenmodells genügt. Aus diesem Grund wurde beschlossen, ein projekteigenes Archivierungssystem zu entwickeln. Um Daten elektronisch zu archivieren, kann entweder ein dateigestütztes oder ein datenbankgestütztes System verwendet werden. Ein Datenbanksystem bietet den Vorteil, dass es bereits komfortable, standardisierte Methoden für die Organisation und Abfrage bereitstellt. Aus diesem Grund fiel die Entscheidung zugunsten eines Datenbanksystems. 2. Zwischenbericht 5 Für einige Datenbanksysteme existieren Erweiterungen zur Speicherung georeferenzierter Sachdaten (Spatial-Cartridge). Diese Erweiterungen sind für die Verwendung im Zusammenhang mit Geo-Informationssystemen ausgelegt und unterstützen vorwiegend die geometrischen Objekte “Fläche” und “Linie”. Alle Maßnahmen zur performaten Suche nach geometrischen Objekten konzentrieren sich ebenfalls auf diese Primitive mit räumlicher Ausdehnung. Die im Rahmen der Projektarbeit zu archivierenden Datenbestände unterscheiden sich in ihrer Struktur wesentlich von den vorgenannten Datentypen. Aufgrund dieser Tatsache ist bei der Verwendung einer solchen Erweiterung im Rahmen der vorliegenden Aufgabenstellung nicht mit einem nennenswerten Performanzgewinn zu rechnen. Aus diesem Grunde wurde als Grundlage für die Speicherung der Projektdaten ein relationales Datenbanksystem verwendet und eine spezielle, der Aufgabenstellung angepasste Datenbankstruktur entwickelt und umgesetzt. Für die technische Umsetzung wurde das entwickelte, reversible Datenmodell in ein Entity-Relationship-Modell überführt. Es wurde dabei darauf geachtet, dass die zuvor formulierten Anforderungen erfüllt werden können. Abbildung 2-4. Schema der entwickelten Datenbank Für die so entwickelte Datenbank wurden Importmethoden implementiert. Anschließend wurde die Projektdatenbank mit den Kuefo-Daten gefüllt. Auf die Hinzunahme der Tripel-Daten vor dem Jahr 1990 wurde verzichtet, da für diese keine eindeutigen Metadaten existierten. 2.3 Verifikation Bei dem Import der Daten in die Datenbank wurde eine Verifikationsanalyse durchgeführt. Die Verifikation der Daten bestand darin, dass die Daten in Hinblick auf unplausible bzw. inkonsistente Aussagen überprüft wurden. Gleichzeitig wurden aus den Daten zusätzliche Metadaten abgeleitet. 2. Zwischenbericht 6 Im Folgenden werden die Ergebnisse der Untersuchungen dargestellt. Die einzelnen Messungen besaßen sehr unterschiedliche Dichten und Verteilungen. Der Grund für diese Unterschiede sind die verschiedenen Peilverfahren der einzelnen Ämter(BSH, WSA). Jedes Amt verwendet ein Peilverfahren, welches seinen Aufgabenbereich am Besten erfüllt. Die Weiterentwicklung der Messtechnik ist eine andere Ursache für den Unterschied. Die Linienpeilungen neueren Datums besitzen eine wesentlich höhere Auflösung als zu Beginn des Betrachtungszeitraumes. Abbildung 2-5. Beispiel von einzelnen Messungen links: BSH; mitte, rechts: WSA Emden Jeder Messpunkt besteht aus zwei Lagekoordinaten und einem Messwert. Der Messwert beschreibt die Höhe des Bodens über bzw. unter NN. Keine Messung enthielt eine Information über den Aussagebereich und Angaben zur Interpretation ihrer Informationen. Streng genommen stehen nur Aussagen an den tatsächlich gemessenen Punkten zur Verfügung. Für die flächige Interpretation der Daten muss deshalb ein Aussagebereich festgelegt werden. Dabei ist zwischen einem räumlichen und einem zeitlichen Aussagebereich zu unterscheiden. Als zeitlicher Aussagebereich wird vereinfacht von einem festen Zeitpunkt ausgegangen. Für den räumlichen Aussagebereich wurden Methoden zur Generierung von umschreibenden Polygonen entwickelt und implementiert. Die generierten Polygone werden als zusätzliche Metainformationen mit in die Datenbank aufgenommen. Der generierte Aussagebereich vereinfacht die Navigation auf den Metadaten, da mit seiner Hilfe sofort erkennbar ist, welcher Bereich durch die Messung abdeckt wird (Abbildung 2-6). Die Kombination und gemeinsame Auswertung mit anderen Metadaten eröffnet ein weites Feld von Analysemöglichkeiten allein durch Verwendung der Metadaten. 2. Zwischenbericht 7 Zeit y x Abbildung 2-6. Einflussbereiche unterschiedlicher Messkampagnen Die Analyse der Daten zeigte, dass in den Datensätzen teilweise doppelte und lagegleiche Punkte vorhanden sein können. Als doppelte Punkte werden Punkte bezeichnet, bei denen sowohl die Lagekoordinaten als auch der Messwert identisch sind. Lagegleiche Punkte besitzen gleiche Lagekoordinaten aber verschiedene Messwerte (Abbildung 2-7). Das bedeutet, dass an einer Stelle widersprüchliche Informationen vorliegen. Für diese Problematik wurden automatisierte Methoden entwickelt und implementiert. Die Daten werden auf solche Punkte hin untersucht und gefundene Punkte gekennzeichnet. Der Benutzer kann interaktiv, die Bearbeitung eines solchen Punktes vorgeben. Abbildung 2-7. 2. Zwischenbericht Doppelte (rot) und lagegleiche (grün) Punkte 8 2.4 Fehleranalyse Ein anderer Abschnitt des Projektes ist die Fehleranalyse. Die Bearbeitung zeigte, dass es sehr schwierig ist, konkrete Fehlermethoden zu entwickeln. Der Grund hierfür ist die Definition des Fehlers. Um einen Fehler zu ermitteln, müsste das richtige Ergebnis bekannt sein. Ein richtiges Ergebnis ist aber bei Seevermessungen nicht bekannt. Für die Fehleranalyse muss daher eine Vorstellung über die Form des Geländes entwickelt werden. Ein Beispiel für eine solche Vorstellung zeigt Abbildung 2-8. Die Vorstellung des Geländes kann dann als “richtig” angenommen und die gemessenen Punkte können mit dieser verglichen werden. Abbildung 2-8. Annahme für eine Geländeoberfläche Weiterhin spielt auch die Fehlerart eine wichtige Rolle. Wir unterscheiden zwischen unsystematischen, lokal auftretenden und systematischen Fehlern. Lokale Ausreißer können mit Hilfe der restlichen Punkte einer Messung aus der Umgebung identifiziert werden. Bei solchen lokalen Fehlern handelt es sich im Allgemeinen um Messfehler. Systematische Fehler beziehen sich immer auf eine gesamte Messung Mögliche Ursachen für systematische Fehler sind fehlerhafte Beschickungen. Diese Fehler zu erkennen fällt insofern schwer, da die gewählte Verfahrensweise zur Beschickung eines Datensatzes in der Regel nicht bekannt ist. Aus diesem Grund sollen im Folgenden zunächst nur lokale Fehler betrachtet werden. Derzeit wird an den WSÄ ein Verfahren eingesetzt, welches von der Bundesanstalt für Gewässerkunde entwickelt wurde [Wir99]. Dabei wird mit Hilfe der Messpunkte eine Ausgleichsfläche aus Polynomen erzeugt. Liegen Punkte weiter von dieser Ausgleichsfläche entfernt als ein definierter Schwellenwert, so werden diese Punkte als fehlerhaft eliminiert. Das Verfahren lässt sich durch sehr viele Parametern steuern, so dass das Ergebnis recht stark beeinflusst werden kann. Im Projekt KoDiBa wurde eine andere Bearbeitungsstrategie entwickelt. Hierbei wird der an einem Ort gemessene Wert mit den Werten in seiner unmittelbaren Umgebung verglichen. Unter dem Begriff “Umgebung” ist dabei sowohl die räumliche Umgebung als auch eine noch zu definierende “zeitliche Umgebung” zu verstehen. Für jeden Punkt muss zunächst eine Umgebung definiert werden. Dies kann beispielsweise dadurch geschehen, dass eine Distanz vorgegeben wird und sämtliche Punkte als Umgebung akzeptiert werden, deren Abstand vom betrachteten Punkt geringer ist als die vorgegebene Distanz. 2. Zwischenbericht 9 Eine andere Möglichkeit besteht darin, nur solche Punkte zu der Umgebung hinzuzuziehen, die mit dem betrachteten Punkt “benachbart” sind. Die Definition einer Nachbarschaft geht zurück auf die Triangulation der Menge der Messpunkte (Abbildung 2-9). Auf der Grundlage einer solchen Triangulation lassen sich wiederum verschiedene Nachbarschaften, beispielsweise verschiedener Ordnungen, definieren. Abbildung 2-9 zeigt die Nachbarn erster und zweiter Ordnung des in roter Farbe markierten Punktes. Abbildung 2-9. Beispiel für die Definition der Umgebung auf der Basis einer Delaunay-Triangulation Weiterhin wird bei Suche nach einem Fehler kein verwendetes Kriterium als absolutes Kriterium aufgefasst. Vielmehr wird das Ergebnis jedes Verfahrens nur als Indikator für einen Fehler herangezogen. Dies bedeutet, dass keine entwickelte Methode ermittelt, ob es sich bei dem Punkt um einen Fehler handelt. Vielmehr wird ein Hinweis erzeugt, dass es sich bei dem untersuchten Punkt um einen Fehler handeln könnte. Wird ein Messpunkt mehrfach als “Kandidat” erkannt, so handelt es sich mit großer Sicherheit um einen Fehler (Abbildung 2-10). Eine Erweiterungsmöglichkeit des Prinzips ist die Einführung von Wahrscheinlichkeiten. So generiert jede Methode einen Gewicht, welches beschreibt, mit welcher Wahrscheinlichkeit sie den betrachteten Punkt als einen Fehler identifiziert. Durch die Kombination mehrerer Fehlermethoden erhält jeder Punkt eine Gesamtwahrscheinlichkeit für das Vorhandensein eines Fehlers. Diese Erweiterung konnte bislang noch nicht algorithmisch umgesetzt werden, da der Einfluss der einzelnen Fehleranalysemethoden noch genauer untersucht werden muss. 2. Zwischenbericht 10 Fehleridentifikator 1 Fehleridentifikator 2 Fehleridentifikator 3 Fehler Abbildung 2-10. Prinzip der Fehleridentifikatoren Nach dem Aufstellen des allgemeinen Prinzips zur Fehlerbetrachtung wurden auch einzelne Fehlermethoden entwickelt. Eine sehr einfache Analyse ermittelt, ob es sich bei dem betrachteten Punkt, verglichen mit seiner Umgebung, um ein lokales Minimum oder Maximum handelt (Abbildung 2-11). Die Untersuchung dieser Eigenschaft hängt sehr stark von der Definition der Umgebung ab. Abbildung 2-11. Darstellung der lokalen Minima (rot) und Maxima (blau) Eine andere Fehleruntersuchung wurde mit der Verwendung von Interpolationsmethoden entwickelt. Dabei wird der Höhenwert des zu untersuchenden Punktes aus den Punkten der Umgebung ermittelt. Weicht der Originalwert gravierend vom interpolierten Wert ab, so wird dieser Punkt als fehlerhaft gekennzeichnet. Als zulässige Abweichung kann ein fest definierter Schwellenwert verwendet werden (Abbildung 2-12). -10m -2m 0m +2m +10m Abbildung 2-12. 2. Zwischenbericht Darstellung der Abweichungen 11 Ein ähnliches Verfahren ist die Ermittlung der Varianz und Standardabweichung der Umgebung. Sind diese beiden Werte in Bezug auf die Umgebung ermittelt, so wird der Messwert damit verglichen. Fällt der gemessene Wert außerhalb des von Standardabweichung und Varianz definierten Bereichs, so wird der Punkt als fehlerhaft gekennzeichnet. Eine wichtige Erkenntnis der Fehleruntersuchungen war, dass es sehr hilfreich gewesen wäre, wenn Strukturinformationen des Geländes und der Messungen vorhanden gewesen wären. Dies würde die Identifikation von möglichen Fehlern bzw. Nichtfehlern vereinfachen. Aus diesem Grund wurde ansatzweise versucht, in den Daten eine Strukturerkennung durchzuführen. Eine Möglichkeit der Strukturerkennung ist die Verwendung von so genannten Abflussbäumen [Kol00]. Abflussbäume ordnen dabei benachbarte Punkte nach ihrer Höhe. Verbindet man die Anfangs– und Endpunkte der entstehenden Bäume, so erhält man Kamm– und Tallinien des Geländes (Abbildung 2-13). Dieses Vorgehen ist aber sehr stark von den definierten Nachbarschaften der Punkte abhängig. Außerdem ist das Verfahren sehr zeitaufwendig und müsste bei einer Veränderung der Nachbarschaftsverhältnisse erneut durchgeführt werden. Abbildung 2-13. Darstellung der Tal- (rot) und Kammlinien (grün) Festgestellte Fehler auf erkannten oder bekannten Strukturen müssen besonders betrachtet werden. Nicht immer handelt es sich bei markierten Punkten auf Strukturkanten um tatsächliche Fehler. Allerdings ist die Strukturerkennung ein sehr weitreichendes und aufwendiges Feld, so dass die Problematik im Projekt KoDiBa nur ansatzweise untersucht werden kann. 2.5 Interpolationsmethoden Wie schon in den vorangegangenen Abschnitten beobachtet, liefern die aufgenommenen Messungen nur punktuelle Informationen. Für die Erstellung von Bathymetrien werden aber flächenhafte Informationen benötigt. Daher müssen innerhalb des Aussagebereiches einer Messung Interpretationsregeln definiert werden, wie mit Bereichen umgegangen wird, an denen keine Messpunkte vorliegen. Die gängigste Interpretation solcher Stellen ist die Ermittlung eines Höhenwertes mit Hilfe einer Interpolationsvorschrift. Der Vorteil jeder Interpolation ist, dass an der Stelle eines gemessenen Punktes die Interpolationsmethode immer den gemessenen Höhenwert ermittelt. Die 2. Zwischenbericht 12 Reihe der Interpolationsmethoden ist sehr vielfältig und auch meistens aufgabenabhängig. Im Folgenden sollen daher die für die Erstellung von Bathymetrien wichtigsten Interpolationsmethoden beschrieben werden. Es werden nur die Verfahren in der räumlichen Ebene beschrieben. Allerdings wurden die Interpolationsvorschriften mit der Fragestellung auf die Übertragbarkeit in eine zeitliche Ebene ausgewählt. Die bekannteste Interpolationsvorschrift ist die lineare Interpolation. Der Grundgedanke ist, dass die Verteilung der Gewichte für die Ermittlung des neuen Höhenwertes linear erfolgt [HoL92]. Wie die Verteilung der Gewichte bestimmt wird, hängt von der verwendeten Dimension ab. Für die Ermittlung von Höhenwerten wird im Allgemeinen eine 2–dimensionale lineare Interpolation verwendet. Um die Interpolation durchführen zu können, müssen für alle Messpunkte untereinander die Nachbarschaftsverhältnisse definiert werden. Dies geschieht meist durch eine Triangulation der Punktmenge, weil hierdurch immer nur drei Punkte einen Einfluss auf den zu ermittelnden Punkt haben. Der gebräuchlichste Algorithmus zur Erstellung einer Triangulation ist der Delaunay–Algorithmus. Sollen bestimmte Strukturen bei der Triangulation berücksichtigt werden, so kann der Delaunay–Algorithmus abgewandelt werden. Durch die Triangulation ist der Aussagebereich in viele kleine Teilflächen unterteilt. Alle Teilflächen bilden eine stetige Fläche ohne Sprünge. Die Interpolation eines Punktes folgt nur auf einem dieser Teilbereiche. Deshalb handelt es sich bei der linearen Interpolation um eine lokale Interpolationsmethode. Der einzufügende Punkt teilt den Bereich in einzelne Flächen ein. Das Verhältnis der Flächen zur Gesamtfläche eines Teilgebietes liefert das Gewicht für die Interpolation (Abbildung 2-14). Durch die Lokalität ist die lineare Interpolation ein sehr schnelles und einfaches Verfahren, da immer nur drei Punkte betrachtet werden müssen. Der Vorteil an Zeit und Rechenkapazität macht es zu der derzeit am meisten verbreiteten Methode. X1 ? A2 z0 + ? A3 ȍ x * AA i i g A1 X3 Abbildung 2-14. X2 Prinzip der räumlich-linearen Interpolation Eine andere Interpolationsmethode ist die Shepard–Interpolation. Sie wurde 1969 von Shepard das erste Mal veröffentlicht [HoL92]. Im Gegensatz zur linearen Interpolation werden die Gewichte der Interpolation mit Hilfe der Abstände der Punkte ermittelt (Abbildung 2-15). So muss also keine Triangulation der Punktmenge durchgeführt werden. Allerdings müssen für die Ermittlung eines Wertes immer alle anderen Punkte betrachtet werden. Dies ist ein Nachteil bei großen Punktmengen. Ein Vorteil dieser Interpolationsmethode ist die Flexibilität bei der Gewichtung der Abstände. So ist es möglich, die Abstände selbst nochmals zu gewichten. Dadurch können 2. Zwischenbericht 13 Punkte mit einem geringeren Abstand einen höheren Einfluss bekommen, als solche die weiter entfernt liegen. d7 d2 d1 d3 z+ z ȍx * i 1 dm i ȍ 1 dm i d4 d6 d5 Abbildung 2-15. Prinzip der räumlichen Shepard-Interpolation Neben der Gewichtung der Abstände können auch nur Punkte berücksichtigt werden, die innerhalb eines zuvor definierten Radius liegen. Dieser Schritt überführt die globale Shepard-Interpolation in eine lokale Interpolation. Allerdings kann die Bestimmung solcher Punkte auch sehr zeitintensiv sein, so dass kaum ein Performanzgewinn entsteht. Ein der Shepard-Interpolation ähnliches Verfahren ist das Kriging-Verfahren [Bur86]. Auch bei diesem Interpolationsverfahren spielen die Abstände der Punkte untereinander eine wichtige Rolle. Der Lage- und Höhenunterschied zweier Punkte wird in einem Diagramm aufgetragen. Das entstehende Diagramm wird Variogramm genannt. Ziel des Verfahrens nach Krige ist, dass beim Einfügen eines Punktes die Varianz der gesamten Punktmenge sich nicht verändert. Aus diesem Grund werden aus den Variogramm die Kenngrößen der Punktmenge ermittelt. Die Gewichte des zu errechnenden Höhenwertes werden dann mittels eines linearen Gleichungssystems berechnet. Wie man schon aus der Beschreibung erkennt, ist dieses Verfahren sehr zeit- und rechenintensiv. Auch muss die zusätzliche Problematik für das Lösen von Gleichungssystemen berücksichtigt werden, weil immer ein iterativer Lösungsweg gewählt werden muss. Deshalb ist dieses Verfahren nur für Punktmengen geeignet, die eine geringe Anzahl von Punkten besitzen. Für die Durchführung der Sibson-Interpolation muss der Aussagebereich in Teilbereiche unterteilt werden [Sel02]. Dies geschieht durch eine VoronoiZerlegung. Die einzelnen Zellen einer Voronoi-Zerlegung werden dabei wie folgt definiert: Für jede Stelle wird der Punkt mit dem geringsten Abstand ermittelt. Ist dieser Punkt ermittelt, wird die Stelle diesem Punkt zu geordnet. Das Ergebnis ist eine eindeutige Aufteilung des Aussagebereiches. Um einen Höhenwert zu interpolieren wird angenommen, dass ein Punkt eingefügt wird. Das Einfügen eines Punktes verändert die Voronoi-Zerlegung. Dabei nimmt dieser Punkt von einzelnen Zellen Teilflächen. Die Verhältnisse dieser Teilflächen zur entstehenden Gesamtfläche werden als Gewichtung zur Ermittlung des Höhenwertes verwendet (Abbildung 2-16). Die Ermittlung des Höhenwertes zeigt, wie aufwendig das Verfahren ist, da immer eine neue Zerlegung erzeugt werden muss. Schon die Erstellung der Ausgangszerlegung nimmt sehr viel Zeit- und Rechenkapazität in Anspruch. Aus diesem Grund wird das Verfahren sehr selten verwendet. Es bleibt aber zu 2. Zwischenbericht 14 untersuchen, ob eine Zerlegung in Raum und Zeit ein brauchbares Ergebnis liefern kann. x1 ÏÏÏÏÏÏÏÏÏ ÏÏÏÏÏÏÏÏÏ ÏÏÏÏÏÏÏÏÏ ÏÏÏÏÏÏÏÏÏ ÏÏÏÏÏÏÏÏÏ x4 z0 + ? ȍ x * AA i i g x2 x3 Abbildung 2-16. Prinzip der Sibson-Interpolation 2.6 Zeitliche Betrachtung Neben den räumlichen Untersuchungen spielen für das Projekt KoDiBa vor allem die zeitlichen Aspekte eine wichtige Rolle. Um Aussagen in der Zeitebene zu treffen, wird in einem ersten Schritt versucht, die räumlichen Interpolationsmethoden auf die Zeitebene zu übertragen. Vor diesem Schritt wurde zuerst eine Modellvorstellung zur Beschreibung der zeitlichen Aspekte entwickelt. Das Modell wird Zeitstrahl genannt und soll alle Messungen an einer Stelle über die Zeit beschreiben. Dazu wird ein Strahl an einer Stelle innerhalb des Untersuchungsgebietes erzeugt. Die Schnittpunkte des Zeitstrahls (z) mit einem Aussagebereich werden als Durchstoßpunkte bezeichnet (Abbildung 2-17). Mit Hilfe dieser Durchstoßpunkte (z1,z2,z3) können vollkommen neue Analysemöglichkeiten entwickelt werden. Von zwei zeitlich benachbarten Durchstoßpunkten kann die Differenz gebildet werden. Stellt man alle Differenzen dar, so erhält man die zeitlichen Veränderungen. Mit Hilfe dieser Veränderungen können Ansätze über eine zeitliche Entwicklung beschrieben werden. Durch die Ableitung von Trends aus diesen Entwicklungen ist es sogar möglich, in einem begrenzten Zeitraum gewisse Vorhersagen zu treffen. 2. Zwischenbericht 15 Zeitstrahl z Zeit z2 t2 z1 t1 z0 t0 Abbildung 2-17. Ermittlung der Durchstoßpunkte Gleichzeitig bietet die zeitliche Betrachtung die Möglichkeit weiterführende Plausibilitätskontrollen und Fehleranalysen anzustellen. Als Beispiel sei hier nur die Übertragung der räumlichen Ausreißer auf die zeitlichen Ausreißer erwähnt. Im Gegensatz zu den räumlichen Methoden können mit den zeitlichen Methoden eventuell auch strukturelle Fehler erkannt werden. Allerdings muss hierfür eine flächige Betrachtung durchgeführt werden. Für die flächige Betrachtung werden die punktuellen Zeitstrahlen miteinander kombiniert. Dieses Vorgehen wurde am Beispiel eines Schnittes durchgeführt. Es wurde eine Trägermenge von Punkten definiert. Für jeden Punkt wird dann der Zeitstrahl ermittelt. Die flächige Darstellung, wie in Abbildung 2-18, kann für weitere Untersuchung verwendet werden. Jahr 2002 2001 2000 1999 1998 1997 1996 1995 1994 1993 1992 1991 1990 0 250 Abbildung 2-18. 500 750 1000 1250 1500 1750 Ort 20 Flächige Darstellung der Durchstoßpunkte. Höhenwerte sind farblich kodiert. Neben den weiterführenden Analysen ist die Ermittlung von zeitlich nicht gemessenen Punkten von großer Bedeutung. Für aktuelle Fragestellungen werden derzeit von den verschiedensten Institutionen hauptsächlich aktuelle Bathymetrien erstellt. Dies geschieht durch ein sogenanntes ”Aufprägen”. Dabei werden jeweils die neusten gemessenen Daten an einer Stelle 2. Zwischenbericht 16 verwendet (Abbildung 2-19). Dadurch kommt es an den Übergängen von zwei Messungen unter Umständen zu Inkonsistenzen, weil diese im Allgemeinen zu verschiedenen Zeiten aufgenommen wurden. Außerdem liefert diese Methode nicht wirklich aktuelle Bathymetrien, sondern nur eine vergangene Bathymetrie mit zeitlichen Sprüngen. Zeit 2003 Ort Abbildung 2-19. Schematische Darstellung der aktuellen Vorgehensweise Im Projekt KoDiBa wird zunächst untersucht, inwieweit aus “historischen” Daten konsistente Bathymetrien für Zeitpunkte in der Vergangenheit erstellt werden können. Der Vorteil dieser Betrachtungsweise ist, dass davon ausgegangen werden kann, dass Messungen zu einem früheren und späteren Zeitpunkt existieren (Abbildung 2-20). Verwendet man diese Messungen zur Erstellung der Bathymetrie, so treten weniger Inkonsistenzen auf. Zeit 2003 Ort Abbildung 2-20. Prinzip zur Erstellung von vergangenen Bathymetrien Die einfachste Möglichkeit ist die Verbindung zweier lagegleicher Punkte aus zwei Zeitebenen. Zwischen diesen Punkten kann eine lineare Interpolation über die Zeit durchgeführt werden. Als Gewichtung werden die zeitlichen Abstände verwendet. 2. Zwischenbericht 17 Um dieses Verfahren zu analysieren, wurde in einer Untersuchung eine Zeitebene ausgelassen und durch eine zeitliche Interpolation ermittelt. Bildet man die Differenz zwischen der berechneten und gemessenen Zeitebene, so kann man eine Aussage über die Güte des Verfahrens machen. In einem konkreten Beispiel wurden Daten des BSH analysiert. Es lagen dabei Daten aus den Jahren 1992, 1995 und 1998 vor. Das Jahr 1995 wurde mit Hilfe der zeitlichen linearen Interpolation aus den Jahren 1992 und 1998 ermittelt (Abbildung 2-21). Der Vergleich mit den gemessenen Daten zeigte erwartungsgemäß, dass in einigen Bereichen eine sehr gute Übereinstimmung vorlag, während es in Bereichen mit größerer morphodynamischer Änderungen größere Abweichungen gab. Abbildung 2-21. Vergleich der gemessenen (Isolinien) zu berechneten (Isoflächen) Daten Diese Untersuchung zeigte, dass es wichtig ist, Strukturen auch über die Zeit zu berücksichtigen [Kin03]. Bei der einfachen linearen Interpolation werden diese nicht berücksichtigt. Dadurch gehen im Allgemeinen wichtige Informationen verloren. Es muss allerdings untersucht werden, welche Strukturen als wichtig erachtet werden müssen. Am Beispiel einer einfachen Rinne konnte gezeigt werden, dass es nicht ausreichend ist, nur den Talweg als Strukturkante zu verwenden. Erst durch die Berücksichtigung von Uferkanten konnte ein Ergebnis erzeugt werden, welches das Gelände gut approximiert (Abbildung 2-22). Solche Strukturkanten werden in Anlehnung an örtliche Bruchkanten in Digitalen Geländemodellen als zeitliche Bruchkanten bezeichnet. Zeit Ort Abbildung 2-22. 2. Zwischenbericht Darstellung von zeitlichen Bruchkanten 18 Das Auffinden von zeitlichen Bruchkanten kann derzeit allerdings nur manuell erfolgen. Eine automatische Erkennung solcher Strukturen ist bislang noch nicht möglich. Wie die lineare Interpolation kann auch die Shepard-Interpolation in die Zeit übertragen werden. Dabei werden dann mehrere Zeitebenen betrachtet (Abbildung 2-23). Da im Allgemeinen nicht sehr viele Zeitebenen vorliegen, können alle Zeiten verwendet werden. Die Gewichtung zur Ermittlung des Höhenwertes erfolgt über den zeitlichen Abstand. Durch dieses Vorgehen kann erwartet werden, dass durch die Betrachtung mehrerer Zeitebenen zeitliche Trends besser berücksichtigt werden. Allerdings muss noch untersucht werden, wie die zeitlichen Abstände gewichtet werden sollten. Zeit 2003 Ort Abbildung 2-23. Übertragung der Shepard-Methode Neben der rein zeitlichen Analyse ist auch die gleichzeitige Verwendung von Raum und Zeit möglich (Abbildung 2-24). Damit könnten dann auch räumliche und zeitliche Entwicklungen berücksichtigt werden. Jedoch muss der Zusammenhang zwischen den räumlichen und zeitlichen Koordinaten definiert werden. Untersuchungen ergaben, dass die Metrik von Raum und Zeit einen wesentlichen Einfluss auf die Ergebnisse hat. Eine Definition einer solchen Metrik gelang bisher allerdings noch nicht. 2. Zwischenbericht 19 Zeit 2003 Ort Abbildung 2-24. Zeitlich und räumliche Berücksichtigung Um eine Interpolation, die räumliche und zeitliche Koordinaten verwendet, durchführen zu können, muss nicht nur ein räumlicher Aussagebereich sondern auch ein zeitlicher Aussagebereich bestimmt werden. Es bleibt zu untersuchen, wie ein zeitlicher Aussagebereich ermittelt werden kann und von welchen Parametern dieser Bereich abhängt. Mit den Aussagebereichen können verschiedene Metriken untersucht werden. Der Einfluss der verwendeten Metrik auf das Ergebnis muss bei den Untersuchungen eingehender betrachtet werden. 2.7 Präsentation der Ergebnisse Die Präsentation der Ergebnisse soll durch verschiedene Formen erfolgen. Neben der Erstellung von Berichten werden die Methoden und Ergebnisse der Öffentlichkeit durch das Internet zugänglich gemacht. Die Präsentation erfolgt mit Hilfe eines Web-Servers. So wurde für die Web-Präsentation schon zum Beginn der Projektlaufzeit ein Server beschafft. Um eine kostengünstige Plattform aufzubauen, werden für das Projekt nur OpenSource-Produkte verwendet. Die verwendeten Produkte für die Web-Präsentation sind Apache und Tomcat. Als DatenbankSoftware wurde das weit verbreitete Produkt MySQL installiert. Die Verbindung dieser beiden Bereiche wird mit Hilfe der Programmiersprache Java realisiert. Dadurch ist ein Zugriff über das Web-Portal auf die Daten möglich. Um auch schon zur Laufzeit über das Projekt zu informieren, wurde der Server gleich nach Beschaffung online geschaltet. Die Präsentation erfolgt getrennt in einen internen und einen externen Bereich. Dadurch besteht die Möglichkeit, bereits am Anfang der breiten Öffentlichkeit Informationen über das Projekt zur Verfügung zu stellen. 2. Zwischenbericht 20 Der externe Bereich, und damit der Öffentlichkeit zugängliche Bereich, informiert über das Projekt selbst, die Zielsetzung und über die letzten Fortschritte. Abbildung 2-25. Webseite des Projektes Die Diskussionen mit der projektbegleitenden Gruppe zeigten, dass die Daten als sensibel eingestuft werden müssen und daher noch nicht der Öffentlichkeit zugänglich gemacht werden sollten. Aus diesem Grunde wurde ein interner Bereich definiert, zu dem nur die Mitglieder der projektbegleitenden Gruppe Zugriff haben. In diesem geschützten Bereich wurde der Prototyp eines Web-Portals eingestellt, über das der Zugriff auf die Daten durchgeführt werden kann. Die Darstellung der Daten erfolgt mit Hilfe der Java-Applet-Technologie. 2. Zwischenbericht 21 Abbildung 2-26. Prototyp des Web-Portals mit Passwortabfrage Neben der Darstellung der Daten dient der interne Bereich auch als Kommunikationsplattform für die projektbegleitende Gruppe. So werden neben Neuigkeiten aus dem Projekt dort auch die Sitzungsprotokolle und andere Dokumente zum Projekt als PDF-Version zur Verfügung gestellt. 2. Zwischenbericht 22 Projektstand 3 Der Vergleich des Standes des Projektes zum aktuellen Zeitpunkt mit dem im Projektantrag verfassten Zeitplan zeigt im Wesentlichen eine gute Übereinstimmung. Zum Zeitpunkt der Erstellung dieses Berichtes wurden die Arbeitspakete “Zeitlicher Trend” und “Web-Portal” bearbeitet. Monate ab Projektbeginn 1 2 3 4 5 6 Datenbeschaffung ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ Verifikation, Bereinigung Visualisierung Fehleranalysemethoden Interpolationsmethoden Differenzen bilden Zeitlicher Trend 7 8 9 10 11 12 ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ ǰ Import/Export Filter Metadaten WebĆPortal 3 Feinstudien 13 14 15 16 17 ǰ Ę Ę ǰ ǰ ǰ ǰ ǰ Ę ǰ ǰ 18 19 20 21 ǰ Ę Ę Ę Ę Ę Ę Ę Bericht Abbildung 3-1. 22 23 Ę Ę Ę Ę 24 Ę Tabellarische Übersicht über den Projektstand ǰ = abgearbeitet; Ę = noch zu bearbeiten. Es wird davon ausgegangen, dass auch weiterhin eine gute Übereinstimmung zum aufgestellten Arbeitsplan bestehen wird. Aussichten für die Erreichung der Ziele Die Rückmeldungen von den Mitgliedern der projektbegleitenden Gruppe zeigten, dass die im Projektantrag gesteckten Ziele erreicht werden. Auch der Projektstand und die durchgeführten Arbeiten lassen hieran keinen Zweifel entstehen. Relevante Ergebnisse Dritter Derzeit sind keine Forschungsaktivitäten bekannt, deren Ergebnisse das Projekt beeinflussen könnten. Verwertungsplan Es liegen keine Veränderungen des Verwertungsplans zum letzen Zwischenbericht vor. 2. Zwischenbericht 23 Literatur 4 [Bar00] Bartelme, N.: Geoinformatik - Modelle, Strukturen, Funktionen. Springer Verlag, Berlin, 2000 [Bro95] Bronstein, I.N.m Semendjajew G.M.: Taschenbuch der Mathematik. Harri Deutsch Verlag, 1995 [Bur86] Burrough, P.A., McDonnell R.A.: Principles of Geographical Information Systems, Oxford University Press, 1986 [HoL92] Hoscheck, J., Lasser, D.: Grundlagen der geometrischen Datenverarbeitung. Teubner Verlag, Stuttgart, 1992 [Kin03] Kinkeldey, C.: Digitale Geländemodellierung unter Berücksichtigung von Raum und Zeit, Studienarbeit, Institut für Bauinformatik, Universität Hannover, 2003 (nicht veröffentlicht) [Kof03] Kofler, M.: MySQL – Einführung, Programmierung, Referenz, Addison-Wesley, 2003 [Kol00] Kolesnikov, N.: Ermittlung und Nutzung von Strukturinformationen für die Auswahl der Gradienten zur Erfassung der räumlichen Veränderlichkeit einer Fläche, In: Angewandte Geostatistik im Bergbau, Geologie, Geophysik, Geodäsie und Umweltschutz, Dresden, 2000 [Kue98] Jürges, J.: BAW–AK–Dateikennblatt: kuedat.dat (Kuefo-Format), Bundesanstalt für Wasserbau, Dienststelle Hamburg, 1998 [MBS02] unbekannt: Metadaten für das Peilwesen, Beschreibung des MBES-Formates, Bundesanstalt für Gewässerkunde, Koblenz und Wasser- und Schifffahrtsdirektion Nordwest, Aurich, 2002 [Mil01] Milbradt, P.: Algorithmische Geometrie in der Bauinformatik, Habilitationsschrift, Institut für Bauinformatik, Universität Hannover, 2001 [Sel02] Sellerhoff, F.: Ein punktbasiertes Informationsmodell für das Küsteningenieurwesen, Dissertation, Institut für Bauinformatik, Universität Hannover, 2002 [Wir99] Wirth, H.: Flächenhafte Plausibilisierung von Peildaten, Bundesanstalt für Gewässerkunde, Koblenz, 1999 2. Zwischenbericht 24