Schwerpunktthema it 3/2004 Wissenschaftliche Visualisierung – Ausgewählte Forschungsprojekte Scientific Visualization – Selected Research Projects Thomas Ertl, Universität Stuttgart, Daniel A. Keim, Universität Konstanz Zusammenfassung Die Hauptbeiträge dieser Ausgabe belegen eindrucksvoll den Stand der Forschung, den die wissenschaftliche Visualisierung inzwischen erreicht hat. Allerdings kann das große Spektrum der Anwendungen und Projekte der in der Visualisierung aktiven Forschungsgruppen im deutschsprachigen Raum auf diese Weise kaum angemessen beschrieben werden. Daher geben wir im Folgenden ausgewählten Projekten die Möglichkeit, das Bild von dieser noch jungen Disziplin der Informatik abzurunden. Summary The main contributions of this special issue clearly demonstrate the advanced state of research in scientific visualization. However, the diversity of visualization applications and projects in German speaking countries is hardly represented adequately. Therefore, we give some additional research groups the opportunity to present a selected characteristic project. KEYWORDS I.3 [Computer Graphics] Visualisierung Deutsches Forschungszentrum für Künstliche Intelligenz Kaiserslautern Prof. Dr. H. Hagen R. H. van Lengen Die Echokardiographie (Ultraschall des Herzens) ist ein bildgebendes Verfahren, bei dem das Herz und das herznahe Gefäßsystem in Schnittbildern dargestellt werden. Ultraschall ist ein ausgereiftes, kostengünstiges und nicht-invasives diagnostisches Verfahren, das heute als Routinemethode zur Untersuchung von Herzerkrankungen eingesetzt wird. Durch den klinischen Routinebetrieb ist die für die Ausbildung der Studenten zur Verfügung stehende Zeit des medizinischen Personals häufig begrenzt. Nach einjähriger Ausbildung haben Medizinstudenten in der Regel lediglich 80% der möglichen klinischen Fälle diagnostiziert. Aus diesem Grund wird dem virtuellen 148 it – Information Technology 45 (2004) 3 Unterricht und Training zukünftig eine gewichtige Funktion in der medizinischen Ausbildung zufallen. Am Deutschen Forschungszentrum für Künstliche Intelligenz wird an der Erforschung neuer Techniken und Lösungsmöglichkeiten für eine virtuelle Untersuchungsumgebung zur medizinischen Ausbildung in der Echokardiographie gearbeitet. Der zurzeit in der Entwicklung befindliche Prototyp für ein intelligentes Ausbildungssystem setzt sich aus verschiedenen Komponenten zusammen. Grundlage des Systems ist eine medizinische Ontologie des Herzens, aus der sich für die Animation des virtuellen Herzens die zeitlich korrekte geometrische Repräsentation einzelner anatomischer Strukturen ableiten lässt. Eine zusätzliche Befundontologie beschreibt alle im Rahmen einer echokardiographischen Untersuchung erfassbaren Befund Oldenbourg Verlag daten. Auf Basis der Befundontologie wurde das EchoBefundModul entwickelt, das der Erfassung standardisierter kardiologischer Befunde dient. In einem virtuellen Ausbildungsszenario kann der Tutor einen kardiologischen Befund aus dem Bild 1 Dynamisches 3D-Modell des menschlichen Herzens, das auf Basis eines elektronisch erfassten Echokardiographiebefundes und einer Ontologie des Herzens automatisch generiert wurde. Wissenschaftliche Visualisierung – Ausgewählte Forschungsprojekte wählten Befund. Eine weiterentwickelte Version würde beide Befunde automatisch abgleichen und zusammen mit den Positionsdaten der Ultraschallsonde Rückschlüsse auf das Ausbildungsniveau des Studenten gewinnen. Literatur Bild 2 Herzmodell teilweise transparent dargestellt mit Hilfe einer so genannten ClippingEbene. EchoBefundModul auswählen. Mit Hilfe der Ontologie des Herzens wird automatisch ein dynamisches 3D-Modell inklusive der aus dem Befund abgeleiteten pathologischen Strukturen erzeugt. Das Modell wird dem auszubildenden Studenten anschließend in einer virtuellen Umgebung präsentiert. Der Student kann das virtuelle Herz in seiner räumlichen Darstellung diagnostizieren und seinerseits einen Befundbericht in das EchoBefundModul eingeben. In der einfachen Variante des Systems vergleicht der Tutor den eingegebenen Befund mit dem ursprünglich von ihm ausge- [1] M. Bertram, S. Köhn, T. Bähr, B. Klein, R.H. van Lengen: Visualization the Shadows of Information. WM2003 (02.04.–04.04.2003), Luzern, Schweiz. [2] G. Reis, M. Bertram, R.H. van Lengen, H. Hagen: Adaptive Volume Construction from Ultrasound Images of a Human Heart. Symp. on Visualization (VisSym), Joint Eurographics – IEEE TCVG 19 (21.05.2004), Konstanz. Universität Konstanz Prof. Dr. Daniel A. Keim In vielen Data Mining Szenarios wird es zunehmend wichtiger, Beziehungen und Muster zu explorieren, die durch große geographiebezogene Datenmengen beschrieben werden. Interessante Beispiele sind Kreditkartentransaktionen, bei denen sowohl die Adresse des Verkäufers als auch des Kunden gesichert werden, oder Telefongespräche, bei denen die Adressen und die Koordinaten (Standorte) des Anrufers und des Angerufenen protokolliert werden. Auch in der Demographie und anderen amtlichen Veröffentlichungen werden neben den statistischen Werten auch Adressen und geographische Verzeichnisse verwendet. Diese geographischen Datenbanken werden durch eine Menge von Tupeln, bestehend aus einem Längengrad und einem Breitengrad, sowie einer Menge von statistischen Werten beschrieben. Jedes Tupel repräsentiert eine geographische Position, welcher ein oder mehrere statistische Werte, entsprechend den Messergebnissen bzw. der statistischen Erhebungen für einen geographischen Standort, zugeordnet werden. Eine sehr einfache und weit verbreitete Visualisierungstechnik sind DotMaps, bei denen einfach Punkte an den einzelnen Standorten gezeichnet werden. Ein großes Problem dieser Technik ist das Überschreiben von bereits gesetzten Punkten, da geographische Daten sehr unregelmäßig in der realen Welt verteilt sind. Dieses Problem führt dazu, dass lokale Muster durch unerwünschtes Überschreiben von bereits gesetzten Pixeln in Bild 3 Vergleich einer traditionellen Karte und einer PixelMap: Beide Karten zeigen das durchschnittliche Haushaltseinkommen in den USA. In der PixelMap Visualisierung kann man sehr leicht die sechs am dichtesten besiedelten Gebiete der USA und deren Einkommenscluster erkennen. 149 Schwerpunktthema Bild 4 Visualisierung von Clustern des durchschnittlichen Haushaltseinkommens des Bundesstaates New York durch PixelMap: Man beachte Cluster mit sehr hohen Einkommen an der Ostseite des Central Parks in Manhattan und Cluster mit sehr niedrigen Einkommen am westlichen Rand von Brooklyn. dichten Regionen (z. B. Ballungszentren) miteinander vermischt werden, während dünn besiedelte Regionen im Gegensatz dazu virtuell leer sind. Diese Situation führt zu neuen Herausforderungen in Hinblick auf die Skalierbarkeit neuer Visualisierungstechniken. In Kooperation mit dem AT&T Shannon Research Laboratory haben wir einen neuen Ansatz, PixelMap genannt, zur visuellen Analyse von großen geographischen Datenbanken entwickelt. Unser PixelMapAnsatz kombiniert dabei ClusteringTechniken mit einer neuen pixelbasierenden Visualisierungstechnik. Die Kombination der beiden unterschiedlichen Techniken ermöglicht einerseits eine effiziente Verzerrung der Karte basierend auf einer Approximation der zweidimensionalen Dichtefunktion auf den beiden geographischen Dimensionen, sodass die dreidimensionalen Punktwolken besser auf die Karte abgebildet werden können, und andererseits eine effiziente Neupositionierung der Datenpunkte. Literatur [1] D.A. Keim, C. Panse, M. Sips: Visual Data Mining of Large Spatial Data Sets, In Databases in Networked 150 Information Systems, Third Int’l Workshop, DNIS’03, Aizu, Japan, Sep. 22–24, LNCS. 2822, 2003. [2] D.A. Keim, S.C. North, C. Panse, M. Sips: PixelMaps: A New Visual Data Mining Approach for Analyzing Large Spatial Data Sets, In: ICDM 2003, The Third IEEE Int’l Conf. on Data Mining, Melbourne, Florida, USA,2003. TU München Prof. Dr. Rüdiger Westermann Die visuelle Simulation und interaktive Visualisierung realer Phänomene ist traditionelles Thema der Computergraphik mit Anwendungen in der wissenschaftlichen Visualisierung, in der virtuellen Realität, in virtuellen Trainings- und Lernsystemen und in Computerspielen. Ausgehend von mathematischen Beschreibungen physikalischer Modelle durch Differentialgleichungen und Differentialgleichungssysteme kommen vor allem numerische Simulationsverfahren zum Einsatz. Im interaktiven Bereich steht die Optimierung der Rechengeschwindigkeit im Vordergrund, was in der Vergangenheit eine starke Einschränkung des zu erzielenden Grades an Realismus oder einen hohen Bedarf an Ressour- cen zur Folge hatte. Die rasante Entwicklung der PC-Graphikhardware hat neue Möglichkeiten zur interaktiven oder gar echtzeitfähigen visuellen Simulation eröffnet, die Gegenstand aktueller Forschung in der Computergraphik sind. Am Lehrstuhl für Computergraphik und Visualisierung der Technischen Universität München wird eine Numerik-Bibliothek für die Simulationsrechnung und Visualisierung entwickelt, die sich von existierenden Bibliotheken darin unterscheidet, dass numerische Lösungs- Bild 5 Direkte numerische Lösung der Navier-Stokes Gleichungen für inkompressible Medien und gleichzeitige Visualisierung der Simulationsergebnisse auf einer ATI 9800 PCGraphikkarte. Die Simulations- und Darstel× 512 Gitter bei 25 lungsrate liegt für ein 512× Bildern pro Sekunde. Wissenschaftliche Visualisierung – Ausgewählte Forschungsprojekte Bild 6 Interaktive Simulation und Visualisierung eines 3D-Windtunnel-Experiments auf einer ATI 9800 PC-Graphikkarte. Basierend auf einem Verfahren zweiter Ordnung können bis zu 40 Millionen Partikel pro Sekunde entlang der Stromlinien in einem stationären Vektorfeld integriert werden. verfahren auf programmierbare PCGraphikhardware abgebildet werden. Dadurch kann das vorhandene Potential an Speicherbandbreite, Parallelverarbeitung und HardwareUnterstützung für spezielle numerische Operationen genutzt werden. Darüber hinausgehend wird der Transfer der Simulationsergebnisse auf das graphische Subsystem zum Zweck der Darstellung vollständig vermieden. Die Kombination mit speziellen Darstellungstechniken für hoch aufgelöste Skalar- und Vektorfelder (z. B. Particle-Engines oder Volume Rendering Methoden) ermöglicht die direkte Simulation und gleichzeitige Darstellung komplexer physikalischer Phänomene in Echtzeit. mobilindustrie untersucht. In der Fahrzeugentwicklung spielt die Simulation z. B. des Crash-Verhaltens oder der Außenaerodynamik schon in einer frühen Phase eine große Rolle. Die zu Grunde liegenden Finite-Element-Modelle sind heute so detailliert, dass traditionelle Pre- und Postprocessing-Techniken zur Aufbereitung der Modelle und zur Analyse der Berechnungsergebnisse oft kein interaktives Arbeiten mehr erlauben. In mehreren Projekten wurden daher in enger Kooperation mit Fahrzeugherstellern hochspezialisierte Visualisierungswerkzeuge entwickelt, die mit optimierten Algorithmen und unter Ausnutzung moderner Graphikhardware komplexe Manipulationen und aussagekräftige Darstellungen in Echtzeit ermöglichen. Einige dieser Tools wurden erfolgreich kommerzialisiert und werden heute weltweit im produktiven Entwicklungsprozess eingesetzt (siehe Bild 7). Beispielhaft sei das BMBF-Verbundprojekt AUTOOPT erwähnt, bei dem in Stuttgart die Integration von unabhängig vernetzten Karosseriebauteilen zu ei- Literatur [1] J. Krüger, R. Westermann: Linear Algebra Operators for GPU Implementation of Numerical Algorithms. SIGGRAPH 2003 Conf. Proc., pp. 908– 917, 2003. [2] J. Krüger, R. Westermann: Acceleration Techniques for GPU based Volume Rendering. IEEE Visualization Conf. Proc., pp. 287–293, 2003. Bild 7 Verschiedene Methoden der Strömungsvisualisierung, die interaktiv zur Optimierung der Außenaerodynamik eines PKW eingesetzt werden (PowerVIZ der science + computing ag). Universität Stuttgart Prof. Dr. Thomas Ertl Am Institut für Visualisierung und Interaktive Systeme der Universität Stuttgart werden neben grundlegenden Aspekten interaktiver Visualisierungsverfahren auch deren Einsatzmöglichkeiten in der Auto- Bild 8 Assembly von unabhängig vernetzten Bauteilen zu einem Finite-Element-Modell des Gesamtfahrzeugs für die Crash-Simulation. nem Gesamtfahrzeugmodell bearbeitet wird. Bei diesem Assembly fallen folgende algorithmisch anspruchsvolle Teilaufgaben an: Korrektur von Netzfehlern wie Perforationen, Auffinden potentieller Flansche zum Verschweißen, Visualisierung von Verbindungstechnik wie Klebeschichten, interaktives Modifizieren der Bauteile bei Aufrechterhalten der Finite-Element-Qualität (siehe Bild 8). Weitere Informationen zu diesem und anderen Projekten finden sich auf www.vis.unistuttgart.de. Literatur [1] N. Frisch, D. Rose, O. Sommer, T. Ertl: Visualization and Pre-processing of Independent Finite Element Meshes for Car Crash Simulations. The Visual Computer , 18(4):236-249, 2002. [2] D. Rose, T. Ertl: Interactive Visualization of Large Finite Element Models. In Workshop on Vision, Modelling, and Visualization VMV ’03, pp. 585–592. infix, 2003. Universität Tübingen Prof. Dr. Wolfgang Straßer Der Lehrstuhl für graphisch-interaktive Systeme (GRIS) der Universität Tübingen betreibt Forschung in allen Bereichen der Computergraphik. Ein wichtiger Schwerpunkt der letzten Jahre stellte die Behandlung von großen Datenmengen dar. Als Beispiel soll hier eine neu entwickelte Technik zu Darstellung großer animierter dreidimensionaler Szenen vorgestellt werden. Motivation für diese Arbeit waren bekannte Filme wie „Der König der Löwen“ oder „Der Herr der Ringe“, in denen Massenszenen mit Hilfe von Computergraphik realisiert werden. Ersterer Film zeigt zum Beispiel eine Animation einer riesigen Büffelherde, die durch ein Tal donnert, während im Herrn der Ringe gewaltige Schlachtszenarien mit hunderttausenden Fantasiewesen realistisch dargestellt werden. Unser Ziel war es, ähnliche Szenen auch in Echtzeitanwendungen, wie etwa Computerspielen, darstel- 151 Schwerpunktthema len zu können. Mit bisher bekannten Verfahren war dies nicht möglich, da die Komplexität der Szenen zu hoch ist (viele tausend Objekte, die wiederum aus vielen tausend Darstellungsprimitiven bestehen). Um die Komplexität zu reduzieren, wird ein Stichprobenverfahren angewandt: Es werden Oberflächenpunkte aus der Menge der Objekte ausgewählt, die die dargestellten Objekte gleichmäßig im Bildraum abdecken. Aus den Stichprobenpunkten wird dann ein Bild rekonstruiert. Der Vorteil dieses Ansatzes liegt darin, dass die Anzahl der nötigen Stichprobenpunkte nur von der Bildauflösung, nicht aber von dem Detaillierungsgrad der Objekte abhängt: Hierarchische Hilfsdatenstrukturen erlauben es, die notwendigen Stichproben mit einem Zeitaufwand zu nehmen, der unabhängig von der Szenenkomplexität ist. Damit lassen sich so auch extrem komplexe Szenen mit gleich bleibendem Aufwand bearbeiten. Im Vergleich zu früheren Verfahren zur Komplexitätsreduktion hat das Stichprobenverfahren (engl.: Point Sample Rendering) den großen Vorteil, dass es sich sehr leicht auf animierte Szenen anwenden lässt. Bild 9 und 10 zeigen zwei Beispielszenen hoher Komplexität, die mit dem neuen Verfahren in Echtzeit dargestellt werden konnten. Aufgrund der Effizienz wie auch der konzeptionellen Einfachheit des Ansatzes hoffen wir, dass entsprechende Techniken auch bald in der Praxis Anwendung finden werden. Weitere Informationen finden sich auch auf unserer Webseite: http://www.gris.uni-tuebingen.de. Literatur [1] M. Wand, M. Fischer, I. Peter, F. Meyer auf der Heide, W. Straßer: The Randomized z-Buffer Algorithm: Interactive Rendering of Highly Complex Scenes. In: SIGGRAPH 2001 Conf. Proc. [2] M. Wand, W. Straßer: Multi-Resolution Rendering of Complex Animated Scenes. In: EUROGRAPHICS 2002 Conf. Proc.. TU Wien und Forschungszentrum VRVis Prof. Dr. Eduard Gröller Dr. Helwig Hauser Bild 9 Ein Stadion mit Fußballfans. Die Animation der jubelnden Fans wird in Echtzeit dargestellt. Die Szene besteht aus 105 Millionen Dreiecken. Bild 10 Eine Horde Pferde läuft durch eine Hügellandschaft. Das Verhalten der 2000 Pferde wird in Echtzeit simuliert und dargestellt. Die Pferde bestehen zusammen aus 45 Millionen Dreiecken. 152 Seit einigen Jahren werden am Institut für Computergraphik und Algorithmen der TU Wien ( http://www.cg.tuwien.ac.at/home ) sowie am VRVis Zentrum für Virtual Reality und Visualisierung (http://www.VRVis.at/) weltweit anerkannte Forschungsarbeiten auf dem Gebiet der medizinischen Visualisierung abgewickelt. Im Rahmen wissenschaftlicher Projekte werden Methoden der 3D-Computergraphik sowie insbesondere auch der 3D-Volumensdarstellungen für den täglichen klinischen Einsatz in der Radiologie (wie auch in anderen medizinischen Fächern) erforscht und entwickelt. Neue Werkzeuge für die medizinische Visualisierung ermöglichen qualitative und quantitative Fortschritte in der Computer- unterstützten Diagnose (bessere sowie schnellere Analysen bestimmter pathologischer Sachverhalte) wie auch eine verbesserte Operationsbeziehungsweise Therapieplanung. Ein aktuelles Beispiel ist die auf Computer-Tomographie-Angiographie basierende Visualisierung von Blutgefäßen. Traditionelle Verfahren weisen erhebliche Schwierigkeiten bei der Sichtbarkeit von wichtigen Einzelheiten auf, etwa dem Flusskanal sowie dem Verkalkungsgrad. Eine Möglichkeit zur Darstellung von Gefäßstrukturen für Diagnosezwecke besteht in der Erzeugung von Längsschnitten durch die Blutgefäße. Diese Darstellungsart wird als curved planar reformation (CPR) bezeichnet. Der Flusskanal, die Gefäßwand und das umgebende Gewebe werden mittels einer nicht-linearen, sich am Blutgefäß orientierenden Transformation eben (im 2D) dargestellt. Aktuell werden in Wien CPR-Verbesserungen erforscht wie z. B. die verdeckungsfreie Darstellung eines gesamten Gefäßbaums (MultipfadCPR, siehe Bild 11). Ein anderer Ansatz erlaubt die Ableitung eines geometrischen Modells für Gefäße wobei mittels deformierbarer Modelle interne und externe Randbedingungen berücksichtigt werden. Andere ausgewählte Beispiele für aktuelle Wiener Forschungsergebnisse im Bereich der medizinischen Visualisierung sind verbesserte 3D-Volumendarstellungen (z. B. two-level volume rendering, verschiedene, auch nicht- Bild 11 Koronale Multi-Pfad-Darstellung der peripheren Gefäße (links), saggitale verdeckungsfreie Darstellung der peripheren Gefäße (rechts). Wissenschaftliche Visualisierung – Ausgewählte Forschungsprojekte Bild 12 Two-Level Volume Rendering unter Einbindung verschiedener Darstellungsarten (Konturendarstellung, tone shading, maximumintensity projection, schattierte Oberflächendarstellung, etc.) für die Visualisierung eines menschlichen Kopfes (Computertomographiedaten). photorealistische, d. h., illustrative Darstellungstechniken integrierend, Bild 12), optimierte Techniken zur Segmentierung von Volumendaten (z. B. die vom Arzt geführte, fast-automatische Bestimmung des Herzmuskels) und Fortschritte in der virtuellen Endoskopie (z. B. die besonders schnelle und dabei doch hoch-qualitative Oberflächendarstellung von inneren Organen mit gleichzeitiger Unterstützung von force-feedback Interaktion für die Navigation). Weiterführende Informationen und weitere Beispiele sind unter den oben angegebenen Internetseiten zu finden. Literatur [1] A. Kanitsar, R. Wegenkittl, D. Fleischmann, E. Gröller: Advanced Curved Planar Reformation: Flattening of Vascular Structures; Proc. of IEEE Visualization 2003 , pp. 43–50. [2] M. Hadwiger, C. Berger, H. Hauser: High-Quality Two-Level Volume Rendering of Segmented Data Sets on Consumer Graphics Hardware; Proc. of IEEE Visualization 2003, pp. 301–308. Innotec. Beide Firmen spielen eine führende Rolle bei der CFD-Simulation von Wasserturbinen. Aufgrund der großen Erfahrung mit CFD konnte in den letzten zehn Jahren eine große Anzahl von Francis Laufräder ohne Modellversuch entwickelt und direkt ab Bildschirm gefertigt werden. Eines der derzeit aktivsten Forschungsgebiete ist der Einsatz der CFD für die Peltonturbinen, die man bislang nur mithilfe des Experiments und empirischer Erfahrung optimieren kann. Neben Neubauprojekten spielt vor allem die Modernisierung bestehender Anlagen eine wichtige Rolle. Die jeweils unterschiedlichen lokalen Gegebenheiten bedingen individuell angepasste Designs, was zu einem großen Bedarf an Simulationen führt, umso mehr als jeweils mehrere Betriebspunkte und oft auch mehrere Designvarianten durchgerechnet werden. Bei der Strömungsvisualisierung geht es vor allem darum, in qualitativer Weise den Einfluss dieser beiden Parameter Betriebspunkt und Designvariante auf spezifische Strömungsmerkmale zu erfassen. Die Verarbeitung ganzer Serien von Datensätzen macht dabei eine automatische Erkennung von Merkmalen unabdingbar. Für Wasserkraftmaschinen relevante Strömungsmerkmale sind vor allem Wirbel, Kavitation und Rückströmung. ETH Zürich Dr. Ronald Peikert Das Computer Graphics Laboratory der ETH Zürich hat sich innerhalb seiner Visualisierungsaktivitäten vor allem auf dreidimensionale Strömungsdaten spezialisiert. Seit 1994 besteht eine Kooperation mit den Industriepartnern VA Tech Hydro (ehemals Escher Wyss) und Sulzer Bild 14 Simulation der Strömung in einer Peltonturbine: Der Wasserstrahl trifft den Becher und wird durch diesen nach außen abgelenkt wobei die Impulsübertragung auf das Laufrad stattfindet. Das rechte Bild zeigt den Druckverlauf auf dem Becher. Die automatische Erkennung und Verfolgung von Wirbeln hat sich im letzten Jahrzehnt zu einem Schwerpunkt der Strömungsvisualisierung entwickelt. Verwendete Methoden basieren auf geometrischen, topologischen oder physikalischen Wirbelmodellen. Geometrische Verfahren benutzen lokale Kriterien wie Krümmung oder Windung von Stromlinien. Topologische Verfahren analysieren kritische Punkte und deren Separatrizen, basieren also auf globalen Kriterien. Keiner der zwei Ansätze eignet sich aber für Wirbel der ganzen Größenskala. Die Betrachtung der Strömungsmerkmale im Scale-Space ist deshalb sinnvoll und gibt zusätzliche Information. Bei Geschwindigkeitsfeldern mit ausgeprägter Zeitabhängigkeit muss aber auch den physikalischen Grundlagen, etwa dem VorticityTransport, vermehrt Rechnung getragen werden, was Gegenstand der aktuellen Forschung ist. Literatur Bild 13 Teillastwirbel in einer Pumpturbine: Der rotierende Wirbelzopf verursacht Druckschwankungen in der ganzen Maschine. [1] D. Bauer, R. Peikert, M. Sato, M. Sick: A Case Study in Selective Visualization of Unsteady 3D Flow. Proc. of IEEE Visualization ’02, IEEE Computer Society Press, pp.525-529. [2] D. Bauer, R. Peikert: Vortex Tracking in Scale-Space. Joint EUROGRAPHICS - IEEE TCVG Symp. on Visualization (2002), VisSym’02, Barcelona, May 27–29, pp. 233–240, 2002. 153