Hintergrund-Informationen zum Artikel Neue Bilder für die Medizin?“ ” Hans-Christian Hege August 2005 Zusammenfassung Der Artikel stellt Hintergrundinformationen zu dem Artikel Neue Bilder für die Medi” zin?“ von Günter Ziegler in den DMV-Mitteilungen, Bd 13, Heft 3, 2005, zur Verfügung. Es werden die Themen Historisches zu Röntgenstrahlen“, Röntgenbasierte Bildgebung“, ” ” Bildregistrierung“, Bildsegmentierung“ und Visualisierung“ im spezifischen Kontext der ” ” ” medizinischen Bildgebung angesprochen. Weiterführende Literatur wird jeweils angegeben. Über jedes dieser Themen lassen sich Bücher schreiben (und sind geschrieben worden). Es handelt sich somit nur um punktuelle Information, ohne Anspruch auf Systematik oder gar Vollständigkeit. Aus der Vielfalt der heute zur Verfügung stehenden Bildgebungsverfahren in der medizinischen Diagnostik werden die paradigmatischen röntgenbasierten Verfahren herausgegriffen. 1 Historisches zur Nutzung von Röntgenstrahlen Am 8. Nov. 1895 entdeckte Wilhelm Conrad Röntgen in seinem Labor an der Universität Würzburg eine die meisten Materialien durchdringende Strahlenart und nannte sie X-Strahlen“(siehe z.B. [4]). Andere Naturwissenschaftler, die auch mit Kathodenstrahlen ” und Gasentladungsröhren experimentierten, wie Heinrich Hertz, Johann Wilhelm Hittorf, Heinrich Geissler und Philip Lenard, hatten zwar auch schon unwissentlich derartige Strahlen erzeugt und deren Wirkungen beobachtet, aber versucht, die Beobachtungen anders zu erklären [1]. Erst Röntgen erkannte, dass es sich um eine neue“ Strahlenart handelt. ” Angesichts der die Menschheit seit Beginn ihrer Existenz begleitenden Alltagserfahrung, dass man durch materielle Gegenstände – bis auf wenige wohlbekannte Ausnahmen – nicht hindurchsehen kann, war dies eine revolutionäre Entdeckung, deren eindrückliche Wirkung auf die Öffentlichkeit wir heute nur noch schwer nachvollziehen können. Die zweite Aufnahme, die Röntgen machte – von der Hand seiner Frau –, ging in wenigen Wochen um die Welt. Das Anwendungspotential der epochalen Entdeckung wurde sofort erkannt und entsprechend schnell erfolgte, wie man es heute nennen würde, der Technologietransfer: 08. Nov. 1895 Röntgen entdeckt in seinem Labor in Würzburg die X-Strahlen und berichtet in einem Brief seinem ehemaligen Studenten und Freund Prof. Franz Exner in Wien von dem Sensationsfund; dadurch macht schon vor der offiziellen Bekanntgabe der Entdeckung durch Röntgen selbst (am 23.Jan.1896 in Würzburg) die Sensation die Runde. 08. Dez. 1895 In Wien finden die ersten Röntgenversuche statt. 28. Dez. 1895 Am Physikalischen Institut in Wien macht der Arzt Gustav Kaiser die ersten drei medizinisch indizierten Röntgenaufnahmen der Welt. 05. Jan. 1896 Die österreichische Tageszeitung Die Presse“ verkündet unter dem Titel ” Eine sensationelle Entdeckung“ auf der Titelseite die Entdeckung der ” Strahlen. 1 23. Jan. 1896 In der Wiener Klinischen Wochenschrift“ erscheint das erste Angio” gramm der Welt. In einer österreichischen Tageszeitung erscheint die erste Verkaufsanzeige (!) für Röntgenapparate. Röntgen hält in Würzburg einen öffentlichen Vortrag mit live action: er durchleuchtet die Hand des Klinikdirektors, worauf dieser den Vorschlag machte, die Strahlen als Röntgenstrahlen“ zu bezeichnen. (Zwei Wochen später meldete sich so” gar der Kaiser, der sich sonst nie für Naturwissenschaften interessierte, mit dem Wunsch nach einer Vorführung.) 06. Mär. 1897 Der Österreicher Leopold Freund in veröffentlicht in der Wiener Medizinischen Wochenschrift einen Artikel mit dem Titel: Ein mit Röntgen” Strahlen behandelter Fall von Naevus pigmentosus piliferus“ – der erste beschriebene Fall, bei dem Röntgenstrahlen zu Heilzwecken angewendet wurden. Schon im ersten Zeitungsartikel Eine sensationelle Entdeckung“ in der östereichischen ” Tageszeitung Die Presse“ vom 5. Jan. 1896, der über die neu entdeckte Strahlenart berich” tete, stehen medizinische Anwendungen im Vordergrund. Am Ende dieses Artikels heißt es geradezu prophetisch: Ünd lässt man der Phantasie weiter die Zügel schießen, stellt man sich vor, dass es gelingen würde die neue Methode des photographischen Processes mit Hilfe der Strahlen aus den Crookes‘schen Röhren so zu vervollkommnen, dass nur eine Partie der Weichtheile des menschlichen Körpers durchsichtig bleibt, eine tiefer liegende Schichte aber auf der Platte fixiert werden kann, so wäre ein unschätzbarer Behelf für die Diagnose zahlloser anderer Krankheitsgruppen als die der Knochen gewonnen. [. . . ] Wir gestehen, dass dies Alles überkühne Zukunftsphantasien sind. Aber - wer im Anfange dieses Jahrhunderts gesagt hätte, das Enkelgeschlecht werde von der Kugel im Fluge getreue Bilder fertigen und mit Hilfe eines elektrischen Apparates Zwiegespräche über den großen Ozean hin und wider führen können, hätte sich auch dem Verdachte ausgesetzt, dem Irrenhause entgegenzureisen.“ Ein Faksimile des insgesamt lesenswertens Artikels, der auch das Zeitkolorit einfängt, ist online verfügbar [2]. Das Wissen um die Röntgenstrahlen verbreitete sich in atemberaubendem Tempo um den Erdball und eine stürmische Entwicklung setzte ein. Bereits im ersten Jahr wurden eine Reihe von Anwendungen, vorrangig in der Medizin, ausprobiert, wie etwa Angiografie, Dentalaufnahme, Aufnahme vom lebenden Herzen, Thoraxaufnahme und Ganzkörperaufnahme. Viele technische Ideen kamen auf und wurden auch gleich umgesetzt – von der Röntgenfotoplatte bis hin zur Röntgen-Stereoaufnahme (siehe z.B. [3]). Die Entdeckung Röntgens traf auf enormes gesellschaftliches Interesse. So wurden auf Partys Röntgenapparate aufgestellt und Fotos von Händen oder anderen Körperteilen der Gäste gemacht und anschließend ausgiebig bestaunt. Selbst in Schuhgeschäften fand die neue Entdeckung Anwendung: der Kunde konnte sich die Position seiner Füße in den neuen Schuhen ansehen. Karikaturen, die Personen als in Kleidern steckende Gebeine abbildeten, machten die Runde. In der Medizin setzte sich die Verwendung von Röntgenstrahlen für diagnostische und therapeutische Zwecke innerhalb kurzer Zeit durch. Es entstand ein neues medizinisches Fach, die Radiologie. Lehrwerke wurden verfasst, siehe z.B. [5, 6]. Der Blick ins Innere des menschlichen Körpers durch Röntgen“ wurde schnell zur klinischen Normalität. ” Früh wurde auch der klinische Bedarf an einer dreidimensionalen Bildgebung erkannt. Schon im Frühjahr 1896 baute der (mit fast 700 Patenten unfaßbar erfindungsreiche) amerikanische Elektroingenieur, Erfinder, Unternehmer, Geschäftsmann und Mitgründer von General Electric, Elihu Thomson [8], ein Gerät zur Erzeugung von Röntgenstrahlen und demonstrierte die Verwendung von stereoskopischen Röntgenbildern für die Diagnose von Knochenbrüchen sowie die Lokalisation von Fremdkörpern im menschlichen Körper. Am 11. März 1896 publizierte er diese Resultate unter dem Titel Stereoscopic Roentgen Pictures“ ” 2 [7]. Im selben Monat zeigten die Franzosen A. Imbert und H. Bertin-Sans der Acdademie of Science in Paris eindrucksvolle Stereogramme von zwei Mäusen [9]. 1914 schlug der Röntgenpionier K. Mayer aus Posen vor, durch Bewegen der Röntgenquelle – bei festgehaltenem Detektor und Patient – überlagernde Schatten aus störenden Körperregionen auszulöschen, und publizierte dies 1916 unter dem Titel (übersetzt) Diffe” rentielle radiologische Diagnose bei Krankheiten des Herzens und der Aorta“ [10]. Mehrere Erfinder tasteten sich – unabhängig voneinander, da sie jeweils nur die nationale Fachliteratur lasen – an die Idee heran, dass artefaktfreie Schichtbilder nur durch eine synchrone Bewegung von beispielsweise Röntgenquelle und Röntgendetektor erreicht werden können. 1915 entwickelte der Italiener C. Baese eine Methode, die diese Idee nutzte, um mittels Röntgenaufnahmen Projektile in Körpern schußverletzter Soldaten zu lokalisieren und ließ sich das Verfahren 1915/16 in Italien und England patentieren. Exakt dieselbe Idee entwickelte 1917 auch der Pariser A. Bocage. Er perfektionierte sie und reichte 1921 ein Patentgesuch ein, das 1922 bewilligt wurde. Nachdem er Dermatologe geworden war, scheint er aber das Interesse an einer Weiterentwicklung verloren zu haben, vielleicht fehlten ihm auch die finanziellen Mittel. Auch die jährlichen Patentgebühren zahlte er nicht mehr, so dass das Patent schließlich an die Öffentlichkeit viel. Auf Grundlage seiner Ideen entwickelte erst viel später M.G. Massiot ein Produkt, das als Biotome“ 1937 auf den Markt kam. 1922 hat” te auch der holländische Ingenieur und damalige Medizinstudent Bernard G. Ziedses Des Plantes (1902-1993), dieselbe Idee. 1928 griff er sie wieder auf und entwickelte bis 1931 in Utrecht mit der Planigraphie“ das erste Schichtaufnahmeverfahren, das durch lineare, zir” kulare oder spiralförmige Bewegung geometrisch einwandfreie Bilder erzeugte. Es gelang ihm finanzielle Mittel zu erhalten und bis August 1931 ein genial konstruiertes Tomographiegerät fertig zu stellen [11]. Darüberhinaus erfand er stereoskopische Techniken und die Subtraktionsangiographie. Diese großartige Erfindungsleistung faßte er in seiner 1934 erschienenen Doktorarbeit zusammen [12]. Im gleichen Jahr publizierte er die ersten klinischen Resultate zu Untersuchungen am Schädel und der Wirbelsäule. Wieder ist es die französische Firma Massiot, die die Ideen aufgriff und zu einem Produkt weiterentwickelte. 1947 konstruierten Ingenieure der Firma auf Basis dieser Entwicklungen einen multidirektionalen Tomographen, den sie Polytom nannten. Nachdem die Firma Teil von Philips Medical Systems wurde, wurde hieraus das Philips Polytome – ein Standardgerät in den Kliniken bis zum Aufkommen der Computertomographie in den siebziger Jahren. Tomografische Aufnahmetechniken, bei der sich durch eine geeignete Relativbewegung von Röntgenquelle und -detektor nur eine Schicht des durchstrahlten Objekts auf dem Film scharf abzeichnet, und die keine numerischen Beechnungen erfordern, werden heute als klas” sische Tomographie“ oder Verwischungstomographie“ bezeichnet. ” Trotz dieser Erfindungen und vieler weiterer gründlichen Vorarbeiten in den 30er- bis 60er-Jahren kam der wirkliche Durchbruch in der Tomographie erst mit der Verfügbarkeit leistungfähiger Computer. Eine ausführlichere Darstellung der Entwicklungen bis zum Aufkommen der Computertomographie in den 70er-Jahren findet sich in [16, 15] und [13, 14]. 2 2.1 Röntgenbasierte Bildgebung in der Medizin – heute Das Grundprinzip Bei allen röntgenbasieren Bildgebungsverfahren werden in einer Röntgenröhre elektromagnetische Wellen - die Röntgenstrahlen - erzeugt. Die Strahlung entsteht, wenn in dem Hochvakuum der Röntgenröhre Elektronen aus einer Glühkathode durch eine Hochspannung (meist 25 bis 150 kV) beschleunigt werden, auf eine metallische Anode treffen und gebremst werden. An diesem Prinzip hat sich seit der Erfindung nichts wesentlich verändert. Lediglich die Zuverlässigkeit, die Leistung und der Wirkungsgrad der Röhren wurden erheblich verbessert. Die Röntgenstrahlen durchdringen das biologische Gewebe, wobei sie je nach Gewebeart (Muskeln, Knochen, Fett usw.) unterschiedlich abgeschwächt werden. Der Grad der Absorption wird durch die Dichte des Stoffes und Ordnungszahl der darin enthaltenen chemischen 3 Elemente bestimmt. Weiches Gewebe absorbiert die Strahlen nur in geringem Maß, hartes Gewebe (Knochen- und Zahnmaterial) schwächt die Strahlung stärker ab. Die Wechselwirkung von elektromagnetischer Strahlung mit Materie wird durch ein exponentielles Schwächungsgesetz beschrieben. Für monoenergetische, kurzwellige Röntgenstrahlung gilt die Transmissionsgleichung von Lambert-Beer: Z I(l) = I(0) exp(− l µE (x) dx) (1) 0 wobei I(0) und I(x) die emittierte bzw. in der Entfernung l von der Röntgenquelle detektierte Intensität des Röntgenstrahls bedeuten und das Integral entlang des geradlinigen Strahlweges berechnet wird. Der lokale Schwächungskoeffizient hängt von der Energie E und dem durchstrahlten Material (bei inhomogenen Objekten also dem Ort x) ab. Die unterschiedlich abgeschwächten Röntgenstrahlen werden mit fotografischem Röntgenfilm, wiederverwendbaren Speicherfolien (digitale Lumineszenzradiographie) oder Halbleiterdetekoren (Direktradiographie) erfasst. Eine hohe auf den Röntgenfilm treffende Strahlung führt auf dem entwickelten Filmnegativ zu dunklen Flächen, eine niedrige Strahlung dagegen zu weißen Flächen. Knochen erscheinen daher weiß, Muskeln grau, Haut und Luft schwarz. Analog verfährt man bei der Darstellung digital erfaßter Röntgenbilder. Falls kein genügend starker Kontrast von Natur aus vorhanden ist, kann man versuchen, ihn zu erzeugen, und zwar durch Kontrastmittel (Flüssigkeiten hoher Dichte mit chemischen Elementen sehr hoher Ordnungszahl, wie z.B. Barium oder Jod), die in Organe, Körperhöhlen, Blutgefäße appliziert werden. Luft, die praktisch keine Röntgenstrahlung absorbiert, erscheint schwarz am Bild und wirkt als negatives Kontrastmittel“. ” Normalerweise wird nur 1% der Röntgenstrahlung vom Röntgenfilm absorbiert. Daher werden sogenannte Verstärkerfolien vorgeschaltet. Diese sind aus Materialien (meist Elemente der Seltenen Erden) aufgebaut, welche einerseits eine hohe Kerladungszahl und damit einen hohen Röntgen-Absorptionskoeffizienten aufweisen und andererseits die Eigenschaft der Fluoreszenz haben, d.h. der Umsetzung von Röntgenlicht in sichtbares Licht, für welches Filme empfindlicher sind. Eine Alternative ist die Verwendung von Speicherfolien, in denen sich die Röntgenenergie längere Zeit speichern und mit einem Laser zeilenweise auslesen läßt. Solche Detektoren bieten zwei wesentliche Vorteile: einerseits eine bessere Auflösung der Helligkeitsstufen: 4000 versus ca. 100 bei durchschnittlichem Film, und andererseits eine höhere Empfindlichkeit und dadurch etwa auf die Hälfte reduzierte Strahlenbelastung. Hinzu kommen die Materialersparnis, die Möglichkeiten der digitalen Archivierung und der Übermittlung von Bilddaten an andere Ärzte und Krankenhäuser, sowie der fast unbegrenzten Möglichkeiten der digitalen Nachbearbeitung. So können Unter- und Überbelichtungen korrigiert werden, Konturen von Organen betont werden (etwa durch Hervorhebung von Regionen mit starken Grauwertgradienten), Kontraste angehoben werden und kleine Grauwertintervalle gespreizt werden, um mehr Detailstrukturen sichtbar zu machen. Dafür wird heutzutage fertige Auswertesoftware verwendet, die per Knopfdruck entsprechende Bildtransformationen durchführt – mit voreingestellten, optimierten Parametern, abgestimmt auf bestimmte Organregionen und diagnostische Fragestellungen. 2.2 2.2.1 Bildgebungsverfahren Konventionelle Röntgenaufnahme (Projektionsradiographie) Beim konventionellen Röntgen werden die geschwächten Röntgenstrahlen in einer Bildebene erfaßt. Für den meisten diagnostischen Fragestellungen ist es notwendig, Aufnahmen in zwei Ebenen anzufertigen, um etwa einen Knochenbruch räumlich einordnen zu können. Alle Objekte entlang des Strahlweges tragen gemäß Gl. (1) zur Schwächung des Strahles bei, d.h. werden übereinander projiziert. Die nicht vorhandene räumliche Tiefenauflösung erschwert die Interpretation. Ein längeres Training sowie gutes Wissen über die Anatomie und Pathologien sind notwendig, um diagnostische Feinheiten aus Projektionsbildern herauszulesen. 4 2.2.2 Röntgendurchleuchtung Bei der sogenannten Durchleuchtung kann die relative Position von Patient und Röntgenröhre/Detektor kontinuierlich verändert werden. Hierzu verwendet man ein spezielles Röntgengerät, das niedrig dosierte Strahlung erzeugt und die im Körper des Patienten abgeschwächte Strahlung mit empfindlichen Halbleiterdetekoren mißt und die Signale nach Verstärkung direkt sichtbar macht. Die aktuelle Perspektive wird in Echtzeit gezeigt. Dies ermöglichst es dem Arzt, dorthin zu fahren“, wo der interessante Bereich am besten sicht” bar ist und Körperabschnitte des Patienten in Bewegung auf einem Monitor zu beobachten. So können zeitliche Abläufe, wie Bewegungen (etwa bei Gelenkuntersuchzungen) oder Körperfunktionen (etwa im Magen-Darm-Trakt) betrachtet werden, typischerweise nach oder während der Gabe von Kontrastmitteln. 2.2.3 Computertomographie (CT) In der Computertomographie wird die räumliche Verteilung µE (x) der Objekte aus vielen Projektionsbildern, die aus verschiedenen Blickrichtungen digital aufgenommen berechnet. Ein Computertomograph ist typischerweise wie folgt aufgebaut: Um die Körperachse des Patienten kreist eine Röntgenröhre und emittiert bei vorgegebenen Winkelpositionen Röntgenstrahlen. Durch geeignete Blenden bilden diese einen schmalen Fächer in einer Ebene senkrecht zur Drehachse. Gegenüber der Röntgenröhre befinden sich mitrotierende Detektoren (typischerweise einige hundert), die registrieren wieviel Strahlung den Patienten durchdrungen hat. Auf diese Weise werden Projektionswerte I(l) = p = − ln I(0) l Z µE (x) dx =: RµE (2) 0 bestimmt, die die Radontransformierte [17] der gesuchten Verteilung µE (x) darstellen. Mathematisch hat man also das inverse Problem zu lösen, aus Linienintegralen einer Verteilung dieselbe zu bestimmen. Sind für verschiedene (endlich viele) Winkel θ die Projektionen p bekannt, lässt sich die unbekannte Funktion unter Verwendung der inversen RadonTransformation R−1 näherungsweise berechnen: µE (x) ≈ R−1 p (3) – so jedenfalls die Hoffnung. Auch bei idealen, praktisch nicht erreichbaren Bedingungen, etwa beliebig viele Messungen und kein Vorhandensein von Rauschen, ist intuitiv klar, dass für eine genaue Rekonstruktion, ausreichend“ viele Projektionen bestimmt werden müssen. Eine ” hinreichende Bedingung an die Bahnkurve des Röntgenfokus (der Röntgenquelle) ist, dass sie jede Ebene durch das Objekt mindestens einmal schneidet [21]. Ist diese Voraussetzung erfüllt, läßt sich die Verteilung µ(x) über die inverse Radon-Transformation, die aus dem Fourier- oder Cental-Slice-Theorem abgeleitet werden kann, im Prinzip bestimmen (siehe z.B. [22, 30, 24, 23]). Wir betrachten gleich den d-dimensionalen Fall. Die Radon-Transformierte der Verteilung µ(x) ist das Integral der Verteilung über (d − 1)-dimensionale Hyperebenen mit der Flächennormalen n Z Rµ(r, n) = δ(x · n − r)µ(x)dd x. (4) Im 2D-Fall ist dies identisch mit den gemessenen Projektionsdaten (Linienintegralen). Im 3D-Fall müssen die Ebenen-Integrale von µ(x) erst noch aus den Projektionsdaten bestimmt werden. Die 1D-radiale Fourier-Transformation der Radon-Werte Fr (Rµ(r, n)(ωr ) = Rµ(r, n)e−irωr dr (5) ist d-dimensionalen Fourier-Transformierten der Verteilung Fn µ(ω) = R identisch mit der µ(x)exp(−ix · ω)dn r für alle Werte ω = ωr n. Für die 2D-Computertomographie lautet 5 die Inversionsformel Z 1 1 f (x) = − 2 dn( 2 ) ∗ Rf (r, n))r=x·n 4π r Z 1 = dnFr−1 (|ωr |) · Fr (Rf (r, n)))|r=x·n 2 (6) wobei ∗ die Faltung bezeichnet. Die Faltung im Ortsraum läßt sich mit dem Faltungstheorem auch als eine Multiplikation im Ortsfrequenzraum ausdrücken, wobei die Funktionen im Sinne von Distributionen zu interpretieren sind. Die inverse Radontransformation kann demnach als sogenannte gefilterte Rückprojektion (filtered backprojection, FBP) realisiert werden. In Praxis wird dies in der Regel auch getan. Dabei wird jede Projektion mit einem aus der Abtastgeometrie (analytisch) abgeleiteten Filter bearbeitet und anschließend entlang des Strahlweges durch das 2D-Schichtbild zurück verschmiert. Die Beiträge aller Projektionen werden im jeweiligen Bildpunkt akkumuliert. Beim Standard-, Einzelschicht oder 2D-CT wird die untersuchte Körperregion durch einzelne, aufeinander folgende Schichtbilder dargestellt. Nach jeder Rotation wird der Tisch mit dem Patienten eine Schichtdicke weiter durch die Gantry“ (Gehäuse, in dem sich die Röhre ” und der Detektor befinden) geschoben, worauf eine neue Umdrehung und Aufnahme eines Querschnitts beginnt. Dieser Vorgang wird so lange wiederholt, bis die ganze Körperregion abgescannt ist. Beim technisch deutlich aufwendigeren Spiral-CT rotiert die Röhre durchgehend bei kontinuierlichem Tischvorschub, so dass sich eine helixförmige Abtastung des erfaßten Volumens ergibt. Das Verfahren ist deutlich schneller, wodurch sich die Untersuchungszeit verringert und somit weniger Bewegungs- bzw. Atmungsartefakte ergeben. Außerdem ist eine lückenlose Abtastung, d.h. eine höhere Auflösung in axialer Richtung möglich. Zur Rekonstruktion werden weiterhin Algorithmen aus der 2D-CT verwendet, ergänzt um eine Meßdateninterpolation in axialer Richtung. Beim modernen Kegelstrahl-, Cone-Beam-, oder 3D-CT werden mehrzeilige, flächige Sensoren verwendet. Dadurch werden zwei Nachteile von Einzelschicht- und Spiral-CT behoben: es wird ein höherer Anteil der Röntgenröhre emittierten Strahlung genutzt (weniger muß ungenutzt ausgeblendet werden), und die im Vergleich zur transversalen Ortsauflösung (im Schichtbild) geringe axiale Ortsauflösung (senkrecht zum 2D-Schichtbild) wird erhöht. Mit modernsten 64-zeiligen Spiral-CTs sind fast isotrope Voxel erreichbar, so dass auch kleinere Objekte und Läsionen sicher erfaßt werden können. Alternativ kann man den Untersuchtungsvorgang beschleunigen. Mit solchen Geräten ist es möglich, innerhalb weniger Sekunden auch bewegte Organe wie das Herz detailgetreu zur Darstellung zu bringen. Allerdings ist beim Cone-Beam-CT das Inversionsproblem ungleich komplexer, da nun zur Rekonstruktion eines Schichtbildes nicht nur die Strahlen der Bildebene, sondern auch schräg durch sie hindurchgehende Strahlen berücksichtigt werden müssen. Zwar läßt sich auch für den 3D-Fall die Radon-Rücktransformation angeben [22, 24, 23], doch können die Radon-Werte nicht mehr auf direktem Wege aus den Meßdaten berechnet werden: statt Linienintegralen werden Flächenintegrale mit (in Polarkoordinaten) dem Maß r dr dφ benötigt. Bei 4-Zeilern konnte man sich wegen der kleinen Öffnungswinkel noch mit approximativen Algorithmen behelfen, die Modifikationen der herkömmlichen Spiral-CT-Algorithmen bzw. des Feldkamp-Algorithmus [27] darstellten. Für 16-Zeiler und die heute aktuellen 64-Zeiler mußten aber neue Algorithmen entwickelt werden. Die Theorie zur Cone-Beam-CT ist zwar weit entwickelt und in den letzten Jahren gab es auch erhebliche Fortschritte bei den Algorithmen. Dennoch sind die Möglichkeiten noch nicht ausgereizt und exakte“ 3D-Algorithmen ” sind weiter Gegenstand der Forschung. Bei allen CT-Varianten wird das 3D-Feld der Absorptionskoeffizienten µ(x) diskret (tpyischerweise auf einem regulären Voxelgitter) berechnet und bildlich als Grauwert dargestellt. Eine typische Auflösung in der Scan-Ebene ist heute 5122 Pixel; höhere Auflösungen sind im Kommen. Während bei Standard-CTs Schichtabstände von mehrere mm üblich waren, sind mit mehrzeiligen Spiral-CTs in z-Richung, also orthogonal zur Scan-Ebene, auch Auflösungen von unter einem mm möglich, so dass sich fast isotrope Voxel ergeben. 6 Anhand der so gewonnenen Schichtbilder lassen sich Lokalisation, Ausdehnung und Beschaffenheit des Gewebes viel besser beurteilen als mit konventionellen Röntgenbildern. Die Computertomographie ist daher heute eines der wichtigsten Diagnoseverfahren und wird auch zur genauen Vorbereitung von Operationen bzw. zur Überwachung von interventionellen Eingriffen (z.B. Punktionen) verwendet. Sie bildet auch in der Strahlentherapie die Grundlage für eine präzise Planung und Behandlung. Der Informationsgewinn bei CTs gegenüber herkömmlichen Röntgenaufnahmen hat jedoch einen Preis: zwar wird pro Tomogramm weniger Strahlung benötigt als für eine konventionelle Röntgenaufnahme, jedoch sind im allgemeinen zur Erfassung des relevanten Körpervolumens viele Schichten erforderlich, so dass eine deutlich höhere Strahlungsdosis resultiert. Aus diesem Grund (und weil gewisse Fälle, z.B. Knochenbrüche im klassischen Röntgenbild besser beurteilt werden können), hat die Computertomographie herkömmliche Röntgenaufnahmen nicht komplett verdrängt. Insbesondere Spiral-CTs mit der höheren räumlichen Auflösung bieten auch eine gute Grundlage für Visualisierungsverfahren, die ganze Volumina oder rekonstruierte OrganOberflächen darstellen. Heute ist es auch möglich, Aufnahmen des schlagenden Herzens zu machen, indem man parallel zur CT-Aufnahme einen Elektrokardiographen (EKG) mitlaufen läßt, der während der Messung den Herzschlag registriert. Dann kann der Rechner anschließend Daten aus verschiedenen Projektionen, aber der gleichen Herzphasen, zu jeweils einer 3D-Aufnahme verbinden. Insgesamt ergibt sich so ein 4D-Datensatz. 2.3 Die Bedeutung der Mathematik in der Entwicklung der Computertomographie Der Physiker Allan M. Cormack führte im Jahr 1963 die ersten computertomografischen Rekonstruktionen durch und publizierte die Resultate [18, 19] ohne von den Arbeiten Radons zu wissen. Wie er in seiner Nobelpreisrede [20] sagte, war er bei Literaturrecherchen und Befragungen von Mathematikern zum Problem der Berechnung von Funktionen aus ihren Linienintegralen nicht fündig geworden und erfuhr er erst 14 Jahre später von Radons Arbeit sowie darauf aufbauenden Publikationen. Seitdem diese Arbeit (wieder) bekannt wurde, wird sie aber als das mathematische Fundament der Computertomographie betrachtet. Die Bedeutung der Mathematik für die Entwicklungen in der Computertomographie ist offenkundig und unbestritten. Zunächst galt es, die von Cormack entwickelten Algorithmen deutlich zu beschleunigen. Naive Algorithmen auf Basis der Inversionsformeln helfen nicht, schließlich handelt es sich um ein schlecht gestelltes Problem, das eine geeignete Regularisierung erfordert. Einige Jahre mathematischer Forschung waren erforderlich, bis ausgereifte, praxistaugliche Algorithmen verfügbar wurden. Vergleicht man die ersten Algorithmen mit den besten unserer Tage, wird der enorme Fortschritt sichtbar. Neben der schon genannten Cone-Beam-Problematik, gibt es weitere Probleme bzw. Limitierungen bei der tomographischen Rekonstruktion: Rauschen versus Auflösung. Das Ziel ist, möglichst unverrauschte Bilder bei möglichst hoher Auflösung und möglichst niedriger Strahlendosis zu erhalten. Typische Auflösungen, die von modernen Spiral-CT-Scannern in der klinischen Praxis bei normaler Strahlenbelastung erreicht werden, sind derzeit ca. 1 mm in der transversalen Ebene und ca. 3 mm Schichtdicke z in der axialen Richtung. Die Auflösungsbegrenzung hat zu tun mit einem Tradeoff zwischen Bildqualität (die wir hier als invers zum Rauschen √ σ betrachten) und der Strahlendosis D die dem Patient zugemutet werden kann: σ ∝ 1/ zD Es gibt also natürliche Grenzen, die sich auch durch noch so clevere Algorithmik nicht überwinden lassen. Dennoch sind bei der Algorithmenentwicklung schwierige Abwägungen zu treffen, z.B. zwischen der Genauigkeit der Rekonstruktion und ihrer Robustheit gegenüber den immer vorhandenen Datenfehlern. Strahlaufhärtung. Die CT-Rekonstruktion setzt eigentlich monoenergetische Röntgenstrahlung voraus. Die in der Praxis verwendeten Röntgenquellen liefern aber polyenergetische Strahlung. Niederenergetische Photonen werden stärker absorbiert, so dass beim Durchqueren von absorbierenden Materialien vorzugsweise hochenergetische Photonen übrig bleiben – und der Strahl gehärtet“ wird (beam hardening). Für ein gegebenes Energiespektrum mit ” 7 Spektraldichte S(E) ergibt sich die detektierte Intensität zu Z I(l) = Z l µE (x) dx) dE S(E) exp(− (7) 0 Rekonstruiert wird für eine vorgegebene effektive Energie“. Für den einfachen Fall homo” gener Objekte lassen sich relativ einfach Algorithmen entwickeln, die sich iterativ an die Dichteverteilung herantasten, welche man mit einer monoenergetischen Röntgenquelle mit einer definierten effektiven Energie“ sehen würde. Für inhomogene Objekte ist dies schwie” riger. Metallartefakte. Metallische Fremdkörper, wie Zahnfüllungen oder implantierte Schrauben, führen zu sehr störenden, streifenförmigen Artefakten. Eine Möglichkeit diese zu verhindern, ist die Lokalisierung der von Metallobjekten verursachten Störungen in den gemessenen Rohdaten und Kompensation mittels eines an die Geometrie des Tomographen angepassten Verfahrens. Diese und andere Möglichkeiten sind Gegenstand der Forschung. Eingeschränkter Winkelbereich. Rekonstruktion bei eingeschränktem Winkelbereich war ein heißes Thema in den letzten Jahren. Mit jedem größeren Schritt in der Entwicklung der Computertomographie traten technischen Schwierigkeiten auf und stellten sich neue mathematische Probleme. So wurden für die jüngste Geräte-Generation, die Cone-Beam-Tomographen oder Mehrzeiler“, die zum ersten ” Mal echte 3D-Rekonstruktionsalgorithmen erforderten, mathematische Entwicklungen notwendig, die zum Teil noch nicht abgeschlossen sind. Einen aktuellen Überblick zum Stand der Technik in der Computertomographie bietet [28]. In dem Artikel, der viele technische und anwendungsbezogenen Details erwähnt, heißt es: A key challenge for image reconstruc” tion with multi detector row CT is the cone angle of the measurement rays; this requires novel reconstruction techniques such as 3D back projection, AMPR, or weighted hyperplane reconstruction“. Für jüngste Resultate zur Cone-Beam-Rekonstruktion siehe z.B. die Arbeit [29] und Referenzen darin. Zusammenfassend kann man sagen, dass das Gebiet der tomografischen Rekonstruktion weiterhin ein lebendiges Forschungsgebiet der Mathematik ist, siehe z.B. [23] und [25, 26]. Die Arbeiten auf Seite der Mathematik werden von der Informatik unterstützt. So wurden etwa parallele Spezialrechner entwickelt, um die Rekonstruktionen, schnell genug durchzuführen. Wegen der wachsenden Auflösungen stellt der Rechenaufwand, trotz inzwischen hochentwickelter Algorithmik, heute wie früher, ein Problem dar. Gegenwärtig versucht man unter anderem, die Algorithmen auf Architekturen mit kostengünstigen FPGAs oder noch preiswerteren Grafikchips abzubilden. Abschließend noch ein Zitat von Radon aus seiner Antrittsrede als Rektor der Universität Wien im Jahr 1954 – 2 Jahre vor seinem Tod und 7 Jahre bevor die erste Arbeit von Cormack zu tomografischer Rekonstruktion erschien bzw. 16 Jahre bevor seine Arbeit und deren fundamentale Bedeutung für die tomographische Rekonstruktion entdeckt wurde: Oft liegen die Dinge so, dass mathematische Theorien in abstrakter Form vorlie” gen, vielleicht als unfruchtbare Spielerei betrachtet, die sich plötzlich als wertvolle Werkzeuge für physikalische Erkenntnisse entpuppen und so ihre latente Kraft in ungeahnter Weise offenbaren.“ 3 Grundinformationen zum Thema Bildregistrierung“ ” Aufgabe der Registrierung ist es, zwei oder mehr Datensätze durch Anwendung geometrischer Transformationen bestmöglich aufeinander abzubilden. Im Falle der Bildregistrierung müssen geometrische Transformationen gefunden werden, die in den Bildern implizit enthaltenen, miteinander korrespondierenden Objekte möglichst gut zur Deckung bringen. Bei 3D-Bilddaten betrachtet man in jedem Schritt des Verfahrens die Voxelwerte der zu registrierenden Bilder und versucht durch Maximierung eines Ähnlichkeitsmaßes die beste 8 geometrische Transformation zu finden. Registriert werden Grauwertbilder (CT, MR, konfokale Mikroskopie), aber auch daraus abgeleitete Repräsentationen, wie Labelfelder (d.h. segmentierte Bilder), Distanzfelder (d.h. Felder, die in jedem Punkt des Raumes den minimalen Abstand zu Oberflächen angeben, etwa von rekonstruierten Organen), oder auch Geometrien (wie etwa triangulierte Oberflächen von Organen). Je nachdem, ob die zu registrierenden Daten vom gleichen Typ sind, unterscheidet man mono- und multi-modale Registrierung. Die starre Bildregistrierung erlaubt nur Translation und Rotation, während bei der affinen Bildregistrierung zusätzlich Skalierung und Scherung möglich sind. In vielen Fällen reicht eine affine Transformation für eine zufriedenstellende Korrespondenz nicht aus, z.B. wenn eine anatomische Struktur im Verlauf der Bildgebung deformiert wird – etwa durch Atmung bei Thoraxaufnahmen. In diesen Fällen werden Freiform-Registrierung und elastische Registrierung (auf Basis physikalischer Organeigenschaften) eingesetzt. Deformationen größeren Ausmaßes gilt es bei der Abbildung anatomischer Strukturen verschiedener Individuen aufeinander (Intersubjektregistrierung), z.B. in vergleichenden Studien, zu berechnen. Ein Registrierungsverfahren ist durch drei Ingredienzen charakterisiert: ein Ähnlichkeitmaß, eine Klasse von zugelassenen geometrischen Transformationen inklusive einschränkenden Regularisierungsvorschriften und ein Optimierungsverfahren zur Bestimmung der optimalen geometrischen Transformation. Die Bestimmung der gesuchten geometrischen Transformation erfolgt durch Minimierung eines Funktionals, das neben einer Energie (Metrik), die die Unähnlichkeit misst, auch Regularisierungsterme (elastische Energie, approximative Volumenerhaltung) enthält, um das Deformationsfeld zu glätten. Das Maß der Korrespondenz wird mittels anwendungsspezifischer Metriken bestimmt. Bei unimodalen Daten werden euklidischer Abstand der Grauwerte bzw. für segmentierte Bilder Labelkonsistenz verwendet. Werden Daten registriert, deren Grauwertverteilungen eine lineare Beziehung aufweisen, z.B. T1/T2-gewichtete MRT-Daten, eignet sich die Grauwertkorrelation als Metrik. Liegt keine lineare Beziehung vor, z.B. bei multimodaler Registrierung, verwendet man häufig informationstheoretische Abstandsmaße. Die zugrundeliegende Überlegung bzw. Annahme ist, dass die statistische Abhängigkeit zwischen den Pixelwerten (die hier als Zufallsvariable aufgefasst werden) durch perfekte Registrierung maximiert werden. Die statistische Abhängigkeit kann z. B. durch Mutual Information“, normalized Mutual ” ” Information“, Renyi-Entropie“ und Renyi-Divergenz“ gemessen werden. ” ” Die Parameter der optimalen geometrischen Transformation werden durch Gradientenverfahren, typischerweise in einem Multiskalenverfahren, gefunden. Probleme sind die Wahl günstiger Ähnlichkeitsmaße in Abhängigkeit von den jeweils vorliegenden Bildcharakteristiken, wie auch die Wahl der zugelassenen geometrischen Transformationen und der Regularisierungsparameter. Welche Verzerrungen sind noch erlaubt und welche nicht mehr? Das hängt natürlich sehr von der Anwendung ab. Das Hauptproblem aber ist der hohe Rechenaufwand für das Optimierungsverfahren. Einen guten und aktuellen Überblick über die algorithmischen Aspekte der Bildregistrierung bieten die Arbeiten [31, 33]. Im Folgenden einige Basisinformationen zu mutual information“. Die Größe wurde be” reits von Shannon 1948 [34] eingeführt. Er verwendete hierfür den Begriff rate of transmis” sion“, also Übertragungsrate“. Heute wird die Größe ins Deutsche mit Transinformation“ ” ” übersetzt (dem Duden ist der Terminus allerdings nicht bekannt). Auch Bezeichnungen wie relative Information“ und Synentropie“ (bzw. die englischen Analoga) sind gebräuchlich. ” ” Als Ähnlichkeitsmaß für die Bildregistrierung wurde die Größe fast zeitgleich und unabhängig von verschiedenen Autoren eingeführt. Die ersten waren wohl Collignon et al. [37, 38]. 9 3.1 Exkurs: Informationstheorie Shannon definierte die Entropie H einer gegebenen Information I über einem Alphabet Z durch X H(I) = − p(z) log p(z) (8) z∈Z wobei p(z) die Wahrscheinlichkeit ist, mit der das Zeichen z aus dem Alphabet Z im Informationtext I auftritt. Die Zahl H(I) gibt den durchschnittlichen Informationsgehalt eines Symbols der Quelle an. Da sich Logarithmen zu verschiedenen Basen nur um einen konstanten Faktor unterscheiden, ist es egal, welche Basis man verwendet – einzig die Einheit in der man den Informationsgehalt angibt wird dadurch festgelegt. Verwendet man den Logarithmus zur Basis 2, so gibt H(I) an, wieviele binäre Unterscheidungen (Bits) im Mittel nötig sind, um den Wert eines Symbols aus Z zu ermitteln. Multipliziert man H mit der Anzahl der Zeichen im Informationstext, ergibt dies die Anzahl der Bits, die zur Darstellung der Information mindestens notwendig sind. In der Informationstheorie löst man die Betrachtung vom Anwendungskontext: Sei X eine diskrete Zufallsvariable, die Werte x ∈ X mit der Wahrscheinlichkeit p(x) annimmt, dann ordnet man dem Ereignis X = x die Ungewissheit(x) = − log p(x) (9) zu. Wieder ist die Einheit Bit, falls die Basis des Logarithmus 2 ist. Damit ergibt sich die mittlere Ungewissheit, oder mittlere Information, oder auch Entropie eines Ereignisses der Zufallsvariable X zu X H(X) = h− log p(x)ip = − p(x) log p(x). (10) x∈X Der Wertebereich der Entropie H hängt von X ab und ist [0, log |X | ]. Sind alle Beobachtungswerte identisch, so ist die Entropie (Ungewissheit) minimal: H = 1 · log 1 = 0. Sind die Ereignise alle gleich wahrscheinlich, ist die Entropie (Ungewissheit) maximal: H = log |X |. Für den zweidimensionalen Fall definiert man die gemeinsame Entropie von Zufallsvariablen X, Y XX H(X, Y ) = − p(x, y) log p(x, y), (11) x∈X y∈Y wobei p(x, y) die Verbundwahrscheinlichkeit für das gemeinsame Eintreten der Ereignisse X = y und Y = y ist. H(X, Y ) gibt also die mittlere Ungewissheit oder mittlere Information von Verbundereignissen (X = x, Y = y) an. Die Wahrscheinlichkeit, eine 0 oder 1 in der geordneten Zeichenkette 1010101010... zu finden, ist genauso groß, wie in einer Zeichenkette, die durch statistisch unabhängige Ereignisse (etwa wiederholten Münzwurf) entstanden ist. Daher ist die Shannonsche Entropie für beide Zeichenketten identisch, obwohl man intuitiv die erste Zeichenkette als weniger zufällig bezeichnen würde. Eine angemessene Definition der Entropie einer Zeichenkette liefert die bedingte Entropie. Die bedingte Entropie der Zufallsvariablen X relativ zu Y ist die Unsicherheit über X, die verbleibt wenn Y bereits bekannt ist. Sind X und Y voneinander unabhängig, dann bleibt die Entropie von X auch bei Kenntnis von Y vollständig erhalten. Sind X und Y aber voneinander abhängig, dann kann die bedingte Entropie kleiner sein als im unabhängigen 10 Fall. Formal ist die bedingte Entropie H(X|Y ) definiert durch: X H(X|Y ) = p(y)H(X|Y = x) y∈Y = X p(y)(− y∈Y = X p(x|y) log p(x|y)) x∈X p(y)(− y∈Y = − X X p(x, y) log p(x|y)) p(y) x∈X XX p(x, y) log p(x|y) , (12) y∈Y x∈Y wobei p(x, y) = p(y, x) die Wahrscheinlichkeit für das gemeinsame Auftreten der Ereignisse x und y ist. Aus p(x, y) = p(x) p(y|x) folgt log p(x, y) = log p(x) + log p(y|x). Durch Erwartungswertbildung auf beiden Seiten erhält man H(X, Y ) = H(X) + H(Y |X) , (13) was sich wie folgt lesen lässt: die Ungewissheit über beide Zufallsvariablen X und Y ist gleich der Ungewissheit über Y plus der Ungewissheit über Y bei gegebenem Wert von X. Analog ergibt sich: H(X, Y ) = H(Y ) + H(X|Y ) . (14) Die relative Entropie von p bezüglich q ist definiert als D(p | q) = X p(x) log x∈X p(x) q(x) (15) und wird auch Kullback-Leibler-Divergenz genannt. Unter Verwendung der Jensen-Ungleichung – hf (X)i ≤ f (hXi) für konvexe Funktionen f – ergibt sich, dass D(p | q) ≥ 0 ist, wobei die Gleichheit dann und nur dann angenommen wird, wenn p(x) = q(x) für alle x. Somit gilt f 6= q ⇒ D(p | q) > 0 und D(p | q) = 0 ⇔ p = q. D(p | q) ist jedoch nicht symmetrisch, also keine Metrik. Die relative Entropie D(p | q) ist ein Maß für die Unterschiedlichkeit von Wahrscheinlichkeitsverteilungen p und q. Ihr Wert gibt an, wieviele Bits im Mittel verschwendet werden, wenn eine auf der Verteilung q basierende Kodierung auf Ereignisse angewendet wird, die der Verteilung p folgen. Die sogenannte Mutual Information oder auch Transinformation gibt die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen an. Sie ist definiert als: I(X; Y ) = D(p(x, y) | p(x) p(y)) XX p(x, y) = p(x, y) log . p(x)p(y) (16) x∈X y∈Y Es gilt I(X; Y ) = I(Y ; X) und I(X; Y ) ≥ 0, wobei der Minimalwert 0 genau dann angenommen wird, wenn X und Y statistisch unabhängig sind. Aus der Definition folgt I(X; Y ) = H(X) − H(X|Y ) , (17) d.h. I(X; Y ) gibt an, wie sich die Ungewissheit über X durch die Kenntnis von Y mindert, und umgekehrt. I(X; Y ) misst den Anteil der Information, der jeweils in der anderen Zufallsvariablen enthalten ist. Sind die Zufallsvariablen X und Y statistisch unabhängig, ist I(X; Y ) = 0. Sind sie identisch, d.h. kann nach Kenntnis von X nichts Neues mehr über Y erfahren werden (und umgekehrt); I(X; Y ) ist dann gleich der durch X (oder Y ) vermittelten Information, also gleich der Entropie von X (oder Y ). Mit der Beziehung H(X, Y ) = H(Y ) + H(X|Y ) erhält man I(X; Y ) = H(X) + H(Y ) − H(X, Y ) . 11 (18) Es gelten also die Äquivalenzen I(X; Y ) = H(X) − H(X|Y ) = H(Y ) − H(Y |X) = H(X) + H(Y ) − H(X, Y ). Bei der Verwendung von Mutual Information zur Bewertung von Überlagerungen kann es vorkommen, dass homogene Bildanteile, z.B. der Hintergrund einen zu starken Einfluss ausüben [41]. Um diesem Problem zu begegnen wurde in [41] die sogenannte normalized mutual ” information“ H(X) + H(Y ) ˜ (19) I(X; Y)= H(X, Y ) eingeführt. Wie die gewöhnliche“ Mutual Information I wächst I˜ mit wachsendem H(X), ” wachsendem H(Y ) und fallendem H(X, Y ). I˜ hat sich besonders bei der Registrierung multimodaler Daten, die große Schwankungen in der Überlappung hatten, als sehr robust im Vergleich zu I erwiesen. Das Thema Ähnlichkeitsmaße ist sicher nicht abgeschlossen. So sind z.B. Maße denkbar, die neben den Originalbildern auch definierte Bildeigenschaften berücksichtigen, die in Vorverabeitungsschritten extrahiert wurden, oder Vorwissen über Bildcharakteristiken, womöglich gar über Bildinhalte. Man darf aber nicht vergessen, dass gerade die weitgehende Freiheit von Annahmen über Bildcharakteristiken und -inhalte auch ein Vorteil der informationstheoretischen Verfahren ist. Standardwerke zur Informationstheorie sind die Bücher von Cover/Thomas und Mackay [39, 40]. Auch Rényi [36] gibt eine Einführung in das Gebiet (hier wird Mutual Information relative Information“ genannt). Wirklich lohnenswert ist das Studium der Originalpublikati” on von Shannon, die inzwischen auch online verfügbar ist [35]. Ein mathematisch orientiertes Werk zur Bildregistrierung ist das Buch Modersitzki [32]. 4 Grundinformationen zum Thema Bildsegmentierung“ ” Dieses Feld ist bekanntermaßen ein riesiges, inzwischen hochkomplexes . . . . Bis auf einige allgemeine Vorbemerkungen soll daher nur das Mumford-Shah-Funktional zur Sprache kommen. 4.1 Problem der Bildsegmentierung Bildsegmentierung meint die sinnvolle“ Aufteilung eines Bildes in Objekte, d.h. die Zuord” nung von Bildpunkten zu Objekten oder auch die Zusammenfassung von Bildpunkten zu Objekten. Das bedeutet, dass z. B. in einer MRT-Aufnahme der Wirbelsäule die Wirbelknochen, Rückenmark, Bandscheiben, Muskeln usw. korrekt unterschieden werden. Diese Aufgabe wird von Laien hoffnungslos unterschätzt, da wir Menschen ohne bewusste geistige Anstrengung auch komplexe Objekte erkennen. Es ist uns nicht bewusst, welche phänomenalen Leistungen unser visuelles Sehsystem mit seinem hochleistungsfähigen Mustererkennungsapparat und dem nachgeschalteten kognitiven Apparat permanent erbringt (siehe z. B. [42, 43]). Aus mathematischer Sicht ist die Bildsegmentierung vorrangig ein Modellierungsproblem, seltener ein rein algorithmisches. In den nunmehr ca. 50 Jahren Forschung zur Bildanalyse entstanden sehr unterschiedliche Ansätze zur Bildsegmentierung. Anders, als oft kolportiert, gibt es für viele Segmentierungsaufgaben, die eine Erkennung von bestimmten Objekten in Bildern mit definierten Eigenschaften und garantierter Qualität fordern, verlässliche Verfahren. Viele Aufgaben in der industriellen Qualitätssicherung fallen in diese Kategorie. Es ist aber richtig, dass die Leistungen der heutigen computerbasierten Vision-Systeme himmelweit entfernt sind von denjenigen biologischer Sehsysteme. Dementsprechend sind noch viele Aufgaben offen. Insbesondere in der medizinischen Bildgebung sind die automatischen 12 Segmentierungsverfahren in sehr vielen Fällen bei weitem nicht ausreichend leistungsfähig. Die einfachsten Segmentierungsverfahren sind Schwellwertverfahren, die nur die Grauwerte von Bildpunkten betrachten. Methode dieser Art haben offensichtliche Grenzen, da die Abbildung von Grauwerten auf – in der Medizin – Gewebe- und Organtypen nicht eindeutig ist und die Bilder aufnahmetechnisch mit Artefakten (z. B. Rauschen) behaftet sind. Leistungsfähigere Klassifikatoren berechnen für jede Bildpunkt Merkmale aus den Grauwerten der Nachbarschaft, ordnen diese in sog. Feature-Vektoren und versuchen in dem mehrdimensionalen Merkmalsraum Gruppen zu bilden. Kantenfinder versuchen die Grenzen zwischen den Objekten im Bild zu finden, etwa anhand auffällig starker Grauwertänderungen. Typischerweise sind die Algorithmen nicht parameterfrei. D.h. in Abhängigkeit von der Problemklasse sind Parameter einzustellen, oder durch andere Verfahren zu schätzen. Probleme treten bei Kantenfindern dadurch auf, dass nicht jeder Grauwertgradient eine Objektgrenze bedeutet und dass die Objektgrenzen in einem Bild sehr unterschiedliche Charakteristiken haben. Daher gibt es oftmals keine Parameterkonstellation für den Kantenfinder, der diesen alle gewünschten Kanten verlässlich detektieren lässt. Hinzu kommt, dass zwischen zwei Objekten häufig keine erkennbare Kante im Bild existiert. Schwierigkeiten bereitet auch, dass die detektierten Kantenstücke nicht unbedingt geschlossene Linienzüge bilden. Diesem Problem begegnet man mit sogenannten aktiven Kon” turen“ (s.u.). Ein anderer Ansatz ist die sogenannte Morphologie. Hier wird versucht, Objekte über ihre Form zu finden. Masken mit der Form des gesuchten Objektes werden über das Bild geführt bis hohe Übereinstimmung gefunden wird. In den meisten Anwendungsfällen verhindern aber Form- und Abbildungsvariabilität sowie perspektivische Verzerrungen eine sichere Identifikation. Auch ist es in vielen Anwendungen nicht a priori bekannt, welche Objekte mit welcher Form in einem Bild zu finden sein sollen. In Region-Growing-Verfahren werden, ausgehend von vorgebenen Startpunkten, benachbarte Pixel aufgrund von Ähnlichkeiten zusammengefaßt, so dass zusammenhängende Gebiete entstehen. Problem hier sind das automatische Setzen von Startpunkten und insbesondere dass sich sich die Merkmale – zumindest partiell – zu wenig unterscheiden, so daß auch eigentlich zu trennende Gebiete zusammengefasst werden. Eine weitere Klasse sind statistische Verfahren, z. B. solche, die auf Hidden-MarkovModellen beruhen; siehe z.B. [56]. Aktive Konturen oder snakes“ sind elastische (d − 1)-dimensionale Konturen, die sich ” aufgrund eines Energiefunktionals in das elastische Eigenschaften der Kontur und auf den Bilddaten basierende Energieterme eingehen, im Bild bewegen und an Kanten haften bleiben. Mit diesem Verfahren können auch Regionen eingegrenzt werden, bei denen stellenweise die Kanteninformation nicht deutlich vorhanden ist. Repräsentiert man die Konturen durch Level-Sets einer höherdimensionalen Funktion, lassen sich auch topologische Veränderungen einfach erfassen. Funktionale Ansätze dieser Art, bei der die Segmentierung als Variationsproblem formuliert wird, wurden insbesondere von mathematisch orientierten Forschern stark verfolgt. Eine besonders prominente Rolle spielten dabei das Mumford-Shah-Funktional und davon abgeleitete Funktionale. Allen Verfahren gemeinsam ist, dass sie semantikfrei arbeiten: sie finden eigentlich keine Objekte in den Bildern, sondern nur Hinweise auf Objekte. Ob ein gefundener Kandidat ein sinnvolles Objekt ist oder nicht, kann keines der Verfahren feststellen. Objekterkennung 13 würde einen Rückgriff auf a-priori-Wissen über die Objekte voraussetzen. Einzig die Morphologie geht in diese Richtung, hat jedoch mit erheblichen anderen Nachteilen zu kämpfen. 4.2 Mumford-Shah-Funktional Gegeben sei verrauschtes Bild in Ω ⊂ Rn (n = 2, 3) mit der Grauwertverteilung g ∈ L2 (Ω). Die Segmentierungsaufgabe wird wie folgt aufgefasst: Finde eine Menge von Kanten K ⊂ Ω und ein idealisiertes glattes Bild u ∈ C 1 (Ω\K). Hierfür schlugen Mumford und Shah [44, 45] die Minimierung des Funktionals Z Z c 2 n−1 E(u, K) := α k∇ u(x)k dx + β H (K) + |u(x) − g(x)|2 dx (20) Ω\K Ω vor. Hn−1 bezeichnet das (n − 1)-dimensionale Hausdorffmaß von K, das die Länge“ der ” Menge K misst. α > 0 und β > 0 sind zwei Parameter, die drei Beiträge gewichten: Der erste Term von E sorgt dafür, dass u außerhalb der Kantenmenge möglichst glatt ist, der zweite Summand stellt sicher, dass die Kantenmenge K möglichst klein ist und durch den letzten Summanden wird erreicht, dass u möglichst wenig vom Originalbild g abweicht. Die Bedeutung des Funktionals rührt daher, dass einen Vielzahl von gängigen Algorithmen zur Kantendetektion als diskretisierte und (zum Teil stark) vereinfachte Varianten zur Minimierung von E(u, K) (oder Variationen hiervon) interpretiert werden können [46]. Das Mumford-Shah-Funktional kann daher als allgemeines Modell zur kantenbasierten Bildsegmentierung gesehen werden. Ebenso ist es ein Prototyp für variationsbasierte kantenerhaltende Glättung. Um die Existenz von Lösungen zu beweisen, wurde von De Giorgi et al. [47] eine schwache Formulierung vorgeschlagen, in der K die Sprungmenge einer SBV-Funktion (special bounded variation) u ist. Die numerische Behandlung des Variationsproblems ist schwierig, da sie die Berechnung von geometrischen Eigenschaften einer unbekannten Menge von Unstetigkeitsflächen erfordert. Üblicherweise versucht man das Problem durch eine Folge von unterschiedlichen regularisierten Variationsproblemen zu approximieren und dabei sicherzustellen, dass die Extremwerte/Minimierer gegen Extremwerte/Minimierer des Mumford-Shah-Funktionals konvergieren (Γ-Konvergenz, s. [48]). Die Entwicklung von Approximationsschemata und Algorithmen ist in vollem Gange, siehe z. B. [49, 51, 52, 50]. Auch Erweiterungen des Variationsansates werden immer wieder vorgeschlagen. So wird z. B. in [53] ein Verfahren beschrieben, das neben der Zerlegung in Regionen mit glatten Komponenten auch oszillatorische Komponenten (Texturen) und quadratingrable Komponenten (Rauschen) liefert. Bildregistrierung und -segmentierung sind miteinander verknüpfte Probleme. Daher gibt es Versuche, die Probleme simultan zu lösen. Für einen Ansatz mit Mumford-Shah-ähnlichen Energiefunktionalen siehe [54]. Aus Anwendungssicht war Segmentierungverfahren, die auf dem Mumford-Shah-Ansatz beruhen, kein durchschlagender Erfolg beschieden. Einerseits enhält das Funktional freie Parameter (die relativen Gewichte der Energieterme) für die es meines Wissens bisher noch keine Schätzverfahren gibt und andererseits zielt der Ansatz auf eine globale Lösung, sozusagen eine minimale Erklärung“ des Bildes durch Konturen und Regionen. Das globale ” Modell ist robust, aber etwas grob. Verfeinerte Modelle könnten differenziertere Ergebnisse liefern sind aber mit noch mehr Parametern behaftet, die auch geschätzt werden müssten [55]. Ein sehr lesenswerter Aufsatz, in dem das Problem der Mustererkennung, Segmentierung und Objekterkennung aus mathematischer Sicht – vor dem Hintergrund vieler Entwicklungen der letzten 20 Jahre – beleuchtet wird, ist der Mumford’s Artikel zur ICM 2002 [56]. 14 5 3D-Visualisierung Um Daten zu visualisieren, müssen Dateneigenschaften auf optische Größen abbildet werden – wie etwa Farbe, Textur, oder technischer: orts- ggf. auch zeitabhängige Reflektions-, Absorptions-, Emissions- und Streueigenschaften. In dieser Abbildung liegt eine große Freiheit und zugleich die Kunst. Das mit optischen Eigenschaften ausgestattete Modell“ wird ” dann mehr oder weniger an optischen Gesetzen orientiert gerendert“. Hohe Bildqualität be” deutet in den meisten Fällen auch hohen Rechenaufwand. Zwar werden heute leistungsstarke Grafikkarten eingesetzt, deren Rechenleistung die einer CPU um eine Mehrfaches übertreffen kann, doch wachsen auch die Datensätze, so dass Interaktivität oft schwer zu erreichen ist und die Komplexität von Algorithmen sowie die Performance der Implementierungen ein zentrales Thema bleiben. Einen Überblick über viele Themen, die in den letzten Jahren in der Wissenschaftliche Visualisierung behandelt wurden, gibt [57]. 5.1 Darstellung von Schichtbildern Medizinische Schichtbilder werden typischerweise als Grauwertbilder dargestellt, es sei denn, zusätzliche Informationen kommen hinzu, die den Einsatz von Farbe sinnvoll machen. Zunächst ein triviales Faktum, das oft für Mißverständnisse sorgt und daher hier erklärt werden soll. Die CT-Werte werden – historisch bedingt – in der sogenannten Hounsfield” Skala“ 1 mit Werten aus dem Intervall [−1024, 3071] angegeben. Die 4096 Werte lassen sich mit 12 Bits repräsentieren. Der Hounsfield-Wert ergibt sich aus der Röntgenschwächung µ gemäß CT = (µ/µW asser − 1) · 1000 in Hounsfield-Einheiten HE , (21) d.h. CTW asser = 0 HE und, da Luft fast keine Röntgenstrahlung absorbiert, CTLuf t = −1000 HE. In der bildlichen Darstellung wird der Minimalwert überlicherweise schwarz dargestellt, der Maximalwert weiß. Lungengewebe liegt aufgrund des großen Luftgehalts im Intervall [−900 − 500] HE, was im Bild dunkel erscheint. Muskelfasern weisen Werte aus [0 , ≈ 100]HE auf, das ergibt ein mittleres Grau. Knochen erscheinen sehr hell. Maximalwerte von ca. 3000 HE können in kontrastmittelgefüllten Bereichen erreicht werden. Das menschliche Sehsystem kann allerdings nur 40-100 Graustufen unterscheiden. Bei vielen Untersuchungen sind jedoch oft nur Werte aus einem Teilintervall von [−1024, 3071] relevant. Um diese visuell trennen zu können, bildet man das jeweils relevante Teilintervall auf den gesamten Grauwerte-Bereich ab (und setzt Werte außerhalb auf Schwarz bzw. Weiß). Die Radiologen sprechen von Fensterung“. Je kleiner die Weite des Fensters, umso größer ” die Kontrastanhebung. So gibt es für verschiedene Aufgaben verschiedene Fenster, z.B. sogenannte Lungenfenster“ (Weite 1500 HE-Werte, Zentrum bei -650 HE), Hirnfenster“ (100 ” ” HE/30 HE), Weichteilfenster“, (350 HE/50 HE), und Knochenfenster“ (2000 HE/500 HE). ” ” Die angegebenen Werte sind Richtwerte und werden je nach spezifischem Anwendungsfall leicht variiert. Mit den heutigen computergrafischen Methoden lassen sich problemlos Schichten interaktiv und beliebig, d.h. auch schräg, durch das 3D-Volumen legen, jedenfalls sofern der 3DBilddatensatz in den Hauptspeicher des Rechners paßt. Zur besseren Orientierung werden häufig mehrere, zum Teil unterschiedlich orientierte Schichten zugleich im Volumen dargestellt. 5.2 Darstellung von 3D-Volumina Zur Darstellung von räumlichen Objekten, wie etwa Organsystemen in 3D gibt es im wesentlichen zwei Techniken: Oberflächendarstellungen oder Volumendarstellung (Volume-Rendering). Beide Themen füllen Bücher und werden hier nur ganz kurz angerissen. 1 Benannt nach dem englischen Ingenieur Godfrey Hounsfield, der 1972 den ersten Computertomographen vorstellte, dafür 1979 mit Alan M. Cormack den Nobelpreis erhielt und den Grundstein zu allen weiteren Schnittbildtechniken, wie Magnetresonanz und PET legte. 15 Die Oberflächen werden typischerweise durch Dreiecksnetze repräsentiert. In Medizinischen Anwendungen stellen sie meistens Grenzflächen von Organen oder Organbestandteilen dar. Da sich in einem Raumpunkt mehrere Grenzlächen treffen können, können sich topologisch relativ komplexe Situationen ergeben. Im einfachsten Falle stellen die Grenzflächen Isoflächen (level sets) von 3D-Grauwert-Bilddaten dar. Häufig lassen sich Knochenoberflächen so gewinnen, zumindest approximativ. Eine Beschreibung von hocheffizienten Algorithmen auf Basis des berühmten Marching Cubes-Algorithmus findet sich in [58]. In den meisten Fällen lassen sich die Grenzflächen so aber nicht gewinnen, sondern erfordern eine vorhergehende Bildsegmentierung. In diesen Fällen stellen die Dreiecksflächen – typischerweise geglättete – Randflächen zwischen unterschiedlich klassifizierten Gewebetypen dar. Sehr häufig verwendet man in der Medizin Volumenrendering [59]. Hierbei werden, nach Zuordnung von optischen Größen auf einzelne Voxel, selbstleuchtende, halbtransparente Wolken“ simuliert. Um aussagekräftige Bilder zu erhalten, muss man einerseits eine gu” te Merkmalserkennung durchführen (z.B. eine partielle Segmentierung) und andererseits den Merkmalen passende optische Eigenschaften zuweisen. Die Entwicklung von besonders geeigneten multidimensionalen Transferfuktionen (s. [60]), etwa für medizinische Anwendungen, ist ein aktuelles Forschungsthema. Der Lichtransfer durch das so präparierte Volumen wird durch lineare Transporttheorie beschrieben. Nimmt man eine drastische Vereinfachung vor und verzichtet auf die Berücksichtigung von Streueffekten, die in der Datenvisualisierung ohnehin eher Verwirrung stiften, so läßt sich die Bildberechnung auf die Berechnung von sehr vielen (O(#Pixel)) Linienintegralen entlang der Lichtwege durch das Volumen zurückführen. Um solche Bilder so schnell zu berechnen, dass man interaktiv Drehen, Zoomen usw. kann, muss ein hoher Aufwand getrieben werden. Nur mit ausgeklügelten Algorihmen und hochleistungsfähiger Grafikhardware läßt sich dies erreichen – für Datensätze mittlerer Größe. Für große Volumendatensätzen, wie sie moderne bildgebende Verfahren teilweise liefern, versucht man, mit hierarchischen und progressiven Verfahren die Interaktivität zu erhalten. Entsprechende Verfahren sind Gegenstand der aktuellen Forschung. 6 Hinweise auf aktuelle Literatur aus der Radiologie Hier werden drei Literaturhinweise auf aktuelle medizinische Schriften gegeben, in denen von 3D-Visualisierungsverfahren substantiell Gebrauch gemacht wird: Das gerade erschiene Buch [61] führt in den aktuellen Stand der Computertomographie in der Kardiologie ein und enthält eine Reihe von Beispielen, die die Anwendung moderner 3D-Visualisierungsverfahren illustrieren. Die online verfügbare Habilitationsarbeit [62] zeigt am Beispiel otologischer Fragestellungen, wie hochauflösende Akquisitionstechniken und modernen Volumenvisualisierung (in Kombination mit den primären Schnittbilddaten), zum Verständnis von komplexen pathoanatomischen Veränderungen beitragen können. In der ebenso online verfügbare Dissertation [63] wird ein Visualisierungsprotokoll zur 3DDarstelung der Hirnnerven V-VIII erarbeitet – ein Vorgehen, das in viele Bereich der Medizin Einzug halten wird. Denn verläßliche Resultate setzen eine normierte visuelle Sprache“, d.h. ” normierte Bilderzeugungsverfahren voraus. Zur Illustration, dass moderne 3D-Visualisierungstechniken tatsächlich Einzug in die Medizin halten, hier noch die Ankündigung eines Workshops (im Rahmen des 4. Kongresses der Deutschen Akademie für Hals-Nasen-Ohren-Heilkunde, Kopf- und Hals-Chirurgie, DA-HNO, im Mai 2005): Nach kurzer anatomisch-topografischer Einführung mit der theoretischen ” Darstellung der sicheren chirurgischen Landmarken im Felsenbein werden anhand von radiologischen 3D-Rekonstruktionen pathologische Befunde am Labyrinth, im Mittelohr und im inneren Gehörgang demonstriert. Mittels 3D-Videodemonstration werden die praktisch wichtigen transmastoidalen Zugänge zu Mittel- und Innenohr, Nervus facialis, Labyrinth, Foramen jugulare und innerem Gehörgang aufgezeigt und die relevanten Operationsmethoden diskutiert....“ 16 Literatur [1] Ch. Deckers, R. Van Tiggelen: Were X-rays produced before the discovery by Röntgen? Organe de la Societe Royale Belge de Radiologie JBR-BTR, 84(5), 2001, pp. 220-222. [2] http://www.wissenschaftskalender.at/kalender/1228/augen1228a.html [3] U. Buch, The Progress in Radiology in 1896, in: The Radiology History & Heritage Charitable Trust, An Occasional Newsletter, No. 10, Winter 1998, http://www.rhhct. org.uk/news/10.html [4] Deutsches Röntgen-Museum, Remscheid, http://www.roentgen-museum.de [5] L. Freund: Grundriß der gesamten Radiotherapie für praktische Ärzte, Berlin, Urban & Schwarzenberg, 1903, 423 S. [6] F. Dessauer: Kompendium der Röntgenaufnahme und Röntgendurchleuchtung – Band 1: Die Röntgentechnik, Band 2: Das Aufnahme- und Durchleuchtungsverfahren. Leipzig, Nemnich, 1915. [7] E. Thomson: Stereoscopic Roentgen Pictures. Electr Eng., 21, 256 (1896). [8] Elihu Thomson Papers (1865-1944), American Philosophical Society, Philadelphia, PA, http://www.amphilsoc.org/library/mole/t/thomson.pdf [9] A. Imbert, und H. Bertin-Sans: Photographies stereoscopiques obtenues avec les rayon X. C.R. Acad. Sci. Paris, 786 (1896) [10] K. Mayer: Radyologiczne rzpoznanie rozniczkowe chorb serca i aorty. Gebethner and Co., Kraków, 1916. [11] B.G. Ziedses des Plantes: Een bijzondere methode voor het maken van Röntgenphotos van schedel en wervelkolom. Ned Tijdschr Geneesk, 1931, 75: 5218-5222. [12] B.G. Ziedses des Plantes: Planigraphie en subtractie. Röntgenographische differentiatiemethode. Thesis, Utrecht 1934. [13] R. Van Tiggelen: In search for the third dimension: from radiostereoscopy to threedimensional imaging. Organe de la Societe Royale Belge de Radiologie JBR-BTR, 85(5), 2002, pp. 266-270. online verfügbar unter: http://www.radiology-museum.be/Pdf/ article 0081.pdf [14] R. Van Tiggelen and E. Pouders: Ultrasound and computed tomography: spin-offs of the world wars. Organe de la Societe Royale Belge de Radiologie JBR-BTR, 86(4), 2003, pp. 235-241. [15] S. Webb: Historical experiments predating commercially available computed tomography. Br J Radiol. 65(777) (1992), pp. 835-837. [16] S. Webb: From the watching of shadows: the origins of radiological tomography A. Hilger, Bristol 1990 [17] J. Radon: Über die Bestimmung von Funktionen durch ihre Integralwerte längs gewisser Mannigfaltigkeiten. Ber. Verh. Sächs. Akad. Wiss., 69 (1917), pp. 262-277. Nachgedruckt in P. Gruber et al. (eds.): Johann Radon: Gesammelte Abhandlungen. Verlag der Österreichischen Akademie der Wissenschaften, Wien; Birkhäuser, 1987 [18] A.M. Cormack: Representation of a function by its line integrals, with some radiological applications. J. Appl. Phys. 34, (1963), pp. 2722-2727. [19] A.M. Cormack: Representation of a function by its line integrals, with some radiological applications. ii. J. Applied Physics 35, (1964), pp. 2908-2913. [20] A. McCormack: Early Two-Dimensional Reconstruction and Recent Topics Stemming from it. Nobel Price Lecture 1979. http://nobelprize.org/medicine/laureates/ 1979/cormack-lecture.pdf [21] H. Tuy: An Inversion Formula for Cone-Beam Reconstruction SIAM J. Appl. Math. 43:3, (1983), pp. 546–552 [22] F. Natterer: The Mathematics of Computerized Tomography. Teubner-Wiley 1986. Reprinted in SIAM Classics in Applied Mathematics. [23] F. Natterer and F. Wübbeling: Mathematical Methods in Image Reconstruction. SIAM 2001. 17 [24] G. T. Herman, A. K. Louis, and F. Natterer, Eds., Mathematical Methods in Tomography, Lecture Notes in Mathematics. New York: Springer-Verlag, 1990. [25] http://www.num.uni-sb.de/iam/index.php [26] http://www.num.uni-sb.de/iam/schuster.php [27] L. A. Feldkamp, L. C. Davis, and J. W. Kress, Practical cone-beam algorithm, J. Opt. Soc. Am. A 1, (1984), pp. 612–619 [28] T. G. Flohr, S. Schaller, K. Stierstorfer, H. Bruder, B. M. Ohnesorge, U. J. Schoepf MultiDetector Row CT Systems and Image-Reconstruction Techniques Radiology 235 (2005), pp. 756–773. [29] Y. Ye, S. Zhao, H. Yu, and G. Wang: A General Exact Reconstruction for Cone-Beam CT via Backprojection-Filtration, IEEE Trans. Med. Imag. 24:9, 2005, pp. 1190–1198. [30] A. C. Kak und M. Slaney: Principles of Computerized Tomography. New York, IEEE Press, 1987. Reprint by SIAM, 2001. [31] B. Fischer, and J. Modersitzki: Large scale problems arising from image registration. GAMM Mitteilungen, 27(2):104-120, 2004. http://www.math.uni-luebeck.de/ mitarbeiter/modersitzki/Pubs/GAMM-2005/FM-GAMM-2004-11-29.pdf [32] J. Modersitzki: Numerical Methods for Image Registration (Numerical Mathematics and Scientific Computation, Oxford University Press, 2004 [33] Clarenz, U. and Droske, M. and Henn, S. and Rumpf, M. and Witsch, K. Computational methods for nonlinear image registration. Universität Duisburg, Preprint 2005 http: //numerik.math.uni-duisburg.de/research/papers/public/ClDrHeRuWi04.pdf to appear in: Mathematical methods in image registration, Series: Mathematics in Industry, Springer [34] C.E. Shannon: A mathematical theory of communication. The Bell System Technical Journal, XXVII:379–423, 623–656, 1948. [35] C.E. Shannon: A mathematical theory of communication. The Bell System Technical Journal, 27 (1948), pp. 379–423, 623–656, Reprinted with corrections from The Bell System Technical Journal. http://cm.bell-labs.com/cm/ms/what/shannonday/ shannon1948.pdf [36] A. Rényi: Wahrscheinlichkeitsrechnung mit einem Anhang über Informationstheorie. Deutscher Verlag der Wissenschaften, Berlin, 1977. [37] A Collignon, F. Maes, D. Delaere, D. Vandermeulen, P. Suetens, and G. Marchal: Automated Multi-Modality Image Registration Based on Information Theory. Information Processing in Medical Imaging, pages 262-274, 1995. [38] A. Collignon, A. Vandermeulen, P. Suetens, and G. Marchal: 3D Multi-modality Medical Image Registration Based on Information Theory, Computational Imaging and Vision, 3 (1995), pp. 263-274. [39] T.M. Cover and J.A. Thomas: Elements of Information Theory, Wiley, 1991. (zweite Auflage erscheint im Okt. 2005) [40] D.J.C. Mackay: Information Theory, Inference, and Learning Algorithms, Cambridge University Press, 2002 [41] C. Studholme, D. Hill, and D. Hawkes: An overlap invariant entropy measure of 3D medical image alignment. Pattern Recognition, 32:71–86, 1999. [42] I. Rock: Perception, Scientific American Library, 1995. [43] D.H. Hubel: Eye, Brain and Vision, Scientific American Library, 1995. [44] D. Mumford and J. Shah: Boundary detection by minimizing functionals. In Proc. IEEE Conference on Computer Vision and Pattern Recognition, San Francisco, 1985.N, Vol. 38, N◦ 2, pp. 291-320 [45] D. Mumford and J. Shah: Optimal approximations by piecewise smooth functions and associated variational problems, Comm. Pure Appl. Math. 42, pp. 577 - 685 (1989). [46] J.-M. Morel and S. Solimini, Variational Methods in Image Segmentation, Birkhäuser (1995). 18 [47] E. De Giorgi, M. Carriero and A. Leaci: Existence theorem for a minimum problem with discontinuity set, Arch. Rat. Mech. Anal. 108, pp. 195-218 (1989). [48] G. Dal Maso: An introduction to Γ-convergence, Birkhäuser Boston, Boston, MA (1993). [49] X. Feng and A. Prohl, Analysis of gradient flow of a regularized mumford-functional for image segmentation and image inpainting, Mathematical Modelling and Numerical Analysis, 38:2 (2004), pp. 291-320 http://www.ima.umn.edu/preprints/may2003/ 1920.pdf [50] J. Shen: Γ-Convergence Approximation to Piecewise Constant Mumford-Shah Segmentation, in: J. Blanc-Talon et al. (Eds.): ACIVS 2005 (Int’l Conf. Advanced Concepts Intell. Vision Systems), Lect. Notes Comp. Sci. 3708 , pp. 499-506, 2005. [51] S. Esedoglu, Y-H. Tsai: Threshold dynamics for the piecewise constant Mumford-Shah functional. UCLA CAM Report 04-63 (October 2004). http://www.math.ucla.edu/ ∼esedoglu/Papers Preprints/esedoglu tsai.pdf [52] J. Lie, M. Lysakery and X.-C. Tai: A Binary Level Set Model and some Applications to Mumford-Shah Image Segmentation. To appear in IEEE Transection on image processing. Also UCLA, Applied Mathematics, CAM-report-04-31. http://www.mi.uib.no/ ∼tai/papers/cam04-31.pdf [53] J. Shen: Piecewise H −1 + H 0 + H 1 images and the Mumford-Shah-Sobolev model for segmented image decomposition http://www.math.umn.edu/∼jhshen/Mars/ ShenVision0705.pdf [54] M. Droske and W. Ring: A Mumford-Shah Level-Set Approach for Geometric Image Registration DFG-SP 1114 Preprint, April 2005. http://www.math.uni-bremen.de/ zetem/DFG-Schwerpunkt/preprints/pdf/099.pdf [55] A. Desolneux, L. Moisan, and J.-M. Morel: A theory of digital image analysis. Book in preparation. [56] D. Mumford: Pattern theory: The mathematics of perception. in Proc. ICM (Beijing 2002), Higher Ed. Press, Beijing 2002, Vol. I, 401-422. http://arxiv.org/math/ 0212400 [57] C. Hansen, C. Johnson: The Visualization Handbook, Elsevier, 2005 , 962 S. [58] Y. Livnat: Accelerated Isosurface Extraction Approaches, in: C. Hansen, C. Johnson: The Visualization Handbook, Elsevier, 2005 , pp. 39–55 [59] A. Kaufman, K. Mueller: Overview of Volume Rendering in: C. Hansen, C. Johnson: The Visualization Handbook, Elsevier, 2005 , pp. 127–174 [60] J. Kniss, G. Kindlmann, C.D. Hansen: Multidimensional Transfer Functions for Volume Rendering, in: C. Hansen, C. Johnson: The Visualization Handbook, Elsevier, 2005 , pp. 189–209 [61] U. Joseph Schoepf (ed.): CT of the Heart, Humana Press 2005, Totowa NJ [62] R. Klingebiel: Evaluation neuer radiologischer Bildgebungstechniken in der otologischen Diagnostik, Habilitationsschrift, Humboldt-Universität zu Berlin, Medizinische Fakultät - Universitätsklinikum Charité, 2002 http://edoc.hu-berlin.de/habilitationen/ klingebiel-randolf-2002-10-01 [63] C.N. Heine: Dreidimensionale Darstellung der Hirnnerven V-VIII mittels virtueller Zisternoskopie, Dissertation, Medizinische Fakultät der Charité, Universitätsmedizin Berlin, 2004 http://edoc.hu-berlin.de/dissertationen/ heine-christian-nicolaus-2004-09-23 19