Hauptseminar: Medizinische Bildverarbeitung

Werbung
Hauptseminar: Medizinische Bildverarbeitung
Seminararbeiten
Prof. Dr.-Ing. Dietrich Paulus, Sahla Bouattour
Sommersemester 2003
Sommersemester 2003
Institut für Computer Visualistik
Universität Koblenz-Landau
Universitätsstraße 1, 56070 Koblenz
paulus|[email protected]
http://www.uni-koblenz.de/∼paulus|bouattour
Inhaltsverzeichnis
1 Bildgebende Verfahren in der Medizin
1.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Röntgentechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Erzeugung von Röntgenstrahlen . . . . . . . . . . . . . . . . . . . .
1.3.1 Röntgenröhre . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.2 Bohr’sches Atommodell . . . . . . . . . . . . . . . . . . . .
1.3.3 Bremsstrahlung . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.4 Charakteristische Strahlung . . . . . . . . . . . . . . . . . .
1.4 Schwächung der Röntgenstrahlung . . . . . . . . . . . . . . . . . . .
1.4.1 Eigenschaften von Röntgenstrahlen . . . . . . . . . . . . . .
1.4.2 Photoeffekt . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.3 Compton-Effekt . . . . . . . . . . . . . . . . . . . . . . . .
1.4.4 Von welchen Faktoren hängt die Schwächung der Strahlung ab?
1.5 Beeinflussung der Bildwirkung . . . . . . . . . . . . . . . . . . . . .
1.5.1 Kontrast . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5.2 Schärfe . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.6 Weitere röntgenologische Verfahren . . . . . . . . . . . . . . . . . .
1.6.1 Durchleuchtung . . . . . . . . . . . . . . . . . . . . . . . . .
1.6.2 Mammographie . . . . . . . . . . . . . . . . . . . . . . . . .
1.6.3 Angiographie . . . . . . . . . . . . . . . . . . . . . . . . . .
1.6.4 Röntgencomputertomographie . . . . . . . . . . . . . . . . .
1.6.5 Fenstertechnik mit der Hounsfiledskala . . . . . . . . . . . .
1.7 Weitere tomographische Verfahren . . . . . . . . . . . . . . . . . . .
1.7.1 Kernspintomographie . . . . . . . . . . . . . . . . . . . . . .
1.7.2 Emissioncomputertomographie: SPECT/PET . . . . . . . . .
1.7.3 Weitere tomographische Verfahren . . . . . . . . . . . . . . .
1.8 Weitere bildgebende Verfahren . . . . . . . . . . . . . . . . . . . . .
1.8.1 Szintigraphie . . . . . . . . . . . . . . . . . . . . . . . . . .
1.8.2 Sonographie . . . . . . . . . . . . . . . . . . . . . . . . . .
1.9 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
2
2
2
2
3
3
5
6
6
6
6
7
7
8
8
9
9
10
10
10
12
13
13
14
14
14
14
15
15
2 Röntgen CT: gefilterte Rückprojektion
2.1 Problemstellung . . . . . . . . . . . . . . . . . . . .
2.2 Röntgen Computertomographie . . . . . . . . . . . .
2.3 Definition einer Projektion . . . . . . . . . . . . . .
2.3.1 Projektionsarten . . . . . . . . . . . . . . .
2.3.2 Prjektion einer Bleikugel (einfaches Beispiel)
2.3.3 Projektion eines Körpers (allgemein) . . . .
19
20
20
21
21
22
23
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
INHALTSVERZEICHNIS
2.4
2.5
2.6
2.7
Radon Transformation . . . . . . . . . . . . . . . . . . .
Anwendung der Radon Transformation . . . . . . . . . .
Rekonstruktion . . . . . . . . . . . . . . . . . . . . . . .
2.6.1 Fourier-Scheiben-Theorem (fourier slice theorem)
2.6.2 Zusammenfassung . . . . . . . . . . . . . . . . .
2.6.3 Interpolation . . . . . . . . . . . . . . . . . . . .
2.6.4 Vor- und Nachteile . . . . . . . . . . . . . . . . .
Gefilterte Rückprojektion (filtered backprojection) . . . . .
2.7.1 Rückprojektion (backprojection) . . . . . . . . . .
2.7.2 Filterung . . . . . . . . . . . . . . . . . . . . . .
2.7.3 Vor- und Nachteile . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
24
25
26
26
27
27
28
28
28
29
30
3 Vorverarbeitung: adaptive Wiener Filter und anisotropische adaptive Filter
3.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Bildaufnahmeprozess . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1 Der Weg zum digitalisierten Bild . . . . . . . . . . . . . . . .
3.2.2 Die Weiterverarbeitung durch einen Filter . . . . . . . . . . .
3.3 Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.1 Lineare Filter: . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.2 Nichtlineare Filter . . . . . . . . . . . . . . . . . . . . . . .
3.3.3 Adaptive Filter . . . . . . . . . . . . . . . . . . . . . . . . .
3.4 Wiener Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.1 Mathematische Herleitung . . . . . . . . . . . . . . . . . . .
3.4.2 Adaptiver Wiener Filter . . . . . . . . . . . . . . . . . . . .
3.4.3 Schema des Wiener Filters . . . . . . . . . . . . . . . . . . .
3.4.4 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5 Anisotropischer adaptiver Filter . . . . . . . . . . . . . . . . . . . .
3.5.1 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6 Schlusswort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
34
34
34
35
35
35
36
36
36
36
39
40
40
41
41
42
43
4 2D Segmentierung medizinischer Bilder: Segmentierung mit deformierbaren Modellen
4.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Das klassische Snake-Modell . . . . . . . . . . . . . . . . . . . . . .
4.2.1 Mathematische Grundlagen . . . . . . . . . . . . . . . . . .
4.2.2 Energieminimierungsverfahren . . . . . . . . . . . . . . . . .
4.2.3 Dynamisch deformierbare Modelle . . . . . . . . . . . . . .
4.2.4 Nachteile klassischer Snakes . . . . . . . . . . . . . . . . . .
4.3 T-Snakes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.1 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.2 Komponenten der T-Snake . . . . . . . . . . . . . . . . . . .
4.3.3 Iterative Neubestimmung der geometrischen Parameter . . . .
4.3.4 T-Snake Algorithmus . . . . . . . . . . . . . . . . . . . . . .
4.3.5 Interaktive Kontrolle . . . . . . . . . . . . . . . . . . . . . .
4.3.6 Beurteilung der T-Snakes . . . . . . . . . . . . . . . . . . . .
4.4 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . .
47
48
48
48
49
51
51
52
52
52
53
54
55
56
57
INHALTSVERZEICHNIS
5
5 Registrierungsverfahren
5.1 Motivation und Nutzen in der Medizin . . . . . . . . . . .
5.2 Registrierungsverfahren . . . . . . . . . . . . . . . . . . .
5.2.1 Definition . . . . . . . . . . . . . . . . . . . . . .
5.3 Klassifikation der Verfahren . . . . . . . . . . . . . . . .
5.3.1 Modalität . . . . . . . . . . . . . . . . . . . . . .
5.3.2 Dimensionalität . . . . . . . . . . . . . . . . . . .
5.3.3 Subjekt . . . . . . . . . . . . . . . . . . . . . . .
5.3.4 Objekt . . . . . . . . . . . . . . . . . . . . . . . .
5.3.5 Interaktion . . . . . . . . . . . . . . . . . . . . .
5.3.6 Basis . . . . . . . . . . . . . . . . . . . . . . . .
5.3.7 Transformation (modellbasiert) . . . . . . . . . .
5.3.8 Transformationsbereich . . . . . . . . . . . . . .
5.3.9 Optimierungsverfahren . . . . . . . . . . . . . . .
5.4 Registierungsverfahren von Penney . . . . . . . . . . . .
5.4.1 Klassifikation des Registrierungsverfahren . . . .
5.4.2 Digitally Reconstructed Radiograph . . . . . . . .
5.4.3 Registrierungsverfahren als Optimierungsproblem
5.4.4 Ähnlichkeitsmaße . . . . . . . . . . . . . . . . .
5.4.5 Bewertung des Verfahrens von Penney . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
61
62
64
64
64
65
65
65
66
66
66
67
68
68
69
69
69
70
70
72
6 Bayes Netze
6.1 Motivation . . . . . . . . . . . . . .
6.2 Statistischer Grundlagen . . . . . .
6.3 Aufbau Bayes-Netze . . . . . . . .
6.4 Diagnose mit Hilfe von Bayes-Netze
6.5 Klassifikation mit Bayes-Netzen . .
6.6 Zusammenfassung . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
75
76
76
78
80
83
85
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7 Retina
89
8 Endoskopie
8.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2 Verschiedene Endoskope und Funktionsweisen . . . . . . . . . . .
8.2.1 Entwicklung des Endoskops . . . . . . . . . . . . . . . . .
8.2.2 Aufbau eines Endoskops . . . . . . . . . . . . . . . . . . .
8.2.3 Der Schritt zur digitalen Verarbeitung . . . . . . . . . . . .
8.3 Verfahren am Beispiel der laparoskopische Gallenblasenentfernung .
8.3.1 Typische Probleme einer Laparoskopie . . . . . . . . . . .
8.3.2 Das Problem der Glanzlichter . . . . . . . . . . . . . . . .
8.4 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4.1 Virtuelle Endoskopie . . . . . . . . . . . . . . . . . . . . .
8.4.2 Kamerakapseln . . . . . . . . . . . . . . . . . . . . . . . .
8.5 Zusammenfassung und Ergebnis . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
93
94
95
95
95
96
96
97
97
101
102
102
103
9 Dermatologie
9.1 Einleitung . . .
9.2 Motivation . . .
9.3 Dermatoskopie
9.4 Merkmale . . .
.
.
.
.
107
108
108
109
109
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6
INHALTSVERZEICHNIS
9.5
9.6
9.4.1 dermatoskopische ABCD-Regel
9.4.2 Verwendete Merkmale . . . . .
Verfahren zur Merkmalsanaylse . . . .
9.5.1 Haardetektion . . . . . . . . . .
9.5.2 Segmentierung . . . . . . . . .
9.5.3 Asymmetrie der Farbverteilung
9.5.4 Vielfalt der Farben . . . . . . .
9.5.5 Klassifikator . . . . . . . . . .
Zusammenfassung . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
110
110
110
111
111
112
115
116
117
0
INHALTSVERZEICHNIS
Kapitel 1
Bildgebende Verfahren in der
Medizin
Verena Würbel
08.April 2003
Institut für Computer Visualistik
Universität Koblenz-Landau
Universitätsstraße 1, 56070 Koblenz
[email protected]
http://www.uni-koblenz.de/∼wrena
2
Bildgebende Verfahren in der Medizin
Abbildung 1.1: Röntgenaufnahme der menschlichen Hand
1.1 Einleitung
Diese Ausarbeitung gibt einen Überblick über die bildgebenden Verfahren in der Medizin. Zuerst wird ein detaillierter Einblick in die Röntgentechnik gegeben. Entstehung
und Eigenschaften der Strahlung werden erklärt und später anhand von röntgenologischen Verfahren, speziell der Computertomographie erläutert. Desweitern werden
weiter bildgebende Verfahren vorgestellt.
1.2 Röntgentechnik
Die Röntgenstrahlung wurde 1895 von Wilhelm Conrad Röntgen entdeckt. 1901 wurde
er mit dem ersten Nobelpreis für Physik ausgezeichnet. Bei röntgenologischen Verfahren durchdringen Röntgenstrahlen (auch γ-Strahlung genannt) den Körper und werden
dabei unterschiedlich stark geschwächt. Hinter dem Objekt wird die Intensität der geschwächten Strahlung von Detektoren (Film, Leuchtschirm, CCD-Sensor) gemessen.
Die entstehenden schattenartigen Bilder sind an Stellen starker Absorption weiß und
an Stellen schwacher Absorption schwarz. (siehe Abbildung 1.1)
1.3 Erzeugung von Röntgenstrahlen
In diesem Abschnitt wird die Erzeugung von Röntgenstrahlung in der Röntgenröhre erläutert. Desweiteren wird das Bohr‘sche Atommodell kurz erklärt, um die Entstehung
von charakteristischer Strahlung und Bremsstrahlung zu verstehen.
1.3.1 Röntgenröhre
In einer Vakuumröhre treten durch den thermoelektrischen Effekt Elektronen aus der
Kathode aus. Die Kathode ist ein Glühdraht, in dem die Elektronen sich so schnell bewegen, dass sie im Vakuum die Kathode verlassen können. Eine Erhöhung der Stromstärke führt also zu einer höheren Temperatur und Elektronen werden emittiert. Die
freien Elektronen (Elektronen sind negativ geladen) werden durch eine Hochspannung
im elektrischen Feld zur Anode hin beschleunigt (siehe Abbildung 1.2). Je größer die
1.3 Erzeugung von Röntgenstrahlen
3
Röntgenstrahlen
Kathode
Anode
PSfrag replacements
Hochspannung
Abbildung 1.2: schematische Darstellung der Röntgenröhre
Spannung, desto größer ist die Geschwindigkeit der Elektronen. Geladene Teilchen,
die abgebremst werden oder ihre Richtung verändern verlieren Energie und senden somit Strahlung aus. Und genau das passiert an der Anode. Das heißt, je größer die
Geschwindigkeit und somit die kinetische Energie der Elektronen ist, desto intensiver
ist auch die resultierende Strahlung.
Dabei ist noch zu sagen, dass nur ca. 1% der Energie in Strahlungsenergie umgesetzt
wird. Die restlichen 99% werden in Form von Wärmeenergie abgegeben, was eine gute
Wärmeleitfähigkeit der Anode fordert. Um zu verstehen was in der Anode passiert ist
eine kleine Einführung in die Idee des Bohr’schen Atommodells von Nöten.
1.3.2 Bohr’sches Atommodell
Nach Bohr besteht ein Atom aus einem Atomkern, der aus einer Zahl von Protonen
und Neutronen besteht und somit positiv geladen ist. Die Elektronen befinden sich auf
Bahnen um den Atomkern herum. Diese Schalen haben verschiedene Energieniveaus.
Das heißt, es muss je nach Schale eine bestimmte Energie aufgebracht werden um ein
Elektron aus der Schale zu lösen.
Die Schalen werden von innen bei K beginnend alphabetisch benannt (siehe Abbildung
1.3). Die Anzahl der auf der Schale befindlichen Elektronen liegt bei 2n 2 . Wobei n die
Nummer der Schale ist.
Kommen wir nun zurück zu der Erzeugung der Röntgenstrahlen in der Anode. Dort
entstehen zwei Strahlungen die sich zum Röntgenspektrum addieren: die Bremsstrahlung und die charakteristische Strahlung.
1.3.3 Bremsstrahlung
Bei der Bremsstrahlung dringen die schnellen Elektronen in das Anodenmaterial ein
und werden auf einer hyperbelförmigen Bahn durch den Atomkern abgelenkt (siehe
4
Bildgebende Verfahren in der Medizin
K-Schale
L-Schale
M-Schale
PSfrag replacements
Abbildung 1.3: Bohr‘sches Atommodell
resultierende Strahlung
PSfrag replacements
Atom
Elektron
Abbildung 1.4: Bremsstrahlung
1.3 Erzeugung von Röntgenstrahlen
5
resultierende Strahlung
PSfrag replacements
Elektron
Abbildung 1.5: charakteristische Strahlung
Abbildung 1.6: Das Röntgenspektrum
Abbildung 1.4). Das passiert, weil Atomkerne positiv und die Elektronen negativ geladen sind. Die dabei abgegebene Strahlungsenergie ist die Differenz der Energie des
Elektrons vor und nach der Ablenkung. Elektronen können auch mehrfach abgelenkt
werden und es entstehen verschiedene Frequenzen der Strahlung. Dabei ist die Strahlungsenergie (Frequenz) am höchsten, wenn das Elektron nur einmal abgelenkt wird
und möglichst nah am Atomkern vorbeifliegt. Außerdem hängt die Energie von der
Geschwindigkeit der Elektronen und somit von der Spannung ab, womit bei höherer
Spannung intensivere Strahlung erzeugt wird (harte Strahlung entsteht ab 100 kV).
1.3.4 Charakteristische Strahlung
Die charakteristische Strahlung ist abhängig vom Anodenmaterial. Hat ein Elektron
genügend Energie, kann es ein Elektron aus der Schale des Atoms herrausstoßen (siehe
Abbildung 1.5). Man sagt: das Atom wird ionisiert. Der freie Platz auf einer inneren
Schale wird von einem Elektron einer äußeren aufgefüllt. Die entstehende Strahlungsenergie ist gerade die Differenz der beiden Energieniveaus auf den Schalen.
Da diese Energieniveaus bei den Elementen verschieden sind erkennt man charakteristische Peaks im Spektrum.
Das Röntgenspektrum ergibt sich aus der Addition von der Bremsstrahlung und der
charakteristischen Strahlung (siehe Abbildung 1.6).
6
Bildgebende Verfahren in der Medizin
Kern
PSfrag replacements
Photon
Elektron
Abbildung 1.7: Photoeffekt
Elektron
PSfrag replacements Photon
Abbildung 1.8: Compton-Effekt
1.4 Schwächung der Röntgenstrahlung
Röntgenstrahlen werden im Körper durch Wechselwirkung von Strahlung und Materie
geschwächt. Dabei sind zwei wichtige Effekte zu nennen: der Photoeffekt und der
Compton-Effekt. Der Grad der schwächung hängt von unterschiedlichen Faktoren ab,
die in diesem Abschnitt erläutert werden.
1.4.1 Eigenschaften von Röntgenstrahlen
Röntgenstrahlen sind elektromagnetische Wellen, die sich nahezu mit Lichtgeschwindigkeit (300000 km/s) ausbreiten. Elektromagnetische Wellen verhalten sich einerseits
wie eine Welle, andererseits wie Teilchen. Das ist der so genannte Welle/TeilchenDualismus. Wir stellen uns den Röntgenstrahl also bestehend aus Photonen vor. Je
intensiver die Strahlung, desto mehr Photonen sind in ihm enthalten. Außerdem hat
die Röntgenstrahlung Welleneigenschaften wie Wellenlänge und Frequenz.
1.4.2 Photoeffekt
Beim Photoeffekt stößt das Photon ein Elektron aus der Schale eines Atoms und wird
dabei vernichtet. Das Atom wird ionisiert. Das freigewordene Elektron kann im Körper
bis zu einen Meter zurücklegen und andere Atome ionisieren (siehe Abbildung 1.7).
1.4.3 Compton-Effekt
Beim Compton-Effekt stößt ein Röntgenphoton gegen ein Elektron und bewegt sich mit
weniger Energie in eine andere Richtung fort (siehe Abbildung 1.8). Hierbei entsteht
1.5 Beeinflussung der Bildwirkung
Wellenlänge
Ordnungszahl
7
Dichte
Dicke
PSfrag replacements
Abbildung 1.9: Faktoren der Schwächung: der graue und der weisse Pfeil verdeutlichen lediglich die Änderung des Faktors der Schwächung, nicht die Art der Strahlung!
Streustrahlung, die zu schlechten Bildergebnissen führt (siehe Abschnitt 4.1: Verringerung der Streustrahlung). Der Compton-Effekt tritt ab einer Beschleunigungsspannung
von 50 keV (Kiloelektronenvolt) auf.
1.4.4 Von welchen Faktoren hängt die Schwächung der Strahlung
ab?
Wie man aus Abbildung 1.9 erkennen kann, hängt die Schwächung der Strahlung von
mehreren Faktoren ab:
1. Wellenlänge: Je größer die Wellenlänge, desto stärker wird die Strahlung geschwächt.
2. Ordnungszahl: Je weniger Schalen die Atome haben, desto stärker wird die
Strahlung geschwächt.
3. Dichte: Je dichter die Materie, desto stärker wird die Strahlung geschwächt.
4. Dicke: Je dicker die Materie, desto stärker wird die Strahlung geschwächt.
1.5 Beeinflussung der Bildwirkung
Ziel der Röntgentechnik ist es, zu diagnostischen Zwecken ein möglichst aussagekräftiges Bild des Körpers zu erhalten. Dieses Bild entsteht, in dem nach der Bestrahlung
die Restintensität des Röntgenstrahls gemessen wird. Das Bild zeigt die Stellen, wo
der Strahl stark absorbiert wurde weiß, die anderen bis schwarz. Die Schwächung der
Strahlung erfolgt durch Absorptions- und Streuprozesse im Körper durch die Wechselwirkung von Röntgenstrahl und Materie. Qualitätsmerkmale von Bildern sind Kontrast
und Schärfe.
8
Bildgebende Verfahren in der Medizin
Abbildung 1.10: Streustrahlung
1.5.1 Kontrast
Als Kontrast bezeichnet man die unterschiedlichen Schwärzungen im Bild. Er hängt
ab von:
1. Härte der Strahlung:
Weiche Strahlung führt zu kontrastreicheren Bildern. Also je höher die Röhrenspannung, desto kontrastärmer werden die Bilder. Allerdings führt weiche Strahlung zu einer höheren Strahlenbelastung des Körpers. Deswegen ist es sinnvoll
die Bilder so zu verbessern, dass trotz harter Strahlung eine Diagnose möglich
ist.
2. Verringerung von Streustrahlung:
Die Verringerung der Streustrahlung erhöht den Kontrast im Bild. Streustrahlung
entsteht durch den Comptoneffekt bei der Wechselwirkung von Röntgenphotonen und Materie. Die Streustrahlung ist umso größer, je höher die Röhrenspannung und je Größer das Volumen des durchstrahlten Objekts ist. Um die Streustrahlung zu reduzieren wird einmal vor den Primärstrahl eine Blende gesetzt,
um das Volumen der durchstrahlten Fläche so klein wie möglich zu halten. Des
Weiteren wird vor den Detektor ein Lamellenraster positioniert, das aus Bleilamellen und strahlungsdurchlässigen Stoffen besteht (siehe Abbildung 1.10). So
werden Sekundärstrahlen absorbiert. Wichtig ist, dass das Raster richtig fokussiert und positioniert ist, weil sonst zu viel Bildinformation verloren gehen kann.
3. Filmmaterial
1.5.2 Schärfe
Ein Bild ist scharf, wenn die Ränder einzelner, kleiner Details gut zu erkennen sind.
Subjektiv hängt die Schärfe auch von dem Kontrast im Bild ab. Faktoren die die
Schärfe im Bild beeinflussen:
1. Größe des Brennflecks (Fokus):
1.6 Weitere röntgenologische Verfahren
9
B
Fokus
F OA
PSfrag replacements
Objekt
OF A
Filmmaterial
G
G
Abbildung 1.11: geometrische Unschärfe
wird durch die Leistung der Röhre, das Anodenmaterial und die Anodenkonstruktion bestimmt.
2. Gesetzmäßigleiten der Zentralprojektion:
Wie man in Abbildung 1.11(geometrische Unschärfe) erkennt, hängt die geometrische Unschärfe G von drei Faktoren ab: dem Fokus-Objekt-Abstand F OA,
dem Objekt-Film-Abstand OF A und dem Fokus B. Um eine möglichst kleine
geometrische Unschärfe zu erhalten, wählt man den F OA möglichst groß (mindestens 5-mal so groß wie Objektdicke) und der F OA möglichst klein.
G=
B ∗ F OA
F OA
3. Anwendung von Verstärkerfolie:
Das Verwenden von Verstärkerfolie ermöglicht eine geringere Strahlenbelastung
beim Patienten und erzeugt subjektiv schärfere und kontrastreichere Bilder. Da
Röntgenstrahlen nicht im Frequenzbereich von Licht liegen würden sehr hohe
Dosen zum Belichten eines Filmes benötigt werden. Mit der fluoriszierende Verstärkerfolie wird daher die Röntgenstrahlung in Licht umgewandelt (aus einem
Photon entstehen mehrere Lichtquanten), das den Film dann belichten kann.
4. Minimierung von Bewegungsunschärfe:
Um die Bewegungsunschärfe zu Minimieren ist eine kurze Belichtung und eine
genaue Geräteeinstellung wichtig. Ausserdem sollte der Patient gut fixiert sein.
1.6 Weitere röntgenologische Verfahren
1.6.1 Durchleuchtung
Bei der Durchleuchtung will der Arzt Bewegungsabläufe wie z.B. die Ausbreitung
eines Kontrastmittels beobachten. Früher stand der Arzt dazu neben dem fluoreszie-
10
Bildgebende Verfahren in der Medizin
Abbildung 1.12: Mammographie der weiblichen Brust
renden Leuchtschirm. Dies führte allerdings zu einer erheblichen Strahlenbelastung.
Heute wird ein so genannter Röntgenbildverstärker benutzt. Die geschwächten Röntgenstrahlen treffen auf einen fluoreszierenden Eingangsschirm des Röntgenbildverstärkers. Die dabei ausgelösten Elektronen werden durch eine Spannung zum Ausgangsschirm hin beschleunigt und fokussiert. Dies wird über eine Fernsehkamera auf einem
Monitor beobachtet. Das entstehende Bild ist allerdings helligkeits-invertiert, da die
stark absorbierte Strahlung ja am wenigsten Licht freisetzt und somit dunkel dargestellt wird.
1.6.2 Mammographie
Die Mammographie ist die röntgenologische Untersuchung der Brust (lat. Mamma =
Brustdrüse)(siehe Abbildung 1.12). Da die Brust aus Weichgewebe besteht, ist nur eine
weiche Röntgenstrahlung notwendig. Auf eine Anode aus Molybdän werden Elektronen mit einer Spannung von 28 kV bis 35 kV beschleunigt, so dass hauptsächlich charakteristische Strahlung entsteht. Die Strahlenexposition der Patientin ist daher relativ
hoch.
1.6.3 Angiographie
Angiographie ist die röntgenologische Untersuchung von Venen und Arterien (lat. Angio = Gefäß). Damit sich die Gefäße von dem restlichen Gewebe unterscheiden wird
ein Kontrastmittel verabreicht. Nun wird vor der Einnahme ein Maskenbild erzeugt.
Nach der Einnahme des Kontrastmittels ein so genanntes Füllbild. Durch Subtraktion
(DSA1 ) der beiden Bilder erhält man ein Differenzbild, welches nur das vom Kontrastmittel durchsetztes Gewebe zeigt (siehe Abbildung 1.13). Oft werden die Bilder aus
Sequenzen gemittelt, um eine Besserung des Signal/Rauschverhältnisses zu erreichen.
1.6.4 Röntgencomputertomographie
Unter Tomographie versteht man die Abbildung einer zweidimensionalen Schicht. (lat.
Tomos = Schicht) eines dreidimensionalen Objekts. Die Röntgencomputertomographie funktioniert im Prinzip wie die klassische Röntgenaufnahme (siehe Abbildung
1 Digital
Substraction Angiography
1.6 Weitere röntgenologische Verfahren
11
Abbildung 1.13: angiographische Aufnahme der menschlichen Lunge nach dem Subtraktionsverfahren
Abbildung 1.14: Röntgencomputertomographie: Schichtaufnahme des menschlichen
Unterleibs
12
Bildgebende Verfahren in der Medizin
−100
0
PSfrag replacements
+1000
+100
+1000
0
−1000
Abbildung 1.15: Fensterung: Der Bereich zwischen 0 HU und 100 HU wird auf die
Grauwerte aufgeteilt, sodass ein optischer Unterschied zwischen den betrachteten Gewebearten sichtbar ist.
2.1), allerdings wird durch einen Kollimator (Blende, die den Strahl bündelt) nur ein
einziger Strahl (Fächerstrahl) ausgesandt, der den Körper passiert und auf der anderen Seite von einem Detektor aufgenommen wird. Dieser Strahl wird linear in der
Schichtebene bewegt. So ergibt sich ein herkömmliches Röntgenbild. Allerdings ist
die Auflösung besser, da es nicht zu Störungen aufgrund von Halbschattenbildung
kommt. Nun dreht sich die Röntgenröhre um einen bestimmten Winkel und erzeugt
eine Projektion aus diesem Winkel. Wenn die Röhre das Objekt einmal komplett umrundet hat, lässt sich aus den vielen Projektionen durch algebraische Rekonstruktion,
Fourier-Transformation, gefilterte Rückprojektion ein Bild erzeugen (vgl. 2.1). Zur
Verdeutlichung einige typische Daten eines aktuellen Tomographen:
• Röhrenspannung 120 bis 150 kV (Kilovolt)
• 500 bis 1000 Detektoren
• Drehwinkel pro Schritt 0,5 bis 1 Grad (d.h. 360 bis 720 Projektionen)
• Schichtdicke wählbar zwischen 1mm und 8mm.
1.6.5 Fenstertechnik mit der Hounsfiledskala
Wegen sehr ähnlichen Schwächungskoeffizienten können manche Organe oder Gewebetypen nur aufgrund der Lage und nicht der Helligkeit eindeutig identifiziert werden.
Abhilfe schafft die so genannte Fenstertechnik mit Hilfe der Hounsfieldskala. Die
Hounsfileldskala zeigt den relativen Absorptionsunterschiede im Vergleich zu Wasser
1.7 Weitere tomographische Verfahren
13
Abbildung 1.16: Kernspintomographie des menschlichen Knies
in Promille. Wobei −1000 HU (Hounsfield-Unit) der Absorption von Luft bzw. im Vakuum ausdrückt. 0 HU entspricht der Absorptionstärke von Wasser. Nach oben ist die
Skala offen. Das Absorptionsvermögen von dichten Knochen liegt bei ca. 3000 HU.
Das Auge kann unter normalen Bedingungen nur ca. 30 Graustufen unterscheiden.
Verteilt man diese 30 Stufen gleichmäßig auf einen Bereich von mehreren tausend HU,
so erscheinen Bereiche mit leicht unterschiedlichem Schwächungsvermögen ununterscheidbar in derselben Graustufe auf dem Monitor. Um dennoch etwas erkennen zu
können, teilt man die Graustufen einfach auf einen kleineren Bereich die so genannten
Fenster auf (siehe Abbildung 1.15).
1.7 Weitere tomographische Verfahren
1.7.1 Kernspintomographie
Der menschliche Körper besteht zum größten Teil aus Waserstoff. Die positiv geladenen Kerne der Wasserstoffatome im Organismus, die Protonen, verhalten sich unter
einem starken Magnetfeld genau so wie Eisenspäne unter einem gewöhnlichen Magneten: Sie orientieren sich alle in eine Richtung. Richtet man nun eine Art von Radiowellen auf die so in Reih und Glied gebrachten Protonen, nehmen sie die Energie auf
und werden dadurch etwas von ihrer Ausrichtungsachse abgelenkt. Nach Abschalten
der Radiowellen kehren die Protonen in ihre alte Lage zurück und geben dabei die aufgenommene Energie in Form von schwachen Radiowellen wieder ab. Diese Signale
werden von einer Antenne aufgefangen und durch ein computergestütztes Rechenverfahren in ein Bild umgesetzt. Je lockerer ein Körpergewebe ist, desto mehr Wasser
und Wasserstoff enthält es. Weichgewebe sind besonders wasserstoffreich, Knochen
bsonders wasserstoffarm. Umgekehrt wie bei Röntgenuntersuchungen lassen sich mit
der Magnetresonanztomographie Weichteile je nach ihrem Wassergehalt besonders gut
voneinander abgrenzen (siehe Abbildung 1.16). Sie werden entsprechend ihrem Wasserstoffgehalt in verschiedenen Graustufen dargestellt. Die Methode ist daher besonders aussagekräftig in Körperregionen, in denen viel Weichgewebe vorhanden ist. Knochen und Luft stellen sich im Gegensatz hierzu gar nicht dar und erscheinen auf dem
14
Bildgebende Verfahren in der Medizin
Abbildung 1.17: SPECT des menschlichen Gehirns
kernspintomographischen Bild schwarz, im Röntgenbild dagegen weiß. Die Kernspintomographie hat den Vorteil gegenüber der Röntgentomographie, dass sie den Patienten nicht belastet. Allerdings sind nur Aufnahmen von wasserstoffreichen Geweben
möglich.
1.7.2 Emissioncomputertomographie: SPECT/PET
Positronen sind Elementarteilchen, die im Atomkern entstehen, wenn dieser mit Energie beschickt wird oder radioaktiv zerfällt. Obwohl sich der Atomkern dabei zunächst
nicht verändert, bewirkt die aufgenommene Energie die Bildung eines Zwillingspaares von Elementarteilchen, die sich nur in ihrer Ladung unterscheiden, nämlich eines Elektrons und eines Positrons (positiv geladenes Teilchen mit Eigenschaften eines
Elektrons). Stabil ist diese Bildung nicht: Da die Positronen physikalisch zur Antimaterie gehören, verschwinden sie auch sofort wieder, hinterlassen aber eine Spur: Die
anfänglich hineingesteckte Energie wird als schwache, aber meßbare Strahlung wieder
frei. Diese Strahlung wird gemessen und erzeugt ein Bild (siehe Abbildung 1.17).
1.7.3 Weitere tomographische Verfahren
Als weitere tomographische Verfahren sind die optische Tomographie, die Quantentomographie und die Impendenztomographie zu nennen.
1.8 Weitere bildgebende Verfahren
1.8.1 Szintigraphie
Bei der Szintigraphie (von Szintillation = Flackern, Aufblitzen, Funkeln) wird ein radioaktives Isotop intravenös injiziert und anschließend die Verteilung des Isotops mit
einer Kamera, die radioaktive γ-Strahlen messen kann, aufgezeichnet. Um ein zweidimensionales Bild zu bekommen, wird der Körper oder das untersuchte Organ zentimeterweise abgetastet und die Stärke der gemessenen γ-Strahlung als Helligkeits- oder
Farbpunkt in ein Bild übertragen (siehe Abbildung 1.18).
1.9 Ausblick
15
Abbildung 1.18: Schilddrüsen-Szintigraphie
Abbildung 1.19: Sonographie bei der pränatalen Diagnostik
1.8.2 Sonographie
Die Ultraschall-Untersuchung ist ein Verfahren zur bildlichen Darstellung verschiedener Körperregionen mit Hilfe von Ultraschallwellen (siehe Abbildung 1.19). Der Arzt
benötigt für die Sonographie einen Schallkopf. Dabei handelt es sich um einen piezoelektrischen Kristall. Piezo-elektrisch heißt elektrisch durch Druck. Dieser Kristall
wird durch bestimmte Hochfrequenzen zur Aussendung von Ultraschallwellen angeregt. Die Schallwellen werden im Körper des Patienten je nach Gewebeart absorbiert
oder reflektiert. Der Schallkopf kann die reflektierten Schallwellen wiederum empfangen. Er wirkt also gleichzeitig als Schallsender und Schallempfänger. Die reflektierten
Schallwellen werden in elektrische Impulse verwandelt, mit einem bestimmten Gerät
verstärkt und auf einem Bildschirm dargestellt. Der Arzt erhält dadurch zweidimensionale Bilder, die ihm eine räumliche Vorstellung von Größe, Form und Struktur der
untersuchten Organe, Weichteilgewebe und Gefäße vermitteln.
Mit den besonderen Verfahren der Doppler-Sonographie und der Farb-Doppler-Sonographie erhält der Arzt zusätzlich Informationen über die Strömungsrichtung,
-geschwindigkeit und -stärke des Blutflusses in den Gefäßen (siehe Abbildung 1.20).
1.9 Ausblick
Wo jetzt ein Einblick in die Entstehung und die Problematik der Bildaufnahme gegeben wurde, wird nun auf die Weiterverarbeitung der Bilder eingegangen: gefilterte
Rückprojektion, Einsatz von Filtern, Segmentierung, Registrierungsverfahren etc.
16
Bildgebende Verfahren in der Medizin
Abbildung 1.20: Dopplersonographie
Literaturverzeichnis
[Ber99]
Roland Berger. Moderne Bildgebende Verfahren der medizinischen Diagnostik. Logos Verlag, Berlin, 1999.
[Bie80]
Helmold Biel. Röntgenstrahlen ihre Anwendung in Medizin und Technik.
Teubner Verlag, Leipzig, 1980.
[Dös00]
Olaf Dössel. Bildgebende Verfahren in der Medizin- Von der Technik zur
medizinischen Anwendung. Springer Verlag, Heidelberg, 2000.
[LOPR97] Thomas Lehmann, Walter Oberschelp, Erich Pelikan, and Rudolf Repges.
Bildverarbeitung in der Medizin. Springer Verlag, Heidelberg, 1997.
18
LITERATURVERZEICHNIS
Kapitel 2
Röntgen CT: gefilterte
Rückprojektion
Thomas Lempa
15 Mai 2003
Institut für Computer Visualistik
Universität Koblenz-Landau
Universitätsstraße 1, 56070 Koblenz
[email protected]
http://www.uni-koblenz.de/∼tommyboy
20
Röntgen CT: gefilterte Rückprojektion
2.1 Problemstellung
In dem Kapitel 1.1 wurde erklärt wie ein Röntgen CT funktioniert. Im folgenden Kapitel wird auf die Nutzung des Röngen CT in der Medizin eingegangen und deren
Zusammenhänge mit der Bildverarbeitung beschrieben.
Im Jahre 1972 wurde die Computertomographie von Hounsfield und Cormack entwickelt. Diese Entwicklung wurde dann im Jahr 1979 mit einem Nobelpreis belohnt.
CT ist ein Röntgen-Schichtbildverfahren, das die überlagerungsfreie Darstellung aller
Körperregionen in Querschnitten erlaubt. In den ersten Jahren dauertr die Anfertigung
einer Schichtbildaufnahme fast 5 minuten, durch die Weiterentwicklung der technik
verkürzte sich die Zeit auf 1 Sekunde pro Aufnahme. Diese Entwicklung erleichter es
den Ärzten Tumore und andere Anomalitäten im Körper zu erkennen.
Die Problemtik dabei ist wie man ein Bild aus der Projektion eines Körpers wiederherstellen kann.
Im folgendem Kapitel wird näher auf die Problematik der Projektion und der Rekonstruktion des Bildes aus der projektion mit Hilfe der inversen Radontransformation
eingegangen. Hierbei gibt es zwei Möglichkeiten: Fourier - Scheiben - Theorem und
Gefilterte Rückprojektion. Aber dazu später.
2.2 Röntgen Computertomographie
Ein Körper, der sich im Röntgen CT befindet wird durch einen fächerartigen Röntgenstrahl durchdringt (vgl. 2.1.
Abbildung 2.1: Bestrahlung eines Körpers im Röntgen CT
Diese Röntgenstrahlen werden innnerhalb des Körpers durch die verschiedenen
Strukturen (Knochen, Organe, Fett, Muskeln) unterschiedlich stark abgeschwächt. Auf
der anderen Seite befinden sich mehrere Detektoren, die die Röntgenstrahlung messen
und an einen leistungsstarken Computer weiter leiten. Da die Röngenröhre und die
Detektoren sich um den Patienten, bzw. Körper um den Winkel θ drehen entstehen
ganz viele Projektionen, welche dann in ein Bild umgewandelt werden.
2.3 Definition einer Projektion
21
Abbildung 2.2: Beispiel eines entstandenen Bildes
2.3 Definition einer Projektion
Im folgendem Kapitel wird erklärt, was eine Projektion ist und wie diese entsteht. Ich
werde mich dabei auf die parallele Projektion (vgl. Bild 2.3) beschränken.
2.3.1 Projektionsarten
Es gibt drei unterschiedliche Projektionsarten. Die parallele, gleichwinklig gefächerte
und gleichräumig gefächerte Projektion.
Bei der parallelen Projektion (vgl. Bild 2.3) wird linear über die Länge der Projektion gescannt, dann um einen bestimmten Winkle gedreht und wieder über die Länge
der Projektion gescannt. Dies führt dazu, daß man mehr Zeit braucht um die Meßwerte zu verabeiten. Die Rekonstruktion der Projektion ist jedoch sehr einfach. Die
gefächerte Projektion (vgl. Bild 2.5)ist schneller, jedoch benötigt man einen komplizierteren Algorithmus für die Rekonstruktion. Bei der gefächrten Projektion gibt es
zwei Varianten , die gleichwinklig gefächerte (Bild 2.4) und die gleichräumig gefächerte (Bild 2.5). Bei der ersten Variante haben die Detektoren unterschiedlichen abstand zu einander, die Röntgenstrahlen haben jedoch gleichen Winkel. Bei der zweiten
Variante haben die Detektoren den gleichen Abstand zu einander, aber die Röntgenstrahlen werden unter unterschiedlichen Winkel an die Detektoren weiter geleitet. Die
rekonstruktionsverfahren sind hier auch unterschiedlich. Mehr darüber kann man bei
[SHJ88] nachlesen.
Pθ2 t
Pθ
1
t
PSfrag replacements
y
f (x, y)
θ1
θ2
x
Abbildung 2.3: Parallele Projektion (parallel projection)
PSfrag replacements
y
22
x
t
θ1
θ2
PSfrag replacements
f (x, y)
Pθy1
Pθx2
t
θ1
θ2
f (x, y)
P θ1
P θ2
y
Röntgen CT: gefilterte Rückprojektion
y
Pθ
Pθ
2
1
t
t
f (x, y)
x
x
β1
β2
t
s1
β1
s2
β2
f (x, y)
Abbildung 2.4: Gleichwinklige
gefächerte Projektion (equingular fanbeam projection)
P θ1
P θ2
s1
y
s2
Pθ
2
1
Pθ
t
t
f (x, y)
x
β2
s2
β1
s1
Abbildung 2.5: Gleichräumig gefächerte Projektion (equispaced fanbeam projection)
2.3.2 Prjektion einer Bleikugel (einfaches Beispiel)
Damit man eine bessere Vorstellung bekommt was eine Projektion ist und wie diese
funktioniert, betrachten wir eine Bleikugel im CT (vgl. 2.6).
Im Bild 2.6 wird eine Bleikugel mit Röntgenstrahlen bestrahlt. Eine Bleikugel ist
ein einfaches Objekt mit homogänen Intensität und homogenen Material. Wie schon im
Kapitel 1.1 bereits erwähnt, ist das Absorbtionsvermögen eines Objektes durch ihren
Abschwächungskoeffizienten µ spezifiziert.
Die Röntgenquelle strahlt eine Intensitäe I0 aus, die beim durchdringen der Bleikugel entlang eines Strahles s geschwächt wird.
Die Abschwächung wird durch eine exponentielle Funktion modelliert [Tof96]:
I(ρ, θ) = I0 e−µ1 s1 wobei s den gesamten Strahl bezeichnet. Die Röntgenstrahlen
können hier als Linien angesehen werden. Jede Linie, welche durch das Objekt durchgeht kann mit zwei Parametern beschrieben werden. Der Abstand vom Ursprung zur
Linie ρ und der Winkel θ relativ zu der x-Achse. s ist dann die Länge der Linie zum
betrachtenden Punkt.
Um den Punkt auf der Linie berechnen zu können, muß man vom xy Koodrinatensystem in das ρθ Koordinatensystem umgewandelt werden.
β1
β2
f (x, y)
P θ1
P θ2
s1
s2
y
x
t
β1
β2
f (x, y)
P θ1
PSfrag replacements
P θ2
y
s1
x
s2
t
θ1
θ2
f (x, y)
P θ1
P θ2
y
2.3 Definition einer Projektion
23
t
y
ρ
θ
s
x
Röntgenquelle
x
t
β
1
Abbildung 2.6: Projektion einer Bleikugel
β2
f (x, y)
P θ1
Pθ2 ρ
cos θ − sin θ
x
(2.1)
s1 =
s
sin θ cos θ
y
s2
Man ermittelt also für yjeden Punkt ρs entlang
P der Linie die Abschwächung und
summiert diese auf I(ρ, θ) x= I0 e−µ1 s1 = I0 e− i µi si . Somit ergibt sich die projektion des Objektes. Da die Bleikugel
aus einem homogänen material besteht, entsteht
t
β1
als Projektion eine Halbkugel.
β2
f (x, y)
2.3.3 Projektion eines
Körpers (allgemein)
P θ1
Der menschliche KörperPbesteht
jedoch aus unterschiedlichen Materialien, wie Knoθ2
chen, Organe, Fett, Muskeln
s1 etc, aus diesem Grund gibt es auch unterschiedliche Abschwächungen.
s2
y
Im Bild 2.7 wird ein Körper
mit den Röntgenstrahlen gescannt. Der Körper ist hier
nicht homogen. Es enthält unterschidliche
Materialien.
x
t
θ
ρ
Röntgenquelle
s
y
ρ
θ
s
x
Röntgenquelle
Abbildung 2.7: Linienintegral durch einen Körper
Bild ?? zeigt drei unterschieliche Körper.
Im Beispiel (a) ist die Intensität des Körpers homogen wie bei der Bleikugel
θ
ρ
Röntgenquelle
24
Röntgen CT: gefilterte Rückprojektion
(a)
µ1
(b)
µ1
µ2
(c)
µ1
µ2 µ3µ4 µ5
µ6
s1
s2 s3 s4 s5
s6
s
Abbildung 2.8: Drei unterschiedliche Körper mit Abschwächungskoeffizienten µ und
der Größe s
I(ρ, θ) = I0 e−µ1 s1
(2.2)
Wenn es zwei unterschiedlich homogene Körper wie im Beispiel (b) sind wird die
Intensität wie folgt dargestellt
I(ρ, θ) = I0 e−µ1 s1 −µ2 s2
(2.3)
Bei mehreren unterschiedlichen homogenen Körpern wie im Beispiel (c), werden
die intensitäten aufsummiert
I(ρ, θ) = I0 e−
P
i
µi s i
(2.4)
Somit kann man die Projektion eines Strahles als ein Linienintegral beschreiben
I(ρ, θ) = I0 e−
R
µ(x,yds
(2.5)
Mit der Formel 2.5 erhalten wir die Projektion des gescannten Körpers, können
damit jedoch nicht weiter rechnen. Um mit der Projektion weiter arbeiten zu können,
müssen wir erst die Grundsätze der Radon Transformation erfahren.
2.4 Radon Transformation
Schon 1917 hat Johann Radon in seinem Artikel “ Über die Bestimmung von Funktionen durch Integralwerte längs gewisser Manigfaltigkeiten ” theoretisch demonstriert,
dass man ein Objekt aus seiner Projektionen rekonstruieren kann.
Bei der Radon Transformation geht es darum, dass man eine beliebige intergrierbare Funktion f (x, y) durch alle Linienintegrale über das Definitionsgebiet f (x, y)
beschreibt. Die Projektion wird also durch die Vereinignung einer Reihe von Linienintegralen kreiert. Diese Erkenntniss bekam ihre Praktische Anwendung erst ca. 55
Jahre später. [Ber99]
Die enstprechende Formel sieht wie folgt aus
ǧ(ρ, θ) =
Z
∞
µ (ρ cos θ − s sin θ, ρ sin θ + s cos θ) ds
−∞
(2.6)
2.5 Anwendung der Radon Transformation
25
2.5 Anwendung der Radon Transformation
Die Radon Transformation wird in der Mathematik für die Berechnung der Linienintegrale verwendet. Mit Hilfe der Radon Transformation kann die Projektion anscließend
in ein Bild umgewandelt werden. Diese erkenntnis wurde dann seit 1973 in der Medizin angewandt.
Die von uns betrachtete Integralfunktion muß nun umgewandelt werden, damit man
mit der Rekonstruktion fortfahren kann. Wir betrachten erneut die Integralfunktion für
die Projektion
I(ρ, θ) = I0 e−
R
µ(x,yds
(2.7)
Diese muß so umgestellt werden, damit keine Exponentialfunktion mehr vorhanden
ist.
Erster Schritt
R∞
I(ρ, θ) = I0 e− −∞ µ(x,y)ds
R∞
I(ρ, θ)
− −∞ µ(x,y)ds
e
=
I0
R∞
I0
µ(x,y)ds
−∞
e
=
I(ρ, θ)
durch diese Umformung bekommen wir eine Integralfunktion
Z ∞
I0
log
=
µ(x, y)ds
I(ρ, θ)
−∞
(2.8)
Wie oben erwähnt muß man, um den betrachtenden Punkt auf der Linie berechnen
zu können, vom xy Koordinatensystem in das ρθ Koordinatensystem umwandeln. Dies
passiert mit einer Rotationsmatrix
x
cos θ − sin θ
ρ
(2.9)
=
y
sin θ cos θ
s
Nachdem man die Formel 2.5 in die Formel 2.8 eingesetzt hat erhält man die Radon
Transformation
Z ∞
ǧ(ρ, θ) =
µ (ρ cos θ − s sin θ, ρ sin θ + s cos θ) ds
(2.10)
−∞
Mit Hilfe der Dirac Delta Funktion kann man die Formel wie folgt schreiben
ǧ(ρ, θ) =
Z
∞
−∞
Z
∞
µ(x, y)δ(ρ − x cos θ − y cos θ)dxdy
(2.11)
−∞
Die Umwandlung mit der Dirac Delta Funktion ist deswegen von Vorteil, weil alle
Werte, die außerhalb des betrachtenden Bereichs liegen mal null multipliziert und alle
Wert, die betrachtet werden mal eins multipliziert. Somit werden nur relevante Werte
zu Weiterverarbeitung abgespeichert.
Durch die ganze Umformung sehen wir, daß man die Formel der Projektion in Form
der Radon Transformation darstellen kann. Mit Hilfe der Radon Transformation kann
man nun das Bild aus der Projektion rekonstruieren.
26
Röntgen CT: gefilterte Rückprojektion
2.6 Rekonstruktion
Im Folgenden Abschnitt wird erklärt, welche Möglichkeiten es gibt aus den gegebenen Projektionen ein Bild zu rekonstruieren. Da die Projektionen mit Hilfe der Radon
Transformation beschrieben wird, würde es nahe liegen durch die inverse Radon Transformation das Bild rekonstruieren zu können. Es gibt zwei Möglichkeiten die Radon
Transformation zu invertieren. Einmal mit Hilfe des Fourier - Scheiben - Theorems
(fourier slice theorem) und der gefilterten Rückprojektion (filtered backprojection).
2.6.1 Fourier-Scheiben-Theorem (fourier slice theorem)
Das Fourier-Scheiben-Theorem ist eine Möglichkeit die Radontransformation zu invertieren. Die Invertierung wird mit Hilfe der 2D - Fouriertransdormation (vgl. Formel
??) durchgeführt.
G(kx , ky ) =
Z
∞
−∞
Z
∞
µ(x, y)e−j(kx x+ky y) dxdy
(2.12)
−∞
Im ersten Schritt werden die Polarkoordinaten in die Transformation eingeführt,
damit man besser rechnen kann
x
cos θ
=ν
y
sin θ
(2.13)
Die Formel wird nun mit der Dirac Delta Funktion, wie in der Formel 2.10 erklärt,
optimiert
G(ν cos θ, ν sin θ) =
=
Z
Z
∞
−∞
∞
−∞
Z
Z
∞
−∞
∞
−∞
Z
Z
∞
g(x, y)δ(ρ − x cos θ − y sin θ)e
−∞
∞
−∞
−jρν
dxdy dρ
g(x, y)δ(ρ − x cos θ − y sin θ)dxdy e−jρν
(2.14)
dρ
Nach dem ausmultiplizieren und vereinfachen erhalten wir dies
G(ν cos θ, ν sin θ) =
Z
∞
ǧ(ρ, θ)e−jρν dρ
(2.15)
−∞
Hier sieht man durch die Umwandlung der 2D - Fouriertransformation und einführung der Polarkoordintaen erhalten wir auf der rechten Seite die 1D Fouriertransformation der Radontransformation (vgl. Formel 2.15).
Durch einführung der inversen Fouriertransformation
µ(x, y) =
Z
∞
−∞
Z
∞
G(kx , ky )ej(kx x+ky y) dkx dky
(2.16)
−∞
kann man die Radontransformation, also die Projektion, invertieren und somit das
Bild rekonstruieren. Im Bild 2.9 wird es bildlich verdeutlicht.
P θ1
P θ2
s1
s2
y
(b)
(c)
µ1
µ2
µ3
x
t
β1
µ6
β2
s1
2.6 Rekonstruktion
f (x, y)
s2
P θ1
s3
P θ2
s4
t
ion
y
ekt
s5 Proj
s1
s6
s2
y
µ4
µ5
x
t
θ
ρ
Röntgenquelle
27
Fouriertransformation
θ
y
x
θ
x
Objekt
s
y
Frequenzraum
x
θ
ρAbbildung 2.9: Fourier Transformation
Röntgenquelle
Ortsraum
s
(a)
2.6.2 Zusammenfassung
(b)
(c) Körpers erhalten wir Messwerte mit einer Projektion des KörNachdem scannen eines
pers. Diese Projektionµ1kann mit Hilfe der Radontransformation beschrieben werden.
µ2
Hierbei nehmen wir die
2D Fouriertransformation hinzu, führen Polarkoordinaten ein,
3
und stellen fest, daß in µder
geänderten Formel die 1D Fouriertransformation der Radonµ4
transformation (also Projektion)
enthalten ist. Somit kann man mit Hilfe der inversen
5
Fouriertransformation µdie
Radontransformation (Projektion) invertieren und erhält somit das digitale Bild. µ6
s1
s2
2.6.3 Interpolation
s3
s4
Bei einer geringen anzahl von Projektionen erhalten wir in dem Frequenraum relativ
s5
wenige Informationen. Im Bild 2.10 erkennt man Lücken zwischen den einzelnen
s6
Bildpunkten. Die fehlende
y Information wird durch eine Interpolation der benachbarten
Punkte ersetzt.
x
t
θ
Projektion
Objekt
Ortsraum
Fouriertransformation
Frequenzraum
y
x
s
θ
f (x, y)
Projektion
Abbildung 2.10: Interpolation der inversen Fourier Transformation
28
Röntgen CT: gefilterte Rückprojektion
2.6.4 Vor- und Nachteile
Dieser Algorithmus ist sehr schnell, jedoch durch den ständigen wechsel zwischen
Fourierraum und Ortraum kann es zu Instabilitäten und dadurch zu Verlangsamung
kommen.
2.7 Gefilterte Rückprojektion (filtered backprojection)
Diese Methode wird am häufigsten in den medizinischen Scannern aufgrund der numerischen Stabilität verwendet, obwohl der algorithmus etwas langsamer ist.
Bei der gefilterten Rückprojektion müssen wir wieder auf die inverse Fouriertransformation zurückgraeifen (vgl. 2.17)
µ(x, y) =
Z
∞
−∞
Z
∞
G(kx , ky )ej(kx x+ky y) dkx dky
(2.17)
−∞
Wie schon bei dem Fourier Slice Theorem müssen wieder Polarkoordinat eingeführt werden, welche die bearbeitung des Algorithmus vereinfacht. Anschließend wird
die Formel umgeformt.
µ(x, y)
=
=
=
Z
Z
2π
0
π
Z
Z
∞
νG(ν cos θ, ν sin θ)ej(x cos θ+y sin θ) dνdθ
0
∞
|ν|G(ν cos θ, ν sin θ)ej(x cos θ+y sin θ) dνdθ
Z ∞
Z πZ ∞Z ∞
−jρν
ǧ(ρ̃, θ)e
dρ̃ ej(x cos θ+y sin θ) dνdθ
(2.18)
|ν|
0
0
0
0
−∞
−∞
Die Formel 2.18 kann nun in 2 Teile aufgeschlüsselt werden.
• Die Rückprojektion
g(x, y) =
Z
π
ǧ¯(ρ, θ)dθ
0
• Die Filterung der Rückprojektion
ǧ¯(ρ, θ) =
Z
∞
|ν|
−∞
Z
∞
−∞
ǧ(ρ̃, θ)e−jρν dρ̃ ejρν dν
2.7.1 Rückprojektion (backprojection)
Wie man in Bild 2.11 zu sehen ist wird in dem ersten Teil der sehen kann, kann man die
Projektion mit Hilfe der inversen Fouriertransformation wieder in ein Bild uwandeln.
Das komplette Bild wird dann wiederhergestellt in dem man um den Winkel θ alle
Projektionen rückprojeziert (vgl. Bild 2.12).
s2
(c)
s3
µ1
s4
µ2
s5
µ3
s6
µ4
y µ5
x µ6
t s1
2.7 Gefilterte Rückprojektion
(filtered backprojection)
θ s2
Objekt
s4
Ortsraum
s5
Fouriertransformation
s6
29
s
Projektion
s3
y
y x
x
t
s θ
θProjektion
f (x, y) Objekt
y
Pr
oj
ek
tio
n
Frequenzraum
f (x, y)
x
ProjektionOrtsraum
Fouriertransformation
Frequenzraum
y
x
s
θ
f (x, y) Abbildung 2.11: Rückprojektion
Projektion
y
x
s
f (x, y)
Projektion Pθ1
y
Pθ2
Pθ3
Pθ6
Pθ4
x
Pθ5
Abbildung 2.12: Rückprojektion um den Winkel θ
Interpolation
Bei der Rückprojektion trifft der Projektionsstrahl meistens nicht auf die quadratischen
Pixel. Aus diesem Grund verwendet man die Interpolation.
Bei der Interpolation geht man “rückwärts” vor. Man zielt von dem Zentrum eines
Pixels unter dem Winkel θ auf die Projektion. Im allgemeinen trifft man nicht auf
einen Ort, an dem sich bei der Messung ein Detektor befand, somit interpoliert man
linear zwischen den benachbarten Meßwerten und man addiert den Projektionswert
zum betrachteten Pixel dazu.
2.7.2 Filterung
Die Filterung ist nicht unbedint notwendig, verbessert jedoch die Qualität der Bilder.
Diese werden weniger verrauscht.
In den Bildern 2.13 und 2.14 sieht man den unterschied ganz deutlich. In diesem
θ
Objekt
f (x, y)
Ortsraum
Projektion
y
x
y
s
x
f (x, y)
Projektions
yθ
30 f (x, xy)
Projektion
Pθ1
Pθ2 y
P θ 3x
Pθ4 s
f (x,
Pθy)
5
Projektion
Pθ6
y
x
Pθ1
Pθ2
Pθ3
Pθ4
Pθ5
Pθ6
y
x
Fouriertransformation
Frequenzraum
Röntgen CT: gefilterte Rückprojektion
y
y
x
y
x
x
Abbildung 2.13: Ungefilterte Projektion
y
y
y
x
x
x
Abbildung 2.14: Gefilterte Projektion
Beispiel betrachten wir eine Puntbildfunktion. Bei der ungefilterten Projektion verschmiert das Ergebnisbild. Bei der gefilterten Projektion entstehen links und rechts
des Peaks negative Werte, die bei der Rückprojektion als nnegative Grauwerteïn das
Bild eingetragen werden. Die negativen Werte gleichen die zuviel eingetragenen Werte
rechts und links von dem Pink aus, somit entsteht ein Schärfere Bild.
Die bekanntesten Filter die hierbei verwendet werden sind von Shepp und Logan
und von Ramachandran und Lakshminarayanan. Weitere Informationen können in der
Fachliteratur nachgelesen werden.
Implementierung des Filters
Bei der Implementierung des Filters entstehen jedoch Probleme. Mathematisch funktioniert das wunderbar, jedoch bei der Implementation gibt es Probleme mit der Frequenz. Aus diesem Grund muß die Projektion bandbegrenzt werden, damit das Abtastheorem eingehaltet werden kann. Dabei gibt es eine größte Frequenz.
Bevor jedoch die größte Frequenz (bei einer Bandbegrenzung wird eine festgelegt)
erreicht wird kann sein daß schon da das Spektrum vom rauschen dominiert wird. Dies
kann nur durch eine geeignete Bandbreite verhindert werden.
2.7.3 Vor- und Nachteile
Bei dieser Möglichkeit ein Bild zu rekonstruieren gibt es gravierende Vorteile.
Man kann mit der Rekonstruktion schon beginnen, sobald die erste Projektion
gemessen wurde, dies beschleunigt das Rekonstruktionsverfahren und reduzier die
Menge an Daten. Außerdem kann die Rekonstruktion parallelisiert werden. Das heißt
es können hierbei auch mehrere Prozesse bzw. Rechner parallel die Rekonstruktion
verarbeiten.
Literaturverzeichnis
[Ber99] Roland Berger. Moderne bildgebende Verfahren der medizinischen Diagnostik - Ein Weg zu interessanterem Physikuntericht. Logos Verlag Berlin,
1999.
[Feu02] Johannes
Feulner.
Facharbeit:
http://www.feulnercaps.de/Facharbeit/Facharbeit.pdf. Technical report, 2002. Tomographie mit
Röntgenstrahlen und Bau eines Computertomographen.
[KS88] A.C. Kak and Malcolm Slaney. Principles of Computerized Tomographic
Imaging. IEEE Press, 1988. Eine elektronische Kopie findet man unter:
http://slaney.org/pct/pct-toc.html.
[SHJ88] J.L.C. Sanz, E.B. Hinkle, and A.K. Jain. Radon and Projection TransformBased Computer Vision. Springer Series in Information sciences, 1988.
[Tof96] Peter Toft. The Radon Transform - Theory and implementation. Ph.D. thesis.
Department of Mathematical Modelling, Technical University of Denmark,
1996. Eine elektronische Kopie findet man unter: http://pto.linux.dk/PhD/.
32
LITERATURVERZEICHNIS
Kapitel 3
Vorverarbeitung: adaptive
Wiener Filter und
anisotropische adaptive Filter
Diana Wald
22.Mai 2003
Institut für Computer Visualistik
Universität Koblenz-Landau
Universitätsstraße 1, 56070 Koblenz
[email protected]
http://www.uni-koblenz.de/∼ladydie
34
Vorverarbeitung: adaptive Wiener Filter und anisotropische adaptive Filter
3.1 Einleitung
Seit dem man versucht, die Umwelt zu reflektieren, Informationen darüber zu sammeln, auszutauschen und zu verarbeiten steht man vor einem fundamentalen Problem:
Die Unzulänglichkeit und Fehleranfälligkeit aller künstlich erschaffenen Modelle und
Darstellungsformen. Moderne Untersuchungsmethoden in der Medizin liefern vielfach
Daten in Form von 2- und 3D Bildern. Beispiele solcher Verfahren sind die Röntgenaufnahmen, Ultraschallbilder, CT oder MRI (s. Kapitel [Wür03]). In der Regel sind die
gewonnenen Daten fehlerbehaftet. Es ensteht das Problem, aus den beobachteten Bildern, die wesentliche, zugrunde liegende Struktur herauszufiltern. Der Grund für die
Fehleranfälligkeit liegt darin, dass in der digitalen Bildverarbeitung eine Vielzahl von
möglichen Störquellen die Korrektheit der aufgenommenen Informationen gefährden.
Ein Teil dieser Störungen wird durch die Natur des Aufnahmeprozesses selbst verursacht (z.B. durch Ablenkung, Absorption und Interferenzen von Röntgenstrahlen).
Andere Ursachen liegen in der Unzulänglichkeit des aufnehmenden Systems (z.B. Linsenfehler oder eine unzureichende Auflösung bei der Bilddigitalisierung). Außerdem
können noch andere Störungen auftreten wie z.B. Verwacklung bei der Bildaufnahme.
Die Frage ist, was kann man tun wenn eine solche fehlerhafte Version vorliegt? Die
Lösung, man versucht die im Bild vorhandenen Informationen dahingegend zu nutzen
eine möglichst genaue Abschätzung des Originalbildes zu leisten. Für diesen Vorgang,
der in der Bildverarbeitung als Filterung bezeichnet wird, wurden in den letzen Jahren
zahlreiche Ansätze entwickelt.
In dieser Arbeit wird besonders auf den adaptiven Wiener und den anisotropischen
adaptiven Filter eingegangen.
3.2 Bildaufnahmeprozess
Der Bildaufnahmeprozess kann in zwei Schritte gegliedert werden. Einmal der Weg
zum digitalisierten Bild und anschließend die Weiterverarbeitung durch einen Filter.
Diese beiden Schritte werden kurz erläutert, da sie zum Verständnis der Filterung beitragen.
3.2.1 Der Weg zum digitalisierten Bild
Als Eingabe dient ein Objekt aus der natürlichen Umgebung. Dieses Objekt wird durch
ein optisches System (Kamara, Linse etc.) zur digitalen Verarbeitung aufgenommen
und liegt als 2D Bild vor (Bildaufnahme ). An dieser Stelle können bereits erste Beeinträchtigungen des Bildes auftreten (z.B. Verwischen, Bewegung). Das optisch aufgenommene Bild wird digitalisiert. Das bedeutet, die in analoger Form vorliegenden
Informationen werden in digitale Daten umgesetzt. Dieser Prozess lässt sich in zwei
Schritten modellieren. Zuerst wird, aufgrund des CCD Chips, ein Raster der Größe N
x M über das Bild gelegt. Dessen Größe hängt von der gewünschten Detailierung bzw.
Auflösung ab (Abtastung ). Anschließend wird für jedes der N x M Rasterflächenstücke
ein digital codierter Wert eingetragen, der die gemessene (Licht-)Intensität des Originalbildes innerhalb des Stückes repräsentiert (Quantisierung ). Zu dem digitalisierten
Bild wird ein Rauschen addiert. Das Rauschen kann durch die Digitalisierung und aus
externen Faktoren entstanden sein. Wir nehmen ein additives Rausch Modell an. Als
Ausgabe erhalten wir ein verrauschtes Bild g. Dieses Bild liegt als N x M - Matrix
3.3 Filter
35
PSfrag replacements
im Rechner für die Bearbeitung vor. Es gilt g = f + n. Das Bild 3.1 schildert den
Entstehungsprozess.
3D - Welt
Bildaufnahme
2D - Bild
Digitalisierung
+
verrauschtes Bild
g
Rauschen
externe Faktoren
n
Abbildung 3.1: Prozess der Bildentstehung mit Integration von Rauschen
Wobei das Ideale Bild f das aufzunehmende Objekt ist. Dieses Objekt könnte z.B.
ein Teil der Erdoberfläche sein, die von der Kamera aufgenommen wird. Das bedeutet
also, f ist das Originalbild, welches kein Rauschen bzw. keine Fehler enthält.
3.2.2 Die Weiterverarbeitung durch einen Filter
Als Eingabe erhält man das digitalisierte Bild g, dass als Grundlage für die Weiterverarbeitung dient. Das Bild g wird nun mit einem Filter bearbeitet. Wie der Filter funktioniert und aus welchen Komponenten er sich im Einzelnen zusammensetzt, hängt von
der gewählten Methode ab. Durch die Anwendung des Filters auf das digitalisierte Bild
g erhält man als Ergebnis eine Abschätzung. Diese Abschätzung stellt das verbesserte
PSfrag replacements
Bild fˆ dar, wobei die Schätzung die ideale Information f annähert, sprich fˆ → f . Das
Bild 3.2 schildert die Weiterverarbeitung.
verrauschtes Bild
Filter
g
h
verbessertes Bild
fˆ
Abbildung 3.2: Prozess der Weiterverarbeitung durch Filterung
3.3 Filter
Filter sind Verfahren die ein Bild in ein Bild transformieren. Digitale Filter gehören zu
den wirkungsvollsten Verfahren der Bildverarbeitung. Wir können damit relevante Inhalte hervorheben, Störungen beseitigen und visuelle Beurteilung erleichtern. Das Ziel
von Filtern ist, die digitalen Bilder zu verbessern ohne dabei wichtige Informationen
zu verlieren. Es gibt verschiedene Arten von Filter [Pau03].
3.3.1 Lineare Filter:
Lineare Filter verwenden eine Maske mit Gewichtsfaktoren. Die Maske berechnet zu
jedem Bildpunkt eine Linearkombination aus den Gewichtsfaktoren und den Pixelwerten in der Umgebung des Quell-Punktes. Wenn die Filtermaske für alle Bildpunkte
gleich bleibt, spricht man von einem homogenen Filter. Mathematisch ist ein linearer
36
Vorverarbeitung: adaptive Wiener Filter und anisotropische adaptive Filter
Filter im Ortsraum eine Faltung des Bildes g mit einer Maske h (fˆ = h ∗ g)
Beispiel: Mittelwertfilter, Tief- und Hochpassfilter, Wiener Filter.
3.3.2 Nichtlineare Filter
Nichtlineare Filter lassen sich nicht als Faltung beschreiben. Die Beschreibung besteht
aus verschiedenen deterministische oder statistische Verfahren. Nichtlineare Filter ermöglichen häufig gegenüber linearen Filtern eine Verarbeitung bei deutlich gesteigerter
Bildqualität.
Beispiel: Medianfilter, Morphologische Filter, anisotropischer adaptiver Filter.
3.3.3 Adaptive Filter
Bei adaptiven Filtern ist das Ergebnis der Filteroperation abhängig von der Umgebung
der Pixel. Adaptive Filter können das Rauschen in Bildern verringern, ohne andere
Bildinformationen zu verwischen, d.h. die Kanten bleiben im Bild erhalten.
Man kann auch sagen, ein adaptiver Filter passt seine Impulsantwort dem Signal an.
Deswegen kann man ihn auch Anpassungsfähigen Filter nennen.
3.4 Wiener Filter
Der Wiener Filter wurde nach dem Mathematiker und Kybernetiker Norbert Wiener
(1894 - 1964) benannt. Er gehört zu den am häufigsten, bei der Bildverarbeitung, verwendeten Klassen der Linearen Filter.
Die Eigenschaften des Wiener Filters sind: optische Bildverbesserung basierend auf
dem stochastischen Mittel. Der Filter ist effizient gegen jegliche Art von Bildstörungen wie z.B. verwischen, Rauschen oder Verzerrung. Der Wiener Filter arbeitet im
Fourierraum, da dort der Rechenaufwand niedriger ist.
3.4.1 Mathematische Herleitung
Bei der mathematischen Herleitung des Wiener Filters arbeiten wir im eindimensionalen Signalraum. Der Ansatz für die mathematische Herleitung, ist die Faltung des
Bildes g mit einer Maske h:
fˆ = h ∗ g
(3.1)
Das Problem dabei ist, der Filter h (in unserem Beispiel der Wiener Filter) ist unbekannt. Das heißt, man muss einen Rechenweg finden der h errechnet.
Die Idee für den Wiener Filter ist, den Fehler zwischen dem Originalbild f und dem
gefilterten Bild fˆ zu minimieren. Dies geschieht durch die Minimierung des Erwartungswert vom quadratischen Abstandes zwischen f und fˆ zu jedem diskreten Zeitpunkt, k ≥ 0.
E(fˆ(k) − f (k))2 → min
für alle
k≥0
(3.2)
Bei der mathematischen Herleitung des Wiener Filters wird wie folgt vorgegangen.
Zuerst wird der Erwartungswert umgeformt und nach h(i) abgeleitet, wobei h(i) der
Wiener Filter h im Zeitraum an einer bestimmten Stelle i ist. Anschließend wird die
Ableitung auf null gesetzt (Minimierungsanforderung) und eingesetzt, so dass man den
Filter h bzw. deren Fouriertransformierte H erhält.
Unser Ziel ist es, h zu errechnen so das fˆ (k) → f (k) ∀k ≥ 0 gilt.
3.4 Wiener Filter
37
Erwartungswert
Bei der Umformung des Erwartungswertes, sei A der Erwartungswert.
A = E(fˆ(k) − f (k))2
,∀k ≥ 0
(3.3)
ˆ = g(k) ∗ h(k) ist, kann man die Gleichung auch als
da f(k)
E(g(k) ∗ h(k) − f (k))2
,∀k ≥ 0
(3.4)
schreiben.
Ausgehend vonP
der Formel der diskreten Faltung 1 folgt:
=∞
g(k) ∗ h(k) = =−∞ g(k − )h().
Setzt man dieses in die Gleichung(3.4) ein, so erhält man den umgeformten Erwartungswert in der Gleichung(3.5)
E(
=∞
X
g(k − )h() − f (k))2
(3.5)
=−∞
Bei der Ableitung des Erwartungswertes wird nach h(i) abgeleitet, wobei i in dem Fall
eine Laufvariable über die diskreten Stellen der Funktion ist. Das bedeutet, für die
d(A)
und wird wie folgt berechnet.
mathematische Schreibweise gilt d(h(i))
P=∞
d E{( =−∞ g(k − )h() − f (k))2 }
d(A)
=
d(h(i))
d(h(i))
(3.6)
Die allgemeine Ableitungsregel
solcher Funktionen lautet [a(b(e)) n ]0 = na(b(e))n−1 d(b(e))
de ,
P=∞
2
wobei a = b , b = =−∞ g(k − )h() − f (k))2 und e = h(i) ist. Damit ergibt sich
für die Ableitung von A, unter Berücksichtigung der Eigenschaft vom Erwartungswert,
folgende Gleichung:
E{2
"
=∞
X
=−∞
#
g(k − )h() − f (k) g(k − i)}
(3.7)
wobei g(k−i) die Ableitung von d(b(e))
darstellt. Dies berechnet sich folgendermaßen:
de
Die Summe wird aufgelöst und man wählt den Faktor der von h(i)
Pabhängig ist. Im
vorliegenden Fall ist dies g(k − i), denn aus der Summe folgt:
= · · · + g(k +
2)h(2) + g(k + 1)h(1) + g(k)h(0) + · · · + g(k − i)h(i) + · · · .
Die Gleichung aus (3.7) kann man wie folgt umstellen:
2E{
= 2E{
=∞
X
g(k − )h()g(k − i) − f (k)g(k − i)} =
=−∞
=∞
X
(g(k − )g(k − i))h()} − 2E{f (k)g(k − i)}
=−∞
R
kontinuierlich:
g(t) ∗ h(t) = ∞
−∞ g(τ )h(t − τ )dτ
P=∞
diskret: g(k) ∗ h(k) = =−∞ g(k − )h()
1 Faltung:
(3.8)
38
Vorverarbeitung: adaptive Wiener Filter und anisotropische adaptive Filter
Gleichung(3.8) beinhaltet die Ausdrücke g(k − )g(k − i) und f (k)g(k − i), die nichts
anderes sind als die Autokorrelation 2 vom Signal g: ϕgg und die Kreuzkorrelation von
den Signalen f und g : ϕgf . Dadurch ergibt sich die Gleichung(3.9)
2
=∞
X
ϕgg ( − i)h() − 2ϕgf (−i)
(3.9)
=−∞
Aufgrund der Kommutativität der Korrelations Gleichung folgt:
2
=∞
X
ϕgg (i − )h() − 2ϕgf (i)
(3.10)
=−∞
Wenn man die Gleichung(3.10) genauer betrachtet, erkennt man die diskrete Faltungsgleichung in der Formel wieder.
2{ϕgg (i) ∗ h(i) − ϕgf (i)}
(3.11)
In Gleichung(3.11) ist der Ableitungsprozess an einer bestimmten Stelle i abgeschlossen.
Minimierungsanforderung
Um den Minimierungsanforderungen gerecht zu werden, wird die Ableitung gleich
null gesetzt.
2{ϕgg (i) ∗ h(i) − ϕgf (i)} = 0
ϕgg (i) ∗ h(i) = ϕgf (i)
(3.12)
Da eine Faltung nicht ausmultiplizierbar ist, wechselt man in den Fourierraum, um dort
nach dem Filter H auflösen zu können.
Φgg (w)H(w)
H(w)
= Φgf (w)
Φgf (w)
=
Φgg (w)
(3.13)
wobei w für die Frequenz im Fourierraum steht.
2 Korrelation: Korrelation basiert auf zwei Signalen. Sie errechnet die lineare Abhängigkeit zu einander.
Das heißt ϕ = 1 → maximale abhängigkeit und ϕ = 0 → keine Korrelation (nicht linear abhängig, sie
können dennoch statistisch abhängig sein)
Autokorrelation: Signal wird mit sich selbst verglichen, in dem es, unter allen möglichen verschiebungen,
mit sich selbst multipliziert wird. ϕxx (t) = E{X(τ )X(τ + t)}
Kreuzkorrelation:
Zwei unterschiedliche Signale werden mit einander verglichen ϕ xy (t) =
E {X(τ )Y (τ + t)}
{z
}
|
τ +t−τ =t
3.4 Wiener Filter
39
Umrechnungen
Zur Erinnerung, das verrauschte Bild g entsteht aus der Addition des optimalen Bildes
f und dem additiven Rauschen n, so das gilt g = f + n bzw. deren Fouriertransformierte G = F + N . Um H berechnen zu können, muss man die unbekannten Φ gf (f )
und Φgg (f ) mit Hilfe der Korrelation umformen bzw. ersetzen.
Φgf = GF = (F + N )F = F F + N F = Φf f
Φgg = (F + N )(F + N ) = F F + N N + F N + N F = Φf f + Φnn
Φf f = Φgg − Φnn
(3.14)
(3.15)
(3.16)
wobei man annimmt, dass N F und F N statistisch unabhängig sind. Das bedeutet
wieder rum, sie sind unkorreliert und werden gleich 0 gesetzt. Außerdem steht F für
konjungiert und d.h. das Vorzeichen des imaginären Teils wird umgekehrt.
Frequenzantwort des Wiener Filters
Setzt man die Umformungen aus 3.4.1 in H ein, so erhält man die Frequenzantwort des
Wiener Filters:
Φgf
Φf f
Φgg − Φnn
=
=
Φgg
Φgg
Φgg
Φnn
(3.17)
H =1−
Φgg
Wenn Φnn = 0 ist, d.h. wenn keine Störungen vorhanden sind, dann lässt der Filter
alle Signale, ohne diese zu verarbeiten, durch. Wenn aber Φ nn sehr groß ist, d.h. das
Rauschen ist an dieser Stelle sehr stark vorhanden, dann tendiert H gegen 0 und das
Signal wird nicht durchgelassen.
H=
Rechenvorschrift für
F̂
Abschließend erhält man folgende Rechenvorschrift, um aus dem Digitalbild, mittels
klassischer Wiener Filterung, das gefilterte Bild zu errechnen:
F̂ = H ∗ G = (1 −
Φnn
)∗G
Φgg
(3.18)
Hier ist es wichtig zu erläutern, dass n für das gesamte Bild abgeschätzt wird. Das
bedeutet, der Wiener Filter ist hier ein homogener Filter.
3.4.2 Adaptiver Wiener Filter
Die meisten Rauschfilter beruhen auf einem Glättungsverfahren. Dabei wird neben
dem Rauschen auch Kanten, Linien oder selbst kleine Details geglättet. Wenn dann
z.B. auf ein gefiltertes Bild später eine Kantensegmentierung angewendet werden soll,
so bereitet die durch die Glättung verloren gegangenen Bildinformation erhebliche
Schwierigkeiten. Der Hauptgrund für das verwischen ist, dass ein homogener Filter
für das gesamte Bild verwendet wird. Das heißt, der Filter ist unveränderlich. Eine
Lösung wäre, die Stärke der Filterung an die lokalen Bildgegebenheiten zu adaptieren
bzw. anpassen. Es gibt mehrere Möglichkeiten um den Wiener Filter zu erweitern.
Hier wurde sich nur auf den adaptiven Wiener Filter per lokale Anpassung beschränkt.
40
Vorverarbeitung: adaptive Wiener Filter und anisotropische adaptive Filter
Lokale Anpassung
Der Wiener Filter beschreibt einen unveränderlichen Filter, der für das gesamte Bild
verwendet wird. Ein Weg, den Filter flexibel zu machen ist, man verwendet eine lokale
Variable für den Rauschparameter n
H =1−
Φnn (x)
Φgg
(3.19)
PSfrag replacements
Hier wird n an jeder Stelle x abgeschätzt (= addaptiv).
Das Problem hierbei ist jedoch, dass die Berechnung sehr kostspielig ist, da sich der
Filter von Pixel zu Pixel verändert.
3.4.3 Schema des Wiener Filters
Die nachfolgende Abbildung zeigt noch einmal abschließend das komplette Schema
von der Verarbeitung des Wiener Filters.
Impulsantwort
unbekannte
Impulsantwort
Autokorrelation des
verrauschten Bildes
Φgg von g bestimmen
h
Rauschanalyse
Digitalbild
Rauschen n aus
dem Digitalbild
extrahieren
Digitalbild
g
g
n
Φgg
FT
FT
FT
Frequenzantwort des
Wiener Filters bestimmen
Φnn
G
x
F̂
H
IFT
fˆ
FT = Fouriertransformation
IFT = Inverse FT
3.4.4 Beispiel
Zum Abschluß wird der Effekt des Wiener Filters, anhand eines Beispieles noch einmal
verdeutlicht.
Beispiel anhand eines Bildes
Als Eingabe erhalten wir ein verrauschtes Bild g (1.Abbildung). Da wir im Frequenz
Bereich arbeiten, benötigen wir das Spektrum des Bildes g (siehe Abbildung 2.). Anschließend berechnen wir, nach der Beschreibung aus Abschnit 3.4.1, den Wiener Filter
(3. Abbildung) und multiplizieren diesen mit dem Spektrum des Bildes g (4. Abbildung). Transformiert man dieses Spektrum zurück, so erhält man das verbesserte Bild
fˆ (5. Abbildung). Wenn man dieses mit dem Originalbild f , bzw. mit dem Ausgangsbild vergleicht, erkennt man die Wirkungsweise des Wiener Filters.
3.5 Anisotropischer adaptiver Filter
1. verrauschtes
Bild g
2. Spektrum des
Bildes g
4. multiplikation
zwischen g und H
5. gefiltertes
Bild fˆ
41
3. Frequenzantwort
des Wiener Filters H
6. Originalbild
f
Beispiel aus der Elektrotechnik
Der Wiener Filter stammt ursprünglich aus der Elektrotechnik. Im Internet existiert ein
Beispiel für den Wiener Filter, das die Arbeitsweise mittels Geräuschen verdeutlicht.
Bei diesem Beispiel kann man hören und auch sehen, dass der Filter sich von Geräusch
zu Geräusch oder Rauschstärke verändert.
Das Beispiel ist auf der Internetseite
http://www.nt.e-technik.uni-erlangen.de/∼rabe/SYSTOOL/SYSTOOL2.02/HTTP/wien.htm
zu finden.
3.5 Anisotropischer adaptiver Filter
Anisotrop bedeutet, nicht in alle Richtungen hin gleiche Eigenschaften aufweisend.
Der Anisotropische adaptive Filter gehört zu der Filterklasse der nicht linearen Filter.
Der Filter ist entwickelt worden, um ein Bild zu glätten bzw. seine hochfrequenten
Störungen zu entfernen. Sein Interesse liegt jedoch im Erhalt der Struktur.
Der anisotropischen adaptiven Filter wird anhand von mehreren Beispielen visualisiert
bzw. seine Wirkung erklärt. Auf die mathematische Herleitung wird nicht eingangen.
3.5.1 Eigenschaften
Der Anisotropische Filter entzieht den Informationen das Rauschen ohne dabei die
Struktur im Bild zu zerstören. Nebenbei hat er noch die Eigentschaft, kleine Gegenstandsunstimmigkeiten bzw. kleine Details zu schärfen. Der Filter hat also die Fähigkeit, Kanten bzw. Ränder im Bild zu erkennen und kann somit dort eine Filterung
verhindern. Das hat dann zur Folge, dass die Gefahr der Kantenverschemmung verhindert wird.
Durch die Arbeitsweise des Filter, dessen Eigenschaften in alle Richtungen hin unterschiedlich sind, ist es möglich die Filterung in die eine Richtung (orthogonal zu den
Kanten) durchzuführen bzw. zu glätten und andererseits in die andere Richtung (entlang Kanten) diese Glättung zu verhindern.
42
Vorverarbeitung: adaptive Wiener Filter und anisotropische adaptive Filter
3.5.2 Beispiele
Wie schon erwähnt, wird in dieser Ausarbeitung der anisotropischen Filter anhand
mehreren Beispielen erklärt.
Kantenerhaltung
Bei diesem Beispiel, wird das Prinzip der Kantenerhaltung visualisiert. Man sieht, dass
der linke Filter die Kante glättet. Das heißt die Sequenz wird bei der Kante abgerundet.
Da hingegen, spürt der rechte Filter, der nichtlineare Filter, die Kante auf und verschärft
diese dazu. Die Sequenz wird zu einer eindeutigen Kante.
Filter der eine Kante glättet
nichtlinearen Filter, der
eine Kante aufspürt
Wobei die durchgezogene Linie die Sequenz des Ausgangsbildes und die gestrichelte
Linie die Sequenz des gefiltereten Bildes ist.
Kantenerkennung
In diesem Beispiel wird gezeigen, das man den anisotropischen adaptiven Filter so anpassen kann, das er bestimmte Bereiche aus einem Bild erkennen kann.
Wir haben als Eingabe ein MRI Bild von einem Schädelinneren (Bild 1). Wir möchten den Filter so anpassen, dass er das Gehirngewebe bzw. deren Ränder und Kanten
aufspürt. Bei dem ersten Durchlauf (Bild 2) scheint der Filter das Gehirngewebe aufzuspüren, jedoch ist das Ergebnis noch nicht zufriedenstellend. Durch Wiederholungen
und Anpassungen des Filters bzw. Anpassung deren Konstante, erreichen wir in Bild
3 das der Filter das Gehirngewebe erkennt. In Bild 4 erhalten wir ein optimales Ergebnis. Durch das Aufspüren, verhindert der Filter dort eine Glättung und es sind weitere
Verarbeitungen (z.B. Segmentierung) möglich.
Bild 1
Bild 2
Bild 3
Bild 4
3.6 Schlusswort
43
Kontrasterhöhung
Als Eingabe erhalten wir ein MRI Bild der Kopfes (links). Über dieses kontrastarme
Bild werden wir den anisotropischen Filter anwenden. Als Ergebnis erhalten wir das
Bild rechts. Man sieht den Unterschied beider Bilder sofort. Das rechte Bild hat einen
deutlich höheren Kontrast. Vorallem werden die kleinen Details am Halswirbel besser
erkennbar.
Links: Originales Bild. Rechts: gefiltertes Bild
Rauschentfernung und Kantenerhaltung
Als Eingabe haben wir ein Ultraschallbild des Herzens. Man sieht, dass das Originalbild (oben), stark verrauscht ist. Das untere Bild ist das gefilterte Bild. Das Rauschen
wurde komplett entfernt, wobei die Konturen ihren Kontrast und Schärfe beibehalten,
nicht sogar verschärft haben.
Oben: Originale Bildreihenfolge.
Unten: Ergebnis nach der Filterrung
3.6 Schlusswort
Wir haben erfahren, das dem Mediziner, für eine Diagnose, eine Reihe von bildgebenden Verfahren zur Verfügung steht. Diese Geräte erzeugen Bilder vom Menschen, die
es erlauben, sie von innen zu betrachten (siehe Kapitel [Wür03]). Leider wissen wir
44
Vorverarbeitung: adaptive Wiener Filter und anisotropische adaptive Filter
auch, dass derartiges Bildmaterial nicht immer so klar ist, wie man es sich wünscht. Es
befinden sich in den erzeugten Bildern oft Störungen verschiedenen Ursprungs. Jedoch
ist es für den Mediziner besonders wichtig, dass das vorliegende Bild möglichst gut das
tatsächlich aufgenommene Objekt repräsentiert. In vielen Fällen passiert es nämlich,
dass das bildgebende System Strukturen erzeugt, und somit das resultierende Bild vom
realen Objekt abweicht. Außerdem treten oft Störungen in Form von Unschärfe oder
Rauschen im Bildmaterial auf. All dies gilt zu vermeiden bzw. nachträglich zu entfernen oder zu mindern, da sonst falsche Diagnosen von dem Mediziner erstellt werden
können.
Deswegen ist es sehr wichtig, das Verfahren entwickelt werden, die diese Störungen so
perfekt wie es geht entfernt, ohne dabei die Struktur des Bildes zu verändern. In meiner
Arbeit, wurden zwei solcher Verfahren vorgestellt, den adaptiven Wiener (Kapitel 3.4)
sowie den anisotropischen adaptiven Filter (Kapitel 3.5). Die Effektivität beider Filter
wurde anhand zahlreicher Beispiele gezeigt.
Durch solche Verfahren, wird dem Mediziner die Diagnose vereinfacht und Fehldiagnosen verhindert. Das bedeutet also, die Bildverarbeitung ist nicht nur in der Informatik sondern auch im Bereich der Medizin ein nicht mehr weg zu denkendes Element.
Aus diesem Grund wird die Forschung nach neuen Bildverarbeitungs-Verfahren immer
weiter gehen.
Literaturverzeichnis
[Ban02] L.N. Bankman. Handbook of Medical Imaging Processing and Analysis.
academic Press series in Biomedical Engeneering, 2002.
[GM00] M.Hofbauer G. Moschytz. Adaptive Filter. Springer, Berlin, Heidelberg,
2000.
[Ham87] Richard W. Hamming. Digitale Filter. VCH, 1987.
[Neu72] Edgar Neuburger. Einführung in die Theorie des linearen Optimalfiters. R.
Oldenbourg München Wien, 1972.
[Neu98] Eschmann Neunzert. Analysis 1 + 2. Springer, 3.auflage edition, 1998.
[Pau03] D. Paulus. Vorlesung bildverarbeitung, 2003. Computervisualistik.
[Wür03] Verena Würbel. Bildgebende verfahren. Technical report, Universität Koblenz, 2003. Hauptseminar: Medizinische Bildverarbeitung.
46
LITERATURVERZEICHNIS
Kapitel 4
2D Segmentierung
medizinischer Bilder:
Segmentierung mit
deformierbaren Modellen
Natalie Menk
05. Juni 2003
Institut für Computer Visualistik
Universität Koblenz-Landau
Universitätsstraße 1, 56070 Koblenz
[email protected]
http://www.uni-koblenz.de/∼nmenk
48
2D Segmentierung medizinischer Bilder: Segmentierung mit deformierbaren
Modellen
4.1 Motivation
Modellfreie Segmentierungsverfahren wie zum Beispiel Schwellwertverfahren, Regionenwachstum, Kantendetektion oder morphologische Operatoren sind teilweise sehr
zeitaufwändig, wenn man nur bestimmte Objekte im Bild segmentieren will. Deformierbare Modelle liefern hier schnellere Ergebnisse und bieten außerdem die Möglichkeit zur Automatisierung der Segmentierung. In der medizinischen Bildverarbeitung
liegen oft mit Artefakten wie zum Beispiel Rauschen oder Lücken behaftete Bilder vor.
Deformierbare Modelle eignen sich zur Segmentierung dieser Bilder. Die bekanntesten
unter den deformierbaren Modellen sind Snakes. Sie sind planare deformierbare Kurven, die dazu benutzt werden, Objektgrenzen in Bildern zu finden. Snakes zählen zu
den energieminimierenden deformierbaren Modellen.
Abbildung 4.1: Snake (weiß) eine Zellwand segmentierend. [MT96]
4.2 Das klassische Snake-Modell
[MT02]
4.2.1 Mathematische Grundlagen
Eine Snake ist, geometrisch gesehen, eine parametrisierte Kurve in R 2 . Die Kontur
wird durch v(s) = ((x(s), y(s))T repräsentiert, wobei x und y die Koordinatenfunktion und s ∈ [0, 1] ist. Die Form der Kurve wird durch ihre Energie beschrieben:
Esnake (v) = Einnen (v) + Eauen (v)
(4.1)
Die Energie der Snake ist also eine Zusammensetzung ihrer inneren und äußeren Energie. Während die innere Energie eine Kraft in Richtung Konturzentrum ausübt, zeigt
die externe Energie vom Objektzentrum weg. Innere Bedingungen (wie z.B. die erste
Ableitung) lassen sich aus der Kontur selbst ableiten und repräsentieren a-priori Information über den Verlauf und das Aussehen der gesuchten Objektkontur.
Die am häufigsten verwendete Funktion für die innere Energie lautet:
2 2
2
Z 1
∂ v ∂v (4.2)
Einnen (v) =
w1 (s) + w2 (s) 2 ds
∂s
∂s
0
4.2 Das klassische Snake-Modell
49
2
∂ v
Dabei ist ∂v
∂s die erste und ∂s2 die zweite partielle Ableitung nach s. Durch eine unterschiedliche Festlegung der Parameter w1 und w2 , kann man die Ausprägung der
Krümmungen oder der Glattheit der Kurve bestimmen:
Wenn w1 (s) erhöht wird, ist die Spannung der Kurve größer; große Schleifen und
Auswölbungen werden eliminiert, indem die Länge der Snake reduziert wird. Somit
können Ecken und starke Krümmungen sehr gut segmentiert werden.
Erhöht man hingegen w2 (s), wird damit die Starrheit erhöht. Die Kontur wird stärker
geglättet und ist weniger flexibel d.h. glatte Strukturen werden besser segmentiert.
Der zweite Term in (1) repräsentiert die externe Energie:
Abbildung 4.2: Links: w1 (s) > w2 (s). Ecken und starke Krümmungen können sehr
gut segmentiert werden. Rechts: w2 (s) > w1 (s). Glattere Strukturen werden besser
segmentiert.
Eauen (v) =
Z
1
(P (v(s))ds
(4.3)
0
P (x, y) ist eine skalare Potentialfunktion, die vom Benutzer gewählt werden muss. Die
Definition dieser Potentialfunktion ist abhängig von den Bildeigenschaften, die von
der parametrisierten Kontur erkannt werden sollen, da die externe Energie zur Führung
durch die Punkte, die Bestandteile von Kanten sind, dient. Bei der Wahl wird also der
Bildinhalt, wie beispielsweise die Gradientenstärke, berücksichtigt. Sehr häufig wählt
man P (x, y) = −c|∇[Gσ ∗ I(x, y)]|. Durch Faltung des Bildes I(x, y) mit einem
Gaußfilter Gσ wird das in medizinischen Bildern oft vorhandene Rauschen reduziert.
Mit der Konstante c wird die Größe der Potentialfunktion kontrolliert.
4.2.2 Energieminimierungsverfahren
Die Form der Snake ist gefunden, wenn die Gesamtenergie der Snake minimiert ist. Im
folgenden werden 2 Methoden zur Energieminimierung vorgestellt: Die erste stammt
aus der Physik, während die zweite eher heuristisch ist.
Euler-Lagrange Gleichung
[MT02] Die Funktion der Gesamtenergie der Snake lautet zusammengefasst:
Esnake (v) =
Z
|0
1
2 2
2
Z 1
Z 1
∂ v ∂v (P (v(s))ds =
w1 (s) + w2 (s) 2 ds +
F (s, v, v 0 , v 00 )ds
∂s
∂s
0
0
{z
} |
{z
}
{z
} |
interneEnergie
externeEnergie
Gesamtenergie
50
2D Segmentierung medizinischer Bilder: Segmentierung mit deformierbaren
Modellen
Dabei ist v 0 die erste Ableitung und v 00 die zweite Ableitung. Die Gesamtenergie gilt
es nun durch Auffinden eines globalen Enegieminimums für die aktive Kontur zu minimieren. Eine Methode zur Energieminimierung ist die Verwendung der aus der Physik
stammenden Euler-Lagrange Gleichung:
−
∂ 2 ∂F
∂F
∂ ∂F
( 0 ) + 2 ( 00 ) +
=0
∂s ∂v
∂s ∂v
∂v
Einsetztung der Funktion für die Gesamtenergie der Snake ergibt:
∂
∂2v
∂v
∂2
−
w1
+ 2 w2 2 + ∇P (v(s, t)) = 0
∂s
∂s
∂s
∂s
(4.4)
(4.5)
Da die Kontur v(s), welche die Gesamtenergie Esnake (v) minimiert, gesucht ist, wird
diese Gleichung durch numerische Algorithmen zur Lösung von Differentialgleichungen nach v(s) aufgelöst. (Siehe [MT02], [Coh91], [MT96].)
Greedy-Algorithmus
Ein Greedy-Algorithmus kann immer dann verwendet werden, wenn es um ein Optimierungsproblem geht; es soll sukzessiv eine optimale Lösung gefunden werden. Der
Name Greedy=gefräßig erklärt sich dadurch, dass ein Greedy-Algorithmus nach der
Methode ’Nimm immer das größte Stück’ vorgeht.
Der im folgenden gezeigte Greedy-Algorithmus ist ein iterativer Ansatz zur Energieminimierung und wurde erstmals von [WS90] vorgestellt. Hier wird immer ’das kleinste
Stück’, also die kleinste Energie genommen, da die Energie minimiert werden soll.
Greedy Algorithmus:
• Zuerst initialisiert der Benutzer die Snake, indem er n Konturpunkte nahe an
der zu segmentierenden Struktur manuell auswählt. Die Kontur ist geschlossen,
wenn v(o) = v(1).
v1
PSfrag replacementsv(0) = v(1)
v2
v0 = v n
vn−1
Abbildung 4.3: Initialisierung einer geschlossenen Kontur
• Als nächstes wird die Energie des ersten Konturpunktes v0 und dessen acht
Nachbarpixeln berechnet. Der erste Konturpunkt v0 wird auf die Koordinaten
des Pixels mit der niedrigsten Energie gesetzt. Mit den anderen Konturpunkten
v1 bis vn verfährt man genauso. Das heißt: Von jedem Konturpunkt v i , i ∈ [1, n]
wird seine Energie und jeweils die Energie seiner 8 Nachberpixel berechnet und
dort wo von diesen Pixeln die Energie am niedrigsten ist, setzt man die neue
Position des Konturpunktes vi .
4.2 Das klassische Snake-Modell
51
• Durch die Berechnung von vn wird die Position des ersten Konturpunktes v0
nochmals ermittelt, da v0 = vn . Dies ist notwendig, da bei der ersten Berechnung die alte Position des Konturpunktes vn−1 miteingeflossen ist.
Nachdem die Koordinaten des Konturpunktes vn ermittelt wurden, ist der erste
Iterationsschritt beendet.
• Diese Positionsberechnung der einzelnen Konturpunkte wird solange wiederholt,
bis eine vorgegebene Anzahl von Punkten ihre Position nicht mehr ändert. Ein
Abbruch nach n Iterationsschritten ist auch möglich, garantiert aber nicht immer
eine optimale Energieminimierung der Snake.
Abbildung 4.4: Energieminimierung durch Greedy-Algorithmus.
Leider führt der Greedy-Algorithmus nicht immer zu einer optimalen Lösung. Er liefert
aber dennoch in der Praxis häufig gute Ergebnisse.
4.2.3 Dynamisch deformierbare Modelle
[MT02] Bisher wurden hier nur statische Snakes vorgestellt. Es ist jedoch sinnvoll
ein dynamisches System, welches in den Gleichgewichtszustand streben kann, zu betrachten. Bei dynamisch deformierbaren Modellen wird auch die Formentwicklung
im Laufe der Zeit berücksichtigt. Dazu wird ein weiterer Parameter t für die Zeit
eingeführt. Die parametrische Darstellung der zeitvariierenden Kontur lautet nun:
v(s, t) = ((x(s, t), y(s, t))T .
Zusätzlich wird eine Masse µ(s) der Snake und eine Dämpfungskraft γ(s) verwendet,
um ein realistischeres physikalisches Verhalten der Snake zu erhalten.
Neu zu der Euler-Lagrange Gleichung (5) kommen also die erste und die zweite partielle Ableitung nach t, eine Masse µ(s) und eine Dämpfungskraft γ(s). Dies ergibt die
Lagrange-Bewegungsgleichung:
∂v
∂
∂ 2v
∂v
∂2
∂2v
−
µ 2 +γ
w1
+ 2 w2 2 = −∇P (v(s, t))
(4.6)
∂t
∂t
∂s
∂s
∂s
∂s
Gesucht ist hier die Snake v(s, t), bei der die Energiefunktion (1) minimal wird. Der
Gleichgewichtszustand ist erreicht, wenn die internen und externen Kräfte die Balance
2
halten und die Kontur ruht (z.B. ∂∂t2v = ∂v
∂t = 0).
4.2.4 Nachteile klassischer Snakes
Nachteile klassischer Snakes und ähnlichen deformierbaren Konturmodellen nach [MT02]und
[MT00]:
52
2D Segmentierung medizinischer Bilder: Segmentierung mit deformierbaren
Modellen
• Snakes sind als interaktive Modelle entwickelt worden. In nichtinteraktiven Modellen müssen sie nahe an der zu segmentierenden Struktur initialisiert werden,
um eine gute Performanz zu gewährleisten.
• Die feste geometrische Parametrisierung der Kontur in Verbindung mit der internen Verformungsenergie der Snake schränken ihre geometrische Flexibilität ein
und halten sie davon ab, lange röhrenförmige oder sich gabelnden Strukturen zu
segmentieren.
• Die Topologie der zu segmentierenden Struktur muss schon vorher bekannt sein,
weil klassische deformierbare Konturmodelle fest geometrisch parametrisiert sind
und deshalb topologische Transformationen nicht ohne zusätzliche Maschinerie
durchführen können. Das heißt, dass klassische Snakes topologisch unflexibel
sind: Sie können nur Objekte mit einer sehr einfachen Struktur (Ei-ähnliche
Form) segmentieren.
Es gibt diverse Ansätze, um diese Nachteile zu beseitigen, einer davon ist der der
T-Snakes (Topologically Adaptable Snakes) von T. McInerney und D. Terzopoulos
[MT95].
4.3 T-Snakes
[MT95], [MT00]
4.3.1 Eigenschaften
Abbildung 4.5: Segmentierung mittels T-Snake
Die Initialisierung der T-Snake erfolgt als geschlossene 2D Kontur irgendwo innerhalb oder ausserhalb der zu segmentierenden Struktur. Eine wichtige Eigenschaft der
T-Snakes ist, dass die Knoten der Kontur durch adjustierbare Kanten verbunden sind.
Diese Konturkanten werden T-Snake Elemente genannt. Da die Menge der Knoten und
Elemente während des Entwicklungsprozesses nicht konstant bleibt, sind die T-Snakes
elastisch und können sich auch langen röhrenförmigen oder sich gabelnden Strukturen
anpassen.
4.3.2 Komponenten der T-Snake
Eine T-Snake besteht aud zwei Komponenten:
Die erste Komponente ist die diskrete Darstellung der Lagrange-Bewegungsgleichung
4.3 T-Snakes
53
(6):
µi v̈i + γi v̇i + αi + βi = fi
(4.7)
v̈i ist die Beschleunigung und v̇i Geschwindigkeitder Snake. αi + βi ist die interne
Energie, wobei αi die Spannung und βi die Starrheit definiert. fi ist die externe Energie. Genaueres dazu in [MT95].
Da diese Darstellung eine diskrete Approximation des klassischen Snake Modells ist,
behält die T-Snake viele Eigenschaften dieser.
Die zweite Komponente ist die Simplexzerlegung (Triangulierung) des Bildraumes
durch die Coxeter-Freudenthal Triangulierung.(siehe bild ??.)
Mithilfe dieser Zerlegung kann eine Unterscheidung in innere Region und äußere Re-
Abbildung 4.6: Simplexzerlegung des Bildraums. Die Schnittpunkte mit der Kontur
sind markiert.
gion der T-Snake erfolgen: Simplexecken innerhalb der T-Snake erhalten eine positive
Markierung und Simplexecken außerhalb eine negative Markierung. Simplexe, durch
die die Kontur verläuft, heißen Grenzzellen. Sie haben Ecken mit verschiedenen Markierungen. ??
Die Berechnung der geometrischen Parameter, also die Bestimmung der Grenzzellen
und Ausmachen der T-Snake Knoten und Elemente, nennt man simplizite Approximation der T-Snake. Sie kann jeden beliebigen Genauigkeitsgrad erreichen, da die Größe
der Simplizes variiert werden kann.
−
−
+
−
+
+
+
+
−
Abbildung 4.7: Klassifikation eines Simplex.
4.3.3 Iterative Neubestimmung der geometrischen Parameter
[MT00] Eine iterative Neubestimmung der geometrischen Parameter der T-Snake erfolgt alle M ∈ (5, 10] Zeitschritte, wobei M durch den Benutzer festgelegt wird. Es
wird vom Benutzer außerdem bestimmt, ob die T-Snake expandieren oder schrumpfen
soll.
Am Ende eines Verformungsschrittes haben sich die Konturknoten relativ zu den Simplexkanten bewegt. ??.
54
2D Segmentierung medizinischer Bilder: Segmentierung mit deformierbaren
Modellen
Deshalb müssen nun die neuen geometrischen Parameter der deformierten T-Snake berechnet werden.
Diese Berechnung der neuen simpliziten Approximation der Kontur geschieht durch
einen 2-Phasen Reparametrisierungsalgorithmus:
Phase 1:
Zunächst erfolgt ein Schnittpunkttest der Snake mit den Kanten der Grenzzellen. ??.
Ein so gefundener Schnittpunkt ist ein potentieller T-Snake Knoten und wird in einer
Datenstruktur, die mit der geschnittenen Simplexkante assoziiert wird, abgelegt.
Jedem Schnittpunkt wird ein Vorzeichen gegeben, um zu bestimmen, welcher Simplexkantenteil sich in der inneren Halbseite des T-Snake-Elements und welcher sich
in der äußeren Halbseite des T-Snake-Elements befindet. Dies wird mithilfe der Normalen des die Simplexkante schneidenden T-Snake-Elements bestimmt: In positiver
Richtung der Normalen ist Außen und in negativer Richtung Innen.
Ein Spezialfall tritt auf, wenn es mehrere Schnittpunkte der Kontur mit einer Simplexkante gibt. Diese Situation kann entstehen, wenn die T-Snake sich selber oder mit
einer anderen T-Snake schneidet. In diesem Fall wird das kleiner nummerierte Ende
der Simlexkante genommen und mit Hilfe der Normalen des die Simplexkante schneidenden T-Snake-Elements bestimmt, auf welcher Seite der T-Snake diese Simplexecke
liegt.
Nun wird jeder Schnittpunkt mit dem unter Umständen noch aus der vorherigen Iteration existierenden Schnittpunkt verglichen. Wenn sie gegensätzliche Vorzeichen haben
schließen sie sich gegenseitig aus und werden gelöscht. Wenn sie dagegen dasselbe
Vorzeichen haben, ersetzt der neue Schnittpunkt den alten. Falls es vorher noch keinen
Schnittpunkt für diese Simplexkante gab, wird der neue Schnittpunkt in der Simplexkantendatenstruktur abgelegt.
Alle noch existierenden Schnittpunkte definieren die neuen T-Snake Knoten und ihre
Verbindungen die neuen T-Snake Elemente.
Wenn eine Gitterecke im Inneren der T-Snake liegt, und noch eine negative Markierung
hat, wird diese in einer Schlange (queue) für Phase 2 gespeichert.
Phase 2:
Wenn die T-Snake expandiert ist, sind einige Simplexecken, die vorher außerhalb der
T-Snake lagen, nun innerhalb dieser. (Siehe ??.) Sie müssen diese nun eine positive
Markierung erhalten, damit es möglich ist, die innere Region der T-Snake zu erkennen.
Dies geschieht, indem die Warteschlange (von Simplexecken, die zwar im Inneren der
T-Snake liegen, aber noch eine negative Markierung haben sind), welche in Phase 1
angelegt wurde, abgearbeitet wird.
Wenn ein Schnittpunkt in einer Datenstruktur abgelegt wurde und die zugehörige (im
Inneren der T-Snake liegende) Simplexecke noch eine negative Markierung hat, muß
sie eine positive Markierung erhalten. Diese Simplexecke wirkt als ’Saat’ für die Nachbarsimplexecken, welche durch einen Regionenfüllalgorithmus auch eine positive Markierung bekommen, falls die dazwischenliegende Simplexkante keine Schnittpunkte
mit der Kontur hat.
4.3.4 T-Snake Algorithmus
T-Snake Algorithmus nach [MT00]:
4.3 T-Snakes
55
-.
SST
QR
4
/0 21 343 56
78
9 9: ;<
=>
+ +, ?@
!! %)%& '( )* AB
"" #$ %%&
MOP MN KL IJ HG FE HG FE CD
WX ©ª
‚
¨§ ¨§
UV
¥¦
ˆ
ƒ„ †… ‡ˆ‡ ‰Š
‹Œ
ZkY klZY ^] [\ ^] __` dc ab dc Žef Ž 
‘’
oop
mn
€i  i gh € “”
qqr st uuv wx zy ~} jzy {| ~} j •–
yz yz
¢¡ £¤ ¢¡ Ÿ ž ›™›œ ™š —˜
Abbildung 4.8: T-Snake vor (innen) und nach (außen) Verformungsschritten. Die Knoten der T-Snake haben sich relativ zu den Simplexkanten bewegt. Aktuelle Schnittpunkte: grau
Für jeden Deformationschritt (M Zeitschritte):
1. Für (M ∈ (5, 10) Zeitschritte): a) Berechne die externen und internen Kräfte, die
auf die T-Snake Konten und Elemente wirken. b) Update der Knotenpositionen
durch Verwendung der Euler Methode, welche in MT00, S.76 beschrieben wird.
2. Führe Phase 1 aus.
3. Führe Phase 2 aus.
4. Überprüfe für alle T-Snake Elemente, ob sie noch gültig sind. Ein T-Snake Element heißt gültig, falls sein zugehöriges Simplex noch immer eine Grenzzelle
ist. Verwerfe ungültige T-snake Elemente und unbenutzte Knoten.
5. Benutze die Simplexecken, die in Phase 2 eine positive Markierung erhielten,
um neue Grenzzellen zu bestimmen und neue T-Snake Knoten und Elemente
auszumachen.
Der Gleichgewichtszustand ist erreicht, wenn alle T-Snake Elemente für eine durch den
Benutzer bestimmte Anzahl von Deformationsschritten inaktiv waren. Die T-Snake
Aktivität wird durch das Gitter gemessen, indem eine Flammenverbreitungsanalogie
verwendet wird. Den Konturelementen wird eine ’Temperatur’ zugewiesen, die auf
der Anzahl der Deformationsschritte, in denen das Element gültig geblieben ist, basiert. Ein T-Snake Element wird deaktiviert, wenn seine Temperatur unter einen vorher
festgesetzten ’Gefrierpunkt’ fällt.
Wenn der Gleichgewichtszustand erreicht ist, kann das Gitter deaktiviert werden und
die Kontur wird als klassische parametrisierte Snake weitergeführt. Die internen Energiepunkte erzeugen nun gleichmässiger verteilte Konturpunkte.
4.3.5 Interaktive Kontrolle
[MT00] Die Simplexzerlegung des Bildraumes erlaubt es T-Snakes, die intuitiven interaktiven Kapazitäten der klassischen Snakes zu unterstützten:
Benutzer können auf die Snake anziehende oder abstoßende Kräfte ausüben, indem sie
z.B. Quellen oder Vulkane verwenden. Quellen (springs) sind Stellen mit besonders
niedriger Energie und ziehen die Kontur wegen der Energieminimierung an. Vulkane
(volcano) sind dagegen Stellen mit besonders hoher Energie und wirken somit auf die
56
2D Segmentierung medizinischer Bilder: Segmentierung mit deformierbaren
Modellen
Abbildung 4.9: Beispiel interaktiver Kräfte. Links: Eine CT-Aufname der linken Herzkammer. Rechts: Eine deformierbare Kontur bewegt sich zu großen Gradienten in dem
durch Edge detection bearbeiteten Bild, beeinflusst durch gesetzte Punktbedingungen
und einer Quelle, welche die Kontur zu einer Kante rechts unten im Bild zieht. [XPP00]
Kontur abstoßend.
Ein anderer nützlicher T-Snake Interaktionsmechanismus sind geometrische Punktbedingungen. Dabei werden Punkte gesetzt, durch die die Snake verlaufen muss. Sie
gehören zu den harten Bedingungen, die immer erfüllt sein müssen. Mit ihnen kann
der Benutzer die T-Snake zwingen, eine bestimmte Form anzunehmen. Weiche Punktbedingungen wie zum Beispiel verankerte Quellen müssen nur einigermaßen erfüllt
werden und betreffen deshalb nur eine definierte Nachbarschaft.
Abbildung 4.10: T-Snake, neuronale Zellen segmentierend. Sie muss die vom Benutzer
festgelegten Punkte durchlaufen.
4.3.6 Beurteilung der T-Snakes
Die Initialisierung der T-Snake ist flexibel: Sie muss nicht mehr nahe an der zu segmentierenden Struktur initialisiert werden und kann anfangs sowohl außerhalb als auch
innerhalb platziert werden, was ein klarer Vorteil gegenüber den klassischen Snakes
ist. ([MT00]) Die Zellzerlegung des Bildraumes ermöglicht topologische Transformationen wie z.B. lange, röhrenförmige oder sich gabelnde Strukturen wie in ??. Durch
die topologisch angepassten aktiven Konturen wird das Verschmelzen oder Trennen
von Snakes möglich. Deshalb können auch mehrere T-Snakes in der inneren Region der zu segmentierenden Struktur initialisiert werden.([MT00]) T-Snakes haben
eine verbesserte Effizienz und eine Automatisierung des Segmentierungsprozesses ist
möglich.([MT95]) Komplexe anatomische Strukturen sind ohne addititionelle Maschinerie segmentierbar.([MT02]) Nachteilig zu bemerken ist, dass Rauschen und andere
Bildartefakte noch immer das T-Snake Verhalten und somit auch das Ergebnis der Seg-
4.4 Zusammenfassung
57
Abbildung 4.11: T-Snake bei der Erkennung von retinalen Blutgefäßen.
mentierung störend beeinflussen können. Das Problem bei deformierbaren Modellen
ist aber die recht komplizierte Bestimmung der Energien.
4.4 Zusammenfassung
Snakes sind dazu geeignet, mit Artefakten behaftete Bilder zu segmentieren und werden deshalb in der die medizinischen Bildverarbeitung eingesetzt.
Snakes sind energieminimierende deformierbare Modelle, die sowohl als parametrische Kurve (klassische Snakes), als auch als diskrete Kurve (T-Snakes) dargestellt werden können.
Das Prinzip funktioniert folgendermaßen: Zuerst wird aus einem Bild eine Energiefunktion, bestehend aus interner und externer Energie erzeugt. Dann initialisiert der
Benutzer die Snake. Als nächstes wird versucht, die Energie zu minimieren. In Abhängigkeit von der gewählten Energie paßt sich die Snake in Folge der Energieminimierung unterschiedlichen Merkmalen im Bild, wie zum Beispiel Kanten und Linien
an. Benutzer können auch interagieren indem sie beispielsweise Energieminima oder
-maxima im Bild festlegen, die die Kontur anziehen bzw. abstoßen oder es gibt auch
die Möglichkeit, Punkte, durch die die Snake laufen muss, zu bestimmen.
Die Erweiterung des klassischen Snake Modells (T-Snakes) birgt Vorteile wie Unempfindlichkeit gegenüber der initialisierten Position und eine höhere Flexibilität der Kontur.
Das hier vorgestellte 2D-Snake-Modell lässt sich übrigens auch auf 3D erweitern.
([MT00].)
58
2D Segmentierung medizinischer Bilder: Segmentierung mit deformierbaren
Modellen
Literaturverzeichnis
[Coh91]
L. D. Cohen. On active contour models and balloons. Computer Vision,
Graphics, and Image Processing. Image Understanding, 53(2):211–218,
1991.
[KWT87] M. Kass, A. Witkin, and D. Terzopoulos. Snakes: Active contour models.
Vis. Comput., 1:321–331, 1987.
[MA99]
T. McInerney and D. And. Topology adaptive deformable surfaces for medical image volume segmentation, 1999.
[MT95]
T. McInerney and D. Terzopoulos. Topologically adaptable snakes. In
ICCV, pages 840–845, 1995.
[MT96]
T. McInerney and D. Terzopoulos. Deformable models in medical images
analysis: A survey, 1996.
[MT00]
T. McInerney and D. Terzopoulos. T-snakes: Topology adaptive snakes,
2000.
[MT02]
T. McInerney and D. Terzopoulos. Deformable models. In I.N. Bankman.
Handbook of Medical Imaging Processing and Analysis. Academic Press,
page 127ff, 2002.
[WS90]
D.J. Williams and M. Shah. A fast algorithm for active contours. In Proc.
3rd Int.Conf. on Computer Vision (ICCV), pages 592–595, 1990.
[XP98]
C. Xu and J. Prince. Snakes, shapes, and gradient vector flow, 1998.
[XPP00] Chenyang Xu, Dzung L. Pham, and Jerry L. Prince. Image segmentation
using deformable models, 2000.
60
LITERATURVERZEICHNIS
Kapitel 5
Registrierungsverfahren
Rebecca Hoffmann
03. Juli 2003
Institut für Computer Visualistik
Universität Koblenz-Landau
Universitätsstraße 1, 56070 Koblenz
[email protected]
http://www.uni-koblenz.de/∼rebhoff
62
Registrierungsverfahren
Registrierungsverfahren finden einen hohen Nutzen in der heutigen Medizin. Sie
werden an vielen verschiedenen Stellen gebraucht und eingesetzt. In diesem Zusammenhang soll die Anwendung und der Nutzen von Registrierung in der Medizin deutlich gemacht werden, außerdem wird die Registrierung medizinischer Daten näher erläutert und eine Klassifikation der Vorgehensweise vorgestellt. Anschließend wird ein
konkretes Beispiel für eine 2D/3D Registrierung inklusive Verwendung von Ähnlichkeitsmaßen dargestellt.
5.1 Motivation und Nutzen in der Medizin
Registrierungsverfahren haben sich in der Medizin als notwendig erwiesen. Dies hat
folgende Gründe. Auf der einen Seite gibt es unterschiedliche bildgebende Verfahren und deren Zweckmäßigkeiten: Ein CT Volumen wird meist dann verwendet, wenn
man Informationen über dichtes Gewebe eines Patienten wie z.B. Knochen erhalten
möchte, da bei CTs Knochendetails sehr gut zu erkennen sind. Zudem eignen sich
CT-Datensätze besser zur Strahlentherapieplanung. Auf MR-Bildern ist meist weiches
Gewebe besser zu sehen. Daher wird diese Methode meist angewendet, wenn man
es darum geht, Information über weiches Gewebe wie zum Beispiel einen Tumor zu
erhalten. Positron Emission Tomography (PET-)Aufnahmen hingegen zeigen eher die
funktionalen als die anatomischen Information. Sie werden zum Beispiel gebraucht,
wenn man die aktiven funktionalen Gebiete des Gehirns finden möchte. Abbildung
5.1 zeigt Beispiele von 3D-Aufnahmen des Kopfes durch die erwähnten Bildgebenden
Verfahren. Damit man die gewonnenen Informationen aus den unterschiedlichen Verfahren miteinander vergleichen und die Bilder fusionieren kann, um somit den höchstmöglichen Informationsstand zu erlangen, ist die Registrierung der vorhandenen Daten
notwendig. Nur so können alle wichtigen Eigenschaften für beispielsweise eine Operation erkannt werden.
Auf der anderen Seite werden oft zeitlich versetze Aufnahmen eines Patienten gemacht. Die Bilder einer Person werden zu einem unterschiedlichen Zeitpunkt aufgenommen. Dies kann zum Beispiel vor, während oder nach einer Operation geschehen.
Vor einem Eingriff ist meist sicher zu stellen, wo sich der zu operierende Bereich befindet und ob sich durch die festgestellte Position Komplikationen ergeben könnten.
Daher werden zeitlich früher gemachte Bilder mit Bildern während der Operation verglichen. Nach dem Eingriff will der Arzt wissen, ob er operativ erfolgreich war. Da die
Lage des Patienten vor, während und nach der OP nie exakt identisch ist, liegen zwar
Aufnahmen des gleichen Objektes vor, allerdings ist die Position und die Bildmodalität unterschiedlich, so dass eine Registrierung der Datensätze zum Vergleichen angewendet werden muss. Zudem liegen oft Daten von mehren Patienten vor. Auch hier
müssen die Bilder registriert werden, damit man sie gegenübergestellt werden können.
Anwendung findet Registrierung unter anderem in der bildgesteuerten Chirugie (image
guided surgery). Hier liegen die Anforderungen vor allem in der hohen Genauigkeit
und in der kurzen Rechenzeit der einzelnen Verfahren.
Im Folgenden werden einige Beispiele von Bilddatensätze nach ihrer Registierung
mit anschließender Fusion vorgestellt. Abbildung 5.2[Bor] zeigt ein CT und ein PET
Bild eines Querschnittes durch die Brust, erkennbar an der abgebildetet Wirbelsäule
und den daneben gelegenen Nieren. Der Pfeil im CT-Datensatz weißt auf einen Tumor
in der Milzgegend hin, der operativ entfernt werden soll. Um den Erfolg der Resektion
zu garantieren, dürfen gesunde und aktive Regionen in der Gegend des Tumors nicht
beschädigt werden. Hierzu wird eine PET Aufname gemacht, um zu sehen, wo sich
5.1 Motivation und Nutzen in der Medizin
CT
MR
63
PET
Abbildung 5.1: 3D Abbildungen vom Kopf, stammend aus unterschiedlichen bildgebenden Verfahren
die funktionalen Aktivitäten in dem betroffenen Bereich befinden. Sie liegen bei dieser
Aufnahme im Darm und in den Nieren (siehe grüne Pfeile). Nach der Berechnung der
Registrierung bekommt man das fusionierte Bild.
Links CT, Rechts PET
Fusion von CT und PET
Abbildung 5.2: Beispiel einer Registrierung von einem CT und PET Volumen eines
Querschnitts durch die Brust
Ein weiteres Beispiel für eine Registrierung mit anschließender Fusion der registrierten Bilddaten zeigt Bild 5.3. Es stellt verschiedene Aufnahmen einer 66jährigen
Frau mit einem rechts parietalem1 Glioblastom2 dar. In der ersten Reihe sind MRAufnahmen des Schädels zu verschiedenen Zeitpunkten zu sehen. Die zweite Reihe
zeigt korrespondierende PET-Daten nach der Registrierung. Während die dritte und
die vierte Reihe die Fusion der registrieten Schichten zur Planung der Operation enthalten. Die Fusion der MR-Daten mit der PET-Darstellung des sensomotorisch aktivierten
Areal der Großhirnrinde zeigt, dass das aktivierte Areal das perifokale Ödem nur tangiert und daher bei der geplanten operativen Entfernung nicht gefährdet ist [LzB02].
1 seitlich,
scheitelwärts gelegen
Gehirntumor
2 bösartiger
64
Registrierungsverfahren
Abbildung 5.3: Fusion von MR und PET
5.2 Registrierungsverfahren
5.2.1 Definition
Unter dem Begriff Registrierung versteht man nach [LzB02] allgemein die Berechnung
einer Transformation, die zwei korrespondierende Bildinhalte in zwei verschiedenen
Koordinatensystemen aufeinander abbildet. Hier liegt zunächst ein Korrespondenzproblem vor, da man als erstes die übereinstimmenden Bildinhalte gefunden werden müssen. Daher spricht man auch oft von ’Matching’ von Bildern. Diese Bildinhalte können
ganze Objekte, Regionen oder auch einzelne Bildpunkte sein. Ziel ist es, zwischen den
verschiedenen Bildrepräsentationen eine maximal mögliche Übereinstimmung zu finden bzw. herzustellen. Verschiedene Ähnlichkeitsmaße werden im Abschnitt 5.4.4
vorgestellt. Außerdem sagt die Definition noch nichts über die Dimensionen der beiden Koordinatensysteme und die Spezifikation der Transformation aus. Letzteres wird
in Abschnitt 5.3.8 näher erläutert. Im nächsten Abschnitt werden zusätzliche Faktoren
erwähnt, die diese Definition erweitern und ein Registrierungsverfahren spezifizieren.
5.3 Klassifikation der Verfahren
Um die vorhandenen Registierungsverfahren besser charakterisieren zu können, wird
im Folgenden eine Klassifikation nach [LzB02] und [MV98] beschrieben, die neun
verschiedene Kriterien beinhaltet.
5.3 Klassifikation der Verfahren
65
5.3.1 Modalität
Die Modaliät bezieht sich auf die Art der verwendeten Bildgebenden Verfahren, um
die zu registrierenden Bilder zu bekommen. Es werden vier Modalitätsklassen unterschieden: Bei unimodaler (oder auch monomodaler) Registrierung gehören die Bilder
derselben Modalität an (Bsp.: CT-CT, MR-MR), es handelt sich folglich um dasselbe
bildgebende Verfahren. Im Gegensatz dazu liegen unterschiedliche Modalitäten bei der
multimodalen Registierung vor (Bsp.: CT-PET, CT-Röntgenbild, SPECT-MR). Sowohl
beim Modalität – Modell als auch beim Patient – Modalität Verfahren liegt jeweils nur
eine Abbildung vor. Die andere ’Modalität’ ist entweder ein Modell oder der Patient
selber. Ein Modell kann ein anatomischer Atlas (s. Abschnitt 5.3.3) oder auch ein
mathematisches Modell der Physiologie sein. Zur vierten Kategorie zählen solche Verfahren, die auf den aktuellen Koordinaten des Patienten beruhen. Zwar wird auch hier
zwischen zwei Bildern eine Transformation gesucht, allerdings ist diese stark von der
Position des Patienten abhängig (Bsp.: Tumorprojektion aus dem CT auf den aktuellen
Situs)
5.3.2 Dimensionalität
Ein weitere Möglichkeit der Charakterisierung der Verfahren liegt schon in der allgemeinen Definition erwähnten Dimension beider Bilder. Zunächst einmal wird differenziert, ob alle Dimensionen nur räumlich sind oder ob die Zeit eine zusätzliche
Dimension darstellt, wenn Zeitserien, d.h. mehr als zwei Bilder, vorliegen. Im Allgemeinen kann man von n-dimensionalen auf m-dimensionale Registrierungsproblemen
sprechen, wobei n und m den jeweiligen Grad der Dimension angeben. Als Beispiel
für ein 2D-2D Verfahren ist u.a. die Registrierung von Röntgenbildern zu nennen. Die
Registrierung zweier CT-Datensätze oder eines CT und MR Datensatzes benötigt ein
3D-3D Verfahren, während eine 2D-3D Registrierung hauptsächlich bei der Abbildung
von räumlichen Daten auf projektive Daten gebraucht wird (z.B. die Registrierung
eines prä-operatives CT-Volumen zu einer intra-operativen Röntgenaufnahme (siehe
auch Abschnitt 5.4)). Die Registrierung von Volumendaten auf Kamerabilder benötigt
im allgemeinen ein 3D-2D Verfahren.
Die Zeit spielt in einigen Fällen eine große Rolle. Wenn man den wachsenden
Knochenaufbau eines Kindes verfolgen möchte, sind Aufnahmen über ein langes Zeitintervall notwendig. Genauso ist der Zeitfaktor im Allgemeinen wichtig, wenn man
die Veränderung eines bestimmten Körperorgans verfolgen möchte. Vergleichsweise
ist hier auch das Wachsen eines Tumors zu nennen. Unter der Betrachtung der Zeit
können ebenfalls wie bei der räumlichen Aufteilung drei Möglichkeiten gehen, nämlich 2D-2D, 3D-3D oder 2D-3D Datensätze.
5.3.3 Subjekt
Wenn nur Aufnahmen eines Patienten vorliegen, spricht man von Intrasubjektregistrierung. Die Registierung von Daten verschiender Patienten bezeichnet man hingegen als
Intersubjektregistrierung. Die letzte Kategorie stellt die Atlas/Patient-Registrierungdar.
Dabei wird eine Aufnahme des Patienten und ein konstruiertes Bild verwendet. Unter
Atlas versteht man meist einen Datensatz, der durch Mittelung von Daten verschiedener Patienten errechnet wird. D.h. der Atlas ist eine künstlich hergestellte Aufnahme,
die darstellt, wie der gesunde Körperaufbau des Menschen aussehen müsste und anhanddessen können Aufnahmen kranker Regionen mit dem ’Ideal’-Bild überprüft wer-
66
Registrierungsverfahren
den. Der Gebrauch liegt hier meist beim Aufstellen von Statistiken über Informationen wie Größe und Form bestimmter Strukturen. Außerdem wird die Atlas/PatientRegistrierung oft beim Auffinden von anormalen sprich kranken Regionen im Körper
gebraucht.
5.3.4 Objekt
Das Objekt ist das, was meist registriert wird. Es kennzeichnet bestimmte Organe oder
Körperregionen:
• Kopf (Schädel, Gehirn, Augen, Zähne)
• Thorax (ganz, Nieren, Leber)
• Becken
• Gliedmaße (Oberschenkelknochen, Oberarmknochen, Hand)
• Wirbelsäule, Wirbel
• etc.
An dieser Stelle sollte erwähnt werden, dass in der Bildverarbeitung vorallem die Registrieung des Kopfes (Schädel und Gehirn) sehr verbreitet ist. Da es sich meist um
Knochenstrukturen und wenig bewegte weiche Materie handelt, ist die zur Registrierung notwendige Transformation oft leichter zu finden, da man von starren Körperteilen ausgehen kann. (siehe auch Abschnitt 5.3.7)
5.3.5 Interaktion
Registrierungsverfahren werden nach dem Grad ihrer Selbstständigkeit bzw. ihrer Automatisierung unterschieden. Manuelle Algorithmen liegen vor, wenn die Steuerung
der Registrierung durch den Benutzer erforderlich ist. Der für den manuellen Eingriff
notwendige aktuelle Status der Transformatin wird dem Benutzer von der vorhandenen
Software mitgeteilt. Bei semiautomatischen Algorithmen liegt entweder die Initalisierung (z.B. Segmentierung bestimmter Objekte) oder die Steuerung (z.B. Akzeptanz
oder Rückweisung einer vorgeschlagenen Registrierung) beim Benutzer, während bei
den automatischen Algorithmen nur die Bilddaten bereitgestellt werden und die Registrierung ohne jegliches Eingreifen stattfindet. Diskussionswürdig ist bestimmt, inwieweit der Benutzer in die Verfahren eingreifen sollte und wo darin die Nützlichkeit liegt.
Auf der einen Seite könnten durch menschliche ’Überwachung’ die Robustheit und Effizienz eines Algorithmus gesteigert werden. Auf der anderen Seite nimmt der größte
Teil der Registrierung, das Finden der geeigneten Transformation, einen Bereich ein,
in dem das Eingreifen weniger Sinn macht.
5.3.6 Basis
Das Festlegen einer Basis ist abhängig von den Eigenschaften der vorhandenen Datensätze. Sie dient dazu, so wenig Daten wie möglich registrieren zu müssen. Zur Extraktion einer Registrierungsbasis sind i.d.R. Vorverarbeitungsschritte wie Filterung, Segmentierung oder 3D-Rekonstruktion erforderlich ( [LzB02]). Die gesuchte Basis soll
5.3 Klassifikation der Verfahren
67
auf den charakteristischen Merkmalen der wesentlichen Bildinhalte der zu registrierenden Struktur beruhen, damit die Originaldaten auf ihre wichtigsten Bestandteile reduziert werden können. Es gibt unterschiedliche Arten der Registrierungsbasis. Die drei
wichtigsten Gruppen sind zunächst extrinsischen, intrinsischen und nicht-bildbasierten
Verfahren. Extrinsische Basen können noch einmal in invasive 3 und nicht-invasive unterteilt werden. Unter ersteren versteht man unter anderem Stereotaktische Rahmen
oder Schraubenmarker. Zu nicht-invasiven Basen gehören unter anderem Abdrücke,
Bezugsrahmen, Zahnadapter oder auch Hautmarker.
Beruht die Registrierung auf einer intrinsische Basis, kann sie sich auf verschiedene Verfahren beziehen. Landmark basierende Verfahren können zum Beispiel anatomische oder geometrische Landmarken sein. Segmentierungsbasierte Verfahren unterscheiden sich in starren und deformierbaren Modellen. Zu nennen sind hier Punkte,
Kurven und Oberflächen (starr) sowie Snakes und Netze (deformierbar). Verfahren,
die auf Voxeleigenschaften basieren, nutzen beispielsweise Eigenschaften wie Grauwerte, beziehen sich auf den gesamten Bildinhalt, der oft zu Skalaren oder Vektoren
reduziert wird. An dieser Stelle sei noch erwähnt, dass der erste merkmalsbasierte Algorithmus 1990 entwickelte wurde. Erst vier Jahre später folgte ein intensitätsbasierte
Algorithmus.
Extrinsische Basen enthalten Objekte, die ’künstlich’ in den Bildraum eingebracht
worden sind. Im Gegensatz dazu beruhen intrinsische Basen meist auf Bilddaten, die
nur aufgrund der Anatomie des Patienten vorhanden sind.
Zuletzt sind noch die nicht-bildbasierten Verfahren zu nennen. Ihnen liegt meist
ein kalibriertes Koordinatensystem zugrunde, d.h. A-priori statt A-posteriori Registrierung.
5.3.7 Transformation (modellbasiert)
Wie bereits erwähnt ist das Ziel eines Registrierungsverfahren die Bedingungen der
Transformation, die beide vorliegende Bilder miteinander in Übereinstimmung bringt.
Bei der Modell basierten Transformation liegt eine endliche Anzahl an Modellparametern vor, im Gegensatz zur einer vollständig elastischen Transformation. Entspricht
die gesuchte Transformation nur einer Verschiebung des einen Punktes zu seinem korrespondierenden Punkt aus dem anderen Datensatz, dann kann sie durch eine Translation modelliert werden. Hingegen kommt zu einer starren Transformation noch die
Möglichkeit der Rotation hinzu. Liegt eine affine Transformation vor, dann kann die
Transformation eine Rotation, Skalierung, Translation, Spiegelung und Scherung beinhalten. Projektive Transformationen werden zum Beispiel bei der Röntgenprojektion
verwendet. Je mehr Freiheitsgrade (Parameter) eine Transformation besitzt, desto höher ist ihre Elastizität (siehe auch Tabelle 5.1).
Das Finden der jeweils geeigneten Transformation für die Registrierung hängt von
den Randbedingungen des Problems ab. Beispielsweise kann für die Registrierung von
knöchernen Strukturen meist eine starre Transformation verwendet werden, während
Weichteile aufgrund ihrer Elastizität meist eine Transformation mit vielen Freiheitsgraden benötigen.
3 med.
eindringend
68
Registrierungsverfahren
5.3.8 Transformationsbereich
Wendet man die Transformation global an, dann wirkt das Änderen eines Transformationsparameters auf das gesamte Bild. Möchten man verschiedene Transformationen
für unterschiedliche Regionen verwenden, spricht man von einemlokalen Transformationsbereich. Es existieren somit zusätzliche Parametersätze. Tabelle 5.1 zeigt eine
Übersicht über die Transformationen und ihren Wirkungsbereiche.
Original
Global
Lokal
Tabelle 5.1: Beispiele für 2-D Transformationen Erste Reihe: starre Transformationen,
Zweite Reiche: affine Transformationen, Dritte Reihe: projektive Transformationen,
Vierte Reihe: kurvige Transformationen
5.3.9 Optimierungsverfahren
Optimierungsverfahren werden benutzt um die Ähnlichkeitsfunktion im u.U. hochdimensionalen Parameterraum der Transformation mit Hilfe von Ähnlichkeitsmaßen global zu minimieren (siehe auch Abschnitt 5.4.4).
Erschöpfende Suchverfahren gehen alle möglichen Kombinationen der Transformationsparametersätze durch, um das globale Optimum zu finden. Da dies ziemlich
aufwendig ist, ist ein solches Verfahren nur bei wenigen Freiheitsgraden möglich, da
der Aufwand sonst zu hoch wäre. Man stelle sich vor, wie viele Optionen allein bei
einer starren Transformation vorliegen, mit jeweils drei Translationen und drei Rotationen (jeweils x-, y-, z-Achse). Heuristische Strategien versuchen den Suchraum mit
Hilfe verschiedener Verfahren einzuschränken. Hierzu werden zum Beispiel das Gradientenabstiegsverfahren oder die Levenberg-Marquardt-Methode verwendet. Iterative
Verfahren berechnen das Ähnlichkeitsmaß abhängig vom aktuell erreichten Zustand
der Registrierung jeweils neu, bis das Optimum gefunden ist.
5.4 Registierungsverfahren von Penney
69
5.4 Registierungsverfahren von Penney
5.4.1 Klassifikation des Registrierungsverfahren
Basierend auf die Klassifikation vom letzten Abschnitt soll im Folgenden ein konkretes Beispiel für eine multimodale 2D-3D Registrierung vorgestellt werden. Beim
Verfahren von Penney [Pen99] wird ein prä-operatives CT Volumen der (Lenden-) Wirbelsäule mit einem intra-operativen Röntgenbild des selben Objektes registriert. Es
handelt sich hierbei um eine Intrasubjektregistrierung, da Aufnahmen eines Patienten
vorliegen. Die Registrierung erfolgt ausschließlich anhand der Bilddaten, die vom Patienten stammten, d.h. es liegt eine intrinsische Basis vor, die auf den Voxelintensitäten
der Datensätze basiert. Zudem wird eine starre Transformation mit perspektivischer
Projektion angewendet, d.h. es existieren zehn Freiheitsgrade, wobei sechs extrinsische und vier intrinische Parameter vorliegen. Der Transformationsbereich bezieht
sich auf das ganze Bild, ist also folglich global. Zur Optimierung der Registrierung
verwendet Penney zudem heuristische Verfahren.
Die Grundidee liegt bei der Herstellung eines Digitally Reconstructed Radiograph
(DRR). Nachdem man dieses aus dem CT Volumen berechnet hat, wird es mit Hilfe
von Ähnlichkeitsmaßen mit dem Röntgenbild verglichen. Somit liegt im Endeffekt eine
2D-2D Registrierung vor. In den nächsten Abschnitten wird nun auf einzelnen Punkte
näher eingegangen.
5.4.2 Digitally Reconstructed Radiograph
Ein DRR ist die Erzeugung einer künstlichen Projektion des 3D CT-Volumen. Hierzu
wird von der bekannten Position der Röntgenquelle Röntgenstrahlen durch das CTVolumen gesendet (Abbildung 5.4). Die Werte der getroffenen Voxelwerte werden anhand des Röntgenschwächungsgesetz aufaddiert. Falls die Strahlen keine Voxelzentren
treffen, muss zwischen diesen interpoliert werden. Dies geschieht durch eine bilineare
Interpolation. Wichtig ist hierbei, dass truncation4 vermieden wird. Truncation tritt
dann auf, wenn Strahlen oben oder unten durch das CT-Volumen gebrochen werden
und somit unvollständig sind. Um dies zu verhindern, wird meist eine ROI (Region of
Interest) definiert, damit Truncation während der Projektion vermieden werden kann.
IDRR
IF L
PSfrag replacements
CT-Volumen
X-ray Source
Abbildung 5.4: Erzeugung eines DRR
4 Abbrechen,
Abschneiden
70
Registrierungsverfahren
Die Erzeugung des DRR erfolgt anhand der Abbildungsmatrix M, die Projektion
vom 3D-Raum auf die 2D-Bildebene beschreibt:
Die Abbildungsmatrix M vom 3D-Raum auf die 2D-Bildebene besteht aus folgenden Parametern:
M = P(cs , ls , k1 , k2 )T(X, Y, Z)R(θx , θy , θz )
(5.1)
Wobei P die projektive Transformation bekannt als Kalibrierungsmatrix ist. c s , ls geben die Position an, wo die Normale zur Bildebene durch die Röntgenstrahlquelle geht.
k1 und k2 gleichen die Pixelgrößen in horizontaler (xpix ) und vertikaler (ypix ) Richypix
xpix
und k2 = f ocallength
. T beinhaltet die Translationen um die
tung an. k1 = f ocallength
x-,y- und z-Achse und R steht für die Rotationen um die jeweiligen Achsen
Die Transformationen werden im projektiven Raum P 2 gegeben:


1 0 0 X
 0 1 0 Y 

(5.2)
T=
 0 0 1 Z 
0 0 0 1

cos θz cos θy
 − sin θz cos θy
R=

sin θy
0
sin θz cos θx + cos θz sin θy sin θx
cos θz cos θx − sin θz sin θy sin θx
− cos θy sin θz
0
sin θz sin θx − cos θz sin θy cos θz
cos θz sin θx + sin θz sin θy cos θz
cos θy cos θx
0
(5.3)
5.4.3 Registrierungsverfahren als Optimierungsproblem
Die Abbildung des Volumens zu einem DRR wird durch die Lage der Kamera (externe
Parameter) und ihre internen Parameter spezifiziert. Die internen Parameter werden
durch einen Kalibrierungsschritt bestimmt, während nach den externen Parametern
gesucht werden muss. Der Transformationsbereich ist 6-dimensional, er besteht aus
drei Translationen und drei Rotationen (starre Transformation). Die beste Transformation ist diejenige, für die der Abstand zwischen DRR und dem aktuellen Röntgenbild
am kleinsten ist:
dist{DRR, F L} −→ 0
(5.4)
Dieser Abstand misst die Ähnlichkeit zwischen beiden Bildern und ist die zu optimierende Funktion. Um nicht den gesamten Suchraum durch eine erschöpfende Suche abzutasten, werden heuristische Strategien eingesetzt (s. Abschnitt 5.3.9). Beispiele hier
für sind u.a. Downhill Simplex, der Gradientabstieg oder der Levenberg-Marquardt
Algorithmus.
5.4.4 Ähnlichkeitsmaße
Wie bereits in Abschnitt 5.3.9 erwähnt, gibt es unterschiedliche Ähnlichkeitsmaße, die
die Güte- Verfahren der Registrierung verbessern [PWL+ 98][HBHH01]. Wichtig ist,
dass die Maße korrekt arbeiten und gegenüber weichem Gewebe (soft tissue structures)

0
0 

0 
1
5.4 Registierungsverfahren von Penney
71
und intra-operativen Instrumenten5(interventional instruments), die bei Penney auftreten, unempfindlich, sprich robust sind.
Penney verwendet u.a. folgende intensitätsbasierte Ähnlichkeitsmaße:
Normierte Kreuzkorrelation
P
¯
¯
(i,j)∈T (If l (i, j) − If l )(IDRR (i, j) − IDRR )
qP
R = qP
2
¯ 2
¯
(i,j)∈T (If l (i, j) − If l )
(i,j)∈T (IDRR (i, j) − IDRR )
(5.5)
Kreuzkorrelation ist ein Maß aus der Statistik, welches die Ähnlichkeit zwischen zwei
Bildern mißt, hierzu werden die Abstände der Grauwerte der beiden Eingabebilder I f l
und IDRR zu ihren jeweiligen Mittelwerten I¯f l und I¯DRR in einer bestimmten Region
T berechnet. Da dieser Maß sehr von den Pixelintensitäten abhängig ist, kann eine
kleine Anzahl von Fehlpixel schnell zu einem schlechten Ergebniss bei der Ähnlichkeitsmessung und somit zu einer schlechten Registrierung führen. Dies kann vor allem
auftreten, wenn im CT und damit auch im DRR interventional instruments vorkommen, da diese eine kleine Anzahl an Pixeln bzw. deren Intensität stark verändern (vlg.
[PWL+ 98]).
Gradientenkorrelation
Gradientenkorrelation ist ein auf der Normierten Kreuzkorrelation basierendes AbdI
dI
, dIDRR
mittels horistandsmaß. Es werden die Gradietenbilder dif l , djf l , dIDRR
di
dj
zontalem und vertikalem Sobel erzeugt. Danach berechnet man die Normierte KreuzdI
dI
und zwischen djf l und dIDRR
korrelation zwischen dif l und dIDRR
di
dj . Das Ergebnis ist
der Mittelwert aus beiden Berechnungen. Der Vorteil hierbei liegt darin, dass durch
den Sobelfilter (die Gradient Messung) niedrige Frequenzen herausgefiltert werden,
die zum Beispiel durch weiches Gewebe auftauchen. Allerdings liegt durch die Verwendung der Normierten Kreuzkorrelation eine Beeinflussung von gering vorkommenden großen Intensitätsunterschieden vor. Die im Vergleich zu der ’reinen’ Normierten
Kreuzkorrelation aber relativ gering ist.
Pattern Intensity
Dieses Ähnlichkeitsmaß beruht auf der Entropie des Differenzbildes von dem Röntgenbild und dem DRR, das wie folgt berechnet wird.
Idif f (i, j) = If l (i, j) − sIDRR (i, j)
(5.6)
Wobei s ein Skalierungsfaktor ist. Man beginnt mit dem Wert 0 und erhört s, bis man
das Minimum von der Entropie H erreicht hat. Die Berechnung der Entropie H von
Idif f ist gegeben durch:
H(Idif f ) = −
X
p(x) log p(x)
(5.7)
x
Da die Entropie ein Maß für den Informationsgehalt eines Bildes ist, ist das Ziel das
Minimum von H zu finden, weil dann so wenig Information in I Dif f enthalten ist.
5 Lineal,
Stent, etc.
72
Registrierungsverfahren
Dabei geht man davon aus, dass bei einer hohen Ähnlichkeit von I f l und IDRR die
Bilder nahezu identisch sein müssten. Das Verfahren basiert auf dem Histogramm des
IDif f -Bildes. Die Werte vom Differenzbild werden in 64 gleich große Kästen (Bins)
unterteilt, um das Histogramm zu erstellen und p(x) gibt an, mit welcher Wahrscheinlichkeit ein Pixel vom Differenzbild IDif f zu dem Bin x gehört. Jeder Pixel erhält die
gleiche Gewichtung unabhängig von seiner Intensität. Deshalb ist dieses Maß robust
gegenüber großen Unterschieden der Pixelintensitäten in einer kleinen Anzahl von Pixel, die u.a. beim Vorkommen von intra-operativen Instrumenten auftreten. Allerdings
treten Fehlerquoten auf, wenn weiches Gewebe in den Bildern auftritt.
5.4.5 Bewertung des Verfahrens von Penney
Der große Vorteil des Verfahrens von Penney liegt sicherlich darin, dass es sich um
eine intensitätsbasierte Registrierung handelt. Somit werden Korrespondenzprobleme
und Segmentierung vermieden. Zudem ist durch die Konstruktion eines ’Phantom’Röntgenbildes (DRR) aus dem CT-Volumen die Registrierung zwischen DRR und dem
inter-operativen Röntgenbild effizienter und effektiver. Außerdem benutzt Penney zusätzlich Optimierungs- und Ähnlichkeitsverfahren, die eine Registrierung exakter und
robuster machen sollen. Allerdings liegt hierbei das Problem, dass man nicht weiß,
welches Verfahren man zur Optimierung benutzen soll.
Literaturverzeichnis
[Bor]
www.bocaradiology.com/Procedures/PET.html.
[HBHH01] Derek L.G. Hill, Philipp G. Batchelor, Mark Holden, and David J. Hawkes.
Medical image registration. Phys. Med. Biol., 46:1–45, 2001.
[LzB02]
Thomas M. Lehman and Erdmuthe Meyer zu Bexten. Handbuch der Medizinischen Informatik. Hanser, Muenchen, 2002.
[MV98]
Antoine J.B. Maintz and Max A. Viergever. A survey of medical image
registration. Medical Image Analysis, 2:1–36, 1998.
[Pen99]
Graeme P. Penney. Registration of tomographic images to X-ray projections for use in image guided interventions. PhD thesis, Computational
Imaging Science Group, Dvision of Radiological Sciences and Medical
Engineering, King’s College, London, 1999.
[PWL+ 98] Graeme P. Penney, Juergen Weese, John A. Little, Paul Desmedt, Derek L.G. Hill, and David J. Hawkes. A comparison of similarity measures
for use in 2-d–3-d medical image registration. IEEE Transactions on Medical Imaging, 17:586–595, 1998.
[SNC90]
George W. Sherouse, Kevin Novins, and Edward L. Chaney. Computation
of digitally reconstructed radiography for use in radiotherapy treatment
design. International Journal of Radiation Oncology, Biology, Physics,
18:651–658, 1990.
74
LITERATURVERZEICHNIS
Kapitel 6
Bayes Netze
Regine Wolff
??.April 2003
Institut für Computer Visualistik
Universität Koblenz-Landau
Universitätsstraße 1, 56070 Koblenz
[email protected]
http://www.uni-koblenz.de/∼reginew
76
Bayes Netze
6.1 Motivation
In medizinischen Anwendungen fehlen oft die Möglichkeiten einer eindeutigen Zuordnung zwischen den Fakten, sprich den Symptomen, und der Schlussfolgerung, der
Diagnose. Das kommt daher, dass die Fakten meist nicht exakt abgrenzbar sind, sie
sind schlecht (diffus) strukturiert und oft komplexer Natur. Außerdem sind die meisten
Fakten unterschiedlich interpretierbar. Es ist daher nur selten möglich, aus bestimmten Symptome eindeutig auf eine, bzw. auf die Diagnose zu schließen. Eine Lösung
bieten hier die Bayes-Netze. Bayes-Netze sind graphische Modelle, welche die Graphentheorie und Wahrscheinlichkeitstheorie miteinander kombinieren. Hierauf wird
jedoch später noch im Einzelnen eingegangen.
Es werden den Aussagen für das Auftreten bestimmter Symptome bei vorliegenden Diagnose Wahrscheinlichkeiten zugeordnet. Beispielsweise die Wahrscheinlichkeit, dass jemand der eine Grippe hat auch Fieber hat. Diese können dann mit Hilfe der
Bayes - Netze visualisiert werden und es kann damit im umgekehrten von dem Symptom Fieber auf die Wahrscheinlichkeit der Diagnose Grippe geschlossen werden. Es
können durch die Bayes-Netze Probleme behandelt werden, die durch andere Methoden wegen ihrer Komplexität oder wegen fehlender Daten nicht erfasst werden können.
Mit ihnen kann Wissen als Ansammlung von Wahrscheinlichkeiten ausgedrückt werden und somit können Folgerungsprozesse gut simuliert werden. Die Bayesche Wahrscheinlichkeitsrechnung erlaubt überdies Formulierung rein subjektiver Wahrscheinlichkeiten und kann somit menschliche Intuition, Erfahrung und Fachwissen mit einbeziehen. So kann also durch Experten formuliertes Wissen berücksichtigt werden.
Zudem ist es mit den Bayes-Netze einfach verschiedene Modellannahmen auszuprobieren und Wahrscheinlichkeitsannahmen zu verändern. Die Auswirkungen hiervon
lassen sich dann wieder direkt am Graphen (Netz) ablesen. Die ursprünglichen Wahrscheinlichkeiten werden aus Beobachtungen einer großen Zahl von Fällen statistisch
ermittelt.
6.2 Statistischer Grundlagen
Wahrscheinlichkeiten
Eine Zufallsvariable X kann alle Werte des Wertebereiches
W B = {x1 , . . . , xn }n ∈ N
annehmen Jeder dieser Werte tritt mit einer bestimmten Wahrscheinlichkeit
P (X = xi )
mit
i = {1, . . . , n}n ∈ N
auf. Das Auftreten eines bestimmten Wertes einer Zufallsvariablen
A = (X = xi )
nennt man Ereignis.
P(A) ist die unbedingte (a priori) Wahrscheinlichkeit
Dieses ist die Wahrscheinlichkeit, dass Ereignis A eintreten wird in dem Fall, dass
6.2 Statistischer Grundlagen
77
keine zusätzliche Information verfügbar ist
Beispiel : X = W eather , xi = {Sunny, Rain, Cloudy, Snow}
P (W eather = Sunny) = 0.7
P (W eather = Rain) = 0.2
P (W eather = Cloudy) = 0.08
P (W eather = Snow) = 0.02
P (X) ist der Vektor der Wahrscheinlichkeiten für den Wertebereich der Zufallsvariable
X: also in dem vorliegendem Beispiel
P (W eather) = h0.7, 0.2, 0.08, 0.02i
Die Summe des Vektors P (X) muss immer 1 ergeben
n
X
P (X = xi ) = 1
i=1
Liegen nun zusätzliche Informationen vor, kann nicht mehr mit der a priori Wahrscheinlichkeiten gerechnet werden, sondern mit der:
P(A|B) bedingte (a posteriori) Wahrscheinlichkeit
Dieses ist die Wahrscheinlichkeit des Ereignisses A unter der Bedingung B. Es ist also
die Wahrscheinlichkeit, dass A eintritt nachdem B bereits eingetreten ist.
P (X|Y ) ist die Tabelle aller bedingten Wahrscheinlichkeiten über alle Werte der Vektoren X und Y .
Die bedingte Wahrscheinlichkeiten ergeben sich aus den unbedingten Wahrscheinlichkeiten (falls P (B) > 0) per Definition folgendermaßen :
P (A|B) =
P (A ∧ B)
P (B)
Umgekehrt lässt sich dann auch die absolute Wahrscheinlichkeit von P (A) aus den
bedingten Wahrscheinlichkeiten von P (A|B) und der absolute Wahrscheinlichkeit von
P (B) berechnen:
X
P (A) =
P (A|Bi )P (Bi )
i
Das Produktgesetz lautet:
P (A ∧ B) = P (A|B)P (B)
und
P (A ∧ B) = P (B|A)P (A)
78
Bayes Netze
Beispiel
P (Sunny ∧ Headache) = P (Sunny|Headache)P (Headache)
Das Summengesetz lautet:
P (A ∨ B) = P (A) + P (B) − P (A ∧ B)
außerdem gilt
P (¬A) = 1 − P (A)
6.3 Aufbau Bayes-Netze
Die Basis der Bayes-Netze bildet das Theorem von Bayes. Die Herleitung von diesem
erfolgt über das Produktgesetz: Es gilt
P (A ∧ B) = P (A|B)P (B) und P (A ∧ B) = P (B|A)P (A)
Durch Gleichsetzen der rechten Seite folgt
P (A|B)P (B) = P (B|A)P (A)
−→ P (A|B) =
P (B|A)P (A)
P (B)
Voraussetzung für das Bayes-Theorem ist die Kenntnis folgender Wahrscheinlichkeitswerte:
1. die a-priori-Wahrscheinlichkeiten P (A) und P (B) und
2. die a-posteriori Wahrscheinlichkeit P (B|A).
Mit dem Bayes - Theorem können also unbekannte a-posteriori Wahrscheinlichkeiten
aus bekannten Wahrscheinlichkeiten berechnet werden
Beispiel: Wie hoch ist Wahrscheinlichkeit einer Bronchitis bei Husten
P (Bronchitis) = 0.05
P (Husten) = 0.2
P (Husten|Bronchitis) = 0.8
daraus folgt:
P (Bronchitis|Husten) =
=
P (Husten|Bronchitis) ∗ P (Bronchitis)
(6.1)
P (Husten)
0.8 ∗ 0.05
= 0.2
(6.2)
0.2
Jetzt stellt sich die Frage, warum man dann nicht gleich die Wahrscheinlichkeit einer
Bronchitis bei Husten P (Bronchitis|Husten) schätzt? Das hat folgende Gründe:
6.3 Aufbau Bayes-Netze
79
Das Husten bei einer Bronchitis vorhanden ist P (Husten|Bronchitis), ist kausal und
somit robuster, die Wahrscheinlichkeit ändert sich nicht so schnell. Das man aber auch
eine Bronchitis hat, wenn man Husten hat P (Bronchitis|Husten) ist diagnostisch.
Es ist von den a priori Wahrscheinlichkeiten abhängig : Tritt verhäuft eine Bronchitis
P (Bronchitis) auf, so bleibt die Wahrscheinlichkeit von Husten bei einer Bronchitis
P (Husten|Bronchitis) unverändert, jedoch nehmen Husten P (Husten) und Bronchitis bei Husten P (Bronchitis|Husten) proportional zu.
Der Aufbau der Bayes-Netze ist nun folgendermaßen:
• die Knoten sind die Merkmale (Zufallsvariablen) und
• die Kanten repräsentieren die Abhängigkeiten
• in/an den Knoten steht jeweils eine vollständige Tabelle bedingter Wahrscheinlichkeiten
Der Graph ist azyklisch. (DAG)
A
B
PSfrag replacements
C
D
E
Abbildung 6.1: Graph
Anhand des Graphen in Abbildung 6.1 kann man erkennen, dass C von A und
B abhängt, D jedoch nur von C. Daher lässt sich folgende Unabhängigkeitsannahme
machen:
P (D|C, B, A) = P (D|C)
Mit den Knoten X1 , . . . , Xn und den Werten der Variablen x1 , . . . , xn gilt nach der
Kettenregel
P (x1 , . . . xn ) = P (xn |xn−1 , . . . , x1 ) ∗ . . . ∗ P (x2 |x1 ) ∗ P (x1 )
n
Y
=
P (xi |xi−1 , . . . , x1 )
(6.3)
(6.4)
i=1
Durch die Unabhängigkeitsannahmen ist dies auch zur einfacheren Schreibweise
P (x1 , . . . xn ) =
n
Y
P (xi |parents(xi ))
i=1
äquivalent, was bedeutet, dass jeder Knoten nur von seinen direkten Eltern abhängt.
PSfrag replacements
80
Bayes Netze
P(A)= 0.6/0.4
P(B)= 0.5/0.5
A
B
P(C|A=t,B=t)= 0.95/0.05
P(C|A=t,B=f)= 0.96/0.04
C
P(C|A=f,B=t)= 0.26/0.74
P(C|A=f,B=f)= 0.01/0.99
P(D|C=f)= 0.05/0.95
D
E
P(D|C=f)= 0.10/0.99
P(D|C=t)= 0.90/0.10
P(D|C=t)=0.90/0.10
P(D|C=f)=0.05/0.95
P(E|C=t)=0.70/0.3
P(E|C=f)=0.01/0.99
P(E|C=t)= 0.70/0.30
Abbildung 6.2: Bayes-Netz
Anhand des Graphen in Abbildung 6.2 lässt sich dann z.B. folgende Wahrscheinlichkeit berechnen:
P (D, E, C, ¬B, ¬A)
= P (D|C) ∗ P (E|C) ∗ P (C|¬B, ¬A) ∗ P (¬A) ∗ P (¬B)
(6.5)
= 0.90 ∗ 0.70 ∗ 0.01 ∗ 0.4 ∗ 0.5
(6.6)
= 0.00126
(6.7)
Wahrscheinlichkeitswerte gewinnt man Idealerweise aus aussagekräftigen statistischen
Studien - oftmals wird man sie aber auch auf die Erfahrung basierend schätzen müssen
6.4 Diagnose mit Hilfe von Bayes-Netze
Die Darstellung der Merkmale und ihrer Abhängigkeiten untereinander mit Hilfe der
Bayes - Netze bietet zwei wesentliche Vorteile: Zum einen eine übersichtliche Form zur
Erstellung und zur Darstellung einer Wissensbasis. Zum anderen bietet sie aber auch
eine vorteilhafte Repräsentationsform für Computerbasierte Anwendungen. Hiermit
können Knoten und Kanten nämlich leicht in einer formalisierten Datenstruktur gespeichert werden und außerdem kann die Bayes-Formeln für die Kanten vorberechnet
werden. Damit entspricht eine Anfrage an ein Bayes - Netz lediglich noch einem Suchvorgang.
Dass heißt, man setzt die Bayes-Netze dann ein, wenn man die Beurteilung von Abhängigkeiten zwischen Fakten möchte; wenn man also die Berechnung der wahrscheinlichste Diagnose Di für eine bestimmte, vorliegende Symptomkombination S1 . . . Sn will.
Voraussetzungen sind allerdings die Kenntnis folgender Wahrscheinlichkeitswerte:
1. die a-priori-Wahrscheinlichkeiten P (Di ) einer Menge von n Diagnosen
2. den bedingten Wahrscheinlichkeiten P (Sj /Di ), d.h. der statistischen Häufigkeit
des Auftretens der Symptome bei gegebener Diagnose Di .
6.4 Diagnose mit Hilfe von Bayes-Netze
81
das Bayes - Theorem lautet dann folgendermaßen:
P (Di )P (S1 |Di ) ∗ P (S2 |Di ) ∗ . . . ∗ P (Sn |Di )
P (Di |S1 , . . . , Sn ) = Pn
j=1 P (Dj )P (S1 |Dj ) ∗ P (S2 |Dj ) ∗ . . . ∗ P (Sn |Dj )
Damit kann man für verschiedenen Symptomen oder Symptomkombinationen die Wahrscheinlichste Diagnose berechnen.
Beispiel : Wie hoch die Wahrscheinlichkeit einer Bronchitis(B) = Di oder eines
Bronchialkarzinom (CA) = Dj bei den Symptomen Husten (Hu), Auswurf(A) und Heiserkeit(Hei)?
P (B) ∗ P (Hu|B) ∗ P (A|B) ∗ P (Hei|B)
(6.8)
P (B) ∗ P (Hu|B) ∗ P (A|B) ∗ P (Hei|B) + P (CA) ∗ P (Hu|CA) ∗ P (A|CA) ∗ P (Hei|CA)
0.05 ∗ 0.8 ∗ 0.7 ∗ 0.4)
=
(6.9)
0.05 ∗ 0.8 ∗ 0.7 ∗ 0.4 + 0.001 ∗ 0.6 ∗ 0.5 ∗ 0.1
= 0.97
(6.10)
P (B|Hu, A, Hei) =
P (CA) ∗ P (Hu|CA) ∗ P (A|CA) ∗ P (Hei|CA)
(6.11)
P (B) ∗ P (Hu|B) ∗ P (A|B) ∗ P (Hei|B) + P (CA) ∗ P (Hu|CA) ∗ P (A|CA) ∗ P (Hei|CA)
0.001 ∗ 0.6 ∗ 0.5 ∗ 0.1
=
(6.12)
0.0115
= 0.03
(6.13)
P (Ca|Hu, A, Hei) =
Wie man sieht ist die Wahrscheinlichkeit einer Bronchitis bei den vorliegenden Symptomen wesentlich höher, als die Wahrscheinlichkeit eines Bronchialkarzinom.
Die Symptomkombinationen lassen sich im Bayes - Netz visualisieren. Auf diese Art
wird die Abhängigkeit der Symptome übersichtlicht. Anhand des Graphen in Abbildung 6.3 lässt sich unschwer erkennen, dass A eine (mögliche) direkte Ursache für B
und C darstellt. Somit würde eine Bestätigung von A also die Wahrscheinlichkeit, dass
sowohl B als auch C wahr sind erhöhen. B und C werden wiederum als (mögliche)
direkte Ursache für D angesehen, während nur C E auslösen kann.
Beispiel: Wie hoch ist die Wahrscheinlichkeit von Krebsmetastasen bei erhöhtem
Calciumspiegel ?
Man sieht die Wahrscheinlichkeit einer Krebsmetastase beträgt 20%, die Wahrscheinlichkeit eines erhöhten Calciumspiegels bei Krebsmetastasen beträgt 80%, die eines
normalen 20%
Die absolute Wahrscheinlichkeit eines erhöhten Calciumspiegels beträgt:
P (b̄) = P (b̄|a) ∗ P (a) + P (b̄|ā) ∗ P (ā)
(6.14)
= 0.20 ∗ 0.80 + 0.20 ∗ 0.80
(6.15)
= 0.32
(6.16)
Hiermit hat man alle Kenntnisse zusammen, die man benötigt um die Bayes - Regel
anwenden zu können. Es ergibt sich also eine Wahrscheinlichkeit von Krebsmetastasen
PSfrag replacements
82
Bayes Netze
A
Krebsmetastasen
A : a = nein / ā = ja
P (a)0.80/0.20
Calciumspiegel
B : b =normal / b̄ = erhöht
P (b|a) = 0.80 / 0.20
P (b|ā) = 0.20 / 0.80
Gehirntumor
C : c = nein / c̄ = ja
P (c|a) = 0.95 / 0.05
P (c|ā = 0.80 / 0.20
Koma
D : d = nicht im Koma / d¯ = komatös
P (d|b, c) = 0.95 / 0.05
P (d|b, c̄) = 0.80 / 0.20
P (d|b̄, c) = 0.80 / 0.20
P (d|b̄, c̄) = 0.80 / 0.20
Kopfschmerzen
E : e = keine , ē = starke
P (e|c) = 0.40 /0.60
P (e|c̄) = 0.20 / 0.80
B
C
D
E
P(a,b,c,d,e)=P(a)*P(b|a)*P(c|a)*P(d|b,c)*P(e|c)
Abbildung 6.3: Bayes-Netz mit Krankheitssymptomen
bei erhöhtem Calciumspiegel :
P (b̄|ā) ∗ P (ā)
P (b̄)
0.80 ∗ 0.20
=
0.32
= 0.50
P (ā|b̄) =
(6.17)
(6.18)
(6.19)
Gibt es nun neue Informationen über eine Variable, weil sie sich z.B. als wahr herausgestellt hat, hat das Auswirkungen auf die Wahrscheinlichkeiten der Zustände der
anderen Variablen. Diese werden dann neu berechnet. Jedoch werden immer nur die
absoluten Wahrscheinlichkeiten neu berechnet, nie die in den Tabellen gespeicherten
bedingten Variablen.
Ändert sich z.B. die Wahrscheinlichkeit von einem erhöhten Calciumspiegel P ( b̄) von
den bisher 32% auf 100% ( weil er festgestellt wurde ) erhöht sich auch die Wahrscheinlichkeit von P (ā), den Krebsmetastasen Die genaue Berechnung der Änderungen kann
in [Pea88] nachgelesen werden.
Ein Beispiel für so ein Expertensystem ist MEDIKUS. Das steht für Modellbildung,
Erklärung und Diagnose bei komplexen unsicheren Sachverhalten und ist ein Projekt
der Universität - Oldenburg.[MED] Dieses Projekt hat zum Ziel hat ëin wissensbasiertes Werkzeug zu entwickeln, welches die Bildung von Erklärungsmodellen sowie
diagnostische Strategien in Wissensbereichen unterstützt soll, die komplex, vernetzt
und mit Unsicherheit behaftet sind.D̈abei liegt der Exemplarische Wissensbereiche in
der Umweltmedizin und der Humangenetik. Das System soll später mal für Dienstleistungen, z.B. als Werkzeug zur Entscheidungsunterstützung eingesetzt werden. Der
Implementationsstand zurzeit ist folgender:
6.5 Klassifikation mit Bayes-Netzen
83
• linguistischen Modelleditor: macht eine vereinfachte natürlichsprachliche Darstellung von Wissen möglich
• graphischen Modelleditor: hier kann ein Erklärungsmodell direkt als BayesNetz aufgebaut werden
• Übersetzer zur automatischen Umsetzung natürlichsprachlich formulierter Wissensinhalte in graphische Darstellung eines Bayes-Netzes.
Das System wird mit diesem Beispiel vorgestellt:
Beispiel : Chorea Huntington
Die Chorea Huntington ist eine Erbkrankheit, die auf dem Untergang von Nervengewebe in verschiedenen Gehirnbezirken beruht. Dieses führt zu ungewollten, ausfahrenden und schleudernden Bewegungen; insbesondere die Arme und die Schultermuskeln sind betroffen. Anhand dieses Graphen kann man sehen, welche Faktoren einen
Alter
Alage beim Vater
PSfrag replacements
Anlage beim Vater
Anlage beim Sohn
Manifestation
Abbildung 6.4: Bayes-Netz für Chorea Huntington
Einfluss auf das Vorhandensein dieser Krankheit haben und wie sie sich gegenseitig
beeinflussen. Die Knoten haben folgende Merkmalsvektoren
Anlage beim Vater: ja, nein
Alter: 0-10, 10-20, 20-30, 30-40, 40-50, 50-60, 60-70, 70-80 (Jahre)
Manifestation: ja, nein
Anlage beim Sohn: ja, nein
Für die einzelnen Faktoren lassen sich absolute und bedingte Wahrscheinlichkeiten
angeben. Beispielsweise
p(AnlagebeimV ater(nein)) = 0.5
(6.20)
p(Alter(20 − 30)) = 0.125
(6.21)
p(M anif estation(nein)|Alter(50 − 60), AnlagebeimV ater(ja))
p(AnlagebeimSohn(nein)|AnlagebeimV ater(ja))
= 0.04
(6.22)
= 0.5
(6.23)
Dazu gibt es dann das in Abbildung ?? dargestellte Interface:
In dem sich in der Mitte das Modell als Bayes-Netz befindet. Über, bzw. unter den
Knoten befinden sich die zugehörige Evidenz (Beobachtung), sowie die berechneten
Wahrscheinlichkeiten für die entsprechende Evidenz.
6.5 Klassifikation mit Bayes-Netzen
Die Klassifikation in den medizinischen Bildanalyse - und Erkennungssystemen bedeutet die computergestüzte Entscheidung welche Segmente diagnostisch bzw. the-
84
Bayes Netze
Abbildung 6.5: MEDIKUS
rapeutisch relevant sind. Hierzu zählen z.B. z.B. Tumore oder Läsionen. Die Klassifikation ist zur Verarbeitung und Interpretation einer Vielzahl bildobjektspezifischer
Merkmale und ihre Kombinationen notwendig. Sie soll, die mittels Segmentierung bestimmten Regionen vorgegebenen Klassen zuordnen, um Aussagen darüber treffen zu
können was für Regionen das sind. In der Abbildung 6.6 repräsentiert x ein Merkmal,
p(g)
Luft
Knochen
PSfrag replacements
wenig dichtes Gewebe
dichtes Gewebe
g
Abbildung 6.6: Histogramm eines z.B. CT-Bildes
in diesem Fall einen Grauwert gi und K1 . . . Kn die repräsentieren die verschiedenen
Klassen. Aus dem Histogramm kann die Wahrscheinlichkeitsverteilungen geschätzt
werden und wodurch die a-priori Wahrscheinlichkeit P (x ∈ Ki ) bekannt wird. Außerdem kann die bedingte Wahrscheinlichkeit P (x = gi |x ∈ Ki ) , dass x den Grauwert
gi besitzt wenn es einer bestimmten Klasse angehört, abgelesen werden. Bei der Klassifikation wird nun nach der Klassenzugehörigkeit gesucht:
P (x ∈ Ki |x = gi ) =
P (x ∈ Ki )P (x = gi |x ∈ Ki )
P (x = gi )
6.6 Zusammenfassung
85
Man sieht, dass x zu mehreren Klassen zugehören kann. Daher wird sich für die Klasse
k entschieden, die die höchste a posteriori Wahrscheinlichkeit besitzt:
k = arg max P (x ∈ Ki |x = gi )
i
6.6 Zusammenfassung
Die Bayes-Netze sind gut zur Darstellung unsicheren oder komplexen Wissens geeignet. Jedoch ist einer ihrer großen Nachteile die Beschaffung dieses Wissens. Dieses nur
von Experten schätzen zu lassen ist zu unsicher, daher muss das Netz oft mit Testdaten
trainiert werden. Bayes-Netze werden bisher so gut wie gar nicht in der klinischen
Praxis eingesetzt, da neben der fehlenden Integration in die Gesamt-EDV-Infrastruktur
eines Krankenhauses und weiteren Problemen vor allem ein Problem dagegen spricht:
Der Aufbau und die ständige Aktualisierung der Wissensbasis. Hier seien einige Systeme als Beispiele für den Umfang bisher realisierter medizinischer Wissensbasen
genannt, nachzulesen unter [?]:
• MYCIN: 450 Produktionsregeln
• Internist-1 / QMR: 500 Krankheitsprofile
• Iliad: 1.700 Krankheitsprofile
• Dxplain: 2.100 Krankheitsprofile
• HELP: 5.000 Wissensbankregeln
• RMRS / CARE: 1.400 Wissensbankregeln
Es wurden 10-20 Jahre als Zeiträume für die Entwicklung dieser Wissensbasen von
jeweiligen Entwickler angegeben. Und trotzdem beinhalten diese Wissensbasen zusammen höchstenfalls 5%(!) (vermutlich noch deutlich weniger) des medizinischen
Wissens. Daran sieht man, dass eine wirkliche Verwendung der Systeme in der Praxis
noch lange nicht wirklich realisiert werden kann.
86
Bayes Netze
Literaturverzeichnis
[GSL01] C. Gelli, G. Schucan, and M. Leu. Expertensysteme. Technical report, Universität Zürich, 2000/2001. Seminar : Wissensmanagement.
[Koc00] K.R Koch. Einführung in die Bayes-Statistik. Springer, Berlin [u.a.], 2000.
[MED]
Medikus. Technical report, Universität Oldenburg. Projekt : MEDIKUS.
[Pea88] J. Pearl. Probalistic Reasoning in Intelligent Systems. Morgan Kaufmann,
San Francisco,Calif, 1988.
[Skra]
http://www.imise.uni-leipzig.de/lehre/medinf/MMB/Skripte/Bayes/Bayes1.pdf.
[Skrb]
http://isgwww.cs.uni-magdeburg.de/bv/skript/mba/VL07.pdf.
88
LITERATURVERZEICHNIS
Kapitel 7
Retina
Ola Danysz
17.Juli 2003
Institut für Computer Visualistik
Universität Koblenz-Landau
Universitätsstraße 1, 56070 Koblenz
[email protected]
http://www.uni-koblenz.de/∼danysz
90
Retina
Literaturverzeichnis
92
LITERATURVERZEICHNIS
Kapitel 8
Endoskopie
Philipp Schaer
24. Juli 2003
Institut für Computer Visualistik
Universität Koblenz-Landau
Universitätsstraße 1, 56070 Koblenz
[email protected]
http://www.uni-koblenz.de/∼schaer
94
Endoskopie
8.1 Motivation
In der Medizin hat sich die Endoskopie zu einer hochtechnisierten Methode entwickelt,
die in vielen Fachrichtungen eingesetzt wird. Leicht philosophisch betrachtet verwirklicht die Endoskopie zwei Grundbedürfnisse des Menschen (und der Ärzte im besonderen): Licht ins Dunkel zu bringen und das Sehen und Erkennen mit dem eigenen
Auge [Kra02]. So stammt der Begriff der Endoskopie aus dem Griechischen und setzt
sich zusammen aus den Wörter endo: innen, innerhalb und skopein: betrachten.
Im Inneren des Körpers bieten sich vielseitige Möglichkeiten, die Offensichtlichste
ist die der Inspektion innerer Organe (Coloskopie, Gastroskopie, etc). Aber auch für
therapeutische (z.B. Zysten- oder Gallenblassenentfernungen unter minimal invasiven
Operationsbedingungen) oder diagnostische Maßnahmen (Biopsien) kann die Endoskopie eingesetzt werden.
Im allgemeinen bringt der Einsatz von Bildverarbeitung mehrere naheliegende Vorteile oder Verbesserungen mit sich. Zum einen wird versucht die Operations- oder Behandlungsbedingungen zu verbessern und dadurch eine Verbesserung der Ergebnisse
zu erreichen. Wünschenswert sind natürlich auch eine Reduzierung des Risikos für die
Patienten und der damit zusammenhängenden Komplikationen.
Abbildung 8.1: Erste endoskopische Untersuchung 1868 von Dr. Kußmaul, durchgeführt an einem Schwertschlucker
8.2 Verschiedene Endoskope und Funktionsweisen
95
8.2 Verschiedene Endoskope und Funktionsweisen
8.2.1 Entwicklung des Endoskops
Die erste endoskopische Untersuchung wurde bereits 1868 von Dr. Kußmaul 1 an einem Schwertschlucker durchgeführt (vergl. Abb. 8.1). Damals noch mit einem einfachen starren Rohr, als Beleuchtungsquelle mußte eine gewöhnliche Kerze herhalten.
Später wurden zur Ausleuchtung glühende Platindrähte, Miniaturlampen und Spiegelund Linsensysteme verwendet, woher auch der im Deutschen oft benutze Begriff der
“Spiegelung” stammt. Moderne Endoskope arbeiten mit lichtleitenden Glasfasern zur
Lichtübertragung. Eine starke Beleuchtungsquelle sitzt ausserhalb des Endoskops und
leitet das erzeugte Licht ins Innere des Körpers. Der Vorteil liegt darin, dass die immense Wärmeentwicklung nicht im Inneren des Körpers vorliegt und so dem Patienten
ggf. verletzen könnte.
Prinzipiell wird zwischen starren und flexiblen Endoskopen unterschieden (vergl.
Abb. 8.3). Starre Endoskope finden häufig ihren Einsatz in der minimal invasiven
Chirugie. Flexible Endoskope werden mehr zu diagnostischen Zwecken eingesetzt.
Am bekanntesten sind wohl die Gastro- und Coloskopie (Darm- und Magenspiegelung).
Flexible Endoskope
Starre Endoskope
Speiseröhre, Magen,
Dünn-, Dickdarm
Bauchhöhle
Atemwege
Atemwege, Brusthöhle
Gallenwege
Harnwege
Harnblase
Gynäkologische Eingriffe
Blutgefäße
Gelenke,
Neurochirogische OP
Abbildung 8.2: Verschiedene typische
Einsatzgebiete für flexible und starre Endoskope
Abbildung 8.3: Nachteile der Glasfaserendoskope
8.2.2 Aufbau eines Endoskops
Die bis vor kurzem noch übliche Bildübertragungstechnik bei endoskopischen Maßnahmen war die Glasfaserbildübertragung [Kra02]. Zur Bildübertragung wird ein kohärentes Glasfaserbündel aus bis zu 50.000 Einzelfasern eingesetzt. Dies entspricht einer Bildauflösung von ca. 220*200 Bildpunkten. Das Bild wird aufgerastert und über
die Glasfasern zum Okularobjektiv gespiegelt und dort wieder zu einem Bild zusammengesetzt. Das so übertragene Bild kann entweder direkt durch das Okular betrachtet
werden oder über eine externe aufgesetzte Videokamera auf einen Monitor übertragen
werden. In diesem Fall spricht man von einer indirekten Videoendoskopie [Kra02].
Auf Abbildung 8.3 sehen wir allerdings die Nachteile, die diese Art der Bildübertragung mit sich bringen. Ein aufgerastertes Objekt kann durch schlechte Auflösung,
1 Dr.
Adolf Kußmaul, prakt. Arzt aus Freiburg
96
Endoskopie
ungeordnete, ungleichmäßige oder schlichtweg zu dicke Fasern nicht mehr korrekt erkannt werden. Der Arzt kann mit den so erlangten Bildern nur sehr schwer arbeiten.
8.2.3 Der Schritt zur digitalen Verarbeitung
Eine direkte digitale Aufnahme mittels eines CCD Chips liegt nahe, da sich all diese
Probleme durch den Einsatz verhindern, bzw. ausbessern lassen. Die Möglichkeit zum
Einsatz von CCD-Technologie ist allerdings noch beschränkt auf eine Mindestdicke
des verwendeten Endoskops von ca. 4-5 mm. Ausgeschlossen sind damit zur Zeit
noch ein Einsatz im Bereich der Endoskopie von Blutgefäßen, Harn-, Gallen- oder
Atemwegen.
8.3 Verfahren am Beispiel der laparoskopische Gallenblasenentfernung
Abbildung 8.4: links: Schematische Darstellung einer Laparoskopie, rechts: Aufnahme während einer Operation
Auch wenn die direkte digitale Aufnahme der Bilder viele Probleme der klassischen Videoendoskpie löst bleiben doch noch viele weitere Probleme bestehen. Exemplarisch wurde hier eine Laparoskopie2 ausgewählt, um einige typische Probleme zu
erläutern und Lösungsansätze aus dem Bereich der Bildverarbeitung zu präsentieren.
Unser spezielles Beispiel ist eine laparoskopische Cholezystektomie 3. Bei dieser
Operationsmethode werden mehrere endoskopische Intrumente durch kleine, ca. 2
cm große Schnitte in der Bauchdecke, in den Bauchraum eingeführt. Der Bauchraum
wird mit CO2 gefüllt und aufgebläht, um den benötigten Platz für die Operation im
Bauchinnenraum zu schaffen. Eine Videoendoskopie ist hier zwangsläufig notwendig,
da mehrere Personen gleichzeitig den Operationsraum begutachten müssen, so z.B.
der operierende Arzt und weitere Assistenten, etc. Es handelt sich hierbei um eine
sogenannte minimalinvasive Operation (vgl. Abb. 8.4).
2 Endoskopie
des Bauchraums
3 Gallenblasenentfernung
8.3 Verfahren am Beispiel der laparoskopische Gallenblasenentfernung
97
8.3.1 Typische Probleme einer Laparoskopie
Bei der Endoskopie des Bauchraums entstehen charakteristische Bildstörungen, wie
z.B. Glanzlichter, Verzerrungen, Farbfehler oder eventuell vorhandene Schwebepartikel. Glanzlichter entstehen durch Reflexionen der Beleuchtungsquelle an feuchten
Organoberflächen. Sie erzeugen starke Kontraste im Bild, die die Bildqualität beeinträchtigen. Durch die eingesetzten Kameraoptiken, die häufig mit Weitwinkeln arbeiten
kommt es häufig zu Verzerrungen im Bild. Der Operationsraum Bauch birgt weiterhin
die Gefahr von freien Schwebepartikeln. Diese entstehen bei der Verbrennung von Gewebe, was z.B. bei der Präparation von Wunden vorkommt. Die Schwebepartikel verschlechtern die Sicht und machen im schlimmsten Falle einen kompletten Austausch
des CO2 nötig. Letztendlich kommt es häufig zu Farbfehlern in den Bildaufnahmen.
Diese sind bedingt durch die vorwiegend rötliche Farbe im Bauchinneraum (z.B. Blut
und Gewebe). Abbildung 8.5 zeigt einige Beispiele für solche Störungen.
Abbildung 8.5: Typische Bildstörungen, links: Farbfehler, mitte: Schwebepartikel,
rechts: Glanzlichter und Farbfehler
8.3.2 Das Problem der Glanzlichter
Als Glanzlichter bezeichnen wir überbelichtete Stellen im Bild. Dabei handelt es sich
um Gewebe, das orthogonal zur Blickrichtung ausgerichtet ist und dadurch überbelichtet wird. Bei der Endoskopie wird das Problem noch dadurch verschärft, dass die
Lichtquelle direkt neben der Kamera sitzt. Durch die Überbelichtung hat der Arzt
keine Möglichkeit das darunterliegende Gewebe zu erkennen, weder die Farbe, noch
die Struktur.
Im Folgenden werden einige Lösungsansätze präsentiert um die Glanzlichter zuverlässig zu detektieren und ggf. durch korrekte Farbwerte zu ersetzen.
einfallendes
Licht
reflektierender Anteil
diffuser Anteil
Abbildung 8.6: links: Glanzlichter in einer endoskopischen Aufnahme des Bauchraums, rechts: Schema des Dichromatischen Reflexionsmodells
98
Endoskopie
Dichromatisches Reflexionsmodell
Das Dichromatische Relexionsmodell ist eine Erweiterung des allgemeinen, gebräuchlichen Monochromatischen Reflexionsmodells [Sha85]. Es gibt hierbei nicht nur eine
Reflexionsfarbe, sondern der reflektierte Teil spaltet sich auf in eine sogenannte Oberflächen- und Körperreflexion (vgl. Abb. 8.6). Dies bedeutet, dass ein Bestandteil der
einfallenden Lichtwellen unter die Oberfläche dringt, von den Pigmenten absorbiert,
gestreut und schließlich diffus das Objekt wieder verläßt. Dies ist die Körperreflexion.
Ein anderer Teil der Lichtwellen wird allerdings direkt an der Oberfläche gespiegelt,
dringt nicht unter die Oberfläche und ist daher auch invariant bzgl. der Körperfarbe.
Die Farbe der Oberflächenreflexion ist also relativ konstant bzgl. der Wellenlänge des
einfallenden Lichtes. Es wird angenommen, dass es sich bei diesem Teil der Reflexion
um den glanzlichtproduzierenden Teil handelt.
Mathematisch läßt sich das Dichromatische Reflexionsmodell wie folgt durch die
Formel von Shafer [Sha85] darstellen:
C
= mb (n, s)
Z
fC (λ)e(λ)cb (λ)dλ + ms (n, s, v)
λ
Z
fC (λ)e(λ)cs (λ)dλ(8.1)
λ
Die Wellenlänge ist λ, n die Oberflächennormale, s die Ausrichtung der Belichtungsquelle (Source) und v die Blickrichtung des Betrachters. Die Reflexionseigenschaften und das Rückstrahlvermögen des Körpers (Body) und der Oberfläche (Surface) werden in cb (λ) und cs (λ) festgehalten. Bezeichnen durch mb , ms werden die
geometrische Abhängigkeit der Körper- und Oberflächenreflexion. Das einfallende
Licht wird durch e(λ) repräsentiert. Die gesamte Formel liefert also einen von den
Sensoren des CCD-Chips aufgenommen Farbwert.
Farbräume nach Grever und Stokman
Grevers und Stokman stellen in [GS00] folgende Vereinfachung vor. Die Überlegungen
zu dieser Vereinfachungen beruhen auf einer NIR (neutral interface reflection) und
einer vollständig weißen Beleuchtungsquelle. Die NIR besagt, dass c s (λ) und e(λ)
und unabhängig von λ sind, also von der Wellenlänge des einfallenden Lichtes. Dies
macht Sinn vor dem Hintergrund der Vorüberlegungen aus Abschnitt 8.3.2. Es ergibt
sich also e(λ) = e und cs (λ)
R = cs .
Desweiteren sei kC = λ fC (λ)cb (λ)dλ. Dies fasst die Abhängigkeit von Sensoren
und Oberflächenreflexion zusammen. Es ergibt sich folgende vereinfachte Form:
Cw
= emb (n, s)kC + ems (n, s, v)cs
Z
fC (λ)dλ
(8.2)
λ
Cw kann nun interpretiert werden als: “Gesehene Farbe unter der Annahme einer
weißen Beleuchtung”.
Stokman und Grevers Rvereinfachen weiterhin,
immerRnoch unter der Annahme eiR
ner weißen Beleuchtung, λ fR (λ)dλ = λ fG (λ)dλ = λ fB (λ)dλ = f . Da wir im
RGB-Raum arbeiten gehen wir also bei einer weißen Beleuchtung von gleichmäßigen hohen werten für alle Kanäle aus. Schlußendlich ergibt sich folgende, kompakte
Formel:
Cw
= emb (n, s)kC + ems (n, s, v)cs f
{z
} |
{z
}
|
Cb
Cs
(8.3)
8.3 Verfahren am Beispiel der laparoskopische Gallenblasenentfernung
99
Basierend auf dieser vereinfachten Form des Dichromatischen Reflexionsmodelles
werden zwei neue Farbräume definiert. In ihren Versuchen haben Stokman und Grevers photometrische Invarianzen dieser Farbmodelle gezeigt. Ihre Versuche bezogen
sich dabei auf Bildererkennungsalgorithmen, die mit den unterschiedlichen Farbräumen getestet wurden. Zuerst wird der Farbraum c1 c2 c3 vorgestellt. Aus den vorhandenen RGB Werten werden die c1 c2 c3 Farbwerte errechnet.
c1
c2
c3
R
)
max{G, B}
G
= arctan(
)
max{R, B}
B
)
= arctan(
max{R, G}
= arctan(
(8.4)
(8.5)
(8.6)
cn stellt dabei die Winkel der Körperreflexion dar, welche konsequenterweise invariant für matte Oberflächen sind. In unserer Annahme gingen wir von einer diffusen
Körperreflexion aus. Formel 8.7 zeigt, dass c1 nur abhängig von Sensoren- und Oberflächeneigenschaften ist. Gleiches gilt für c2 und c3 .
emb (n, s)kR
)
max{emb (n, s)kG , emb (n, s)kB }
kR
= arctan(
)
max{kG , kb }
c1 (Rb , Gb , Gb ) = arctan(
(8.7)
(8.8)
Bei dem zweiten neuen Farbraum l1 l2 l3 handelt es sich um normalisierte Farbabstände.
|R − G|
|R − G| + |R − B| + |G − B|
|R − B|
l2 =
|R − G| + |R − B| + |G − B|
|G − B|
l3 =
|R − G| + |R − B| + |G − B|
l1 =
(8.9)
(8.10)
(8.11)
Anwendung zur Glanzlichtdetektion
Ausgehend von den schon beschriebenen Versuchen zur Objekterkennung zeigten sich
besondere Eigenschaften der neuen Farbräume. Tabelle 8.7 zeigt die entsprechenden
Sensitivitäten und Invarianzen gegenüber bestimmten Bildeigenschaften.
In den entsprechenden Farbraumbildern werden Kantendetektionen durchgeführt.
Im normalen RGB-Bild werden Kanten sowohl bei Objektformänderungen, Schatten,
Glanzlichtern und Materialveränderungen beobachtet. Die neu definierten Farbräume
zeigen nur zu bestimmten Bildeigenschaften eine Kante an. Diese Eigenschaften werden ausgenutzt um gezielt nur Glanzlichtkanten zu detektieren. Folgender kleiner “Algorithmus” ermöglicht es gefundene Kanten im Bild klassifizieren zu können [GS00].
• KanteRGB − Kantec1 c2 c3 ⇒ Schatten- oder Objektkante
• Kantec1 c2 c3 − Kantel1 l2 l3 ⇒ Glanzlichtkante
• Kantel1 l2 l3 ⇒ Materialübergangskante
100
Endoskopie
RBG
c1 c2 c3
l1 l2 l3
Objektform
+
-
Schatten
+
-
Glanzlichter
+
+
-
Materialveränd.
+
+
+
Abbildung 8.7: Eigenschaften der unterschiedlichen Farbräume: (+) Sensitivität für
Bildeigenschaft, (-) Invarianz und Robustheit gegenüber Bildeigenschaft
Ergebnisse
Die Abbildungen 8.8 und 8.9 zeigen zwei Beispielergebnisse für das zuvor beschriebene Verfahren. Das künstliche Beispiel (Abb. 8.8) veranschaulicht die einzelnen
Schritte zur Detektion der einzelnen Glanzregionen. Da durch das Verfahren nur Glanzlichtkanten detektiert werden, allerdings keine Glanzlichtregionen wird nachträglich
noch ein Füllalgorithmus (z.B. mit Schwellwerten) eingesetzt.
Abbildung 8.8: Künstliches Beispiel,
obere Reihe: Kanten im RGB-, c1 c2 c3 und l1 l2 l3 -Farbraum, rechts-unten: klassifizierte Glanzlichtkante
Abbildung 8.9: Beispielbild aus Endoskopieaufnahme, nach Anwendung eines
Füll-Algorithmus
HSV-Modell als Alternative
Speziell bei endoskopischen Aufnahmen des Bauchinnenraums zeigt das Dichromatische Reflexionsmodell einige Schwächen. Die Annahme des vorherigen Verfahrens
sah eine konstante weiße Beleuchtung voraus. Bei der Beleuchtung des vorwiegend
roten Gewebes kann der rote reflektierte Farbanteil wiederrum als Beleuchtungsquelle
für benachbartes Gewebe gerechnet werden. So stimmen die Voraussetzungen für die
ab Abschnitt 8.3.2 vorgenommenen Vereinfachungen und Umformungen nicht mehr.
Alternativ hat sich ein Schwellwertverfahren im HSV -Raum bewährt. Glanzlichter sind charakterisiert durch eine geringe Sättigung S und eine hohe Intensität V . Die
Annahme dass durch solch ein Schwellwertverfahren auch einfache, weiße helle Flächen detektiert werden könnten, ist nur begrenzt richtig, da solche Flächen im Bauchraum nicht vorkommen. Anschließend an das Schwellwertverfahren wird noch eine
Dilatation mit z.B. der Maskengröße 3x3 angewendet, um eine geschlossene Glanzlichtregion zu erhalten. Ergebnissbilder dieses Verfahren sieht man auf der Abbildung
8.10.
8.4 Ausblick
101
Abbildung 8.10: Glanzlichterkennung mit Hilfe des HSV-Modells, von links: 1. Orginalbild, 2. Nach Schwellwertverfahren, 3. Nach zusätzlich einer Dilatation, 4. Nach
insgesamt 3 Dilatationen
Glanzlichtsubstitution durch Lichtfelder
Die Glanzlichterkennung alleine ist nicht ausreichend. Wünschenswert ist eine Ersetzung der Glanzlichter durch möglichst korrekte Farbwerte, dies fasst man unter dem
Begriff Glanzlichtsubstitution zusammen. Eine Möglichtkeit zur Glanzlichsubstitution
bietet der Einsatz von Lichtfeldern.
Lichtfelder ermöglichen es aus einer Sequenz von aufgenommenen Kamerabildern
unbekannte Kamerapositionen zu errechnen. Hierfür wird versucht aus der Sequenz
3D-Informationen zu gewinnen und ein 3D-Modell der Szene zu berechen. Für eine
korrekte Konstruktion eines Lichtfeldes aus einer realen Szene müssen große Ansprüche an die Kalibrierung der intrinsischen (z.B. Brennweite) und extrinsischen (Position und Orientierung) Kameraparameter, sowie an eine robuste Punktverfolgung gesetzt werden. Dies ist nötig um bei einem niedrigen Signal-zu-Rausch Verhältnis noch
korrekt kalibrieren zu können und mit Ausreissern und Ungenauigkeiten zurecht zu
kommen [VPS+ 02].
Um eine Unterscheidung zwischen Pixeln, die nicht rekonstruiert werden können
oder sollen und solchen, auf die eine Rekonstruktion angewendet werden soll, zu ermöglichen wird eine sogenannte Vertrauenskarte eingeführt. Diese Vertrauenskarte besitzt die gleichen Bilddimensionen wie das Ursprungsbild und besteht aus Werten zwischen 0 und 1. Die Vertrauenskarte wird auf 1 gesetzt, falls genug 3D-Informationen
vorliegen; sie wird auf 0 gesetzt, falls keine 3D-Informationen verfügbar sind. Auf
das Beispiel der Glanzlichter bezogen bedeutet dies, dass Glanzlichtstellen einen Wert
von 0 auf der Vertrauenskarte erlangen. Dies sind folglich die Gebiete, die durch Informationen aus anderen Bildern der Sequenz ergänzt, bzw. ersetzt werden sollen um
ein korrektes Bild zu erhalten. Ein Wert 0 in der Vertrauenskarte bedeutet, dass die
Farbinformationen an dieser Stelle durch Interpolation von benachbarten Punkten im
Lichtfeld ermittelt werden. Das Ergebnis ist ein Lichtfeld, in dem korrekte Bildinformationen anstelle der unbrauchbaren Glanzlichter zu sehen sind (siehe Abbildung
8.11). Das Unsichtbare wird sichtbar gemacht [VPS+ 02].
8.4 Ausblick
Auch wenn eine Endoskopie heutzutage nicht mehr so barbarisch anmutet wie zu Dr.
Kußmauls Zeiten (vgl. Abbildung 8.1), ist eine solche Untersuchung, speziell in der
Diagnostik, für den Patienten eine unangenehme und teilsweise schmerzliche Situation.
Als Ausblick werden zwei zukunftsträchtige Technologien vorgestellt, die erstmals den
Begriff minimalinvasiv nicht nur in Bezug zu einer Operation setzen, sondern auch zur
102
Endoskopie
unbekannte
Kamerasicht
bekannte
Kamerasicht
Orginalbild
Abbildung 8.11: Glanzlichtsubstitution mit Hilfe von Lichtfeldern, von links: 1. Schematische Darstellung, 2. Gerendertes Gallenblasenbild (ohne Vertrauenskarte), 3. Gerendertes Gallenblasenbild (mit Vertrauenskarte), 4. Differenzbild
Diagnostik.
8.4.1 Virtuelle Endoskopie
Die Virtuelle Endoskopie stellt eine effiziente Methode dar um große Bilddatenmengen
aus Elektronenstrahl- und Spiralröntgentomographen zu verarbeiten. Die Ergebnisse
dieser Aufnahmen werden nicht mehr als Schichtenbilder präsentiert, sondern werden
als 3D Modell visualisiert. Dies kann nicht nur zur interoperativen Unterstützung genutzt werden, sondern auch zur Therapiekontrolle [ESB+ 00].
Ein Beispiel sei hier die VR-Bronchoskopie. Die klassische Bronchoskopie wird
häufig im Zusammenhang mit Bronchoskarzinomen (Lungenkrebs, häufigste krebsbedingte Todesursache) durchgeführt. Dieser klassiche Weg birgt allerdings einige gravierende Nachteile. Die Eindringtiefe mit dem Bronchoskop ist, bedingt durch die Instrumentendicke und die extremen Verschachtelungen in den Bronchien, begrenzt. Die
Invasivität des Verfahrens ist sehr unangenehm. Desweiteren existieren hohe Komplikationsrisiken, wie z.B. Infektionen oder Perforationen des feinen Lungengewebes.
Starre Endoskopien an den Bronchien verlangen sogar eine Vollnarkose, die weitere
Probleme mit sich bringt.
Abbildung 8.12: links: Virtuelle Endoskopie mit Dastellung implantierter Stents, mitte
und rechts: Endoskopiekapsel der Firma Given Image
Die Vorteile der Virtuellen Endoskopie liegen klar in der minimalen Invasivität und
den neuen Zugänge zur visuellen Exploration großer Bilddatenmengen.
8.4.2 Kamerakapseln
Herkömmliche Endoskope können nicht alle Regionen des Körpers erreichen und sichtbar machen. So ist der Dünndarm nur unter sehr schweren Bedingungen erreichbar.
Zur Untersuchung spezieller Krankheiten (Morbus-Crohn) und Symptome (okkulte
8.5 Zusammenfassung und Ergebnis
103
Blutungen) ist eine Endoskopie des Dünndarm allerdings zur genauen Diagnose notwendig.
Die israelische Firma Given Imaging Ltd.4 hat eine Kapsel entwickelt, die eine
vollständige CCD-Kamera enthält und bis zu acht Stunden Bilder aus dem inneren des
Körpers senden kann. Die Kapsel wird vom Patienten geschluckt und durchläuft den
normalen Verdauungsweg. Ein einfaches Schlucken ist möglich, da die Kapsel mit ihren Ausmassen von nur 26mm Länge und 11mm Durchmesser nicht größer ist als ein
normales Hustenbonbon. Die Kapsel wird durch die natürliche Darmtätigkeit passiv
weiterbewegt. Bei der Kapsel handelt es sich um ein “Wegspül”-Produkt, dass heisst,
sie muss nicht nach dem Ausscheiden ausgelesen werden. Die aufgenommenen Daten
werden direkt aus dem Körper gesendet und durch ein Sensorenarray, dass der Patient am Körper trägt aufgezeichnet. Diese Sensoren zeichnen gleichzeitig die Position
der Kapsel auf. Eine spezielle Software sorgt dafür, dass der diagnostizierende Arzt
nicht alle acht Stunden des aufgezeichneten Videomaterials betrachten muss, sondern
schneidet die Videodaten direkt zusammen und filtert Sequenzen mit wenigen oder keinen Änderungen heraus, so dass ein zu betrachtendes Video von 30-40 Minuten Länge
entsteht.
Bisher beschränkt sich diese Art der Untersuchung noch auf den Dünndarm, da die
Batterieleistung noch auf maximal acht Stunden gegrenzt ist. Ein Erkennen von z.B.
Krebs oder Zysten im Dickdarm ist dadurch leider noch nicht möglich.
8.5 Zusammenfassung und Ergebnis
Die Endoskopie bietet viele Möglichkeiten Verborgenes im Körper des Menschen sichtbar zu machen. Doch das sichtbargemachte Verborgene selbst birgt noch Verborgenes
in sich, dass der Bildverarbeitung weite Betätigungsfelder bietet um diese Bildinformationen weiter zu verbessern oder erst zum Vorschein zu bringen. Interdisziplinäre Methoden, wie die Virtuelle Endoskopie, die viel mit den Verfahren der Computergrafik
arbeiten zeigen, dass auf dem Gebiet der Endoskopie vorerst kein Ende der technischen
Entwicklung zu sehen ist.
Da es sich bei Endoskopieaufnahmen in der Regel um bewegte Bilder und keine
Standaufnahmen handelt, sind die hier im Text präsentierten Bilder, z.B. zum Phänomen der Glanzlichter, nicht immer perfekt geeignet um das Problem zu veranschaulichen. Das wirkliche Problem, die Aufnahmen nicht richtig erkennen zu können sieht
man nur in tatsächlichen bewegten Aufnahmen. Zu diesem Zweck habe ich unter der
URL http://www.schaer.de/studium/medbv einige Videoaufnahmen verschiedener Endoskopieverfahren zum Download bereitgestellt.
4 http://www.givenimaging.com
104
Endoskopie
Literaturverzeichnis
[ESB+ 00] K.-H. Englmeier, M. Siebert, R. Brüning, J. Scheidler, and M. Reiser].
Prinzipien and derzeitige möglichkeiten der virtuellen endoskopie. CEUR
Workshop - Bildverarbeitung für die Medizin, 2000.
[GS00]
Th. Grevers and H. M. G. Stokman. Classifying color transitions into
shadow-geometry, illumination highlight or material edges. Proceedings
of the International Conference on Image Processing (ICIP), 2000.
[Kra02]
Rüdiger Kramme. Medizintechnik - Verfahren, Systeme, Informationsverarbeitung. Springer Verlag Berlin, 2002.
[Sha85]
S. A. Shafer. Using color to seperate reflection components. COLOR
research an application, pages 210–218, 1985.
[VKP+ 00] F. Vogt, C. Klimowicz, D. Paulus, W. Hohenberger, H. Niemann, and C.H.
Schick. Bildverarbeitung in der endoskopie des bauchraums. 2000.
[VPS+ 02] F. Vogt, D. Paulus, I. Scholz, H. Niemann, and C. Schick. Glanzlichsubstitution durch lichtfelder - unsichtbares wird sichtbar. -, 2002.
106
LITERATURVERZEICHNIS
Kapitel 9
Dermatologie
Christian Bauer
31.Juli 2003
Institut für Computer Visualistik
Universität Koblenz-Landau
Universitätsstraße 1, 56070 Koblenz
[email protected]
http://www.uni-koblenz.de/∼chrbauer
108
Dermatologie
Abbildung 9.1: Zwei Beispiele maligner Melanome.
9.1 Einleitung
Diese Ausarbeitung behandelt die Erkennung von schwarzem Hautkrebs mit Hilfe
der medizinischen Bildverarbeitung und basiert auf der Doktorarbeit von René Pompl
[Pom00]. Sie ist das dritte und abschließende praktische Beispiel dieses Seminars.
9.2 Motivation
Das maligne Melanom1 ist die bösartigste beim Menschen auftretende Hautkrankheit
(siehe Abbildung 9.1). 10% der Hautkrebsfälle aber 75% der Hautkrebstoten in den
USA sind ein eindeutiges Indiz für die Aggressivität dieser Krankheit.
Der Tumor geht von den Melanozyten2 aus und ist ein bösartiges Geschwulst der
Schleimhäute und der Haut. Das Wachstum erfolgt zuerst an der Hautoberfläche und
geht später in die Tiefe. Hier kommt es zur Metastasierung 3 . Aus diesem Grund
sinken mit der Eindringtiefe des malignen Melanoms die Überlebenschancen rapide.
Für eine effektive Behandlung mittels Entfernen des befallenen Gewebes ist eine möglichst frühe Diagnose von Nöten. Die richtige Einschätzung einer Läsion ist jedoch sehr
schwierig. Nur Dermatologen mit sehr viel Erfahrung auf diesem Gebiet erreichen mit
Hilfe der Dermatoskopie eine zu 90% korrekte Diagnose. Ein Analysesystem, dass
Dermatologen bei der Diagnose unterstützt und dabei transparent und in seinen Einzelschritten nachvollziehbar bleibt, erscheint deswegen sinnvoll.
In den folgenden Abschnitten soll zu so einem Analysesystem ein kleiner Einblick vorgenommen werden. In Abschnitt 3 wird auf die Dermatoskopie eingegangen.
Darauf folgt Abschnitt 4 über die Merkmale einer Läsion und die dermatoskopische
ABCD-Regel. In Abschnitt 5 werden die Haardetektion, die Segmentierung, zwei
Merkmalsanalysen und der Klassifikator vorgestellt. In Abschnitt 6 folgt die abschließende Zusammenfassung.
1 Medizinische Bezeichnung für „schwarzer Hautkrebs“. Das Gegenstück ist ein unschädlicher Hautfleck
und trägt die medizinische Bezeichnung „benigne melanozytäre Hautveränderung“.
2 Pigmentbildenende Zellen der Haut.
3 Verteilung von Tumorzellen über Blut- und Lympfgefäße im Körper.
9.3 Dermatoskopie
109
Abbildung 9.2: Zwei Dermatoskope: Links: Ein Dermatoskop wie es für die Dermatoskopie von Dermatologen verwendet wird. Rechts: Ein Dermatoskop mit aufmontierter
Digitalkamera.
9.3 Dermatoskopie
Ausgangspunkt für dieses Vorhaben ist die Dermatoskopie oder auch Auflichtmikroskopie. Das Dermatoskop (Abbildung 9.2) ähnelt einer Handlupe mit zehnfacher Vergrößerung und einer Beleuchtungsvorrichtung. Desweiteren hat das Dermatoskop einen
Vorbau mit Glasplatte. Durch den Vorbau wird ein gleichbleibender Abstand eingehalten. Mit der Glasplatte wird die Haut durch Druck geglättet und fehlerverursachende
Unebenheiten minimiert. Die Verwendung einer Kontaktflüssigkeit verbessert die Erkennbarkeit von Farben und Strukturen der betrachteten Läsion und tiefere Strukturen
werden sichtbar.
Geringe Veränderungen machen das Dermatoskop für das Analysesystem nutzbar.
Die Verwendung einer Digitalkamera mit einem Vorbau der dem Dermatoskop entspricht, ermöglicht standardisierte Aufnahmen von den Läsionen, die dann vom Analysesystem ausgewertet werden. Die Bilder haben eine Auflösung von 44 Pixel/mm und
eine Größe von 512 × 512 Pixel. Der verwendete Farbraum ist RGB mit 8bit/Kanal.
Ein Dermatoskop mit Digitalkamera ist in Abbildung 9.2 dargestellt.
9.4 Merkmale
Die Bilder der Läsionen werden vom Analysesystem auf Merkmale untersucht, an denen eine Unterscheidung von malignen Melanomen zu benignen melanozytären Hautveränderungen vorgenommen werden kann. Zur Auswahl stehen grundsätzlich sämtliche visuellen Eigenschaften, die eine Läsion ausmachen und in der Bildverarbeitung
verarbeitet werden können wie zum Beispiel Farb-, Form- und Struktureigenschaften.
Für die Effektivität des Analysesystems ist es entscheidend, welche Merkmale gewählt werden. Eine möglichst eindeutige Klassifikation von malign zu benign ist hier
erwünscht. In diesem Fall wird zusätzlich verlangt, dass das System für den Dermatologen in der Diagnose verständlich und nachvollziehbar ist. Dadurch fallen Merkmale
weg, deren Eigenschaften zwar von einem Computer errechnet, aber vom menschlichen Auge nicht verarbeitet werden können. Deswegen erscheint es ratsam, sich bei
der Auswahl der Merkmale an der von Dermatologen verwendeten Methode zu orientieren. Der Dermatologe wird in dem von ihm praktizierten Verfahren wirklich unterstützt.
110
Dermatologie
9.4.1 dermatoskopische ABCD-Regel
Das von Dermatologen verwendete Verfahren heißt dermatoskopische ABCD-Regel.
Hierbei finden vier Merkmale Anwendung:
Asymmetrie
An zwei imaginären Linien wird kontrolliert, in wie fern die Läsion asymmetrische
Eigenschaften aufweißt. Die Überprüfung erfolgt anhand Geometrie, Farbe und Strukturvielfalt.
Begrenzung
Es wird beurteilt, wie sehr der Übergang von der Läsion zur umgebenden Haut eine
scharfe Kante aufweißt bzw. wie fließend dieser ist.
Farbtöne
Die Anzahl der in der Läsion auftretenden Farbtöne wird gezählt. Typische auftretende
Farben sind weiß, rot, hellbraun, dunkelbraun, blaugrau und schwarz.
Differentialstruktur
In Läsionen können strukturelle Formen wie Streifen, Schollen, Netzwerke und Punkte
auftreten. Die Anzahl der Strukturformen wird hier bewertet.
Die einzelnen Merkmale werden bewertet und mit einer festgelegten Gewichtung aufsummiert. Daraus ergibt sich der sogenannte Dermatoskopie-Punktewert. Umso höher
dieser ist, desto größer ist das Risiko eines malignen Melanoms. Problematisch ist,
dass die Merkmale objektiv definiert sind, aber vom Dermatologen anhand seiner Erfahrungen subjektiv bewertet werden. Ein Analysesystem ist hier im Vorteil, da es
objektiv ist.
9.4.2 Verwendete Merkmale
Die sich für das Analysesystem qualitativ durchgesetzte Merkmalskombinaton ist von
den Merkmalen her denen der dermatoskopischen ABCD-Regel sehr ähnlich und besteht aus den folgenden sechs:
• Die Asymmetrie der Farbverteilung
• Die Asymmetrie der Strukturverteilung
• Die Krümmung der Kontur
• Die Vielfalt der Farben
• Die Vielfalt der Strukturen
• Die Größe der Läsion
9.5 Verfahren zur Merkmalsanaylse
Der folgende Abschnitt befaßt sich mit einem Überblick über die Vorverarbeitung
(Haardetektion, Segmentierung), einer genaueren Vorstellung zweier Verfahren zur
Merkmalsextraktion und abschließend mit dem Klassifikator.
9.5 Verfahren zur Merkmalsanaylse
111
Abbildung 9.3: Aus [Pom00] Seite 96 Beispiel zur Haardetektion. Links sind detektierte Haare weiß hervorgehoben.
9.5.1 Haardetektion
Haare erscheinen wie die zu untersuchenden Läsionen dunkler als die Haut. Deswegen können durch sie die Segmentierung der Läsion und die spätere Merkmalsanalyse
beeinflußt und verfälscht werden.
Auf ein Grauwertbild der Läsionsaufnahme wird wegen der länglichen und dünnen
Struktur von Haaren ein Liniendetektionsverfahren angewandt. Stücke länger als 125
Pixel4 werden als Haar angesehen. Abbildung 9.3 zeigt eine durchgeführte Haardetektion.
9.5.2 Segmentierung
Hier wird die dunklere Läsion von der Haut mittels eines Schwellwertbasierten Verfahrens getrennt. Zuerst wird ein Grauwerthistogramm des Blaukanals 5 erstellt, ohne
die Pixel der Haare zu berücksichtigen. Ein solches Grauwerthistogramm ist in Abbildung 9.4 zu sehen. Der gesuchte Schwellwert befindet sich im Minimum zwischen
Abbildung 9.4: Aus [Pom00] Seite 97 Grauwerthistogramm des Blaukanals einer Läsionsaufnahme.
den dunklen (Läsion) und den hellen Grauwerten (Haut 6 ). Nachdem das Histogramm
4 Dieser
Wert wurde in Versuchen ermittelt.
Hautveränderungen enthalten im Gegensatz zur Haut einen Blauanteil. Dadurch wird das
Verfahren auch bei dunkelhäutigen Patienten anwendbar.
6 Ergibt aufgrund der gleichmäßigen Struktur eine gaußähnliche Verteilung im Bereich heller Grauwerte.
5 Melanozytäre
112
Dermatologie
Abbildung 9.5: Aus [Pom00] Seite 98, Links: Darstellung der Pixel, die den ermittelten
Schwellwert unterschreiten. Rechts: Die fertige Läsionsmaske. Die Kontur ist weiß
dargestellt.
mit einem Mittelwertfilter (Breite 5) geglättet wurde, wird iterativ das Minimum ermittelt, dieser Wert etwas Richtung Haut verschoben7 und die Auflösung verfeinert,
bis das Histogramm eine bimodale8 Form annimmt. Alle Pixel kleiner als der Schwellwert werden in einem Binärbild auf 1 gesetzt. Haarpixel werden entfernt und Lücken
mittels Dilatation geschlossen. Ein Medianfilter (Größe 9 × 9) verhindert einen unregelmäßigen Rand. Wurden mehrere Flächen markiert, so wird die größte als Läsion
gewertet, die anderen werden entfernt. Als Läsionsmaske werden die Pixel definiert,
die sich innerhalb der Kontur der Fläche befinden (Abbildung 9.5). Dieses Ergebnis
wird dem Dermatologen zur Korrektur vorgelegt. Er kann entweder den Schwellwert
verändern oder Regionen zur Maske hinzufügen bzw. entfernen. Diese Kontrolle ist
aufgrund der teilweise komplexen Strukturen von Läsionen notwendig.
9.5.3 Asymmetrie der Farbverteilung
Dieses Verfahren erstellt seine Diagnose, indem die Farbwerte achsensymmetrischer
Pixel verglichen werden. Typische Farben, die beim malignen Melanom auftreten können, sind schwarz, stahlblau, rot und weiß. Durch das unregelmäßige Wachstum ist
eine Klassifikation durch die Position der Farben innerhalb der Läsion möglich.
Verfahren
Symmetrie der Pixel Für den Symmetrievergleich der Pixel werden zuerst der geometrische Schwerpunkt und die Symmetrieachsen ermittelt. Das Pixel i wird durch
die Koordinaten (xi , yi ) dargestellt. Der geometrische Schwerpunkt S der Läsion wird
über die Mittelwerte aller x- und y-Koordinaten ermittelt:
n
x̄ =
1X
xi
n i=1
n
ȳ =
1X
yi → S = (x̄, ȳ)
n i=1
Mit dem geometrischen Schwerpunkt werden die Symmetrieachsen ermittelt, indem
zunächst die empirische Kovarianz Cov(X, Y ) gebildet und damit dann die Kovari7 Verbessert
8 Ein
das Ergebnis in den Randbereichen.
Histogramm bestehend aus zwei Maxima und einem breiten dazwischenliegendem Minimum.
9.5 Verfahren zur Merkmalsanaylse
113
Abbildung 9.6: Überprüfung der Achsensymmetrie von Pixeln. Beim oberen Beispiel
liegt das achsensymmetrische Pixel außerhalb der Maske. Somit gibt es kein Pixelpaar.
Beim unteren Beispiel liegen beide Pixel innerhalb der Maske, folglich ist hier ein
Pixelpaar vorhanden.
anzmatrix C bestimmt wird:
Cov(X, Y ) =
C=
1X
(xi − x̄)(yi − ȳ)
n i
Cov(X, X) Cov(X, Y )
Cov(Y, X) Cov(Y, Y )
Die Eigenwerte λi und Eigenvektoren υ~i werden so bestimmt, dass gilt:
C υ~i = λi υ~i
Der Eigenvektor mit dem größten dazugehörigen Eigenwert beschreibt die Richtung
der Hauptsymmetrieachse9 während der andere Eigenvektor orthogonal zu diesem liegt.
Mit dem geometrischen Schwerpunkt S als Schnittpunkt bilden sie die Symmetrieachsen g1 (Hauptachse) und g2 (Nebenachse). Für alle Objektpixel wird geprüft, ob ein Pixel p bezüglich g1 ein achsensymmetrisches Pendant p0 besitzt10 (siehe Abbildung 9.6).
Ein solches Pixelpaar wird zur Menge P 111 hinzugefügt. Ungenauigkeiten beim Finden des achsensymmetrischen Pixels werden mit dem Nearest-Neighbour-Verfahren
behoben.
Der selbe Vorgang wird mit der Nebenachse g2 wiederholt. Achsensymmetrische
Punktepaare werden hier zur Menge P 212 hinzugefügt.
Vergleich der Farben Es folgt der Vergleich der Farbwerte der Pixelpaare in den
Mengen P 1 und P 2 . Nach dem Wechsel in den HLS-Farbraum13 werden die FarbdifferenzMittelwerte der Pixelpaare aus den Mengen P 1 und P 2 gebildet:
CSi =
1 X
d(p) (i = 1, 2)
|P i |
i
p∈P
9 Gerade
durch die größte Varianz der Objektpixel.
an Position p0 hat den Wert 1.
11 Menge achsensymmetrischer Pixelpaare bezüglich g .
1
12 Menge achsensymmetrischer Pixelpaare bezüglich g .
2
13 Farbe wird mit den Werten Hue, Lightness und Saturation beschrieben und ähnelt der menschlichen
Farbwahrnehmung
10 Läsionsmaske
114
Dermatologie
Abbildung 9.7: Aus [Pom00] Seite 107 ROC-Kurve zur Farbasymmetrie. Der markierte Punkt ist der Schwellwert mir den besten Separierungseigenschaften.
d(p) beschreibt den Farbabstand zwischen p und p0 :
d(p) =
q
(wh min({|hp − hp0 |, 360 − |hp − hp0 |}))2 + (wl (lp − lp0 ))2 + (ws (sp − sp0 ))2
wh = 1 wl = 120 ws = 120
Mit hp , lp und sp werden die hue-, lightness- und saturation-Werte des Pixels bezeichnet. Mit den Gewichten (wh , wl , ws ) können Unterschiede der Größenskalen und der
Einfluss der Farb-Koordinatenachsen ausgeglichen werden14 .
Der Gesamtscore CS ergibt sich nun aus dem größeren der beiden Werte, da die
größere Farbdifferenz für die Diagnose entscheidend ist:
CS = max({CS1 , CS2 })
Ergebnisse
Die Qualität eines Verfahrens wird anhand einer Stichprobe aus 120 zufällig gewählten
Bildern aus einem Pool von 560 benignen melanozytären Hautveränderungen und 189
malignen Melanomen ermittelt. Für die verschiedenen Verfahren besitzen die Scores
jeweils einen eigenen Wertebereich, für den es gilt, einen Schwellwert für die Klassifikation zu finden. Anhand der Stichprobe gibt es je nach Schwellwert unterschiedliche Werte für Sensitivität15 und Spezifität16 . Trägt man diese in ein Diagramm mit
den Achsen Sensitivität und FPR (Falsch-Positiv-Rate: 1 − Spezif ität) ein, so erhält man eine ROC-Kurve (Receiver Operating Characteristic), wie in Abbildung 9.7
zu sehen. Es ist möglich, einen Schwellwert zu wählen, der eine Sensitivität von
100% aufweißt, jedoch auf Kosten der Spezifität. Der optimale Schwellwert klassifiziert malign und benign möglichst gut, hat also eine hohe Sensitivität und Spezifität, und gehört in der ROC-Kurve zu dem Punkt, der am dichtesten am Optimum
(Sensitivität = Spezif ität = 1) liegt.
Bei der Asymmetrie der Farbverteilung wird mit dem passenden Schwellwert eine
Sensitivität von 88,4% bei einer Spezifität von 87,5% erreicht. Diese Werte kann man
in der ROC-Kurve (Abbildung 9.7) an der markierten Stelle wiederfinden.
9.5 Verfahren zur Merkmalsanaylse
115
Abbildung 9.8: Aus [Pom00] Seite 107 Visualisierung der Farbasymmetrie: Drei Beispiele mit von links nach rechts zunehmender Asymmetrie. Oben das Original. Unten
die dazugehörige Visualisierung
Visualisierung
Die Farbunterschiede zwischen den achsensymmetrischen Pixeln sollen dargestellt werden. Hierzu werden die Farbabstände in einer Look-up-Tabelle farbcodiert, von blau
(geringer Abstand) über grün zu rot (großer Abstand). Pixel ohne Pendant werden
schwarz dargestellt. Drei Beispiele sind in Abbildung 9.8 abgebildet.
9.5.4 Vielfalt der Farben
Dieses Verfahren erstellt seine Diagnose anhand der Anzahl der unterschiedlichen Farben und deren Häufigkeit in der Läsion, da die Farbvielfalt einer benignen melanozytären Hautveränderung geringer ist als die eines malignen Melanoms.
Verfahren
Zuerst wird der Farbraum diskretisiert, indem die drei Farbachsen in 100 gleichgroße
Abschnitte17 unterteilt werden. Auf Basis dieser Partitionierung wird die relative dreidimensionale Häufigkeitsverteilung phls 18 berechnet. Nun wird die Entropie der Farbhäufigkeitsverteilung bestimmt:
XXX
CV = −
phls log(phls ) (∀phls ≥ 0)
h
l
s
Mit der Anzahl der Farben und der Homogenität der Farbhäufigkeitsverteilung steigt
der Score CV monoton an.
Ergebnisse
Mit dem richtig gewählten Schwellwert erreicht das Verfahren der Farbvielfal eine Sensitivität von 85,7% bei einer Spezifität von 83,0%. Abbildung 9.9 zeigt die dazugehö14 Hier
verwendete Werte wurden empirisch ermittelt.
der als malign klassifizierten maligner Melanome.
16 Anzahl der als benign klassifizierten benigner melanozytärer Hautveränderungen.
17 Homogene Partition. Unterschiedliche Wertebereiche resultieren in verschieden große Intervallgrößen.
18 relative Häufigkeit von Pixeln an den entsprechenden Koordinaten im HLS-Farbraum.
15 Anzahl
116
Dermatologie
Abbildung 9.9: Aus [Pom00] Seite 131 ROC-Kurve zur Farbvielfalt. Der markierte
Punkt entspricht dem Schwellwert mit dem besten Sensitivität/Spezifität-Verhältnis.
Abbildung 9.10: Aus [Pom00] Seite 132 Visualisierung der Farbvielfalt: Drei Beispiele
mit zunehmender Farbvielfalt. Oben das Original. Unten die dazugehörige Visualisierung.
rige ROC-Kurve.
Visualisierung
Bei der Visualisierung wird die Vielfalt der vorhandenen Farben erkennbar dargestellt.
Ein malignes Melanom beansprucht nur einen geringen Anteil der hue-Achse. Für das
menschliche Auge nicht sichtbare feine Farbunterschiede werden durch eine Falschfarbendarstellung mittels einer Look-up-Tabelle erkennbar. Zwecks Nachvollziehbarkeit
wird nur die hue-Komponente betrachtet. Abbildung 9.10 zeigt drei Beispiele für die
Farbvielfalt. Rechts ist gut erkennbar, wie kaum sichtbare Farbunterschiede in der Visualisierung mit kontrastreichen Farben dargestellt werden.
9.5.5 Klassifikator
Beim Klassifikator werden die Ergebnisse aller sechs Merkmalsanalysen zu einer einzelnen Diagnose zusammengefaßt.
9.6 Zusammenfassung
117
Verfahren
Um aus den sechs Einzelergebnissen ein einzelnes zu erhalten, werden zuerst die Einzelscores der Merkmale auf [0, 1] skaliert. Danach wird eine Lineare Diskriminanzfunktion ([Pom00], S.80) aufgestellt:
lda(~x) = 3.4(Asymmetrie, F arbe) + 2.8(Asymmetrie, Struktur)
+2.9(Kontur, Krümmung) + 5.3(F arbvielf alt)
+1.6(Strukturvielf alt) + 1.4(Grösse)
Als letztes wird die Klassifikation vorgenommen:
malign f alls lda(~x) ≥ 5.1
class(~x) =
benign sonst
Ergebnisse
Die geschätzte Klassifikationsleistung für unbekannte Muster liegt mit einer Sensitivität von 91,5% bei einer Spezifität von 93,4% sehr hoch. Insgesamt werden 93%
der Läsionen richtig klassifiziert (Korrektheit). Somit entspricht das Verfahren den
Fähigkeiten von einem der seltenen Spezialisten auf diesem Gebiet. Hierzu auch die
ROC-Kurve in Abbildung 9.11.
Abbildung 9.11: Aus [Pom00] Seite 148 ROC-Kurve des Gesamtscores.
9.6 Zusammenfassung
Die Vielfalt an möglichen Merkmalen zur Melanomdiagnostik ist enorm. Da stellt
sich bei diesem Verfaren aber die Frage, ob bei einer Krankheit wie dem schwarzen
Hautkrebs es nicht effektivere Merkmale gibt, die der Forderung nach Transparenz
nicht folgen. Auch wurden oft Werte empirisch ermittelt, was die Möglichkeit offen
läßt, dass diese Werte nicht die optimalen sind. Die Reproduzierbarkeit der Ergebnisse
wird sich auch noch herausstellen müssen. Das Feld der Melanomerkennung bietet
also noch viel Platz um neue, bessere Verfahren zu finden, genau wie andere Bereiche
der Dermatologie.
118
Dermatologie
Literaturverzeichnis
[Pom00] René Pompl. Quantitative Bildverarbeitung und ihre Anwendung auf melanozytäre Hautveränderungen. PhD thesis, Technische Universität München,
2000.
Herunterladen