1 Bildgebende Verfahren (BGV) 3. Röntgen, Computertomographie

Werbung
Bildgebende Verfahren (BGV)
3. Röntgen, Computertomographie, Systemtheorie
3.1 Erzeugung von Röntgenstrahlung
Schnelle Elektronen treffen auf Materie:
Ekin(e-)
Energiesatz: Epot = e U =
→
Wärmeenergie (99 %)
→
elektromagnetische Energie, Photonenerzeugung (1 %)
me 2
v , wobei U die Hochspannung zwischen Anode und Kathode
2
ist.
Abbremsung der Elektronen in Materie (Targetmaterial):
•
Abgabe der Ekin durch Wechselwirkung mit den Elektronen der Atomhülle
(stufenweise) → charakteristische Strahlung
•
Durch das elektrische Feld der Atomkerne (Protonen) → Bremsstrahlung (vgl.
Synchrotronstrahlung)
Scheitelspannung von z.B. 150 kV ergibt Photonen der maximalen Energie 150 keV:
Energiefluss
α1
Ungefiltert
im Vakuum
α2
β1 β2
Photonenenergie/keV
150
Entstehung der Spektren:
Elektronen aus der K-Schale werden durch Elektronen aus der L, M, N – Schale aufgefüllt (h f
= Em – En).
N
Lβ
M
Lα
L
Wolfram
-2 keV
-11 keV
Kα Kβ Kγ
K
9 keV
Kα - Strahlung: L → K
59 keV
-70 keV
Kβ - Strahlung: M → K
Kγ - Strahlung: N → K
1
Die Energie der erzeugten Röntgenstrahlung ist umso größer, je dichter die Elektronenbahnen
am Kern liegen und je energiereicher die Elektronen sind.
Extremfall: gesamte kinetische Energie des Elektrons wird in einem Bremsvorgang in
Strahlung umgewandelt.
Grenzfrequenz: f gr =
eU
h
Grenzwellenlänge: λ gr =
c
f gr
=
ch
→ kürzeste Wellenlänge.
eU
Oft wird Wolfram als Targetmaterial verwendet. Da K, L, M, N… die Hauptquantenzahl
eines Energieniveaus bezeichnen, jede Hauptschale aber energetisch benachbarte
Nebenquantenzahlen beinhaltet, werden die Übergänge zu verschiedenen
Nebenquantenzahlen auch durchnumeriert (α1, α2, β1, β2 – Strahlung). Der Anteil der
charakteristischen Strahlung beträgt 10 – 28 % der Röntgendosis. Zwischen 150 – 300 keV
wird sie vernachlässigbar.
3.2 Wechselwirkung von Röntgenstrahlung
Schwächungsgesetz:
I = I 0 e − µd
mit I: durchgehende (transmittierte) Strahlung, I0:
auftreffende Strahlung, d: Dicke der Schicht und µ: totaler Schwächungskoeffizient (energieund materialabhängig).
µ
[µ] = 1/m
I0
I
d
Für zwei Schichten mit d1 und µ1 und d2, µ2 gilt
I = I 0 e − µ1d1 e − µ 2 d 2 = I 0 e − µ1d1 − µ 2 d 2 .
IAnfang für 2. Schicht
I0
µ1
µ2
d1
d2
I
2
Für viele unterschiedliche µ’s und d’s bekommt man
I = I 0e
−
∑
µi d i
i
≡ I 0e
−
∑
D
µ i si
i
→
∫
− µ ( s ) ds
I 0e
0
,
das allgemeine Schwächungsgesetz mit µ: linearer Schwächungskoeffizient als Maß für die
Summe aller schwächenden Prozesse. Aussagekräftiger als der lineare
Schwächungskoeffizient µ ist der Massenschwächungskoeffizient µ/ρ, der von der
momentanen Dichte des betrachteten Stoffes unabhängig ist. µ/ρ hängt nur von h f und Z ab.
[µ/ρ] = m²/kg
Es existieren verschiedene Prozesse: Absorption (Photoeffekt), Streuung (Compton-Effekt in
Materie) und Paarbildung.
a.
Absorption
Trifft ein Quant auf ein Elektron der Atomhülle, dessen Energie größer ist als die
Bindungsenergie des Elektrons, kann das Elektron losgelöst werden. Die kinetische Energie
entspricht dann der Energie des Röntgenquants minus der Bindungsenergie. Das entstehende
Elektron-Loch wird durch ein anderes Elektron der äußeren Schalen aufgefüllt, wobei ein
Lichtquant emittiert wird. Die freiwerdende Energie kann aber auch direkt auf ein Elektron
der weiter außen liegenden Schalen übertragen werden, das Auger-Elektron heißt und
(strahlungslos) emittiert wird.
Winkelverteilung der emittierten Elektronen:
Die Elektronen des Atoms werden durch die Feldstärke des elektrischen Vektors der
einfallenden Welle beschleunigt. Der elektrische Vektor steht senkrecht zur Einfallsrichtung
⇒ Photoelektronen sollten senkrecht zur Einfallsrichtung emittiert werden. Der Impuls des
Röntgenquants überträgt sich aber auf das Atom und das Photoelektron. Wegen des
Impulserhaltungssatzes ergeben sich Schmetterlingsfiguren.
1
2
1
2
3
4
3
20 keV
100 keV
500 keV
3000 keV
4
3
b.
Streuung
Trifft ein Wellenfeld (Röntgenquant) der Frequenz f mit einem Elektron in Wechselwirkung,
so erwartet man klassisch, dass das Elektron als schwingender Dipol mit der Frequenz f selbst
wieder eine Welle der Frequenz f aussendet.
Experimentell beobachtet man jedoch eine Wellenlängenverschiebung, die nur vom
Streuwinkel θ des Photons abhängt:
∆λ = λ ' − λ =
h
(1 − cos θ ) .
me c
Compton interpretierte den Versuch als elastische Streuung eines Quants (Teilchens) an
einem Elektron, der sich durch Energie- und Impulserhaltungssatz beschreiben lässt. Diese
Gleichung gilt jedoch nur für freie Elektronen. Bei der Streuung an gebundenen Elektronen
muss das Compton-Elektron, wenn es das Atom verlassen will, seine Ionisierungsenergie
aufbieten. Daher kann die Energie des gestreuten Quants nie gleich der Energie des stoßenden
Quants sein, wie es für θ = 0 möglich wäre. Wenn die Energie des stoßenden Quants oder die
Energieübertragung im primären Prozess gering ist, dann wird das Elektron (wegen seiner
Bindung) mit einer bestimmten Wahrscheinlichkeit Schwingungen ausführen, anstatt das
Atom zu verlassen. Es werden aber auch die anderen Elektronen des Atoms durch die Welle
angeregt. Jedes Elektron sendet eine Kugelwelle aus. Durch vektorielle Addition der
Amplituden entsteht eine kohärent gestreute Welle (das Quant behält seine volle Energie).
Wir haben also ganz andere Vorgänge vorliegen, als sie der klassischen, aber auch der
quantenmechanischen Berechnung „Stoß am freien Elektron“ zugrunde liegen. Das sind die
Gründe dafür, dass mit wachsendem Z und niedrigen Photonenenergien die kohärente
Streuung wesentlich größer ist, als sie klassisch berechnet wird und dass der ComptonProzess (inkohärente Streuung: Quant verliert einen Teil seiner Energie an das streuende
Elektron) wesentlich seltener ist als berechnet.
c.
Paarbildung
Ist die Energie des Quants ≥ 1,022 MeV, so kann das Quant unter Wechselwirkung mit dem
Coulombfeld der Kerns ein Elektron – Positron - Paar bilden. Die beiden geladenen Teilchen
fliegen dann vornehmlich in Vorwärtsrichtung auseinander. Dieser Effekt tritt im Bereich der
diagnostischen Strahlenenergien aber nicht auf.
4
3.3 Bildgebende Verfahren in der Röntgendiagnostik
3.3.1 Filmaufnahmen (Durchstrahlungsaufnahmen)
Man erfasst die ortsabhängige Durchlässigkeit mit einem Film. Röntgenstrahlen haben ein so
hohes Durchdringungsvermögen, dass bei fotographischen Aufnahmen nur etwa 1 % der
direkt empfangenen Strahlung von der Emulsionsschicht des Films absorbiert wird. Um zu
brauchbaren Ergebnissen zu kommen, wäre deshalb eine verhältnismäßig hohe Strahlendosis
erforderlich. Da auch die in der Röntgentechnik verwendeten Filme gegenüber sichtbarem
Licht eine höhere Empfindlichkeit aufweisen, kann man diese Dosis wesentlich verringern,
wenn die Röntgenstrahlung in sichtbares Licht konvertiert wird. Diese Konvertierung
ermöglichen bestimmte Leuchtsubstanzen (Lumineszenzstoffe), die auf Folien aufgebracht
sind, die während der Aufnahme unmittelbar auf dem Film aufliegen.
Unter Lumineszenz versteht man eine durch Energiezufuhr angeregte Lichtemission eines
Körpers ohne jegliche Wärmeabstrahlung. Man spricht von Fluoreszenz, wenn das Leuchten
schnell abklingt und von Phosphoreszenz, wenn ein langdauerndes Nachleuchten auftritt.
Die Röntgenfilme werden i.d.R. auf beiden Seiten mit einer lichtempfindlichen Emulsion
versehen (s. Bild 4). Diese besteht aus einer Suspension von Bromsilberkristallen in Gelatine.
Bringt man einen solchen Röntgenfilm zwischen zwei Verstärkerfolien, so werden während
der Röntgenbestrahlung beide Filmseiten durch das Lumineszenzlicht der Verstärkerfolien
belichtet. Das Lumineszenzlicht wird durch die Bromsilberteilchen absorbiert, in einem
„reduzierenden“ Medium werden die Bromsilberkristalle zu metallischem Silber reduziert.
Die Dichte des metallischen Silbers ist dann der absorbierten Lumineszenzenergie
proportional. Es kommt zu einer Filmschwärzung, bei der das metallische Silber
undurchsichtig ist.
Neueste Entwicklung: digitalisierte Aufnahme mit 5-Schicht-System
3.3.2 Kontrast, Ortsauflösung, Modulationsübertragungsfunktion (MÜF)
„Kontrastempfinden“ entspricht der Wahrnehmung von Helligkeitsunterschieden,
Intensität = Strahlungsleistung/Fläche (in W/m²) (s. Bild 5).
5
S = lg(
Schwärzung
I0
) = lg( I 0 ) − lg( I ) , wobei I: Intensität des hindurchgelassenen
I
Lichtes, I0: Intensität des auffallenden Lichtes sind. Man definiert auch die Transparenz τ =
I/I0.
Beispiel: Wenn 10 % an Licht durchgelassen wird
⇒
S = lg(
I0
1
) = lg( ) = lg(10) = 1 .
I
0.1
Entsprechend für I = 0,01 I0
⇒
S = lg(100) = 2.
Der Kontrast K entspricht den Intensitäten, d.h. den Schwärzungen auf dem Film.
Seien S0:
oberer Signalwert (Schwärzung)
Su :
unterer Signalwert
Sm:
Mittelwert
S − Su
Sa = 0
2
und
S + Su
Sm = 0
2


 ⇒


S
Sa
S − Su
S
= a .
K= 0
S0 + Su Sm
S0
Su
Sm
x: Ort
Ortsauflösung (Bildschärfe): ist der geringste Abstand zwischen zwei Objektdetails, die im
Bild als getrennt wahrgenommen werden können. Der Abstand ist vom Kontrast abhängig.
Zur Ermittlung der Ortsauflösung: Absorberlamelle (Bleiraster) mit unterschiedlichen
Gitterkonstanten.
Man unterscheidet Auflösungsvermögen (bzw. Ortsfrequenz) ν =
1
in [cm-1] und
2d 0
Ortsauflösung d0 in [mm]. Kann man z.B. 5 Linienpaare/mm noch unterscheiden, dann
beträgt die Ortsauflösung 0,1 mm.
Allgemein gilt, je höher die Ortsauflösung, desto kleiner der Kontrast.
Modulationsübertragungsfunktion (MÜF/MTF):
Man misst Bild- und Objektkontrast und bildet
MÜF (ν ) =
K (ν )
Bildkonstrast
= B
, wobei ν die Ortsfrequenz ist.
Objektkontrast
K0
Der Begriff „Bildgüte“ kann nur in Hinblick auf die medizinisch-diagnostische Fragestellung
festgelegt werden. Was technisch als Bildstörung erscheinen mag, kann dem Arzt für die
Diagnose eine wertvolle Information sein. Aus technischer Sicht ist also nur die Beurteilung
6
einzelner Bildgütemerkmale wie Ortsauflösung (Bildschärfe), Bildkontrast, Bildrauschen oder
Verzeichnung objektivierbar. Den Konstrukteur interessiert dabei auch ein Vergleich der
Übertragungseigenschaften der hintereinander geschalteten Systemkomponenten seines
Abbildungssystems. Dies kann ihm helfen, das schwächste Glied der Kette zu finden (s. Bild
6).
Was bedeutet die Ortsfrequenz ν und warum ist die MÜF frequenzabhängig ? (s. Bild 7)
Nimmt man an, in der Objektebene sei eine ideale sinusförmige Leuchtdichteverteilung. Bei
entsprechender Wahl des Koordinatensystems lässt sich das Gitter in der Objektebene durch
g ( x) = 1 + K 0 sin(2πνx) ,
(0 ≤ K0 ≤ 1)
beschreiben, wobei 1/ν der Abstand zwischen zwei benachbarten Maxima ist. ν wird daher als
Ortsfrequenz des Gitters bezeichnet. Zu einer einzigen „Linie“ der Breite ∆x des
Leuchtdichteprofils lässt sich ihr Bild, das sogenannte Linienbild, in der Bildebene in der
Umgebung der Stelle x’ mit der Leuchtdichte
g(x) L(x’ – x) ∆x
angeben, wobei L(x) die durch das Abbildungssystem verursachte Verunschärfung ist.
Da jede „Linie“ des Gitters einen solchen Beitrag zum Bild liefert, ergibt sich das Bild b(x’)
von g(x) zu
∞
b( x ' ) =
∫
∞
g ( x) L( x'− x )dx =
−∞
∫ g ( x'− x) L( x)dx,
−∞
wobei ∫ L( x)dx = 1 .
Setzt man die obige Formel für g(x) ein, so kann man zeigen, dass b(x’) sich in derselben
Form wie g(x) darstellen lässt, nämlich
b( x' ) = 1 + ηK 0 sin( 2πνx'−φ ),
wobei der Faktor η stets zwischen 0 und 1 liegt und der Phasenwinkel φ von der
Verunschärfung L(x) abhängt.
2
2
 ∞
 ∞
 





η=
L( x) cos 2πνxdx +
L( x) sin 2πνxdx 

 
 
  −∞
 
 −∞
∫
1/ 2
∫
hängt von der Gitterfrequenz ν ab und ist die MÜF(ν). Ihre Bedeutung ist leicht einzusehen:
Bezeichnet man als Kontrast des Objektgitters g(x) den Ausdruck
max g ( x) − min g ( x ) 1 + K 0 − (1 − K 0 ) 2 K 0
=
=
= K0
max g ( x ) + min g ( x) 1 + K 0 + 1 − K 0
2
7
und entsprechend als Kontrast des Bildgitters b(x’)
max b( x ' ) − min b( x' )
= K 0 MÜF (ν ) = K B (ν )
max b( x' ) + min b( x ' )
⇒
MÜF (ν ) =
K B (ν )
.
K0
Wegen MÜF(0) = 1 ≥ MÜF(ν) wird die Frequenz ν = 0 also nie schlechter übertragen als
irgendeine Frequenz ν ≠ 0.
MÜF(ν)
1
0,5
0
ν [mm-1]
Man bestimmt z.B. KB(ν) mittels einer „Pipette“ für verschiedene Gitter durch Einbringen
eines sinusförmigen Rasterprofils in den Strahlengang. Man nennt auch ein numerisches
Instrument zur Messung des Grauwertes eines Pixels am Bildschirm Pipette.
3.4 Computertomographie
1972: Erfindung der Röntgen-Computertomographie (CT) durch Hounsfield und Cormack:
Darstellung von überlagerungsfreien Schichtbildern des menschlichen Körpers. Die analoge
Bildgewinnung (Photographie) wurde durch diskrete digitale Aufnahmeverfahren ersetzt und
um mathematische Rechenverfahren erweitert. Aus einer Vielzahl einzelner Messwerte wird
im Computer durch spezielle Rekonstruktionsalgorithmen ein Bild berechnet und auf einem
Bildschirm dargestellt.
3.4.1 Messprinzip
Während bei klassischen Röntgen-Aufnahmen eine Schicht scharf abgebildet wird und die
anderen sich in verwaschener Form dem gewünschten Schichtbild überlagern, werden beim
CT-Aufnahmeverfahren Störschatten schichtfremder Strukturen von vornherein vermieden.
Fokus und Detektor befinden sich stets in der zu untersuchenden Schichtebene; das
8
Strahlenbündel tastet nur diese Schicht ab. Pro Schichtabtastung erhält man aber nur eine
Information über die Summe aller Schwächungen, die die Röntgenstrahlung im Objekt
erlitten hat. Jeder Objektpunkt muss dabei zu mehreren unabhängigen Messwerten einen
Beitrag liefern. Hierfür ist eine Vielzahl von Messwerten nötig.
Bildrekonstruktion: (s. Bild 8) Die Gesamtheit aller Projektionen nennt man die RadonTransformierte des Objektes. Die Prinzipien der Bildrekonstruktion in der CT lassen sich
anhand der einfachsten Ausführung eines Parallelstrahlgeräts erklären.
„Parallelprojektion“: Ein Projektionsstrahl
p i ,θ ≡ I i ,θ = I 0 e
∫
− µ ( x , y ) dt
, wobei t = Weg der Röntgenstrahlen durch das
Medium ist.
I = I 0e
I
=e
I0
⇒
S0
∫
− µ ( x, y ) dt
S
−
= I0e
∫ µ ( x, y )dt
Weg
∫0
− µ ( x , y ) dt
⇒
p i ,θ = ln
I0
=
I
∫ µ ( x, y)dt
ein Punkt der
Weg
Projektion P.
Algebraische Verfahren sind die historisch ältesten Bildrekonstruktionsverfahren in der CT.
Man stelle sich vor, schon das Objekt bestehe aus quadratischen Zellen (Pixel). Dann
durchstrahle man die Probe in einer Anzahl von Richtungen, die etwa gleich der Zahl der
Pixel ist.
µ11
µ12
µ13
Beispiel: Das mittlere Feld (µ22) soll sich
I1
d
µ21
µ22
µ23
I7
I2
µ31
µ32
µ33
I8
I4
I5
I6
koeffizienten von der Umgebung
I
unterscheiden. Aus den Messdaten und den so
I3
I9
durch einen größeren Absorptions-
erhaltenen 9 Gleichungen können µ11 bis µ33
berechnet werden:
z.B. −
1 I 11
ln
= µ11 + µ 21 + µ 31 .
d
I0
Wird dem Absorptionskoeffizienten ein Grauwert oder eine Farbe zugeordnet, so entsteht eine
Abbildung des inneren Aufbaus der Probe, also z.B. eines Körperteils. Will man Einzelheiten
in der Größenordnung mm auflösen, so muss das 3 x 3 Raster (d = 10 cm) auf 300 x 300
9
erweitert werden. Dies erfordert die Lösung eines Gleichungssystems mit 90000 Unbekannten
⇒ Rechenzeit ! Um aus den Messergebnissen trotzdem ein Bild des Körpers zu gewinnen,
wird entlang der Durchstrahlrichtung ein konstanter mittlerer integraler Absorptionskoeffizient angenommen. Dies führt zu den dargestellten vorläufigen Bildern, deren
Überlagerung (Aufsummierung) ein ungefähres Bild des Probeninneren ergibt.
Mit der Berechnung der µ-Wert-Verteilung der durchstrahlten Schicht ist die Bilddarstellung
noch nicht fertig. Die Verteilung der Schwächungskoeffizienten muss noch als Bild, z.B. nach
Art eines Röntgenbildes, dargestellt werden. Hounsfield schlug vor, die µ’s (Einheit cm-1) auf
10
eine dimensionslose Skala zu transformieren, in der das Material Wasser den Wert 0 und Luft
den Wert – 1000 erhält.
Umrechnungsformel auf CT-Zahl =
µ Objekt − µ H 2O
µ H 2O
× 1000 .
Die Einheit der CT-Zahl heißt „Hounsfield-Unit“ (HU). Mit der Einheit HU wird die
Abweichung in Promille von µWasser ausgedrückt. Die Hounsfield-Skala beginnt bei –1000 für
Luft und endet bei ca. 3000 (Knochen). Die Schwächungswertebereiche einzelner Substanzen
überschneiden sich jedoch häufig ⇒ man kann nicht eindeutig auf die Substanz schließen.
Dies gilt insbesondere auch für die verschiedenen Tumorarten.
3.4.2 Systemtheorie
Die Systemtheorie stellt die mathematische Werkzeuge zur Verfügung, um ganz allgemein
die Umwandlung einer physikalisch kodierten Information in eine andere Darstellung zu
beschreiben:
Beispiel:
System
→
Eingang
→
Ausgang
a) menschliche Sprache → Telefon → Hörer (eindimensional: Zeit)
→ Kopierer → Kopie (zweidimensional: Ort).
b) Dokument
Das System stellt eine Transformation dar von s nach g:
T: s(t) →
g(t)
oder g = T[s]
Lineares System (Überlagerung):
T:
∑ c s (t )
i i
→
i
∑ c g (t ) .
i
i
i
Stationäres System (zeit- oder ortsinvariant, verschiebungsinvariant):
T:
s(t – t0)
→
g(t – t0).
Beispiel: Elektrische Systeme dürfen keine Wechselströme oder –spannungen enthalten.
Optische Systeme müssen gleiche Abbildungseigenschaften auf dem gesamten Objektbereich
aufweisen.
Wir betrachten zumindest annähernd lineare und stationäre Systeme: LTI (linear time
invariant) – Systeme.
Wegen der Überlagerungseigenschaft genügt es, das Systemverhalten für sehr einfache
Eingangsfunktionen (Elementarsignale) zu untersuchen. Kompliziertere Funktionen werden
dann als Überlagerung von solchen Elementarfunktionen betrachtet (s. Bild 9).
11
Man nehme an, das System reagiere auf einen Rechteckimpuls s0(t) der Dauer ∆t und der
Amplitude 1/∆t mit der Antwort g0(t). ⇒ Eine beliebige Funktion s(t) kann durch eine
Treppenfunktion sa(t) angenähert werden:
∑ s(n∆t)s (t − n∆t )∆t
(t ) = ∑ s(n∆t ) g (t − n∆t )∆t .
s(t ) ≈ s a (t ) =
0
n
und
g (t ) ≈ g a
0
n
Für ∆t → 0 geht die Summe in ein Integral über und die Rechteckfunktion in eine DiracFunktion δ(t):
∞
δ (t − t 0 ) = 
0
wenn t = t 0
sonst
∞
mit
∫ s(t )δ (t − t
0 ) dt
= s (t 0 ) .
−∞
Für ∆t → 0 erhält man für:
n ∆t → τ,
und
s0(t) → δ(t),
∆t → dτ
g0(t) → h(t)
die Faltungsintegrale
∞
s (t ) =
∫ s(τ )δ (t − τ )dτ
−∞
∞
und
g (t ) =
∫ s(τ )h(t − τ )dτ ≡ s(t ) ∗ h(t ) .
−∞
∞
Die Funktion s (t ) ∗ h(t ) =
∫ s(τ )h(t − τ )dτ
nennt man Faltungsprodukt der Funktionen s
−∞
und h. Die Antwort eines linearen stationären Systems kann damit durch eine einzige
Funktion h(t) beschrieben werden:
T: δ(t) → h(t)
∞
und
T: s(t) → s (t ) ∗ h(t ) =
∫ s(τ )h(t − τ )dτ
−∞
oder schematisch
s(t) •
h(t)
• g(t) = s(t ) ∗ h(t ) .
In der Signalverarbeitung nennt man h(t) Stoßantwort oder Impulsantwort, bei
Abbildungssystemen (s(x,y) ortsabhängige Verteilung !) spricht man dagegen von der
12
Punktbildfunktion PSF (point spread function). Der Grenzfall h(t) = δ(t) wird als ideal
verzerrungsfreies System bezeichnet:
δ(t)
s(t) •
• s(t ) ∗ δ (t ) = s(t).
Die Fourier-Transformation
Betrachten wir eine periodische Funktion
s (t ) = s 0 + s1 cos(ωt + φ1 ) + s 2 cos( 2ωt + φ 2 ) + ...
=
∞
∑s
n
cos( nωt + φ n )
.
n=0
Da cos α =
1 iα
(e + e −iα ) muss man als komplexe Reihe von -∞ bis +∞ summieren:
2
+∞
s (t ) =
∑
s n e i ( nωt +φn ) =
n = −∞
∞
∑s e
n
inωt iφn
e
.
n= −∞
Manchmal zieht man den Phasenfaktor mit in die Amplitude hinein, die dann auch komplex
iφ
~
wird: s n = s n e n .
~
s (t ) =
∞
∑ ~s e
inωt
.
n
n = −∞
~
Um s (t ) genau angeben zu können, muss man die Amplituden sn und die Phasen φn
bestimmen.
~
Für die m-te Fourier-Komponente multipliziert man s (t ) mit
e − imωt und integriert über die
ganze Periode:
T
∫
T
~
s (t )e −imωt dt =
∞
∫ ∑ ~s e
inωt
n
e −imωt dt .
(∗)
0 −∞
0
Da ω = 2π/T, haben die Integrale den Wert
T
∫e
0
i ( n − m )ω t
1
e 2πi ( n − m ) − 1
i ( n − m )ω T
dt =
(e
− 1) =
i (n − m)ω
i( n − m)ω .
Das ist null für n ≠ m, denn e2πi(n-m) = 1. Für n = m folgt nach der Regel von de l’Hôpital als
Wert des Integrals 2π/ω = T.
Somit bleibt von dem ganzen Integral (∗) nur die Amplitude der m-ten Komponente übrig:
~
s m T , oder
13
1
~
s m (ω ) =
T
T
∫ ~s (t )e
−imωt
dt .
0
iφ
~
Mit der komplexen Zahl s m = s m e m hat man die Amplitude sm und die Phase φm der m-ten
Komponente.
Die Impulsantwort h(t) lässt sich auch in den Frequenzraum transformieren:
∫
H (ω ) = h(t )e −iωt dt .
H(ω) heißt Übertragungsfunktion (Nachrichtentechnik: Frequenzgang). Da sich gemäß
h (t ) =
1
2π
∫ H (ω )e
iωt
dω
die Funktion h(t) aus H(ω) wieder berechnen lässt, sind beide äquivalente Beschreibungen
eines stationären linearen Systems.
Die Idee ist nun, jedes Eingangssignal s(t) als Überlagerung von harmonischen Funktionen
darzustellen:
Fourier-Synthese s (t ) =
1
2π
Fourier-Analyse S (ω ) =
∫ S (ω )e
∫ s (t )e
iω t
−iωt
dt
dω → inverse Fourier-Transformation
→ Fourier-Transformation.
Für die Faltungen ergibt sich damit
s (t ) ∗ h(t ) =
1
2π
∫ S (ω )e
iωt
H (ω ) dω
und daraus durch Fourier-Transformation
g (t ) = s(t ) ∗ h(t ) •
• G (ω ) = S (ω ) H (ω ) .
Faltungssatz:
Das Verhalten des Systems kann äquivalent durch Faltung im Zeit- bzw. Ortsbereich oder
durch Multiplikation im Frequenzbereich beschrieben werden. I. allg. ist auch bei rein reellem
Signal s(t) die Fourier-Transformierte S(ω) eine komplexe Funktion
S (ω ) = R (ω ) + iI (ω ) = S (ω ) e iφ (ω )
2
2
mit S (ω ) = R (ω ) + I (ω ) : Amplitudenspektrum von s(t) und φ (ω ) = arctan(
I (ω )
):
R (ω )
Phasenspektrum von s(t). Der normierte Betrag |H(ω)/H(0)| ist identisch mit der
Modulationsübertragungsfunktion MÜF.
14
Abtastung und Periodizität:
In den derzeitigen High-tech-Produkten dominiert zunehmend die Digitaltechnik
(Informationsübertragung durch diskrete Werte). Der Abtastung von analogen Signalen
(kontinuierlich) und der Rückgewinnung analoger Signale aus diskreten Werten kommt daher
große Bedeutung zu. Ein technisches Abtastsystem ist dadurch gekennzeichnet, dass zu
bestimmten äquidistanten Zeitpunkten nT Information über die jeweilige Amplitude des
analogen Signals s(t) gesammelt wird. Der sogenannte ideale Abtaster wird durch eine
äquidistante δ-Folge (comb-Funktion) beschrieben
∞
s A (t ) = s(t )
∑
δ (t − nT ) =
n = −∞
∞
∑ s(nT )δ (t − nT ) = s(t ) T comb(T )
1
t
n = −∞
mit sA(t): diskrete Information über ein Signal (s. Bild 10).
Das kontinuierliche Signal s(t) kann aus dem abgetasteten durch Faltung mit einem
geeigneten Interpolationskern zumindest näherungsweise zurückgewonnen werden:
~
s (t ) = s A (T ) ∗ rect (t / T ) : Approximation durch die Treppenfunktion
Die Fourier-Transformation liefert für s A (t ) = s(t )
1
t
comb( ) und damit für
T
T
S A (ν ) = S (ν ) ∗ comb (Tν ) =
1
T
∞
∑ S (ν − T ) ein
n
n = −∞
periodisches Spektrum.
Hat S(ν) eine so kleine Ausdehnung, dass bei der Verschiebung keine Überlappungen
entstehen, dann gilt S(ν) = 0 für |ν| ≥ νgr, mit νgr: Grenzfrequenz. Die Überlappung wird
vermieden, wenn für das Abtastraster T gilt T ≤ 1/2 νgr (Nyquistbedingung). Dann kann aus
dem periodischen Spektrum SA(ν) durch Multiplikation mit H (ν ) = Trect (
ν
) (idealer
2ν gr
Tiefpass) das ursprüngliche Spektrum S(ν) und daraus durch inverse Fourier-Transformation
das Eingangssignal s(t) fehlerfrei wiedergewonnen werden.
Bei der Abtastung mit der Nyquistrate T = 1/2νgr ergibt sich dann die Darstellung durch eine
sinc-Reihe (sinc ≡ sin(x)/x):
s (t ) =
∞
∑ s(nT ) sin c(
n = −∞
t − nT
t
) = s A (t ) ∗ sin c( ) (Abtasttheorem von
T
T
Shannon).
15
Fehler bei der Verletzung der Nyquistbedingung: Dreht z.B. ein Speichenrad schneller als
die Bildaufnahmefrequenz, so erscheint es auf einmal sehr langsam oder rückwärts drehend
(Stroboskopeffekt oder Aliasing-Fehler).
niederfrequente Signalanteile
werden vorgetäuscht
n
3.4.3 Rekonstruktionsverfahren für tomographische Abbildungssysteme
a) Einfache Rücktransformation
Beim Parallelstrahlverfahren ist ein Punkt der Projektion
p ( s, θ ) = ln
I0
I
∫
= µ ( x, y )dt =
S
∫∫ µ ( x, y)δ ( x sin θ + y cos θ − t )dxdy .
Die Gesamtheit der Projektionen P(s,θ) nennt man Radon-Transformierte der Funktion µ(x,y).
I0/I wird logarithmiert, damit µ ∝ s wird ⇒ es kommt zu einer Überlagerung der
Schwächungen und dadurch zu Star-Artefakten, d.h. zu einer „Aufweichung“ an den Rändern.
Artefakte: beobachtete Strukturen, die keinem Detail der Vorlage entsprechen.
b) Projektionssatz oder Fourier-Scheiben-Theorem (Fourier-slice-theorem)
Zwischen Radon- und Fourier-Transformation besteht ein wichtiger Zusammenhang:
Sei das „Bild“ gegeben durch eine Funktion µ(x,y) und seine zweidimensionale FourierTransformation F2(µ(x,y)) = M(u,v). P sei eine Projektion (Radon-Transformation) des Bildes
µ(x,y) und S(ω,θ) = F1(P) die eindimensionale Fourier-Transformation von P mit
∫∫
S (ω , θ ) = ∫ P ( s, θ )e
M (u , v) =
µ ( x, y)e −2πi (u ⋅ x + v⋅ y ) dxdy ≡ F2 ( µ )
− 2πiω ⋅s
ds ≡ F1 ( P )
.
Man kann zeigen, dass S(ω,θ) ∈ M(u,v). D.h. durch eindimensionale Fourier-Transformation
der gemessenen Projektion P(s,θ) erhält man die zweidimensionale Fourier-Transformation der
gesuchten Verteilung µ(x,y) auf einer Geraden s in Richtung θ. Im Prinzip ist damit eine
Rekonstruktion von µ(x,y) durch inverse zweidimensionale Fourier-Transformation möglich.
16
Leider fallen die Daten in Polarkoordinaten an,
v
während man für die Fourier-Transformation
s
die Werte im kartesischen Raster (u,v) benötigt.
θ
Die Transformation von Polarkoordinaten in
kartesische ist sehr problematisch und muss
u
sorgfältig durchgeführt werden, um
schwerwiegende Artefakte zu vermeiden.
c) Gefilterte Rückprojektion (Faltungsverfahren)
Mit B bezeichnet man die Rückprojektion (backprojection)
B( P( s, θ )) und
bθ ( x, y ) = Bθ ( P( s, θ )) ist das Streifenbild, das man durch Rückprojektion
erhält. Da man einem Integralwert nicht mehr ansieht, woher seine Beiträge kommen, wird er
einfach über den ursprünglichen Integrationsweg gleichmäßig verteilt. Überlagerung der
Streifenbilder aller Richtungen liefert das Bild
π
b ( x, y ) = B ( P ( s, θ )) =
∫ P(s = x cos θ + y sin θ , θ )dθ .
0
Anschaulich werden in jedem Bildpunkt alle Messwerte aufsummiert, deren Integrationsweg
durch diesen Punkt lief. b(x,y) ist eine stark verschmierte Version der ursprünglichen
Objektverteilung µ(x,y).
Beispiel: µ(x,y) = δ(x,y)
∫
mit P(s, θ ) = µ ( x, y )dt
P(s,θ)
y
(Linienintegral entlang dem
dt
Weg dt)
t
θ
x
s
17
Die Rückprojektion liefert nun eine Verteilung, die mit 1/r vom Objektpunkt abfällt, wenn r
den Abstand eines vorgegebenen Betrachtungspunktes vom Objektpunkt darstellt (s. Bild 11):
b ( x, y ) = µ ( x, y ) ∗
1
.
r
r
1
1
Wegen F2   = mit ν = ν = Betrag des 2D-Frequenzvektors, erhält man nach 2D-Fourierr  ν
Transformation sofort die Filtergleichung
µ ( x, y) = F2−1 {ν F2 {b0 ( x, y )}} oder allgemeiner
µ ( x, y) = F2−1 {H (ν ) F2 {b0 ( x, y)}} .
H(ν) stellt eine geeignete Filterfunktion dar. Durch diese „Faltung“ mit einer besonderen
Funktion, dem Faltungskern, soll die „Verwaschung“ (Star-Artefakt) zumindest teilweise
rückgängig gemacht werden. Durch geeignete Wahl von H(ν) kann der Charakter des Bildes
auch gezielt beeinflusst werden: man kann so die Konturschärfe erhöhen, rauschärmere Bilder
erzeugen, …
Die Faltungsfunktionen sind „quasi-empirisch“. Die in der Röntgen-CT am besten bekannt
gewordenen Kerne sind von Ramachandran und Lakshminarayanan und der von Shepp und
Logan.
Schematische Form beider Kerne
d) Grenzen des Strahler-Meßsystems
Bilder sind Schnittbilder, deren Bildgüte von unterschiedlichen Faktoren abhängt:
Ortsschärfe, Kontrastauflösung (Differenzierung feiner Gewebeunterschiede),… ⇒ also von
der Messzeit und der erforderlichen Dosis/Schichtbild.
CT-typische Bildstörungen:
a) systematische Fehler (Rechner):
z.B. 1 Projektion enthält 10³ Messpunkte x Faltungen
18
1000 Projektionen enthalten 106 Messpunkte x Faltungen.
Detektorausfall: 1 Messwert geht verloren
b) eine ganze Projektion geht verloren → Störung in Bild erkennbar (Strich)
c) statistische Schwankung der Röhre
d) Bewegung des Objekts (Atmung,…)
e) Röntgenstreuung
f) Strahlaufhärtung (Verschiebung der Schwächung, z.B. Knochen können bei
verschiedenen Durchstrahlrichtungen unterschiedliche Schwächungen aufweisen)
g) Messelektronik
e) CT-Verfahren: Bilddarstellung
Es gibt:
•
Parallelstrahlverfahren
•
Fächerstrahlverfahren
•
Spiralverfahren
Vor- und Nachteile für Lagerung des
Patienten, Auflösung, Dauer etc.
Die Schwächungswerte für Gewebe reichen auf der Hounsfield-Skala von –1000 (Luft) bis ca.
3000 für Knochen. Aus diesem Wertebereich werden nur die ganzen Zahlen als Träger der
Bildinformation genommen, und zwar derart, dass einem wählbaren Ausschnitt aus diesem
Bereich die volle Grauskala eines Sichtgerätes, z.B. 256 Graustufen eines Videomonitors,
zugeordnet werden.
256 – Matrix,
28
512 – Matrix
1024 – Matrix
29
210
8 MHz
16 MHz
Videobandbreite
4 MHz
sind zu verarbeiten.
Das Auge kann (ideal) 100 Graustufen auflösen, 30 sind normal.
⇒
Umfang von 4000 Einheiten (Hounsfield-Skala) >> erfassbar !
→
Darstellung durch Bildfensterung (s. Bild 12).
Beispiele: • Differenzierung grauer und weißer Hirnsubstanz: 10 HU
• Herz-Lungen-Bereich ≈ 9.24 – 9.25 HU.
Bei einer linearen Grauwert-Darstellung kommt es zu einer Komprimierung der dunklen
Graustufen ⇒ Verbesserung der Erkennbarkeit der Graustufenbilder durch eine zusätzliche
Verzerrung (LUT, look-up-table).
19
a) LUT vor der Bildfensterung, um organspezifische bestimmte CT-Werte zu spreizen (oder
komprimieren)
b) LUT-Verzerrung nach der Bildfensterung, um Dokumentation auf Röntgen-Film,
filmeigene Schwärzungskurve auszugleichen.
f) Bilddokumentation und –archivierung
CT-Bild kann auf zwei Arten gespeichert werden:
a) Hardcopy (Fotografie → Details gehen durch Fensterung verloren)
b) Digitale Bildspeicherung (Magnetbänder, CD’s, DVD’s,…)
Die Bildauswertung bedeutet immer eine gewisse Interpretation.
3.4.4 Filter
Unter Ortsfrequenzfilter (OFF) versteht man die lineare Beeinflussung der MÜF, um
bestimmte Strukturen des Bildes hervorzuheben oder abzuschwächen.
Aufgrund der 2-dimensionalen Natur des Bildsignals (die Bildhelligkeit ist eine Funktion der
Ortskoordinaten x und y) werden zur Filterung von Bildsignalen 2-dimensionale
Filterstrukturen benötigt. Zur Beschreibung der Wirkung, die ein Signal (Bild) beim
Durchgang durch ein derartiges System erfährt, bedient man sich zweier mathematisch
gleichwertiger Verfahren: Demnach entspricht im Frequenzbereich die Multiplikation des
Signals F(k,l) (wobei k und l die Ortsfrequenzen in x- und y-Richtung sind) mit der
gewünschten Korrekturfunktion H(k,l) im Ortsbereich einer 2-dimensionalen Faltung
(Konvolution) des örtlichen Signals f(x,y) mit der Impulsantwort h(x,y) des gleichen Systems
im Ortsbereich:
G ( k , l ) = F (k , l ) ⋅ H ( k , l )
g ( x, y ) = f ( x, y) ∗ h( x, y)
(Multiplikation bzw. Faltung)
Frequenzbereich:
k, l
Ortsfrequenzen in x- und y-Richtung (in Linienpaare/mm)
F(k,l) Eingangssignal (Originalbild) des Systems (Filters)
H(k,l) 2-dim. Ortsfrequenz – Übertragungsfunktion
G(k,l) Ausgangssignal des Systems (gefiltertes Bild)
Ortsbereich:
x, y
Ortskoordinaten
f(x,y) Eingangssignal des Systems
h(x,y) 2-dim. Impulsantwort
20
g(x,y) Ausgangssignal des Systems
a) Filter im Ortsraum
Eingesetzt werden:
•
Glättungsfilter
•
Kantenfilter (Laplace-Filter), Sobel-Filter
•
Medianfilter
•
Dilatationsfilter
•
Erosionsfilter
Wir wollen die Wirkung einzelner Filter an einfachen Beispielen im Ortsraum zeigen. Der
Filter wird dabei als 2-dim. Maske dargestellt, die (ähnlich einer Lupe) das Bildsignal abfährt.
• Glättungsfilter: z.B. Tiefpass (integrierendes Verhalten)
1 1 1

1
1
1
1
 - Maske

= 9
1 1 1


→ Glätten einer Kante (horizontaler Helligkeitssprung):
1 1 1

1
1 1 1 ∗
9

1 1 1
0
0
1 1 1
0
1/ 3
2/3
1 1
0
0
1 1 1
0
1/ 3
2/3
1 1
0
0
0
0
1 1 1 L
1 1 1
0
0
1/ 3
1/ 3
2/3
2/3
1 1 L
1 1
0
0
1 1 1
0
1/ 3
2/3
1 1
M
=
M
Um die Faltung auszuführen, werden die Werte diskret multipliziert und dann addiert. Das
Ergebnis ist eine Zahl, die den Wert in der Mitte der Maske ersetzt.
⇒ Kanten werden verwaschen, periodische Strukturen gedämpft. Da die Bildpunkte
eigentlich als Integer dargestellt werden, hat man noch nicht viel gewonnen, wenn auf- bzw.
abgerundet wird. Um die neue Struktur besser wahrzunehmen, kann die gesamte Matrix mit 3
multipliziert werden: dann ergibt sich pro Reihe die Folge: 0,1,2,3…
Ränder: - Ränder werden mit 0 aufgefüllt
- Randwerte werden in Spalte 0 bzw. Zeile 0 übertragen
- die Matrix wird zyklisch geschlossen → letzte Spalte wird in Spalte 0 übertragen
21
Glätten einer hellen Fläche mit fehlerhaften, periodischen Streifen:
1 −2 1 1 −2 1
1
1
1
1
−2
−2
−2
−2
1
1
1
1
1
1
1
1
−2
−2
−2
−2
1
1
1
1
 1 1 1

1
∗
 1 1 1
9

 1 1 1
1 −2 1 1 −2 1
ergibt eine gemittelte Fläche mit konstanten Werten 0.
• Kantenfilter
Es gibt einfache 1-dim. Filter in horizontaler und vertikaler Richtung:
z.B.
D h = (−1,1),
 − 1
D v  
1


10 {
10 107 110 112  ∗ D h =
10
123
123 123 123
 0

0
97
3
2
Durch Differenzenbildung (durch negative Koeffizienten) kann man die Extraktion der
Kanten erreichen → differenzierendes Verhalten ≅ Hochpass (s. Bild 13).
2-dim. Lassen sich Kantenfilter z.B. durch den Laplace-Filter darstellen:
 0 −1 0 


 − 1 4 − 1
 0 −1 0 


oder den Sobel-Operator, bei dem zwei Faltungen berechnet werden mit
2
1
1


hx =  0
0
0 ,
 − 1 − 2 − 1


 1 0 −1 


h y =  2 0 − 2 .
 1 0 −1 


Das endgültige Bild wird dann folgendermaßen berechnet:
g ' ( x, y ) = g x2 ( x, y ) + g 2y ( x, y ) .
Man kann auch zwei Sobel-Operatoren in den beiden diagonalen Richtungen angeben:
 0 − 1 − 2


h1 =  1 0 − 1 ,
2 1
0 

 − 2 − 1 0


h2 =  − 1 0 1 .
 0
1 2 

• Medianfilter, Erosion, Dilatation
a) Mit einer Maske wird eine Umgebung des Bildpunktes ausgewählt (3 x 3, 5 x 5, …)
b) Grauwerte werden der Größe nach sortiert
22
kleinster
Medianfilter: mittleres Element (
größter Grauwert
n +1
- größter Wert) ist der neue Grauwert
2
Erosion: kleinstes Element wird neuer Grauwert
Dilatation: größtes Element wird neuer Grauwert.
Man nennt diese Filter auch Rangordnungsoperatoren.
Die Wirkung eines Rangordnungsoperators lässt sich mit Form und Größe seiner
Umgebungsmatrix steuern:
Medianfilter: einzelne, störende Pixel werden aussortiert. Konturen und lineare
Grauwertverläufe bleiben erhalten (sanftere Glättung).
Erosionsfilter: Ränder werden (weg)erodiert, aneinander stoßende Objekte eventuell getrennt.
Dilatation:
Objektbereiche dehnen sich aus, Lücken werden gefüllt.
b) Filter im Frequenzraum
• Tiefpassfilter
Man definiert eine Amplitudenfrequenzfunktion
 A0
A(ω ) = 
0
∀
ω ≤ ωc
∀
ω > ωc
.
A(ω)
Rechteckfunktion Pωc (ω )
ωc
ω
−iωt 0
Man nennt H (ω ) = A(ω )e
Systemfunktion oder Übertragungsfunktion im
Frequenzbereich.
Die inverse Fourier-Transformation von H(ω) ergibt die Impulsantwort im Ortraum:
1
h(t ) = FT ( H (ω )) =
2π
∫
A(ω )e
iω ( t −t 0 )
1
dω =
2π
ωc
∫
−ω c
A0 e iω (t −t 0 ) dω =
A0
e iω (t −t 0 )
2πi (t − t 0 )
ωc
−ω c
23
Da außerdem sin z =
A sin(ω c (t − t 0 ))
e zi − e − zi
ergibt sich h(t ) = 0
, d.h. einer Begrenzung im
2i
π (t − t 0 )
Frequenzraum entspricht einer Verschmierung im Ortsraum.
h(t)
t
• Hochpassfilter
Es gilt entsprechend
0
A(ω ) = 
 A0
A(ω)
ωc
ω ≤ ωc
∀
ω > ωc
ω
[
]
⇒ Systemfunktion H (ω ) = A0 − A0 Pωc (ω ) e
⇒ h(t ) = A0 δ (t − t 0 ) −
∀
−iωt0
A0 sin( ω c (t − t 0 ))
.
π (t − t 0 )
Ein Problem der digitalen Filterung sei an dieser Stelle nicht verschwiegen: der hohe
numerische Aufwand. Soll z.B. ein Bild von 1024 x 1024 Bildelementen über ein Kernel von
15 x 15 Koeffizienten gefaltet werden, so sind mindestens 1024² x 15² = 4,7 x 10 8
arithmetische Operationen pro Bild nötig. Rechenzeiten im Sekundenbereich und darunter
lassen sich deshalb nur mit speziellen Hardwarelösungen realisieren.
24
Herunterladen