Bildgebende Verfahren in der Medizin

Werbung
Bildgebende Verfahren
in der Medizin
Seminar: Medizinische Visualisierung
Dozenten: Dr. A. Hub,
S. Iserhardt-Bauer, Prof. T. Ertl
Referentin: Andrea Pachner
22. April 2004
Universität Stuttgart
Institut für Visualisierung und Interaktive Systeme
Inhaltsverzeichnis:
0. Einleitung
1. Medizinische Aspekte der Bildgebung
2. Ultraschall
2.1. Geschichte des Ultraschalls
2.2. Physikalische Grundlagen des Ultraschalls
2.3. Doppler Effekt
2.4. Technische Realisierung des Ultraschalls
2.5. Einsatzgebiete der Sonographie
3. Röntgen
3.1. Geschichte des Röntgens
3.2. Physikalische Grundlagen des Röntgens
3.3. Technische Realisierung des Röntgens
3.4. Weitere Anwendungen
3.5. Einsatzgebiete des Röntgens
4. Computertomographie (CT)
4.1. Geschichte der Computertomographie
4.2. Technische Realisierung der Computertomographie
4.3. Einsatzgebiete der Computertomographie
5. Kernspintomographie (MR)
5.1. Geschichte der Kernspintomographie
5.2. Physikalische Grundlagen der Kernspintomographie
5.3. Technische Realisierung der Kernspintomographie
5.4. Einsatzgebiete der Kernspintomographie
6. Positronen-Emissions-Tomographie (PET)
6.1. Physikalische Grundlagen der nuklearmedizinischen
Bildgebung
6.2. Technische Realisierung der PET
6.3. Einsatzgebiete der PET
7. Single-Photon-Emissions-Computer-Tomographie (SPECT)
7.1. Technische Realisierung der SPECT
7.2. Einsatzgebiete der SPECT
8. Sonstige Verfahren
9. Zusammenfassung
9.1. Geschichte der Bildgebung
9.2. Einsatzgebiete und Gegenüberstellung
9.3. Forschung
10. Anhang
3
3
3
3
4
5
5
6
6
6
7
8
9
9
10
10
10
11
11
11
12
13
14
14
14
15
15
16
16
16
16
17
17
17
18
19
2
0. Einleitung
Die Bildgebung ist aus der Medizin nicht mehr wegzudenken. In nahezu allen
medizinischen Bereichen wird sie heute eingesetzt.
Im Folgenden werden die bildgebenden Verfahren im Einzelnen vorgestellt und ihre
physikalischen Grundlagen und technische Realisierung erklärt.
1. Medizinischen Aspekte [1]
Der Mediziner stellt bei den bildgebenden Verfahren andere Aspekte in den
Vordergrund als der Ingenieur, der die Geräte entwickelt, oder der Informatiker, der sie
programmiert und die Software wartet. Wichtige Faktoren bei der Beurteilung für den
Arzt sind:
• Qualität der anatomischen Darstellung von Organen und Organgrenzen
• Feststellen von krankhaften Veränderungen
• Differenzierung von pathologischen Strukturen, um z.B. eine Zyste von
einer Metastase zu unterscheiden
• Sichere Abgrenzbarkeit von gutartigen und bösartigen Prozessen
• Belastung des Patienten, da das Verfahren so wenig invasiv wie möglich
sein soll. Gefährlichkeit, psychische Belastung für den Patienten,
Untersuchungsdauer, Strahlenexposition sowie Typ und Menge der
eingesetzten Kontrastmittel spielen bei der Wahl des Verfahrens eine
Rolle.
• Kosten der Untersuchung.
Die bildgebenden Verfahren werden hauptsächlich diagnostisch angewandt. Aber
auch zur Therapieüberwachung (Heilung komplizierter Knochenbrüche) und
Verlaufskontrolle (Schwangerschaft) wird die Bildgebung eingesetzt. Weitere
Anwendungsgebiete
sind
Überwachung
operativer
Maßnahmen
und
Vorsorgeuntersuchungen (Mammographie). Zu Studien- und Ausbildungszwecken
können computersimulierte Darstellungen des menschlichen Körpers anatomische
Studien im Präpariersaal ergänzen und teilweise ersetzen.
2. Ultraschall
2.1. Geschichte des Ultraschalls [4]
Aus der Biologie wissen wir, dass Fledermäuse
Ultraschall mit ihrem Gehörsinn wahrnehmen und sich so
räumlich orientieren können. Künstlich erzeugter Ultraschall
gelangte erst durch die Entdeckung des Piezoeffekts durch
Marie und Pierre Curie 1880 zu einer brauchbaren
Anwendbarkeit. Zu einem weiteren Entwicklungsschub kam
es nach dem Untergang der Titanic. Man wollte mit
Hilfe von Ultraschall-Echolot derartige Katastrophen in
Bild 2.1. historisches
Ultraschallgerät
3
Zukunft vermeiden.
Seit 1938 wird der Ultraschall zu diagnostischen Zwecken genutzt. Durch die
Entwicklung des Compound-Scanners 1954, dessen Schallkopf sich automatisch hin
und her bewegte, wurden erstmals zweidimensionale Bilder möglich. Ab 1957 mussten
die Patienten zur Untersuchung nicht mehr im Wasserbad sitzen, da man den Schallkopf
direkt auf die Haut setzen konnte. Mit der Entwicklung von Graustufenbildern 1972
wurde die Bildqualität erheblich verbessert.
2.2. Physikalische Grundlagen des Ultraschalls
Schallwellen breiten sich im Gegensatz zu elektromagnetischen Wellen nur in
Materie aus. Als Ultraschall bezeichnet man Schallwellen mit einer Frequenz über
16kHz. In der Diagnostik werden Longitudinalwellen mit einer Frequenz zwischen
2- ca. 17MHz eingesetzt. Alle von der Wellenbewegung betroffenen Teilchen
schwingen parallel zur Ausbreitungsrichtung der Welle um ihre Ruhelage. Die Welle
pflanzt sich also als Wechsel zwischen Druckerhöhung und Druckverringerung fort. Es
gibt Bereiche von Kompression und Verdünnung.
Erzeugt wird der Ultraschall mit Hilfe des Piezoeffekts. Durch die Wechselwirkung
elektrischer Felder kommt es in piezoelektrischen Kristallen zum Zusammenziehen und
zur Ausdehnung. Durch elektrische Wechselfelder werden im Kristall mechanischen
Schwingungen mit einer Frequenz proportional zu jener der elektrischen Wechselfelder
erzeugt. Wirkt andererseits ein mechanischer Druck auf diese Kristalle, so laden sie sich
elektrisch auf. Der Piezoeffekt ist also umkehrbar. Dies wird beim Ultraschall
ausgenutzt, es werden Schallwandler konstruiert, die den Schall sowohl senden als auch
empfangen können.
Schallwellen können reflektiert, gebrochen, gebeugt, absorbiert und an rauen
Grenzflächen gestreut werden. Die Streuung ist unerwünscht, da sie die Bildqualität
verschlechtert, das Reflexions- und Brechungsverhalten der Schallwellen ist dagegen
Grundlage für die Entstehung von Ultraschallbildern. Da an Grenzflächen eine
sprunghafte Änderung von Schallschnelle und –druck auftritt, wird ein Teil des Schalls
reflektiert, der andere gebrochen. Trifft die Schallwelle senkrecht auf die Grenzfläche,
so ändert sich die Richtung nach der Brechung nicht, der reflektierte Schall bewegt sich
in entgegengesetzter Richtung, wobei sich die Intensitäten des reflektierten (Ir) und
gebrochenen (Ig) Schalls zur Gesamtintensität
I0
(I0) der Schallwelle vor der Brechung und
α1 α2
I0
Reflexion addieren.
Ir
I0 = Ir + Ig
(1)
Ir
Bei schrägem Einfall der Schallwelle ist der
Einfallswinkel α1 gleich dem Ausfallswinkel
Ig
α2 des reflektierten Schalls, der gebrochene
Ig
α3
Schall
hat
dagegen
einen
anderen
Ausfallswinkel α3. Auch beim schrägen
Reflexion und Brechung bei senkrechtem
und schrägen Einfall der Schallwellen
Einfall gilt Gleichung (1).
Reflexion tritt an jeder Grenzfläche auf.
Anhand der Laufzeit des reflektierten Signals kann die Tiefenlage der Grenzschicht
berechnet werden, anhand der Intensität der Unterschied der Schallwellenwiderstände.
4
Der Wellenwiderstand, der für jedes Medium charakteristisch ist, ist entscheidend für
den Schalldruck. Er wird auch Schallimpedanz genannt und ist proportional zur Dichte
des Gewebes und der Schallgeschwindigkeit. Daraus ergeben sich drei Substanzklassen
im Körper: der Knochen mit einer sehr großen Schallgeschwindigkeit (3600 m/s) und
großen Dichte (1,7 .10³ kg/m³), die Weichteile (1400-1700 m/s und ca. 1. 10³ kg/m³) und
die Luft mit niedriger Schallgeschwindigkeit (340 m/s) und geringer Dichte (1,2 kg/m³).
Schallgeschwindigkeit und Dichte sind Materialkonstanten. Je größer die Unterschiede
der Wellenwiderstände an der Grenzfläche, desto größer ist die Reflexion, daher kommt
es an Knochen/Gewebe-Grenzen und Luft/Gewebe-Grenzen fast zu einer
Totalreflexion. Das Gewebe hinter diesen Barrieren ist durch den Ultraschall nicht
einsehbar. Aufgrund der Totalreflexion an der Gewebe/Luft-Grenzschicht muss
zwischen der Haut und dem Ultraschallkopf ein Ultraschallkontaktgel, das etwa
denselben Wellenwiderstand wie Haut hat, aufgetragen und eventuell Medikamente, die
die Bildung von Gasen im Körper unterdrücken, verabreicht werden.
Zur Schwächung des Ultraschallsignals kommt es neben der Streuung und der
Reflexion an Grenzschichten vor allem durch Absorption. Diese wird durch die
Umwandlung von Schallenergie in Wärme durch innere Reibung verursacht. Da für die
Ausbreitung von Schallwellen das exponentielle Absorptionsgesetz gilt
I = I0 . e – µ / d
(2)
( I0: Anfangsintensität, µ: der Schwächungskoeffizient, d: Dicke)
und µ nahezu linear mit der Frequenz steigt, werden höhere Frequenzen stärker
gedämpft als niedrigere. Daher muss der Mediziner bei der Wahl der Frequenz
abwägen, ob er sich für eine hohe Ortsauflösung bei hoher Frequenz oder für eine große
Eindringtiefe, die nur bei niedrigen Frequenzen erreicht werden kann, entscheiden soll.
2.3. Doppler Effekt [1]
Jeder hat ihn schon einmal erlebt: ein Krankenwagen fährt mit Martinshorn vorbei.
Zuerst ist das Signal höher, entfernt sich der Krankenwagen ist der Ton tiefer. Der
Dopplereffekt beruht auf der Tatsache, dass es zu einer Frequenzverschiebung kommt,
wenn sich der Schallsender und der Schallempfänger relativ zueinander bewegen.
Beim Ultraschall wird der Dopplereffekt benutzt, um bewegte Teilchen im Körper –
hauptsächlich beim Blut – und ihre Geschwindigkeit zu erfassen. Mit seiner Hilfe kann
die Funktionalität der Gefäße sichtbar gemacht werden, da es im Schallkopf zu einer
Frequenzverschiebung zwischen dem gesendeten und dem empfangenen
Ultraschallsignal kommt, wenn der Ultraschall an einer sich bewegenden Grenzschicht
reflektiert wird.
2.4. Technische Realisierung des Ultraschalls
Ultraschallgerät. Bei der veralteten mechanischen Ausführung
Antrieb
des Sektorscanners bewegt sich ein Schallkopf kontinuierlich und
erzeugt dabei ein kreissektorförmiges Bild. Heute wird stattdessen
ein Array von Schallköpfen verwendet. Die Arraytechnologie hat
Winkelauch
den
einen
Schallwandler
beim
mechanischen
erfassung
Linearsektorscanner durch viele parallel angeordnete Wandler
Schallkopf
ersetzt. Die Geräte sind dadurch schneller und weniger anfällig.
Das Prinzip der sonographischen Bildgebung beruht darauf,
Bild 2.2. mechanischer
Sektorscanner
5
dass Schallimpulse ausgesendet, diese unterschiedlich stark an Grenzschichten im
Gewebe reflektiert werden und das reflektierte Signal im Schallkopf gemessen wird.
Die Entfernung des Gewebes vom Schallkopf wird aus der Zeitdifferenz zwischen
Aussenden und Empfang ermittelt, die Amplitude des Signals gibt Rückschlüsse auf die
Gewebeart, da der Schall umso stärker reflektiert wird, je größer der Unterschied der
Schallwellenwiderstände ist.
Bildgebung mit Ultraschall ist nur möglich, da die Unterschiede der Wellenwiderstände in den Weichteilen sehr gering ist. Sonst käme es an jeder Schicht zu einer
Totalreflexion, es wären keine Bilder aus der Tiefe möglich.
2.5. Einsatzgebiete der Sonographie
Aufgrund der starken Reflexion
an Gewebe/Knochen- und Gewebe/
Luft-Grenzschichten ist die Ultraschallmethode nur in den Weichteilen möglich. So wird sie
unter anderem bei Untersuchungen
an Organen im Bauchraum, bei den
Vorsorgeuntersuchungen in der
Bilder 2.3. Ultraschallbilder eines Fötus
Schwangerschaft und unter
Ausnutzung des Doppler-Effekts zur
Darstellung und Funktionsuntersuchungen an Herz und Gefäßen eingesetzt.
3. Röntgen
3.1. Geschichte des Röntgens [3]
Am 8. November 1895 entdeckte Wilhelm Conrad Röntgen (1845-1923) an der
Julius-Maximilian-Universität in Würzburg die X-Strahlen, die
direkt nach der Veröffentlichung seiner Arbeit im deutschsprachigen
Raum nach ihm benannt wurden. Er forschte wie viele andere
Physiker auch am Kathodenstrahlexperiment und merkte, dass sich
einige Fotoplatten in der Nähe der Entladungsröhre leicht
schwärzten. Dies führte man auf die UV-Strahlen zurück, die
Röntgen durch einen schwarzen Pappmantel um die Entladungsröhre
abschirmte. Die Platten schwärzten sich weiterhin und ein in der
Nähe stehender fluoreszierender Schirm blitzte auf. Er kam zu dem Bild 3.1. erste
Schluss, dass es Strahlen geben musste, die Materie durchdringen Röntgenaufnahme
konnte. Die folgenden Wochen forschte er ununterbrochen an seiner
Entdeckung weiter und bekam dafür 1901 den weltweit ersten Nobelpreis verliehen.
Schon im Januar 1896 wurden die ersten medizinischen Röntgenaufnahmen gemacht
bei einer Aufnahmezeit von über einer Stunde. Auch angiographische Bilder,
Aufnahmen der Gefäße, konnten zu dieser Zeit schon gemacht werden, allerdings nur an
Leichen, da die Kontrastmittel unverträglich waren. Zwei Monate später wurden die
ersten Nebenwirkungen veröffentlicht, so traten lokaler Haarausfall, Hautrötungen und
6
Dermatitis auf. Als es 1904 die ersten Todesopfer gab - alle Pioniere der ersten Stunde verfasste William Rollins Anweisungen zum Strahlenschutz.
Durch den erstmaligen Einsatz weicher Strahlen konnte die weibliche Brust bei der
Mammographie 1927 dargestellt werden. Der Durchbruch in der Darstellung des
Herzens gelang Werner Forssmann 1929, als er eine Rechtsherzkatheterisierung –
Röntgenaufnahmen des Lungenkreislaufes nach Einspritzen von Kontrastmittel über
einen Herzkatheter - im Selbstversuch erfolgreich durchführte. Für diesen Meilenstein
in der kardiologischen Bildgebung wurde er mit dem Medizinnobelpreis 1956 geehrt.
Ein weiterer Meilenstein waren die ersten tomographischen Aufnahmen 1936. Erstmals
konnten definierte Körperschichten, die von anderen überlagert werden, dargestellt
werden. Um der Volkskrankheit Tuberkulose Herr zu werden, kam es nach 1945 zu
Reihenuntersuchungen.
In
mobilen
Untersuchungseinrichtungen
wurden
Thoraxscreenings - Aufnahmen der Lunge - durchgeführt. Ständig wurde auch an
Kontrastmitteln, die für den Menschen gut verträglich waren, und an der
Katheterisierung geforscht.
3.2. Physikalische Grundlagen des Röntgens [1]
Bohrsches Atommodell. Das 1911 von Rutherford entwickelte Atommodell wurde
1913 von Bohr durch ein diskretes Schalenmodell der Elektronen erweitert. In diesem
Modell besteht der Atomkern aus Protonen und Neutronen, welche man als Nukleonen
zusammenfasst. Die Elektronen umkreisen den Kern auf bis zu 7 Elektronenschalen,
welche mit K-Q bezeichnet werden, den möglichen Aufenthaltsort der Elektronen
darstellen und Energieniveaus der Elektronen, welche abhängig von der Art des Atoms
sind, entsprechen. Hat das Atom gleich viele Protonen wie Elektronen, so ist es neutral.
Jedes Element des chemischen Periodensystems ist aus einer bestimmte Anzahl von
Nukleonen und Elektronen aufgebaut. Kohlenstoff C 126 in seinem stabilsten Isotop hat
z.B. die Ordnungszahl 6, also je 6 Protonen und Elektronen, und eine Kernmasse von
12, woraus ersichtlich ist, dass im Kern 6 Neutronen vorhanden sind.
Erzeugung von Röntgenstrahlen. Wenn beschleunigte Elektronen auf Materie
stoßen, entsteht Röntgenstrahlung. Diese setzt sich aus der Bremsstrahlung und der
charakteristischen Röntgenstrahlung zusammen. Bei der Entstehung der Bremsstrahlung
hat das Elektron bereits die gesamte Elektronenhülle durchquert und wird durch die
Anziehungskraft des Kerns aus seiner Bahn abgelenkt. Dabei verliert es kinetische
Energie, also Geschwindigkeit. Die Energiedifferenz geht aufgrund des
Energieerhaltungssatzes nicht verloren, sondern wird als Röntgenstrahlung abgegeben.
Die maximale Frequenz des Röntgenquants ist durch die kinetische Energie des
Elektrons vor der Ablenkung begrenzt: fgrenz = e .U /h (h: Plancksches
Wirkungsquantum, U: angelegt Spannung zwischen Kathode und Anode). Es entsteht
ein kontinuierliches Bremsspektrum.
Das charakteristische Strahlenspektrum entsteht dagegen aus einer Vielzahl von
diskreten Röntgenquanten unterschiedlicher Energiebeträge und ist für das Material, auf
das die Elektronen treffen, kennzeichnend. Die charakteristische Strahlung entsteht,
wenn z.B. das beschleunigte Elektron auf ein Elektron der K-Schale trifft. Dieses wird
aus der Schale entfernt und die K-Schale wird durch ein Elektron aus der L-Schale
aufgefüllt. Ein Röntgenquant mit der Energiedifferenz der Energieniveaus der Schalen
wird abgegeben.
7
Wechselwirkung der Röntgenstrahlen mit Materie. Trifft das Röntgenquant auf
Materie, tritt es mit dieser in Wechselwirkung. Es kann absorbiert oder gestreut werden
oder zur Paarbildung kommen.
Wird ein Elektron durch die Röntgenstrahlung in eine höhere Schale gehoben, geht
die Energie des Röntgenquants verloren und das Atom befindet sich in einem
angeregten Zustand. Wird das Elektron dagegen aus der Schale herausgeschlagen,
kommt es zum Photoeffekt. Ändert das Röntgenquant durch Wechselwirkung mit einem
Hüllenelektron seine Richtung und die Energie des Quants bleibt erhalten, so spricht
man von der kohärenten, klassischen Streuung. Geht ein Teil der Energie hingegen an
das streuende Elektron verloren, ist die Streuung inkohärent, die Wellenlänge der
Röntgenstrahlung nimmt zu. Dieses Phänomen nennt man Compton-Effekt.
Durchquert das Röntgenquant die Elektronenhülle, ohne mit ihr in Wechselwirkung
zu treten, hat dabei eine Energie über 1,022MeV und trifft auf den Kern, so entstehen
ein Positron und ein Elektron: es kommt zur Paarbildung.
3.3. Technische Realisierung des Röntgens
Röntgenröhre. Eine Röntgenröhre ist ein
Kathodenanschluß
Vakuumkolben mit einer Glühkathode, aus der die
Elektronen
freigesetzt werden, und einer Anode.
Vakuumkolben
Zwischen diesen ist eine Hochspannung angelegt, mit
der die Elektronen beschleunigt werden. Im
Targetmaterial wird durch die aufprallenden
Kathode
Elektronen ein Röntgenspektrum erzeugt. Da die
Energie der beschleunigten Elektronen zu 99% in
Wärme umgesetzt wird, wird die Anode über einen
AnodenRotor gedreht und die Erwärmung somit auf der
material
Graphit
Drehgesamten Drehanodenfläche verteilt. Aufgrund der
anode
Wärmeentwicklung muss das Targetmaterial der
Kugellager
Anode eine gute Wärmeleitfähigkeit besitzen. Um
eine
optimale
Strahlenausbeute
für
das
Rotor
Röntgenspektrum zu erhalten, ist eine hohe
Ordnungszahl des Targetmaterials erforderlich.
Anodenanschluß
Wolfram ist das geeignetste Element.
Bild 3.2. Drehanodenröhre, schematisch
Prinzip der Röntgenaufnahme. Vom Brennfleck der Röntgenröhre, dem
Auftreffpunkt der Elektronen auf der Anode, gehen Röntgenstrahlen aus, durchdringen
ein Objekt und werden unterschiedlich geschwächt. Hinter dem Objekt wird die
Intensität der geschwächten Strahlen von Detektoren, einem Film oder einem
Leuchtschirm, aufgenommen. Je größer der Fokus, der Mittelpunkt des Brennflecks, ist,
desto unschärfer wird das Bild. Da bei den Röntgenstrahlen auch das exponentielle
Absorptionsgesetz (2) gilt, werden weiche, energiearmen Strahlen stärker absorbiert als
harte. Bei der harten, energiereichen Strahlung kommt es nur bei hoher Dichte und
Atomen hoher Ordnungszahl zur verstärkten Absorption und damit zu einem Bild.
8
3.4. Weitere Anwendungen
Die Röntgenstrahlung wird auch zu weiteren Untersuchungsmethoden genutzt.
Beim Durchleuchten durchdringen die Röntgenstrahlen das Objekt und treffen auf
einen fluoreszierenden Eingangsschirm des Röntgenbildverstärkers. Dabei ausgelöste
Elektronen werden durch Hochspannung auf den Ausgangsschirm beschleunigt und
fokussiert. Dieser wird über eine Fernsehkamera auf einen Monitor abgebildet. Das
Bild, das dabei entsteht, ist gegenüber der normalen Röntgenaufnahme
helligkeitsinvertiert. Heutzutage ist zur besseren Strahlendosierung eine Rückkopplung
vorhanden. Dabei wird ständig die Helligkeit gemessen und eventuell die
Röhrenspannung und/oder der Strom nachgeregelt. Der Patient ist allerdings einer
permanenten Strahlenexposition ausgesetzt. Aufgrund der Strahlenschutzanweisungen
darf die Röntgenstrahlung nur eine geringe Intensität aufweisen, die Auflösung und
Detailerkennung ist somit beim Durchleuchten geringer als beim konventionellen
Röntgen.
Als Beispiel für röntgenologische Bildgebungsverfahren mit Kontrastmittel wird an
dieser Stelle die Angiographie vorgestellt. Auf die gleiche Art ist jedes Hohlorgan im
Körper darstellbar. Zur Gefäßdarstellung wird ein Kontrastmittel in das abzubildende
Gefäß injiziert und anschließend wird eine schnelle, programmierte Aufnahmeserie
angefertigt. Die Bilder ohne Kontrastmittel und die mit Kontrastmittel werden gemittelt
und voneinander abgezogen. Auf dem Subtraktionsbild ist nur noch das mit
Kontrastmittel durchsetzte Gewebe zu sehen. Als Kontrastmittel werden Stoffe hoher
Ordnungszahl wie Jod, Barium oder Wismut eingesetzt, die die Röntgenstrahlen stark
absorbieren.
Schließlich können mit Röntgenstrahlen auch noch Weichteile dargestellt werden.
Bei der Mammographie wird an der Röntgenröhre nur eine sehr geringe
Beschleunigungsspannung angelegt (zwischen 28 und 35kV im Gegensatz zu
Thoraxaufnahmen: 110-150kV). Es entsteht eine weiche, energiearme Strahlung, die
hauptsächlich aus charakteristischer Eigenstrahlung besteht.
3.5. Einsatzgebiete des Röntgens
Aufgrund der starken Absorption der
Röntgenstrahlung in Materie hoher Dichte
und großer Ordnungszahl, ist das Röntgen
sehr gut zur Skelettdarstellung geeignet. So
können
Knochenbrüche,
Osteoporose,
Bandscheibenvorfälle oder Tumoren anhand
der Röntgenbilder diagnostiziert werden.
Werden Kontrastmittel zu Hilfe genommen,
können Hohlorgane und das Gefäßsystem
dargestellt werden. Stenosen oder Atresien
sind feststellbar. Schließlich können mit
weichen energiearmen Strahlen Weichteile,
vor allem die weibliche Brust abgebildet
werden.
Bild 3.3. Mammographieaufnahme
Bild 3.4. Beinangiographie
9
4. Computertomographie
4.1. Geschichte der Computertomographie [3]
1964 veröffentlichte Allen Cormack eine Arbeit, in der er die Dichte einzelner Punkte
ermittelte, indem er die Röntgenröhre um ein Objekt rotieren ließ. Godfrey Hounsfield
entwickelte 1968 einen Prototypen, einen mit Röntgenstrahlung arbeitenden
Experimental-Scanner, der allerdings nur anatomisch Präparate vermessen konnte. Die
Messung dauerte bis zu neun Stunden und die Bildrekonstruktion weitere 2 ½ Stunden.
Drei Jahre später baute er den ersten Computertomographen, und im Jahr darauf stand
der erste Kopf-Scanner zur Aufnahme von Hirnscheiben in einem Londoner
Krankenhaus. Den ganzen Körper konnte man ab 1974 darstellen, wobei die
Bewegungsartefakte den Einsatz auf Kopf und Extremitäten beschränkte. Für ihre
Pionierarbeit in der Computertomographie erhielten die beiden Erfinder der Technik
1979 den Medizin-Nobelpreis.
Ein Meilenstein in der dreidimensionalen Bildgebung war die Erfindung des SpiralCT. Es konnten Volumenbilder erstellt werden, ohne den Patienten mühsam manuell
verschieben zu müssen. Dies verkürzte die Aufnahmezeiten. Zu einer weiteren
drastischen Reduktion der Untersuchungszeit kam es durch die Einführung der
Mehrzeilentechnik, bei der mehrere Schnittbilder gleichzeitig gemacht werden konnten.
4.2. Technische Realisierung der Computertomographie
Das Prinzip der Schnittbilder beruht darauf, dass einzelne Projektionen einer
Objektebene aufgenommen werden und danach mit dem Computer eine
zweidimensionale Repräsentation der Schwächungswerte rekonstruiert wird. Dabei ist
jeder lokal errechnete Schwächungskoeffizient ein Mittelwert der Schwächung in seiner
quaderförmigen Umgebung, da die Auflösung der Feinstrukturen durch die Dicke des
Röntgenstrahls begrenzt ist. Die Schwächungskoeffizienten werden
in
Hausfieldeinheiten (HE) angegeben und zur besseren Vergleichbarkeit auf Wasser
normiert. Danach werden zur bildlichen Darstellung den HE’s Grau- oder Farbwerte
zugeordnet. Der Wertebereich kann bei der sogenannten Fensterung eingeschränkt und
dadurch mit einer Computertomographieaufnahme unterschiedliche Fragestellungen
beantwortet werden. So gibt es z.B. Knochen- und Weichteilfenster.
Während
in
den
Anfängen
der
Fächerstrahlprinzip
Computertomographie eine Röntgenröhre mit
einem Detektor eingesetzt wurde, wird heute
ein Röntgenstrahlfächer mit Detektorensystem
Rotierende
in den Computertomographen integriert. Mit
Detektoren
dem Fächerstrahlprinzip kann das ganze Objekt
Stationäre
Detektoren
simultan erfasst werden und das System
vollzieht nur noch eine rotatorische Bewegung. Bild 4.1. Anordnung der Detektoren
Bei Geräten mit Vollkreisdetektor dreht sich nur noch die Röntgenröhre. Der
Aufnahmevorgang erfolgt entweder durch impulsartige Taktung der Detektoren oder
der Röntgenstrahlung in festen Winkelabständen.
Zur schnelleren Aufnahme von dreidimensionalen Bildern wird der SpiralComputertomograph eingesetzt. Hierbei rotiert die Röntgenröhre kontinuierlich um den
10
Patienten, während der Tisch stetig vorgeschoben wird. Durch die Zusammensetzung
der Bewegungen entsteht eine Spiralbahn der Röntgenröhre um den Patienten.
4.3. Einsatzgebiete der Computertomographie [1]
Anhand
des Schwächungswerte (bezogen auf Wasser)
Knochen
nebenstehenden
Diagramms ist erkennbar,
Blut
Leber
Tumor
dass
sich
über
die
Milz
Niere
Herz
Schwächungskoeffizienten
Darm
Wasser
nur Knochen, Luft und
Harnblase
Pankreas
Nebenniere
Weichteile
voneinander
unterscheiden lassen. Eine
Brust
Bestimmung der einzelnen
Fett
Organe ist nur mit Hilfe
Lunge
der
anatomischen
Luft
Kenntnisse möglich.
Eingesetzt wird die Bild 4.2. Schwächungswerte
Computertomographie
unter
anderem
bei
der
Unfalldiagnostik, z.B. um ein Schädelhirntrauma oder
Fremdkörper im Auge festzustellen, zum Feststellen einer
Entzündung von Organen oder bei Tumorverdacht. Mit
Hilfe eines CTs kann auch eine Blutung oder ein Infarkt im
Gehirn diagnostiziert oder die Ursache von akuten Bild 4.3. Transversalschnittbild
Bewusstseinsstörungen aufgeklärt werden.
des Abdomens
5. Kernspintomographie / Magnetresonanz
5.1. Geschichte der Kernspintomographie [3]
1800 schaffte Jean-Baptist Fourier die mathematischen Grundlagen für die
Kernspintomographie, die nach ihm benannte Fourier-Transformation zur Berechnung
der Magnetresonanzbilder. Ein Jahrhundert später beschrieb Nikola Tesla die
Entstehung und Wirkung der Magnetfelder. Mit diesem Wissen konnten Felix Bloch
und Edward Purcell 1946 die physikalischen Prinzipien der Magnetresonanz
herausfinden, wofür sie 1952 den Physiknobelpreis bekamen. Nach intensiven
Forschungen stellte Raymond Damadian 1971 fest, dass sich die
Protonenrelaxationszeiten von malignen Tumoren und normalem Gewebe
unterscheiden. Er konnte allerdings noch keine Schichtbilder machen, und der Versuch
fand bisher nur in vitro statt. Die ersten ortsauflösenden Bilder nahm Paul Lauterbur angespornt durch die Entwicklungen bei der Computertomographie - 1973 auf. Ein Jahr
später gab es die ersten Abbildungen eines Tumors am lebenden Tier. Es lag in
Narkose, da die Aufnahmezeiten mehrere Stunden betrugen. Da bei der
Kernspintomographie keine schädlichen Strahlen zum Einsatz kommen wie beim
Röntgen und der Computertomographie, wurde an der Magnetresonanz weitergeforscht.
Die ersten Bilder des menschlichen Körpers erhielt man 1977, und bereits 1989 konnte
man mit der MR-Angiographie ohne Röntgenstrahlen die Gefäße darstellen. Dennoch
11
ist die Kernspintomographie nicht gänzlich ohne Nebenwirkungen, so starb 1989 ein
Patient, nachdem sein Herzschrittmacher im starken Magnetfeld des Tomographen
ausgesetzt hatte.
5.2. Physikalische Grundlagen der Kernspintomographie [5]
Protonen durchlaufen im Kern eine
komplizierte Bewegung und da jedes
sich zeitlich ändernde elektrische Feld
ein magnetisches Wirbelfeld erzeugt,
ist mit der Eigendrehung des Protons,
dem Spin, ein magnetisches Moment
verknüpft. Die magnetischen Momente
aller
Nukleonen
eines
Atoms
überlagern
sich
zu
einem
Gesamtmoment des Kerns. Die
Kernspintomographie beruht auf der Bild 5.1. Spin des Kerns im Vergleich zum Kreisel
Beobachtung des Verhaltens von diesen
magnetischen Kernmomenten in einem äußeren Magnetfeld. Wird ein äußeres
magnetisches Feld angelegt, wirkt ein Drehmoment auf den Spin und der Kern richtet
sich aufgrund der Präzession mit seiner Spinachse parallel zum äußeren Feld aus und
verhält sich damit wie ein Kreisel im Schwerefeld der Erde. Das magnetische Moment
hat nach den Gesetzen der Quantenmechanik nur zwei Möglichkeiten sich zu diesem
Magnetfeld auszustellen: parallel oder höherenergetisch antiparallel. Die
Energiedifferenz zwischen diesen Zuständen ist von der magnetischen Feldstärke des
äußeren Magnetfeldes abhängig und beträgt
∆E = B0 . γ . h / (2 . π)
(3)
(B0: magnetische Feldstärke des äußeren Magnetfeldes, γ: gyromagnetisches Verhältnis,
für jedes Atom charakteristisch, h: plancksches Wirkungsquantum). Durch Zufuhr oder
–abfuhr dieses Energiebetrags kann der Kern in das andere Niveau gebracht werden. Da
die Natur des Atoms den für sie energetisch günstigsten Zustand sucht, ist der
energetisch niedrigere Zustand mehr besetzt. Nur die wenigen überschüssigen Kerne im
niedrigeren Zustand tragen zur Gesamtmagnetisierung des Objekts bei. Ändert sich
diese Magnetisierung, so induziert sie in einer um den Patienten gelegten Spule eine
Spannung. Diese wird bei der Kernspintomographie gemessen und ausgewertet.
Wird zu dem zeitlich konstanten Magnetfeld ein zeitlich veränderliches mit der
Lamorfrequenz
f0 = B0 . γ / (2 . π)
(4),
dazugeschaltet, dann und nur dann beginnt der Magnetisierungsvektor die Bewegung
auf einer Schraubenbahn. Das Magnetfeld hat dabei jene Energie, die nötig ist, um den
Kern vom niedrigeren in den energetisch günstigeren Zustand zu heben. Der Kern
präzediert im Resonanzfall um den Magnetisierungsvektor. In der Praxis wird das
Wechselfeld nur kurzzeitig eingeschaltet. So kann man den Magnetisierungsvektor um
einen definierten Winkel kippen, die Regel sind 90° oder 180°. Nach Abschalten des
Magnetfeldimpulses kommt es zu einem freien Induktionsabfall (FID: free induction
decay) in der Spule um den Patienten, da ein sich zeitlich änderndes Magnetfeld in einer
Spule eine Spannung induziert. Dieses exponentiell abfallende Signal steht im direktem
Zusammenhang mit dem zeitlichen Verlauf der Kernmagnetisierung im gesamten
12
Kernresonanzsignal
Objekt. Die Höhe des FID ist ein
Maß für die Protonendichte und
unterschiedlich für die verschieZeit in Sekunden
denen Gewebearten. Mit Hilfe
der Fourieranalyse kann die
Resonanzfrequenz
bestimmt
werden. Die Fourieranalyse geht
davon aus, dass jedes Signal
durch eine Überlagerung von
Sinusund
Cosinusanteilen Bild 5.2. Kernresonanzsignal
unterschiedlicher Höhe simulierbar ist. Durch die Fourieranalyse erhält man die
zugehörige Resonanzstelle, deren Frequenz vom Ort der Probe und deren Betrag von
der Protonenkonzentration abhängt. Zur Ortskodierung nützt man die Abhängigkeit der
Resonanzfrequenz vom Magnetfeld aus. Dem homogenen Feld wird ein statisches linear
ansteigendes Feld überlagert, damit ein linear zunehmendes Feld entsteht.
Zu dem exponentiellen Abfall kommt es unter anderem wegen der Inhomogenität des
Magnetfelds. Am Rand eines Magnetfelds ist die Feldstärke immer geringer als im
Zentrum. Die Spins am Rande präzedieren mit einer anderen Frequenz als im Kern des
Magnetfeldes und schwächen sich in ihrer Wirkung somit ab. Dieses Phänomen wird
zur Ortskodierung ausgenutzt. Ein anderer Grund für den FID sind die
Wechselwirkungen der magnetischen Momente untereinander. Jedes Moment schwächt
oder stärkt das Magnetfeld in seiner Umgebung. Wenn dort ein anderes Moment ist,
präzediert es mit einer anderen Frequenz wie im reinen Magnetfeld. Dadurch wird die
Magnetisierung abgeschwächt. Auch die Trägheit der Natur hat eine abschwächende
Auswirkung auf das Signal. Die Natur strebt den energetisch günstigeren Zustand an,
sie versucht den Gleichgewichtszustand wiederherzustellen. Die letzten zwei Gründe für
den exponentiellen Abfall bezeichnet man als Relaxation. Diese lässt sich in eine SpinGitter- und eine Spin-Spin-Relaxation aufteilen. Mit der Spin-Gitter-Relaxation
bezeichnet man die Längsrelaxationszeit T1, die von der Longitudinalmagnetisierung
des Objekts, der Magnetisierung parallel zur Feldrichtung, beeinflusst wird. Es ist die
Zeit, die das Objekt benötigt, um den Gleichgewichtszustand wiederherzustellen. Die
Spin-Spin-Relaxation ist sowohl durch die Wechselwirkung der magnetischen Momente
untereinander und den Versuch der Gleichgewichtswiederherstellung verursacht. Es ist
die Zeit des spontanen Zurückfallens der Transversalmagnetisierung des Objekts. Dies
ist mit der Spule nachweisbar.
Beide Relaxationszeiten spielen in der Diagnostik eine große Rolle, da sie bei
verschiedenen Gewebearten unterschiedlich sind, z.B. ist die Relaxationszeit für
Krebsgewebe deutlich kürzer als für gesundes Gewebe.
5.3. Technische Realisierung der Kernspintomographie
Der Patient wird in ein zeitlich konstantes, linear ansteigendes Magnetfeld gelegt.
Kurzzeitig wird ein Hochfrequenzfeld mit Lamorfrequenz eingeschaltet, das die Spins
kippt. Nach dem Abschalten des Hochfrequenzfeldes werden die Relaxationszeiten
gemessen. Aus diesen Zeiten wird mit Hilfe der Fourier-Transformation ein Bild
errechnet.
13
5.4. Einsatzgebiete der Kernspintomographie [2]
Die größte Bedeutung hat die Kernspintomographie im
Bereich der Erkrankungen des Gehirns und bei Tumoren
der Organe. So kann mit ihrer Hilfe Alzheimer
diagnostiziert oder die Ursache für chronische
Kopfschmerzen gefunden werden. Bei Untersuchungen
des
Herz-Kreislauf-Systems
können
Thrombosen
festgestellt werden. Die Kernspintomographie wird auch
eingesetzt, um beim Bewegungsapparat z.B. Meniskusoder Kreuzbandschäden, Knorpelerkrankungen oder
Bandscheibenvorfälle zu diagnostizieren.
5.3. Sagittalschnitt des Knie
6. Positronen-Emissions-Tomographie (PET)
6.1. Physikalische Grundlagen der nuklearmedizinischen Bildgebung [2]
Die Elemente des chemischen Periodensystems kommen in der Natur mit
verschiedenen Kernmassen vor. Dabei unterscheidet sich die Anzahl der Neutronen im
Kern. Diese verschiedenen Kerne eines Elements nennt man Isotope. Sie sind
unterschiedlich stabil und zerfallen in andere Isotope desselben Elements oder in andere
Elemente.
Bei Kernreaktionen können unterschiedliche Arten ionisierender Strahlung auftreten.
Beim α-Zerfall werden Heliumkerne abgespalten. Kommt es hingegen zum β-Zerfall,
werden Elektronen oder Positronen frei. Photonen werden beim γ-Zerfall emittiert.
Zur nuklearmedizinischen Diagnostik sind nur die Isotope einsetzbar, deren stabile
Form ein körpereigenes Element ist und deren Halbwertszeit im Bereich von Sekunden
bis einigen Stunden liegt. Die anderen Isotope zerfallen, bevor sie angewendet werden
können oder sie zerfallen zu langsam, bauen sich im Körper nicht schnell genug ab und
die Zählraten in den Detektoren wären extrem klein. Der Nachteil der Isotope mit einer
Halbwertszeit von Sekunden bis einigen Stunden ist allerdings, dass sie vor Ort, also im
Krankenhaus hergestellt werden müssen. Eine Möglichkeit besteht darin, Molybdän mit
der Kernmasse 99 und einer Halbwertszeit von 66,7h in einem Kernreaktor zu gewinnen
und ins Krankenhaus zu bringen. Dort wandelt es sich in das metastabile Technetium
ebenfalls mit einer Kernmasse 99 um. Dies ist ein Gammastrahler, der in Wasser löslich
ist und aus einem Generator ausgewaschen und injiziert werden kann. Nach ca. 24
Stunden kann der Vorgang des Auswaschens wiederholt werden. Auf diese Weise reicht
das radioaktive Material eine Woche. Die Radionukleide können auch durch Beschuss
mit geladenen Teilchen in einem Teilchenbeschleuniger, z.B. einem Zyklotron, erzeugt
werden.
Um aus den Zählraten an den Detektoren ein Bild zu errechnen zu können, ist die
Angabe über die Aktivität, die in den Körper durch Injektion, Schlucken oder Inhalation
eingebracht wurde, unerlässlich. Unter der Aktivität einer radioaktiven Probe versteht
man die Zahl der Zerfälle pro Zeiteinheit. Ist die Aktivität am Anfang bekannt, kann sie
für jeden weiteren Zeitpunkt errechnet werden, da die Radionukleide einem
exponentiellen Zerfall unterliegen.
14
6.2. Technische Realisierung der PET [2]
Prinzip der PET. Durch Inhalation, Injektion
oder Schlucken werden Positronen emittierende Bleiabschirmung
Detektoren
Isotope in den Körper gebracht. Die radioaktiven
Substanzen, wie C11, N13, O15, F18, sind in ihrer
stabilen Form körpereigene Elemente und haben
eine Halbwertszeit zwischen 2 und 110 Minuten.
Die Isotope sind an Stoffwechselprodukte
gekoppelt und werden durch den Kreislauf im
Körper verteilt. Nachdem die Positronen emittiert
Bleiabwurden, vereinigen sie sich nach kurzer Zeit mit
schirmung
einem
Elektron.
Dabei
entstehen
zwei
Gammaquanten mit einer Energie von 511keV, die
sich aufgrund des Impulserhaltungssatzes 180° Bild 6.1. PET (schematisch)
auseinander bewegen. Zwei gegenüberliegende
Detektoren müssen die Vernichtungsstrahlung simultan registrieren. Diese Detektoren
werden Koinzidenzdetektoren genannt. Quanten, die nicht gleichzeitig nachgewiesen
werden, werden nicht gewertet, um die Quelle zu berechnen. Nach der Detektion wird
die räumliche Verteilung der Positronenstrahler im Körper rekonstruiert.
Da
die
Energie
der
Fotovervielfacher
Vernichtungsstrahlung sehr hoch Szintillationskristall
Fotokathode Dynoden
ist, sind spezielle GammaLichtleiter
kameras nötig. Das Gammaquant γZähler
Quant
wird im Szintillationskristall
absorbiert und erzeugt dabei
sichtbare Photonen. Die Zahl der Lichtquanten
Photonen ist proportional zur
Energie, die das Quant abgeDynodenspannungsteiler
geben hat. Der Szintillationskristall ist über den Lichtleiter
Hochspannung
mit
der
Fotokathode
des Bild 6.2. Szintillationszähler
Fotomultipliers verbunden.
Auf der ersten Dynode werden durch den Photoeffekt Elektronen ausgelöst. Diese
werden durch ihr elektrisches Potential auf die zweite Dynode hin beschleunigt, wo
jedes Elektron wieder mehrere Sekundärelektronen auslöst. Nach ca. 10 Dynoden ist
aus wenigen Photoelektronen ein messbarer Impuls am Ausgang des Fotovervielfachers
geworden. Die Zählrate am Detektor muss dabei so eingestellt werden, dass jedes
Gammaquant einzeln gezählt werden kann.
6.3. Einsatzgebiete der PET [2]
Mit nuklearmedizinischen Bildgebungsverfahren sind Organfunktionalitäten
darstellbar, wohingegen mit den bisher vorgestellten Verfahren Organlokalitäten
bestimmt werden können.
Die Positronen-Emissions-Tomographie wird unter anderem in der Onkologie,
Neurologie, Kardiologie und der Pharmaforschung eingesetzt. Bei letzterem hilft sie bei
der Aufklärung der Wirkungsweise von Medikamenten und bei der Entwicklung neuer
15
Medikamente. In der Onkologie kann mit ihrer Hilfe ein Tumor lokalisiert, der Verlauf
der Therapie kontrolliert und die Wachstumsrate festgestellt werden. Die neurologische
Untersuchung von Schlaganfall-, Alzheimerpatienten und Epileptiker wird durch die
PET unterstützt. Der Kardiologe nutzt sie, um die Durchblutung und den Stoffwechsel
des Herzmuskels zu untersuchen oder einen Infarkt zu diagnostizieren.
7. Single-Photon-Emissions-Computer-Tomographie (SPECT)
7.1. Technische Realisierung der SPECT
Die Single-Photon-Emissions-Computer-Tomographie gehört auch zu den
nuklearmedizinischen Bildgebungsverfahren. Instabile, Photonen emittierende Isotope
werden in den Kreislauf gebracht und von diesem im Körper verteilt. Beim γ-Zerfall
entstehen Photonen im Körper. Die Strahlenverteilung – das Linienintegral der
Aktivitätsdichte - wird aus verschiedenen Winkelpositionen mittels einer rotierenden
Gammakamera ermittelt und eine dreidimensionale Quellenverteilung der gemessenen
Strahlung rekonstruiert. Anhand der Strahlenverteilung erkennt man, wo und wie stark
die markierten Stoffwechselprodukte umgesetzt werden und es können Rückschlüsse
auf die Funktionstüchtigkeit der untersuchten Organe gezogen werden.
7.2. Einsatzgebiete der SPECT [2]
Auch die SPECT wird zur funktionalen Diagnostik eingesetzt. So werden mit ihr
unter anderem die Aktivität des Herzmuskels, die Belüftung der Lunge, die
Durchblutung, Sekretion und Harnabsonderung der Niere untersucht oder eine
Schilddrüsenüberfunktion festgestellt. Die SPECT kann ebenfalls die morphologische
Diagnostik unterstützen, etwa bei einem Herzscheidewanddefekt, Knochen- oder
Schilddrüsentumoren.
8. Sonstige Verfahren
Neben den bisher vorgestellten
Verfahren kommen auch noch andere
in der Medizin zum Einsatz. Die
Fotographie wird zur Dokumentation
des Verlaufs von Hauterkrankungen
und von plastischen Eingriffen wie
z.B. der Lippen-Kiefer-GaumenBild 8.1. Lippen-Kiefer-Gaumen-Spalte vor und
Spalte verwendet. Es werden Vorhernach der Operation
Nachher-Sequenzen angefertigt, um
den Erfolg der Operation oder Behandlung beurteilen zu können.
Zum diagnostischen Betrachten von Körperhöhlen und Hohlorganen eignet sich
besonders die Endoskopie. Das Endoskop, ein röhrenförmiges, mit einer Lichtquelle
und einem optischen System ausgestattetes Instrument, wird teilweise verbunden mit
einem operativen Eingriff, in den Körper eingeführt, um Bilder oder Filme zu erstellen.
Die Endoskopie wird auch zur Orientierung während minimalinvasiven Operationen
eingesetzt. Als letztes bildgebendes Verfahren ist noch die Szintigraphie zu nennen. Sie
gehört zur nuklearmedizinischen Bildgebung. Ein Szintigramm stellt die
16
zweidimensionale Verteilung eines Radionukleids nach Inkorporation dar. Mit ihr
können wie bei PET und SPECT die Funktionen der Organe überprüft, aber auch
Metastasen in den Knochen sichtbar gemacht werden.
9. Zusammenfassung
9.1. Geschichte der Bildgebung
Mit der Entdeckung der Röntgenstrahlen begann die Geschichte der medizinischen
Bildgebung. Zuvor konnte man nur in den Körper schauen, wenn man ihn öffnete oder
indem man in die vorhandenen Körperöffnungen hineinschaute. Allerdings können mit
dem Röntgen nur Knochen und Hohlorgane mittels Kontrastmittel sichtbar gemacht
werden und auch die Schichten, die von anderen verdeckt werden, bleiben für den
Mediziner uneinsehbar. Mit der Erforschung des Ultraschalls und seiner Nutzung in der
Medizin konnten erstmals Weichteile dargestellt werden, auch hatte der Ultraschall
keine Nebenwirkungen. Eine hohe Ortsauflösung kann jedoch in der Tiefe nicht erreicht
werden. Zur bildlichen Darstellung der Organfunktionen wurde die Szintigraphie
entwickelt, die zweidimensionale Bilder aufnimmt. Einzelne Schichten des Körpers sind
erst seit der Erfindung der Computertomographie darstellbar. Ein Verfahren zur
Unterstützung der Diagnostik von Nerven- und Knorpelerkrankungen und -verletzungen
kam mit der Kernspintomographie hinzu. Die neuesten bildgebenden Verfahren sind die
nuklearmedizinischen Untersuchungen PET und SPECT, die eine räumliche Darstellung
der Organfunktionalitäten ermöglichen.
9.2. Einsatzgebiete und Gegenüberstellung
Röntgen CT
Kernspin Ultraschall PET
Darstellung: Knochen
+++
+++
+
++
SPECT
++
Darstellung: Weichteilen
Darstellung: Gefäßen
- +(a)
++(b)
++(b)
++
++
+
+
+++
-
+++
-
Darstellung: Funktionen
Darstellung: Volumina
-
++(e)
++(c)
++(e)
++(d)
+(f)
+++
-
+++
-
++
schlecht
gering
gut
gering
schlecht
gering
Echtzeit
Bildqualität
Psychische Belastung
- +(g)
+
gut
gut
gering
mittel
+
mittel
hoch
Physische Belastung
Invasiv
hoch
nein(h)
hoch
gering
nein(h) nein(h)
gering
nein
gering
ja/nein
gering
ja/nein
Untersuchungsdauer(i)
10 min
25 min
0 min
1h
½h
25 min
(a): Ausnahme Mammographie
(b) Angiographie (Kontrastmittel)
(c): Funktionales MR
(d): Doppler-Sonographie
(e): dreidimensionale Rekonstruktion nötig
(f): dreidimensionale Rekonstruktion und Positionsaufzeichnung der Schnitte notwendig
(g): bei Durchleuchten gegeben
(h): sofern kein durch Katheder appliziertes Kontrastmittel benutzt wird
(i): von Untersuchungsbeginn bis Vorliegen des Bildes
nach Lehmann [1]
17
Aus der oberen Tabelle ist ersichtlich, dass sich für die Darstellung von Knochen
Röntgen und Computertomographie am besten eignen, werden dort Metastasen gesucht,
werden PET und SPECT eingesetzt. Für Weichteile ist jedoch die Kernspintomographie
dem Röntgen vorzuziehen. Auch PET und SPECT bilden die Weichteile gut ab. Da die
Bildqualität beim Ultraschall im Allgemeinen schlecht ist, sind die Weichteile nicht so
gut darstellbar, auch wenn der Ultraschall nur dafür eingesetzt werden kann. Der
Ultraschall ist aber aufgrund der Kosten, der Echtzeit, der Untersuchungsdauer und der
geringen Belastung des Patienten bei bestimmten medizinischen Fragestellungen
trotzdem vorzuziehen.
Gefäße lassen sich mit der Angiographie darstellen, wobei sowohl beim Röntgen als
auch bei der Computertomographie Kontrastmittel nötig sind, die den Patienten
zusätzlich belasten. Für die Darstellung von Organfunktionen sind PET und SPECT die
besten Methoden. Die Doppler-Sonographie ist geeignet, Aussagen über die Funktion
der Gefäße zu liefern.
Benötigt man das Volumen von Organen, sind nur die Schnittbildverfahren
einsetzbar. Mit Hilfe der Computer- und Kernspintomographie und dem Ultraschall
nach Positionsaufzeichnungen der Schnitte können dreidimensionale Bilder erstellt
werden, woraus die Volumina berechnet werden können.
9.3. Forschung
Seit die ersten Nebenwirkungen der Röntgenstrahlung bekannt wurden und erste
Todesfälle auftraten, ist die Forschung bemüht, die Dosis zu reduzieren und die
Untersuchungsdauer zu verkürzen. Damit ist die Forschung auch heute noch
beschäftigt. Seit der Entdeckung der Röntgenstrahlen wurden diesbezüglich erhebliche
Fortschritte gemacht: so betrugen die Aufnahmezeiten damals noch über eine Stunde
und heute unter einer Minute (beim Röntgen).
Um die Datenflut zu bewältigen, versucht man, die Aufnahmen mehr und mehr zu
digitalisieren, so steht z.B. seit kurzem ein volldigitales Mammographiegerät in
Esslingen (Quelle: Esslinger Zeitung, 21. April 2004). Die Bilder können gleichzeitig
an mehreren Orten angeschaut werden, es wird kein Archiv mehr für die
Röntgenaufnahmen benötigt, alte Vergleichsaufnahmen sind sofort zugänglich, die
Untersuchungszeit verkürzt sich, da die Filmentwicklung entfällt.
Ein weiteres Forschungsgebiet beschäftigt sich
damit, die Bilder der einzelnen Verfahren mit
dem Computer zu vereinigen. Die guten
morphologischen Bilder der Computertomographie werden mit den PET-Aufnahmen
verknüpft, so dass Funktion und Morphologie in
einem Bild ausgewertet werden können. (Quelle:
Prof. Nüsslin, Uni Tübingen).
Bild 9.1. CT
PET
PET/CT
18
10. Anhang
Literatur:
[1]: Lehmann, T.; Oberschelp, W.; Pelikan, E.; Repges, R.: Bildverarbeitung für die
Medizin, Springer, 1997.
[2]: Dössel, O.: Bildgebende Verfahren in der Medizin, Springer, 2000.
[3]: www.radiologienetz.de
[4]: www.degum.de
[5]: Skript Physikalisches Praktikum für Mediziner in Tübingen
Bilder:
2.1. www.radiologienetz.de
2.2. Krestel, E.: Bildgebende Systeme für die medizinische Diagnostik, Siemens, 1988.
2.3. privat
3.1. www.radiologienetz.de
3.2. Dössel, O.: Bildgebende Verfahren in der Medizin, Springer, 2000.
3.3. La Roche Lexikon, Krestel, E.: Bildgebende Systeme für die medizinische
Diagnostik, Siemens, 1988.
4.1. Prof. Nüsslin, Radioonkologische Klinik Tübingen
4.2. Dössel, O.: Bildgebende Verfahren in der Medizin, Springer, 2000.
5.1. Lehmann, T.; Oberschelp, W.; Pelikan, E.; Repges, R.: Bildverarbeitung für die
Medizin, Springer, 1997.
5.2. Skript Physikalisches Praktikum für Mediziner in Tübingen
5.3. www.radiologienetz.de
6.1. Lehmann, T.; Oberschelp, W.; Pelikan, E.; Repges, R.: Bildverarbeitung für die
Medizin, Springer, 1997.
6.2. Dössel, O.: Bildgebende Verfahren in der Medizin, Springer, 2000.
8.1. www.medizin.uni-koeln.de
9.1. Prof. Nüsslin, Radioonkologische Klinik Tübingen
19
Herunterladen