Bildgebende Verfahren in der Medizin Seminar: Medizinische Visualisierung Dozenten: Dr. A. Hub, S. Iserhardt-Bauer, Prof. T. Ertl Referentin: Andrea Pachner 22. April 2004 Universität Stuttgart Institut für Visualisierung und Interaktive Systeme Inhaltsverzeichnis: 0. Einleitung 1. Medizinische Aspekte der Bildgebung 2. Ultraschall 2.1. Geschichte des Ultraschalls 2.2. Physikalische Grundlagen des Ultraschalls 2.3. Doppler Effekt 2.4. Technische Realisierung des Ultraschalls 2.5. Einsatzgebiete der Sonographie 3. Röntgen 3.1. Geschichte des Röntgens 3.2. Physikalische Grundlagen des Röntgens 3.3. Technische Realisierung des Röntgens 3.4. Weitere Anwendungen 3.5. Einsatzgebiete des Röntgens 4. Computertomographie (CT) 4.1. Geschichte der Computertomographie 4.2. Technische Realisierung der Computertomographie 4.3. Einsatzgebiete der Computertomographie 5. Kernspintomographie (MR) 5.1. Geschichte der Kernspintomographie 5.2. Physikalische Grundlagen der Kernspintomographie 5.3. Technische Realisierung der Kernspintomographie 5.4. Einsatzgebiete der Kernspintomographie 6. Positronen-Emissions-Tomographie (PET) 6.1. Physikalische Grundlagen der nuklearmedizinischen Bildgebung 6.2. Technische Realisierung der PET 6.3. Einsatzgebiete der PET 7. Single-Photon-Emissions-Computer-Tomographie (SPECT) 7.1. Technische Realisierung der SPECT 7.2. Einsatzgebiete der SPECT 8. Sonstige Verfahren 9. Zusammenfassung 9.1. Geschichte der Bildgebung 9.2. Einsatzgebiete und Gegenüberstellung 9.3. Forschung 10. Anhang 3 3 3 3 4 5 5 6 6 6 7 8 9 9 10 10 10 11 11 11 12 13 14 14 14 15 15 16 16 16 16 17 17 17 18 19 2 0. Einleitung Die Bildgebung ist aus der Medizin nicht mehr wegzudenken. In nahezu allen medizinischen Bereichen wird sie heute eingesetzt. Im Folgenden werden die bildgebenden Verfahren im Einzelnen vorgestellt und ihre physikalischen Grundlagen und technische Realisierung erklärt. 1. Medizinischen Aspekte [1] Der Mediziner stellt bei den bildgebenden Verfahren andere Aspekte in den Vordergrund als der Ingenieur, der die Geräte entwickelt, oder der Informatiker, der sie programmiert und die Software wartet. Wichtige Faktoren bei der Beurteilung für den Arzt sind: • Qualität der anatomischen Darstellung von Organen und Organgrenzen • Feststellen von krankhaften Veränderungen • Differenzierung von pathologischen Strukturen, um z.B. eine Zyste von einer Metastase zu unterscheiden • Sichere Abgrenzbarkeit von gutartigen und bösartigen Prozessen • Belastung des Patienten, da das Verfahren so wenig invasiv wie möglich sein soll. Gefährlichkeit, psychische Belastung für den Patienten, Untersuchungsdauer, Strahlenexposition sowie Typ und Menge der eingesetzten Kontrastmittel spielen bei der Wahl des Verfahrens eine Rolle. • Kosten der Untersuchung. Die bildgebenden Verfahren werden hauptsächlich diagnostisch angewandt. Aber auch zur Therapieüberwachung (Heilung komplizierter Knochenbrüche) und Verlaufskontrolle (Schwangerschaft) wird die Bildgebung eingesetzt. Weitere Anwendungsgebiete sind Überwachung operativer Maßnahmen und Vorsorgeuntersuchungen (Mammographie). Zu Studien- und Ausbildungszwecken können computersimulierte Darstellungen des menschlichen Körpers anatomische Studien im Präpariersaal ergänzen und teilweise ersetzen. 2. Ultraschall 2.1. Geschichte des Ultraschalls [4] Aus der Biologie wissen wir, dass Fledermäuse Ultraschall mit ihrem Gehörsinn wahrnehmen und sich so räumlich orientieren können. Künstlich erzeugter Ultraschall gelangte erst durch die Entdeckung des Piezoeffekts durch Marie und Pierre Curie 1880 zu einer brauchbaren Anwendbarkeit. Zu einem weiteren Entwicklungsschub kam es nach dem Untergang der Titanic. Man wollte mit Hilfe von Ultraschall-Echolot derartige Katastrophen in Bild 2.1. historisches Ultraschallgerät 3 Zukunft vermeiden. Seit 1938 wird der Ultraschall zu diagnostischen Zwecken genutzt. Durch die Entwicklung des Compound-Scanners 1954, dessen Schallkopf sich automatisch hin und her bewegte, wurden erstmals zweidimensionale Bilder möglich. Ab 1957 mussten die Patienten zur Untersuchung nicht mehr im Wasserbad sitzen, da man den Schallkopf direkt auf die Haut setzen konnte. Mit der Entwicklung von Graustufenbildern 1972 wurde die Bildqualität erheblich verbessert. 2.2. Physikalische Grundlagen des Ultraschalls Schallwellen breiten sich im Gegensatz zu elektromagnetischen Wellen nur in Materie aus. Als Ultraschall bezeichnet man Schallwellen mit einer Frequenz über 16kHz. In der Diagnostik werden Longitudinalwellen mit einer Frequenz zwischen 2- ca. 17MHz eingesetzt. Alle von der Wellenbewegung betroffenen Teilchen schwingen parallel zur Ausbreitungsrichtung der Welle um ihre Ruhelage. Die Welle pflanzt sich also als Wechsel zwischen Druckerhöhung und Druckverringerung fort. Es gibt Bereiche von Kompression und Verdünnung. Erzeugt wird der Ultraschall mit Hilfe des Piezoeffekts. Durch die Wechselwirkung elektrischer Felder kommt es in piezoelektrischen Kristallen zum Zusammenziehen und zur Ausdehnung. Durch elektrische Wechselfelder werden im Kristall mechanischen Schwingungen mit einer Frequenz proportional zu jener der elektrischen Wechselfelder erzeugt. Wirkt andererseits ein mechanischer Druck auf diese Kristalle, so laden sie sich elektrisch auf. Der Piezoeffekt ist also umkehrbar. Dies wird beim Ultraschall ausgenutzt, es werden Schallwandler konstruiert, die den Schall sowohl senden als auch empfangen können. Schallwellen können reflektiert, gebrochen, gebeugt, absorbiert und an rauen Grenzflächen gestreut werden. Die Streuung ist unerwünscht, da sie die Bildqualität verschlechtert, das Reflexions- und Brechungsverhalten der Schallwellen ist dagegen Grundlage für die Entstehung von Ultraschallbildern. Da an Grenzflächen eine sprunghafte Änderung von Schallschnelle und –druck auftritt, wird ein Teil des Schalls reflektiert, der andere gebrochen. Trifft die Schallwelle senkrecht auf die Grenzfläche, so ändert sich die Richtung nach der Brechung nicht, der reflektierte Schall bewegt sich in entgegengesetzter Richtung, wobei sich die Intensitäten des reflektierten (Ir) und gebrochenen (Ig) Schalls zur Gesamtintensität I0 (I0) der Schallwelle vor der Brechung und α1 α2 I0 Reflexion addieren. Ir I0 = Ir + Ig (1) Ir Bei schrägem Einfall der Schallwelle ist der Einfallswinkel α1 gleich dem Ausfallswinkel Ig α2 des reflektierten Schalls, der gebrochene Ig α3 Schall hat dagegen einen anderen Ausfallswinkel α3. Auch beim schrägen Reflexion und Brechung bei senkrechtem und schrägen Einfall der Schallwellen Einfall gilt Gleichung (1). Reflexion tritt an jeder Grenzfläche auf. Anhand der Laufzeit des reflektierten Signals kann die Tiefenlage der Grenzschicht berechnet werden, anhand der Intensität der Unterschied der Schallwellenwiderstände. 4 Der Wellenwiderstand, der für jedes Medium charakteristisch ist, ist entscheidend für den Schalldruck. Er wird auch Schallimpedanz genannt und ist proportional zur Dichte des Gewebes und der Schallgeschwindigkeit. Daraus ergeben sich drei Substanzklassen im Körper: der Knochen mit einer sehr großen Schallgeschwindigkeit (3600 m/s) und großen Dichte (1,7 .10³ kg/m³), die Weichteile (1400-1700 m/s und ca. 1. 10³ kg/m³) und die Luft mit niedriger Schallgeschwindigkeit (340 m/s) und geringer Dichte (1,2 kg/m³). Schallgeschwindigkeit und Dichte sind Materialkonstanten. Je größer die Unterschiede der Wellenwiderstände an der Grenzfläche, desto größer ist die Reflexion, daher kommt es an Knochen/Gewebe-Grenzen und Luft/Gewebe-Grenzen fast zu einer Totalreflexion. Das Gewebe hinter diesen Barrieren ist durch den Ultraschall nicht einsehbar. Aufgrund der Totalreflexion an der Gewebe/Luft-Grenzschicht muss zwischen der Haut und dem Ultraschallkopf ein Ultraschallkontaktgel, das etwa denselben Wellenwiderstand wie Haut hat, aufgetragen und eventuell Medikamente, die die Bildung von Gasen im Körper unterdrücken, verabreicht werden. Zur Schwächung des Ultraschallsignals kommt es neben der Streuung und der Reflexion an Grenzschichten vor allem durch Absorption. Diese wird durch die Umwandlung von Schallenergie in Wärme durch innere Reibung verursacht. Da für die Ausbreitung von Schallwellen das exponentielle Absorptionsgesetz gilt I = I0 . e – µ / d (2) ( I0: Anfangsintensität, µ: der Schwächungskoeffizient, d: Dicke) und µ nahezu linear mit der Frequenz steigt, werden höhere Frequenzen stärker gedämpft als niedrigere. Daher muss der Mediziner bei der Wahl der Frequenz abwägen, ob er sich für eine hohe Ortsauflösung bei hoher Frequenz oder für eine große Eindringtiefe, die nur bei niedrigen Frequenzen erreicht werden kann, entscheiden soll. 2.3. Doppler Effekt [1] Jeder hat ihn schon einmal erlebt: ein Krankenwagen fährt mit Martinshorn vorbei. Zuerst ist das Signal höher, entfernt sich der Krankenwagen ist der Ton tiefer. Der Dopplereffekt beruht auf der Tatsache, dass es zu einer Frequenzverschiebung kommt, wenn sich der Schallsender und der Schallempfänger relativ zueinander bewegen. Beim Ultraschall wird der Dopplereffekt benutzt, um bewegte Teilchen im Körper – hauptsächlich beim Blut – und ihre Geschwindigkeit zu erfassen. Mit seiner Hilfe kann die Funktionalität der Gefäße sichtbar gemacht werden, da es im Schallkopf zu einer Frequenzverschiebung zwischen dem gesendeten und dem empfangenen Ultraschallsignal kommt, wenn der Ultraschall an einer sich bewegenden Grenzschicht reflektiert wird. 2.4. Technische Realisierung des Ultraschalls Ultraschallgerät. Bei der veralteten mechanischen Ausführung Antrieb des Sektorscanners bewegt sich ein Schallkopf kontinuierlich und erzeugt dabei ein kreissektorförmiges Bild. Heute wird stattdessen ein Array von Schallköpfen verwendet. Die Arraytechnologie hat Winkelauch den einen Schallwandler beim mechanischen erfassung Linearsektorscanner durch viele parallel angeordnete Wandler Schallkopf ersetzt. Die Geräte sind dadurch schneller und weniger anfällig. Das Prinzip der sonographischen Bildgebung beruht darauf, Bild 2.2. mechanischer Sektorscanner 5 dass Schallimpulse ausgesendet, diese unterschiedlich stark an Grenzschichten im Gewebe reflektiert werden und das reflektierte Signal im Schallkopf gemessen wird. Die Entfernung des Gewebes vom Schallkopf wird aus der Zeitdifferenz zwischen Aussenden und Empfang ermittelt, die Amplitude des Signals gibt Rückschlüsse auf die Gewebeart, da der Schall umso stärker reflektiert wird, je größer der Unterschied der Schallwellenwiderstände ist. Bildgebung mit Ultraschall ist nur möglich, da die Unterschiede der Wellenwiderstände in den Weichteilen sehr gering ist. Sonst käme es an jeder Schicht zu einer Totalreflexion, es wären keine Bilder aus der Tiefe möglich. 2.5. Einsatzgebiete der Sonographie Aufgrund der starken Reflexion an Gewebe/Knochen- und Gewebe/ Luft-Grenzschichten ist die Ultraschallmethode nur in den Weichteilen möglich. So wird sie unter anderem bei Untersuchungen an Organen im Bauchraum, bei den Vorsorgeuntersuchungen in der Bilder 2.3. Ultraschallbilder eines Fötus Schwangerschaft und unter Ausnutzung des Doppler-Effekts zur Darstellung und Funktionsuntersuchungen an Herz und Gefäßen eingesetzt. 3. Röntgen 3.1. Geschichte des Röntgens [3] Am 8. November 1895 entdeckte Wilhelm Conrad Röntgen (1845-1923) an der Julius-Maximilian-Universität in Würzburg die X-Strahlen, die direkt nach der Veröffentlichung seiner Arbeit im deutschsprachigen Raum nach ihm benannt wurden. Er forschte wie viele andere Physiker auch am Kathodenstrahlexperiment und merkte, dass sich einige Fotoplatten in der Nähe der Entladungsröhre leicht schwärzten. Dies führte man auf die UV-Strahlen zurück, die Röntgen durch einen schwarzen Pappmantel um die Entladungsröhre abschirmte. Die Platten schwärzten sich weiterhin und ein in der Nähe stehender fluoreszierender Schirm blitzte auf. Er kam zu dem Bild 3.1. erste Schluss, dass es Strahlen geben musste, die Materie durchdringen Röntgenaufnahme konnte. Die folgenden Wochen forschte er ununterbrochen an seiner Entdeckung weiter und bekam dafür 1901 den weltweit ersten Nobelpreis verliehen. Schon im Januar 1896 wurden die ersten medizinischen Röntgenaufnahmen gemacht bei einer Aufnahmezeit von über einer Stunde. Auch angiographische Bilder, Aufnahmen der Gefäße, konnten zu dieser Zeit schon gemacht werden, allerdings nur an Leichen, da die Kontrastmittel unverträglich waren. Zwei Monate später wurden die ersten Nebenwirkungen veröffentlicht, so traten lokaler Haarausfall, Hautrötungen und 6 Dermatitis auf. Als es 1904 die ersten Todesopfer gab - alle Pioniere der ersten Stunde verfasste William Rollins Anweisungen zum Strahlenschutz. Durch den erstmaligen Einsatz weicher Strahlen konnte die weibliche Brust bei der Mammographie 1927 dargestellt werden. Der Durchbruch in der Darstellung des Herzens gelang Werner Forssmann 1929, als er eine Rechtsherzkatheterisierung – Röntgenaufnahmen des Lungenkreislaufes nach Einspritzen von Kontrastmittel über einen Herzkatheter - im Selbstversuch erfolgreich durchführte. Für diesen Meilenstein in der kardiologischen Bildgebung wurde er mit dem Medizinnobelpreis 1956 geehrt. Ein weiterer Meilenstein waren die ersten tomographischen Aufnahmen 1936. Erstmals konnten definierte Körperschichten, die von anderen überlagert werden, dargestellt werden. Um der Volkskrankheit Tuberkulose Herr zu werden, kam es nach 1945 zu Reihenuntersuchungen. In mobilen Untersuchungseinrichtungen wurden Thoraxscreenings - Aufnahmen der Lunge - durchgeführt. Ständig wurde auch an Kontrastmitteln, die für den Menschen gut verträglich waren, und an der Katheterisierung geforscht. 3.2. Physikalische Grundlagen des Röntgens [1] Bohrsches Atommodell. Das 1911 von Rutherford entwickelte Atommodell wurde 1913 von Bohr durch ein diskretes Schalenmodell der Elektronen erweitert. In diesem Modell besteht der Atomkern aus Protonen und Neutronen, welche man als Nukleonen zusammenfasst. Die Elektronen umkreisen den Kern auf bis zu 7 Elektronenschalen, welche mit K-Q bezeichnet werden, den möglichen Aufenthaltsort der Elektronen darstellen und Energieniveaus der Elektronen, welche abhängig von der Art des Atoms sind, entsprechen. Hat das Atom gleich viele Protonen wie Elektronen, so ist es neutral. Jedes Element des chemischen Periodensystems ist aus einer bestimmte Anzahl von Nukleonen und Elektronen aufgebaut. Kohlenstoff C 126 in seinem stabilsten Isotop hat z.B. die Ordnungszahl 6, also je 6 Protonen und Elektronen, und eine Kernmasse von 12, woraus ersichtlich ist, dass im Kern 6 Neutronen vorhanden sind. Erzeugung von Röntgenstrahlen. Wenn beschleunigte Elektronen auf Materie stoßen, entsteht Röntgenstrahlung. Diese setzt sich aus der Bremsstrahlung und der charakteristischen Röntgenstrahlung zusammen. Bei der Entstehung der Bremsstrahlung hat das Elektron bereits die gesamte Elektronenhülle durchquert und wird durch die Anziehungskraft des Kerns aus seiner Bahn abgelenkt. Dabei verliert es kinetische Energie, also Geschwindigkeit. Die Energiedifferenz geht aufgrund des Energieerhaltungssatzes nicht verloren, sondern wird als Röntgenstrahlung abgegeben. Die maximale Frequenz des Röntgenquants ist durch die kinetische Energie des Elektrons vor der Ablenkung begrenzt: fgrenz = e .U /h (h: Plancksches Wirkungsquantum, U: angelegt Spannung zwischen Kathode und Anode). Es entsteht ein kontinuierliches Bremsspektrum. Das charakteristische Strahlenspektrum entsteht dagegen aus einer Vielzahl von diskreten Röntgenquanten unterschiedlicher Energiebeträge und ist für das Material, auf das die Elektronen treffen, kennzeichnend. Die charakteristische Strahlung entsteht, wenn z.B. das beschleunigte Elektron auf ein Elektron der K-Schale trifft. Dieses wird aus der Schale entfernt und die K-Schale wird durch ein Elektron aus der L-Schale aufgefüllt. Ein Röntgenquant mit der Energiedifferenz der Energieniveaus der Schalen wird abgegeben. 7 Wechselwirkung der Röntgenstrahlen mit Materie. Trifft das Röntgenquant auf Materie, tritt es mit dieser in Wechselwirkung. Es kann absorbiert oder gestreut werden oder zur Paarbildung kommen. Wird ein Elektron durch die Röntgenstrahlung in eine höhere Schale gehoben, geht die Energie des Röntgenquants verloren und das Atom befindet sich in einem angeregten Zustand. Wird das Elektron dagegen aus der Schale herausgeschlagen, kommt es zum Photoeffekt. Ändert das Röntgenquant durch Wechselwirkung mit einem Hüllenelektron seine Richtung und die Energie des Quants bleibt erhalten, so spricht man von der kohärenten, klassischen Streuung. Geht ein Teil der Energie hingegen an das streuende Elektron verloren, ist die Streuung inkohärent, die Wellenlänge der Röntgenstrahlung nimmt zu. Dieses Phänomen nennt man Compton-Effekt. Durchquert das Röntgenquant die Elektronenhülle, ohne mit ihr in Wechselwirkung zu treten, hat dabei eine Energie über 1,022MeV und trifft auf den Kern, so entstehen ein Positron und ein Elektron: es kommt zur Paarbildung. 3.3. Technische Realisierung des Röntgens Röntgenröhre. Eine Röntgenröhre ist ein Kathodenanschluß Vakuumkolben mit einer Glühkathode, aus der die Elektronen freigesetzt werden, und einer Anode. Vakuumkolben Zwischen diesen ist eine Hochspannung angelegt, mit der die Elektronen beschleunigt werden. Im Targetmaterial wird durch die aufprallenden Kathode Elektronen ein Röntgenspektrum erzeugt. Da die Energie der beschleunigten Elektronen zu 99% in Wärme umgesetzt wird, wird die Anode über einen AnodenRotor gedreht und die Erwärmung somit auf der material Graphit Drehgesamten Drehanodenfläche verteilt. Aufgrund der anode Wärmeentwicklung muss das Targetmaterial der Kugellager Anode eine gute Wärmeleitfähigkeit besitzen. Um eine optimale Strahlenausbeute für das Rotor Röntgenspektrum zu erhalten, ist eine hohe Ordnungszahl des Targetmaterials erforderlich. Anodenanschluß Wolfram ist das geeignetste Element. Bild 3.2. Drehanodenröhre, schematisch Prinzip der Röntgenaufnahme. Vom Brennfleck der Röntgenröhre, dem Auftreffpunkt der Elektronen auf der Anode, gehen Röntgenstrahlen aus, durchdringen ein Objekt und werden unterschiedlich geschwächt. Hinter dem Objekt wird die Intensität der geschwächten Strahlen von Detektoren, einem Film oder einem Leuchtschirm, aufgenommen. Je größer der Fokus, der Mittelpunkt des Brennflecks, ist, desto unschärfer wird das Bild. Da bei den Röntgenstrahlen auch das exponentielle Absorptionsgesetz (2) gilt, werden weiche, energiearmen Strahlen stärker absorbiert als harte. Bei der harten, energiereichen Strahlung kommt es nur bei hoher Dichte und Atomen hoher Ordnungszahl zur verstärkten Absorption und damit zu einem Bild. 8 3.4. Weitere Anwendungen Die Röntgenstrahlung wird auch zu weiteren Untersuchungsmethoden genutzt. Beim Durchleuchten durchdringen die Röntgenstrahlen das Objekt und treffen auf einen fluoreszierenden Eingangsschirm des Röntgenbildverstärkers. Dabei ausgelöste Elektronen werden durch Hochspannung auf den Ausgangsschirm beschleunigt und fokussiert. Dieser wird über eine Fernsehkamera auf einen Monitor abgebildet. Das Bild, das dabei entsteht, ist gegenüber der normalen Röntgenaufnahme helligkeitsinvertiert. Heutzutage ist zur besseren Strahlendosierung eine Rückkopplung vorhanden. Dabei wird ständig die Helligkeit gemessen und eventuell die Röhrenspannung und/oder der Strom nachgeregelt. Der Patient ist allerdings einer permanenten Strahlenexposition ausgesetzt. Aufgrund der Strahlenschutzanweisungen darf die Röntgenstrahlung nur eine geringe Intensität aufweisen, die Auflösung und Detailerkennung ist somit beim Durchleuchten geringer als beim konventionellen Röntgen. Als Beispiel für röntgenologische Bildgebungsverfahren mit Kontrastmittel wird an dieser Stelle die Angiographie vorgestellt. Auf die gleiche Art ist jedes Hohlorgan im Körper darstellbar. Zur Gefäßdarstellung wird ein Kontrastmittel in das abzubildende Gefäß injiziert und anschließend wird eine schnelle, programmierte Aufnahmeserie angefertigt. Die Bilder ohne Kontrastmittel und die mit Kontrastmittel werden gemittelt und voneinander abgezogen. Auf dem Subtraktionsbild ist nur noch das mit Kontrastmittel durchsetzte Gewebe zu sehen. Als Kontrastmittel werden Stoffe hoher Ordnungszahl wie Jod, Barium oder Wismut eingesetzt, die die Röntgenstrahlen stark absorbieren. Schließlich können mit Röntgenstrahlen auch noch Weichteile dargestellt werden. Bei der Mammographie wird an der Röntgenröhre nur eine sehr geringe Beschleunigungsspannung angelegt (zwischen 28 und 35kV im Gegensatz zu Thoraxaufnahmen: 110-150kV). Es entsteht eine weiche, energiearme Strahlung, die hauptsächlich aus charakteristischer Eigenstrahlung besteht. 3.5. Einsatzgebiete des Röntgens Aufgrund der starken Absorption der Röntgenstrahlung in Materie hoher Dichte und großer Ordnungszahl, ist das Röntgen sehr gut zur Skelettdarstellung geeignet. So können Knochenbrüche, Osteoporose, Bandscheibenvorfälle oder Tumoren anhand der Röntgenbilder diagnostiziert werden. Werden Kontrastmittel zu Hilfe genommen, können Hohlorgane und das Gefäßsystem dargestellt werden. Stenosen oder Atresien sind feststellbar. Schließlich können mit weichen energiearmen Strahlen Weichteile, vor allem die weibliche Brust abgebildet werden. Bild 3.3. Mammographieaufnahme Bild 3.4. Beinangiographie 9 4. Computertomographie 4.1. Geschichte der Computertomographie [3] 1964 veröffentlichte Allen Cormack eine Arbeit, in der er die Dichte einzelner Punkte ermittelte, indem er die Röntgenröhre um ein Objekt rotieren ließ. Godfrey Hounsfield entwickelte 1968 einen Prototypen, einen mit Röntgenstrahlung arbeitenden Experimental-Scanner, der allerdings nur anatomisch Präparate vermessen konnte. Die Messung dauerte bis zu neun Stunden und die Bildrekonstruktion weitere 2 ½ Stunden. Drei Jahre später baute er den ersten Computertomographen, und im Jahr darauf stand der erste Kopf-Scanner zur Aufnahme von Hirnscheiben in einem Londoner Krankenhaus. Den ganzen Körper konnte man ab 1974 darstellen, wobei die Bewegungsartefakte den Einsatz auf Kopf und Extremitäten beschränkte. Für ihre Pionierarbeit in der Computertomographie erhielten die beiden Erfinder der Technik 1979 den Medizin-Nobelpreis. Ein Meilenstein in der dreidimensionalen Bildgebung war die Erfindung des SpiralCT. Es konnten Volumenbilder erstellt werden, ohne den Patienten mühsam manuell verschieben zu müssen. Dies verkürzte die Aufnahmezeiten. Zu einer weiteren drastischen Reduktion der Untersuchungszeit kam es durch die Einführung der Mehrzeilentechnik, bei der mehrere Schnittbilder gleichzeitig gemacht werden konnten. 4.2. Technische Realisierung der Computertomographie Das Prinzip der Schnittbilder beruht darauf, dass einzelne Projektionen einer Objektebene aufgenommen werden und danach mit dem Computer eine zweidimensionale Repräsentation der Schwächungswerte rekonstruiert wird. Dabei ist jeder lokal errechnete Schwächungskoeffizient ein Mittelwert der Schwächung in seiner quaderförmigen Umgebung, da die Auflösung der Feinstrukturen durch die Dicke des Röntgenstrahls begrenzt ist. Die Schwächungskoeffizienten werden in Hausfieldeinheiten (HE) angegeben und zur besseren Vergleichbarkeit auf Wasser normiert. Danach werden zur bildlichen Darstellung den HE’s Grau- oder Farbwerte zugeordnet. Der Wertebereich kann bei der sogenannten Fensterung eingeschränkt und dadurch mit einer Computertomographieaufnahme unterschiedliche Fragestellungen beantwortet werden. So gibt es z.B. Knochen- und Weichteilfenster. Während in den Anfängen der Fächerstrahlprinzip Computertomographie eine Röntgenröhre mit einem Detektor eingesetzt wurde, wird heute ein Röntgenstrahlfächer mit Detektorensystem Rotierende in den Computertomographen integriert. Mit Detektoren dem Fächerstrahlprinzip kann das ganze Objekt Stationäre Detektoren simultan erfasst werden und das System vollzieht nur noch eine rotatorische Bewegung. Bild 4.1. Anordnung der Detektoren Bei Geräten mit Vollkreisdetektor dreht sich nur noch die Röntgenröhre. Der Aufnahmevorgang erfolgt entweder durch impulsartige Taktung der Detektoren oder der Röntgenstrahlung in festen Winkelabständen. Zur schnelleren Aufnahme von dreidimensionalen Bildern wird der SpiralComputertomograph eingesetzt. Hierbei rotiert die Röntgenröhre kontinuierlich um den 10 Patienten, während der Tisch stetig vorgeschoben wird. Durch die Zusammensetzung der Bewegungen entsteht eine Spiralbahn der Röntgenröhre um den Patienten. 4.3. Einsatzgebiete der Computertomographie [1] Anhand des Schwächungswerte (bezogen auf Wasser) Knochen nebenstehenden Diagramms ist erkennbar, Blut Leber Tumor dass sich über die Milz Niere Herz Schwächungskoeffizienten Darm Wasser nur Knochen, Luft und Harnblase Pankreas Nebenniere Weichteile voneinander unterscheiden lassen. Eine Brust Bestimmung der einzelnen Fett Organe ist nur mit Hilfe Lunge der anatomischen Luft Kenntnisse möglich. Eingesetzt wird die Bild 4.2. Schwächungswerte Computertomographie unter anderem bei der Unfalldiagnostik, z.B. um ein Schädelhirntrauma oder Fremdkörper im Auge festzustellen, zum Feststellen einer Entzündung von Organen oder bei Tumorverdacht. Mit Hilfe eines CTs kann auch eine Blutung oder ein Infarkt im Gehirn diagnostiziert oder die Ursache von akuten Bild 4.3. Transversalschnittbild Bewusstseinsstörungen aufgeklärt werden. des Abdomens 5. Kernspintomographie / Magnetresonanz 5.1. Geschichte der Kernspintomographie [3] 1800 schaffte Jean-Baptist Fourier die mathematischen Grundlagen für die Kernspintomographie, die nach ihm benannte Fourier-Transformation zur Berechnung der Magnetresonanzbilder. Ein Jahrhundert später beschrieb Nikola Tesla die Entstehung und Wirkung der Magnetfelder. Mit diesem Wissen konnten Felix Bloch und Edward Purcell 1946 die physikalischen Prinzipien der Magnetresonanz herausfinden, wofür sie 1952 den Physiknobelpreis bekamen. Nach intensiven Forschungen stellte Raymond Damadian 1971 fest, dass sich die Protonenrelaxationszeiten von malignen Tumoren und normalem Gewebe unterscheiden. Er konnte allerdings noch keine Schichtbilder machen, und der Versuch fand bisher nur in vitro statt. Die ersten ortsauflösenden Bilder nahm Paul Lauterbur angespornt durch die Entwicklungen bei der Computertomographie - 1973 auf. Ein Jahr später gab es die ersten Abbildungen eines Tumors am lebenden Tier. Es lag in Narkose, da die Aufnahmezeiten mehrere Stunden betrugen. Da bei der Kernspintomographie keine schädlichen Strahlen zum Einsatz kommen wie beim Röntgen und der Computertomographie, wurde an der Magnetresonanz weitergeforscht. Die ersten Bilder des menschlichen Körpers erhielt man 1977, und bereits 1989 konnte man mit der MR-Angiographie ohne Röntgenstrahlen die Gefäße darstellen. Dennoch 11 ist die Kernspintomographie nicht gänzlich ohne Nebenwirkungen, so starb 1989 ein Patient, nachdem sein Herzschrittmacher im starken Magnetfeld des Tomographen ausgesetzt hatte. 5.2. Physikalische Grundlagen der Kernspintomographie [5] Protonen durchlaufen im Kern eine komplizierte Bewegung und da jedes sich zeitlich ändernde elektrische Feld ein magnetisches Wirbelfeld erzeugt, ist mit der Eigendrehung des Protons, dem Spin, ein magnetisches Moment verknüpft. Die magnetischen Momente aller Nukleonen eines Atoms überlagern sich zu einem Gesamtmoment des Kerns. Die Kernspintomographie beruht auf der Bild 5.1. Spin des Kerns im Vergleich zum Kreisel Beobachtung des Verhaltens von diesen magnetischen Kernmomenten in einem äußeren Magnetfeld. Wird ein äußeres magnetisches Feld angelegt, wirkt ein Drehmoment auf den Spin und der Kern richtet sich aufgrund der Präzession mit seiner Spinachse parallel zum äußeren Feld aus und verhält sich damit wie ein Kreisel im Schwerefeld der Erde. Das magnetische Moment hat nach den Gesetzen der Quantenmechanik nur zwei Möglichkeiten sich zu diesem Magnetfeld auszustellen: parallel oder höherenergetisch antiparallel. Die Energiedifferenz zwischen diesen Zuständen ist von der magnetischen Feldstärke des äußeren Magnetfeldes abhängig und beträgt ∆E = B0 . γ . h / (2 . π) (3) (B0: magnetische Feldstärke des äußeren Magnetfeldes, γ: gyromagnetisches Verhältnis, für jedes Atom charakteristisch, h: plancksches Wirkungsquantum). Durch Zufuhr oder –abfuhr dieses Energiebetrags kann der Kern in das andere Niveau gebracht werden. Da die Natur des Atoms den für sie energetisch günstigsten Zustand sucht, ist der energetisch niedrigere Zustand mehr besetzt. Nur die wenigen überschüssigen Kerne im niedrigeren Zustand tragen zur Gesamtmagnetisierung des Objekts bei. Ändert sich diese Magnetisierung, so induziert sie in einer um den Patienten gelegten Spule eine Spannung. Diese wird bei der Kernspintomographie gemessen und ausgewertet. Wird zu dem zeitlich konstanten Magnetfeld ein zeitlich veränderliches mit der Lamorfrequenz f0 = B0 . γ / (2 . π) (4), dazugeschaltet, dann und nur dann beginnt der Magnetisierungsvektor die Bewegung auf einer Schraubenbahn. Das Magnetfeld hat dabei jene Energie, die nötig ist, um den Kern vom niedrigeren in den energetisch günstigeren Zustand zu heben. Der Kern präzediert im Resonanzfall um den Magnetisierungsvektor. In der Praxis wird das Wechselfeld nur kurzzeitig eingeschaltet. So kann man den Magnetisierungsvektor um einen definierten Winkel kippen, die Regel sind 90° oder 180°. Nach Abschalten des Magnetfeldimpulses kommt es zu einem freien Induktionsabfall (FID: free induction decay) in der Spule um den Patienten, da ein sich zeitlich änderndes Magnetfeld in einer Spule eine Spannung induziert. Dieses exponentiell abfallende Signal steht im direktem Zusammenhang mit dem zeitlichen Verlauf der Kernmagnetisierung im gesamten 12 Kernresonanzsignal Objekt. Die Höhe des FID ist ein Maß für die Protonendichte und unterschiedlich für die verschieZeit in Sekunden denen Gewebearten. Mit Hilfe der Fourieranalyse kann die Resonanzfrequenz bestimmt werden. Die Fourieranalyse geht davon aus, dass jedes Signal durch eine Überlagerung von Sinusund Cosinusanteilen Bild 5.2. Kernresonanzsignal unterschiedlicher Höhe simulierbar ist. Durch die Fourieranalyse erhält man die zugehörige Resonanzstelle, deren Frequenz vom Ort der Probe und deren Betrag von der Protonenkonzentration abhängt. Zur Ortskodierung nützt man die Abhängigkeit der Resonanzfrequenz vom Magnetfeld aus. Dem homogenen Feld wird ein statisches linear ansteigendes Feld überlagert, damit ein linear zunehmendes Feld entsteht. Zu dem exponentiellen Abfall kommt es unter anderem wegen der Inhomogenität des Magnetfelds. Am Rand eines Magnetfelds ist die Feldstärke immer geringer als im Zentrum. Die Spins am Rande präzedieren mit einer anderen Frequenz als im Kern des Magnetfeldes und schwächen sich in ihrer Wirkung somit ab. Dieses Phänomen wird zur Ortskodierung ausgenutzt. Ein anderer Grund für den FID sind die Wechselwirkungen der magnetischen Momente untereinander. Jedes Moment schwächt oder stärkt das Magnetfeld in seiner Umgebung. Wenn dort ein anderes Moment ist, präzediert es mit einer anderen Frequenz wie im reinen Magnetfeld. Dadurch wird die Magnetisierung abgeschwächt. Auch die Trägheit der Natur hat eine abschwächende Auswirkung auf das Signal. Die Natur strebt den energetisch günstigeren Zustand an, sie versucht den Gleichgewichtszustand wiederherzustellen. Die letzten zwei Gründe für den exponentiellen Abfall bezeichnet man als Relaxation. Diese lässt sich in eine SpinGitter- und eine Spin-Spin-Relaxation aufteilen. Mit der Spin-Gitter-Relaxation bezeichnet man die Längsrelaxationszeit T1, die von der Longitudinalmagnetisierung des Objekts, der Magnetisierung parallel zur Feldrichtung, beeinflusst wird. Es ist die Zeit, die das Objekt benötigt, um den Gleichgewichtszustand wiederherzustellen. Die Spin-Spin-Relaxation ist sowohl durch die Wechselwirkung der magnetischen Momente untereinander und den Versuch der Gleichgewichtswiederherstellung verursacht. Es ist die Zeit des spontanen Zurückfallens der Transversalmagnetisierung des Objekts. Dies ist mit der Spule nachweisbar. Beide Relaxationszeiten spielen in der Diagnostik eine große Rolle, da sie bei verschiedenen Gewebearten unterschiedlich sind, z.B. ist die Relaxationszeit für Krebsgewebe deutlich kürzer als für gesundes Gewebe. 5.3. Technische Realisierung der Kernspintomographie Der Patient wird in ein zeitlich konstantes, linear ansteigendes Magnetfeld gelegt. Kurzzeitig wird ein Hochfrequenzfeld mit Lamorfrequenz eingeschaltet, das die Spins kippt. Nach dem Abschalten des Hochfrequenzfeldes werden die Relaxationszeiten gemessen. Aus diesen Zeiten wird mit Hilfe der Fourier-Transformation ein Bild errechnet. 13 5.4. Einsatzgebiete der Kernspintomographie [2] Die größte Bedeutung hat die Kernspintomographie im Bereich der Erkrankungen des Gehirns und bei Tumoren der Organe. So kann mit ihrer Hilfe Alzheimer diagnostiziert oder die Ursache für chronische Kopfschmerzen gefunden werden. Bei Untersuchungen des Herz-Kreislauf-Systems können Thrombosen festgestellt werden. Die Kernspintomographie wird auch eingesetzt, um beim Bewegungsapparat z.B. Meniskusoder Kreuzbandschäden, Knorpelerkrankungen oder Bandscheibenvorfälle zu diagnostizieren. 5.3. Sagittalschnitt des Knie 6. Positronen-Emissions-Tomographie (PET) 6.1. Physikalische Grundlagen der nuklearmedizinischen Bildgebung [2] Die Elemente des chemischen Periodensystems kommen in der Natur mit verschiedenen Kernmassen vor. Dabei unterscheidet sich die Anzahl der Neutronen im Kern. Diese verschiedenen Kerne eines Elements nennt man Isotope. Sie sind unterschiedlich stabil und zerfallen in andere Isotope desselben Elements oder in andere Elemente. Bei Kernreaktionen können unterschiedliche Arten ionisierender Strahlung auftreten. Beim α-Zerfall werden Heliumkerne abgespalten. Kommt es hingegen zum β-Zerfall, werden Elektronen oder Positronen frei. Photonen werden beim γ-Zerfall emittiert. Zur nuklearmedizinischen Diagnostik sind nur die Isotope einsetzbar, deren stabile Form ein körpereigenes Element ist und deren Halbwertszeit im Bereich von Sekunden bis einigen Stunden liegt. Die anderen Isotope zerfallen, bevor sie angewendet werden können oder sie zerfallen zu langsam, bauen sich im Körper nicht schnell genug ab und die Zählraten in den Detektoren wären extrem klein. Der Nachteil der Isotope mit einer Halbwertszeit von Sekunden bis einigen Stunden ist allerdings, dass sie vor Ort, also im Krankenhaus hergestellt werden müssen. Eine Möglichkeit besteht darin, Molybdän mit der Kernmasse 99 und einer Halbwertszeit von 66,7h in einem Kernreaktor zu gewinnen und ins Krankenhaus zu bringen. Dort wandelt es sich in das metastabile Technetium ebenfalls mit einer Kernmasse 99 um. Dies ist ein Gammastrahler, der in Wasser löslich ist und aus einem Generator ausgewaschen und injiziert werden kann. Nach ca. 24 Stunden kann der Vorgang des Auswaschens wiederholt werden. Auf diese Weise reicht das radioaktive Material eine Woche. Die Radionukleide können auch durch Beschuss mit geladenen Teilchen in einem Teilchenbeschleuniger, z.B. einem Zyklotron, erzeugt werden. Um aus den Zählraten an den Detektoren ein Bild zu errechnen zu können, ist die Angabe über die Aktivität, die in den Körper durch Injektion, Schlucken oder Inhalation eingebracht wurde, unerlässlich. Unter der Aktivität einer radioaktiven Probe versteht man die Zahl der Zerfälle pro Zeiteinheit. Ist die Aktivität am Anfang bekannt, kann sie für jeden weiteren Zeitpunkt errechnet werden, da die Radionukleide einem exponentiellen Zerfall unterliegen. 14 6.2. Technische Realisierung der PET [2] Prinzip der PET. Durch Inhalation, Injektion oder Schlucken werden Positronen emittierende Bleiabschirmung Detektoren Isotope in den Körper gebracht. Die radioaktiven Substanzen, wie C11, N13, O15, F18, sind in ihrer stabilen Form körpereigene Elemente und haben eine Halbwertszeit zwischen 2 und 110 Minuten. Die Isotope sind an Stoffwechselprodukte gekoppelt und werden durch den Kreislauf im Körper verteilt. Nachdem die Positronen emittiert Bleiabwurden, vereinigen sie sich nach kurzer Zeit mit schirmung einem Elektron. Dabei entstehen zwei Gammaquanten mit einer Energie von 511keV, die sich aufgrund des Impulserhaltungssatzes 180° Bild 6.1. PET (schematisch) auseinander bewegen. Zwei gegenüberliegende Detektoren müssen die Vernichtungsstrahlung simultan registrieren. Diese Detektoren werden Koinzidenzdetektoren genannt. Quanten, die nicht gleichzeitig nachgewiesen werden, werden nicht gewertet, um die Quelle zu berechnen. Nach der Detektion wird die räumliche Verteilung der Positronenstrahler im Körper rekonstruiert. Da die Energie der Fotovervielfacher Vernichtungsstrahlung sehr hoch Szintillationskristall Fotokathode Dynoden ist, sind spezielle GammaLichtleiter kameras nötig. Das Gammaquant γZähler Quant wird im Szintillationskristall absorbiert und erzeugt dabei sichtbare Photonen. Die Zahl der Lichtquanten Photonen ist proportional zur Energie, die das Quant abgeDynodenspannungsteiler geben hat. Der Szintillationskristall ist über den Lichtleiter Hochspannung mit der Fotokathode des Bild 6.2. Szintillationszähler Fotomultipliers verbunden. Auf der ersten Dynode werden durch den Photoeffekt Elektronen ausgelöst. Diese werden durch ihr elektrisches Potential auf die zweite Dynode hin beschleunigt, wo jedes Elektron wieder mehrere Sekundärelektronen auslöst. Nach ca. 10 Dynoden ist aus wenigen Photoelektronen ein messbarer Impuls am Ausgang des Fotovervielfachers geworden. Die Zählrate am Detektor muss dabei so eingestellt werden, dass jedes Gammaquant einzeln gezählt werden kann. 6.3. Einsatzgebiete der PET [2] Mit nuklearmedizinischen Bildgebungsverfahren sind Organfunktionalitäten darstellbar, wohingegen mit den bisher vorgestellten Verfahren Organlokalitäten bestimmt werden können. Die Positronen-Emissions-Tomographie wird unter anderem in der Onkologie, Neurologie, Kardiologie und der Pharmaforschung eingesetzt. Bei letzterem hilft sie bei der Aufklärung der Wirkungsweise von Medikamenten und bei der Entwicklung neuer 15 Medikamente. In der Onkologie kann mit ihrer Hilfe ein Tumor lokalisiert, der Verlauf der Therapie kontrolliert und die Wachstumsrate festgestellt werden. Die neurologische Untersuchung von Schlaganfall-, Alzheimerpatienten und Epileptiker wird durch die PET unterstützt. Der Kardiologe nutzt sie, um die Durchblutung und den Stoffwechsel des Herzmuskels zu untersuchen oder einen Infarkt zu diagnostizieren. 7. Single-Photon-Emissions-Computer-Tomographie (SPECT) 7.1. Technische Realisierung der SPECT Die Single-Photon-Emissions-Computer-Tomographie gehört auch zu den nuklearmedizinischen Bildgebungsverfahren. Instabile, Photonen emittierende Isotope werden in den Kreislauf gebracht und von diesem im Körper verteilt. Beim γ-Zerfall entstehen Photonen im Körper. Die Strahlenverteilung – das Linienintegral der Aktivitätsdichte - wird aus verschiedenen Winkelpositionen mittels einer rotierenden Gammakamera ermittelt und eine dreidimensionale Quellenverteilung der gemessenen Strahlung rekonstruiert. Anhand der Strahlenverteilung erkennt man, wo und wie stark die markierten Stoffwechselprodukte umgesetzt werden und es können Rückschlüsse auf die Funktionstüchtigkeit der untersuchten Organe gezogen werden. 7.2. Einsatzgebiete der SPECT [2] Auch die SPECT wird zur funktionalen Diagnostik eingesetzt. So werden mit ihr unter anderem die Aktivität des Herzmuskels, die Belüftung der Lunge, die Durchblutung, Sekretion und Harnabsonderung der Niere untersucht oder eine Schilddrüsenüberfunktion festgestellt. Die SPECT kann ebenfalls die morphologische Diagnostik unterstützen, etwa bei einem Herzscheidewanddefekt, Knochen- oder Schilddrüsentumoren. 8. Sonstige Verfahren Neben den bisher vorgestellten Verfahren kommen auch noch andere in der Medizin zum Einsatz. Die Fotographie wird zur Dokumentation des Verlaufs von Hauterkrankungen und von plastischen Eingriffen wie z.B. der Lippen-Kiefer-GaumenBild 8.1. Lippen-Kiefer-Gaumen-Spalte vor und Spalte verwendet. Es werden Vorhernach der Operation Nachher-Sequenzen angefertigt, um den Erfolg der Operation oder Behandlung beurteilen zu können. Zum diagnostischen Betrachten von Körperhöhlen und Hohlorganen eignet sich besonders die Endoskopie. Das Endoskop, ein röhrenförmiges, mit einer Lichtquelle und einem optischen System ausgestattetes Instrument, wird teilweise verbunden mit einem operativen Eingriff, in den Körper eingeführt, um Bilder oder Filme zu erstellen. Die Endoskopie wird auch zur Orientierung während minimalinvasiven Operationen eingesetzt. Als letztes bildgebendes Verfahren ist noch die Szintigraphie zu nennen. Sie gehört zur nuklearmedizinischen Bildgebung. Ein Szintigramm stellt die 16 zweidimensionale Verteilung eines Radionukleids nach Inkorporation dar. Mit ihr können wie bei PET und SPECT die Funktionen der Organe überprüft, aber auch Metastasen in den Knochen sichtbar gemacht werden. 9. Zusammenfassung 9.1. Geschichte der Bildgebung Mit der Entdeckung der Röntgenstrahlen begann die Geschichte der medizinischen Bildgebung. Zuvor konnte man nur in den Körper schauen, wenn man ihn öffnete oder indem man in die vorhandenen Körperöffnungen hineinschaute. Allerdings können mit dem Röntgen nur Knochen und Hohlorgane mittels Kontrastmittel sichtbar gemacht werden und auch die Schichten, die von anderen verdeckt werden, bleiben für den Mediziner uneinsehbar. Mit der Erforschung des Ultraschalls und seiner Nutzung in der Medizin konnten erstmals Weichteile dargestellt werden, auch hatte der Ultraschall keine Nebenwirkungen. Eine hohe Ortsauflösung kann jedoch in der Tiefe nicht erreicht werden. Zur bildlichen Darstellung der Organfunktionen wurde die Szintigraphie entwickelt, die zweidimensionale Bilder aufnimmt. Einzelne Schichten des Körpers sind erst seit der Erfindung der Computertomographie darstellbar. Ein Verfahren zur Unterstützung der Diagnostik von Nerven- und Knorpelerkrankungen und -verletzungen kam mit der Kernspintomographie hinzu. Die neuesten bildgebenden Verfahren sind die nuklearmedizinischen Untersuchungen PET und SPECT, die eine räumliche Darstellung der Organfunktionalitäten ermöglichen. 9.2. Einsatzgebiete und Gegenüberstellung Röntgen CT Kernspin Ultraschall PET Darstellung: Knochen +++ +++ + ++ SPECT ++ Darstellung: Weichteilen Darstellung: Gefäßen - +(a) ++(b) ++(b) ++ ++ + + +++ - +++ - Darstellung: Funktionen Darstellung: Volumina - ++(e) ++(c) ++(e) ++(d) +(f) +++ - +++ - ++ schlecht gering gut gering schlecht gering Echtzeit Bildqualität Psychische Belastung - +(g) + gut gut gering mittel + mittel hoch Physische Belastung Invasiv hoch nein(h) hoch gering nein(h) nein(h) gering nein gering ja/nein gering ja/nein Untersuchungsdauer(i) 10 min 25 min 0 min 1h ½h 25 min (a): Ausnahme Mammographie (b) Angiographie (Kontrastmittel) (c): Funktionales MR (d): Doppler-Sonographie (e): dreidimensionale Rekonstruktion nötig (f): dreidimensionale Rekonstruktion und Positionsaufzeichnung der Schnitte notwendig (g): bei Durchleuchten gegeben (h): sofern kein durch Katheder appliziertes Kontrastmittel benutzt wird (i): von Untersuchungsbeginn bis Vorliegen des Bildes nach Lehmann [1] 17 Aus der oberen Tabelle ist ersichtlich, dass sich für die Darstellung von Knochen Röntgen und Computertomographie am besten eignen, werden dort Metastasen gesucht, werden PET und SPECT eingesetzt. Für Weichteile ist jedoch die Kernspintomographie dem Röntgen vorzuziehen. Auch PET und SPECT bilden die Weichteile gut ab. Da die Bildqualität beim Ultraschall im Allgemeinen schlecht ist, sind die Weichteile nicht so gut darstellbar, auch wenn der Ultraschall nur dafür eingesetzt werden kann. Der Ultraschall ist aber aufgrund der Kosten, der Echtzeit, der Untersuchungsdauer und der geringen Belastung des Patienten bei bestimmten medizinischen Fragestellungen trotzdem vorzuziehen. Gefäße lassen sich mit der Angiographie darstellen, wobei sowohl beim Röntgen als auch bei der Computertomographie Kontrastmittel nötig sind, die den Patienten zusätzlich belasten. Für die Darstellung von Organfunktionen sind PET und SPECT die besten Methoden. Die Doppler-Sonographie ist geeignet, Aussagen über die Funktion der Gefäße zu liefern. Benötigt man das Volumen von Organen, sind nur die Schnittbildverfahren einsetzbar. Mit Hilfe der Computer- und Kernspintomographie und dem Ultraschall nach Positionsaufzeichnungen der Schnitte können dreidimensionale Bilder erstellt werden, woraus die Volumina berechnet werden können. 9.3. Forschung Seit die ersten Nebenwirkungen der Röntgenstrahlung bekannt wurden und erste Todesfälle auftraten, ist die Forschung bemüht, die Dosis zu reduzieren und die Untersuchungsdauer zu verkürzen. Damit ist die Forschung auch heute noch beschäftigt. Seit der Entdeckung der Röntgenstrahlen wurden diesbezüglich erhebliche Fortschritte gemacht: so betrugen die Aufnahmezeiten damals noch über eine Stunde und heute unter einer Minute (beim Röntgen). Um die Datenflut zu bewältigen, versucht man, die Aufnahmen mehr und mehr zu digitalisieren, so steht z.B. seit kurzem ein volldigitales Mammographiegerät in Esslingen (Quelle: Esslinger Zeitung, 21. April 2004). Die Bilder können gleichzeitig an mehreren Orten angeschaut werden, es wird kein Archiv mehr für die Röntgenaufnahmen benötigt, alte Vergleichsaufnahmen sind sofort zugänglich, die Untersuchungszeit verkürzt sich, da die Filmentwicklung entfällt. Ein weiteres Forschungsgebiet beschäftigt sich damit, die Bilder der einzelnen Verfahren mit dem Computer zu vereinigen. Die guten morphologischen Bilder der Computertomographie werden mit den PET-Aufnahmen verknüpft, so dass Funktion und Morphologie in einem Bild ausgewertet werden können. (Quelle: Prof. Nüsslin, Uni Tübingen). Bild 9.1. CT PET PET/CT 18 10. Anhang Literatur: [1]: Lehmann, T.; Oberschelp, W.; Pelikan, E.; Repges, R.: Bildverarbeitung für die Medizin, Springer, 1997. [2]: Dössel, O.: Bildgebende Verfahren in der Medizin, Springer, 2000. [3]: www.radiologienetz.de [4]: www.degum.de [5]: Skript Physikalisches Praktikum für Mediziner in Tübingen Bilder: 2.1. www.radiologienetz.de 2.2. Krestel, E.: Bildgebende Systeme für die medizinische Diagnostik, Siemens, 1988. 2.3. privat 3.1. www.radiologienetz.de 3.2. Dössel, O.: Bildgebende Verfahren in der Medizin, Springer, 2000. 3.3. La Roche Lexikon, Krestel, E.: Bildgebende Systeme für die medizinische Diagnostik, Siemens, 1988. 4.1. Prof. Nüsslin, Radioonkologische Klinik Tübingen 4.2. Dössel, O.: Bildgebende Verfahren in der Medizin, Springer, 2000. 5.1. Lehmann, T.; Oberschelp, W.; Pelikan, E.; Repges, R.: Bildverarbeitung für die Medizin, Springer, 1997. 5.2. Skript Physikalisches Praktikum für Mediziner in Tübingen 5.3. www.radiologienetz.de 6.1. Lehmann, T.; Oberschelp, W.; Pelikan, E.; Repges, R.: Bildverarbeitung für die Medizin, Springer, 1997. 6.2. Dössel, O.: Bildgebende Verfahren in der Medizin, Springer, 2000. 8.1. www.medizin.uni-koeln.de 9.1. Prof. Nüsslin, Radioonkologische Klinik Tübingen 19