Diplomarbeit OCT

Werbung
Entwicklung und Realisierung eines optischen
Computertomographen
Diplomarbeit
Fachhochschule Gießen-Friedberg
Fachbereich Krankenhaus- und Medizintechnik, Umwelt- und
Biotechnologie
Studiengang Medizintechnik
angefertigt von
Maximilian Völker
am Institut für medizinische Physik und Strahlenschutz
Referent: Prof. Dr. rer. nat. K. Zink
Korreferent: Dipl. Ing. (FH) B. Keil
Gießen, 01.02.2008
Inhaltsverzeichnis
2
Inhaltsverzeichnis
1
Einleitung ............................................................................................................. 3
2
Theorie.................................................................................................................. 5
2.1
Optik und Abbildungsfehler .................................................................................. 5
2.1.1 Abbildungen an Linsen.......................................................................................... 5
2.1.2 Lichtstreuung und Absorption............................................................................... 9
2.2
Optische Tomographie ........................................................................................ 11
3
Material und Methoden .................................................................................... 13
3.1
3.1.1
3.1.2
3.1.3
3.1.4
Messaufbau und Beschreibung der verwendeten Einzelkomponenten ............... 13
Erzeugung und Leitung des Lichtes zum Objekt ................................................ 15
Objektpositionierung und Bewegung .................................................................. 17
Detektion des Lichtes .......................................................................................... 18
Kalibrier- und Messphantome ............................................................................. 20
3.2
3.2.1
3.2.2
3.2.3
3.2.4
3.2.5
3.2.6
Software, Programmierung und Programmablauf............................................... 21
Allgemein/Aufbau ............................................................................................... 21
Normierung.......................................................................................................... 26
Berechnung der Projektionsprofile...................................................................... 27
Kalibrierung des Messaufbaus ............................................................................ 28
Bildbearbeitungsmöglichkeiten ........................................................................... 34
Bildrekonstruktion ............................................................................................... 36
4
Ergebnisse und Diskussion ............................................................................... 39
4.1
4.1.1
4.1.2
4.1.3
Analyse des Messsystems und seiner Fehlerquellen ........................................... 39
Modell Strahlengang ........................................................................................... 39
Evaluierung der Lichtdetektion ........................................................................... 42
Evaluierung der Lichtquelle und der Lichtleitung............................................... 48
4.2
Analyse der Methoden......................................................................................... 52
4.2.1 Normierung und Kalibrierung ............................................................................. 52
4.2.2 Bildrekonstruktion ............................................................................................... 63
4.3
Messergebnisse.................................................................................................... 69
5
Zusammenfassung und Ausblick ..................................................................... 78
Anhang........................................................................................................................... 81
Abbildungsverzeichnis.................................................................................................. 85
Literaturverzeichnis ..................................................................................................... 87
Eidesstattliche Erklärung............................................................................................. 88
1 Einleitung
1
3
Einleitung
Die optische Tomographie hat in den letzten Jahren zunehmend an Bedeutung für die
Forschung und Entwicklung gewonnen. Gründe dafür sind die ständige Verbesserung
der Detektionssysteme für sichtbares und nahes infrarotes Licht sowie die Weiterentwicklung der Bildverarbeitungsalgorithmen von diffusem Licht. Es existieren mittlerweile hochempfindliche CCD- und CMOS-Chips, welche die Detektion von sehr geringen Lichtsignalen, die auch durch dünnes Gewebe dringen, ermöglichen. Besonders für
die Forschung an Kleintieren existieren unterschiedliche tomographische Prototypen.
Für die Medizin werden diese optischen Computertomographen interessant, weil sich
dadurch zusätzliche diagnostische Informationen gewinnen lassen. Es ist zum Beispiel
möglich durch spezifische fluoreszierende Marker (aus der Fluoreszenzmikroskopie)
diagnostisch relevante Bereiche im Schnittbild zu betonen. Dies kann beispielsweise für
die Verlaufskontrolle bei einer Tumortherapie interessant sein, da hier anders als bei
konventionellen bildgebenden Systemen molekülspezifische Marker existieren. Diese
erlauben eine frühere Diagnostik von Veränderungen, als zum Beispiel gewebespezifische Kontrastmittel in der Computertomographie. Außerdem ist die eingesetzte Strahlung sowohl für den Anwender als auch für das Untersuchungsobjekt im Gegensatz zur
ionisierenden Strahlung der konventionellen Computertomographen ungefährlich.
Durch die damit verbunden geringe Energie der Lichtstrahlung hingegen treten eine
hohe Absorption und Streuung des Lichtes im Messobjekt auf. Daher ist die Eindringtiefe begrenzt und es müssen besondere technische Maßnahmen ergriffen werden, um
die entstehende Streustrahlung unter Kontrolle zu bekommen.
Grundsätzlich kann man hier zwei Ansätze zur Lösung dieses Problems unterscheiden:
Im ersten Ansatz konzentriert man sich darauf, die Streustrahlung zu identifizieren und
zu eliminieren. Sofern dies gelingt können die Projektionsaufnahmen mit den bekannten
Algorithmen aus der konventionellen Computertomographie (gefilterte Rückprojektion)
ausgewertet werden. Im zweiten Ansatz wird versucht direkt aus dem Streulicht Bildgebung zu betreiben. Dieser Ansatz geht auf die Strahlungstransportgleichung zurück. Es
wird hier sozusagen versucht den Weg des Lichtstrahls durch das Messobjekt zum Detektor zurückzuverfolgen und so Aussagen über das Messobjekt treffen zu können.
1 Einleitung
4
Mit dieser Arbeit wird ein erster Aufbau eines optischen Computertomographen realisiert. Das Gerät soll nach den Regeln der konventionellen Computertomographie erstellt
werden und Schnittbilder von einfachen geometrischen Objekten erzeugen.
Die Arbeit ist wie folgt gegliedert:
Im folgenden Kapitel werden die theoretischen Grundlagen erläutert, auf welche diese
Arbeit aufbaut. Hier soll ein Überblick gegeben werden, nach welchen Gesichtspunkten
der Messaufbau kreiert wurde und auf welche Grundlagen das Messverfahren zurückgreift. Zusätzlich werden die Hauptpunkte aufgezeigt, welche die optische Computertomographie von der konventionellen Computertomographie unterscheiden. Es werden
mehrere Lösungen, die dem Stand der Forschung und Entwicklung entsprechen, kurz
vorgestellt.
Im Kapitel Material und Methoden wird der Messaufbau vorgestellt. Es wird erklärt,
wie die Messdaten aufgenommen und verarbeitet werden.
Im Kapitel Ergebnisse und Diskussion erfolgt zunächst eine Analyse des Messaufbaus
auf Stärken und Fehlerquellen. Danach werden die angewandten Methoden evaluiert.
Anhand von typischen Messergebnissen werden schließlich die Möglichkeiten des
Messsystems aufgezeigt und bewertet.
Im letzten Kapitel erfolgt eine Zusammenfassung der wichtigsten Erkenntnisse. Es werden Möglichkeiten aufgezeigt, durch welche sich das Messsystem erweitern und verbessern lassen könnte.
2 Theorie
5
2
Theorie
2.1
Optik und Abbildungsfehler
2.1.1 Abbildungen an Linsen
Aus der geometrischen Optik können einfache Regeln übernommen werden, die für die
Dimensionierung der optischen Komponenten im Messaufbau ausreichend sind.
Den Zusammenhang zwischen der radialen Krümmung einer Linse und ihrer Brennweite stellt die Linsenmachergleichung her (vgl. Oldenburg [1]):
 1
1
1 

= (n − 1) *  −
f
 R1 R2 
Dabei ist:
n: Brechungsindex (Brechzahl) des Linsenglases; n hängt von der Wellenlänge λ des Lichtes ab.
R1: Krümmungsradius der linken Linsenoberfläche.
R2: Krümmungsradius der rechten Linsenoberfläche.
Allgemein wird in der geometrischen Optik der Strahlengang von links nach rechts betrachtet, wobei links immer die Lichtquelle angeordnet ist. Es gilt:
R > 0 wenn die Oberfläche nach links gewölbt ist (d.h. der auf der optischen Achse liegende Linsenoberflächenpunkt wird vom einfallenden Licht eher getroffen als die
Randpunkte).
R < 0 wenn die Oberfläche nach rechts gewölbt ist (d.h. der auf der optischen Achse
liegende Linsenoberflächenpunkt wird vom einfallenden Licht später getroffen als die
Randpunkte).
Die Newtonsche Form der Abbildungsgleichung lautet(vgl. Lehn [2]):
z * z’ = f²
mit:
z=g-f
z’ = b - f
Grafik Wikipedia Opensource: http://de.wikipedia.org/wiki/Newtonsche_Abbildungsgleichung
Abbildung 1: Abbildungen an dünnen Sammellinsen
2 Theorie
6
Will man einen parallelen Lichtstrahl aufweiten, so positioniert man links eine starke
Sammellinse oder eine starke Zerstreulinse. In deren bildseitigen Fokus wird der Fokalpunkt der rechten schwächeren Sammellinse geschoben, um ein paralleles Strahlbündel
am Ausgang zu erhalten:
Abbildung 2: “Keplersche“
Strahlaufweitung. Prinzip der
Aufweitung eines
Strahlenbündels.
parallelen
Der Vergrößerungsfaktor (v) der abbildenden Systems ergibt sich dann aus:
v = f2 / f1
Bei Abbildungen entstehen in der geometrischen Optik auch immer Abbildungsfehler.
Diese können meist durch zusätzliche „Korrekturlinsen“ korrigiert werden. In diesem
Messaufbau treten zwei Arten von Abbildungsfehlern auf, die hier aus Platzgründen nur
durch bildverarbeitende Maßnahmen korrigiert werden können.
2 Theorie
7
Es tritt die „sphärische Linsenaberration“ auf. Bei normalen Sammellinsen (es gibt
auch Asphärische Kondensorlinsen) und Zerstreulinsen ist die Brennweite eines Lichtstrahls abhängig von der Entfernung zur optischen Achse, welche in welcher dieser auf
eine radial gekrümmte Linse trifft:
Abbildung 3: Sphärische Linsenaberration. Abbildungsfehler durch den
Linsenkrümmungsradius am Beispiel
einer plankonvexen Linse.
Man kann delta f minimieren, indem die Linse (hier plankonvex) so angeordnet wird,
dass die Lichtbrechung auf beide Seiten verteilt wird. Den Unterschied in der Brennweite kann man berechen mit (vgl. Krücken [3]):
∆s =
mit:
h²
[n³ + (3n + 2)(n − 1)² p² + 4(n − 1)² pq + (n + 2)q ²]
8 f * n(n − 1)²
p = 1- f
q=
R1 + R1
R2 − R1
∆s=1/ ∆f s: Brechkraft
h: Entfernung zur optischen Achse
Für eine Plankonvexlinse mit der Brennweite 100 mm aus Kronglas (mit n = 1,51), welche die Lichtbrechung auf beide Seiten verteilt beträgt die Abweichung der Brennweite
in 10 mm Abstand von der optischen Achse etwa +1,8 mm. Diese Linse wird zur Fokussierung im Messaufbau verwendet.
2 Theorie
8
Die „Bildfeldwölbung“ beschreibt die Verzerrung eines Bildes auf einer ebenen Abbildungsfläche durch eine Linse:
Abbildung 4: Bildfeldwölbung. Abbildungsfehler, der beim Bild einer Linse auf
einer ebenen Fläche entsteht. Ein Objekt
wird verzerrt abgebildet, wenn die Bildebene nicht der radialen Krümmung der
Brennweite f folgt.
Das Bild eines Objektes wird auf einer geraden Ebene verzerrt dargestellt. Um ein
scharfes Abbild zu erhalten müsste die Bildebene der radialen Brennweite der Linse
folgend gekrümmt sein.
Es existieren noch weitere bekannte Abbildungsfehler (vgl. Thöniß [4]). Diese sind für
den hier realisierten Messaufbau aber nicht relevant (z.B. chromatische Aberrationen…).
2 Theorie
9
2.1.2 Lichtstreuung und Absorption
Sobald ein Lichtstrahl auf Materie trifft, wird er durch Wechselwirkungen mit der Materie geschwächt. Man kann für sichtbares Licht grundsätzlich zwei Arten von Wechselwirkungen des Lichtes mit der Materie unterscheiden. Die Lichtstreuung beinhaltet die
Wechselwirkungen mit Materie, bei der es zu einer Richtungsänderung und / oder zu
einer Energieänderung der primären Lichtstrahlung kommt. Die Lichtabsorption beschreibt die Wechselwirkungen mit Materie bei der ein Photon von einem Atom oder
Molekül absorbiert wird. Die Anzahl und die Arten der Wechselwirkungen sind hierbei
grundsätzlich abhängig von der Energie der Lichtstrahlung, der Zusammensetzung der
Materie und der Dichte der Materie. Zur Berechnung dieser Streu- und Absorptionsprozesse sind lineare Schwächungskoeffizienten definiert. Den Zusammenhang zwischen
den Dicken eines illuminierten Materials und den Verlusten an Primärphotonen durch
Lichtschwächung stellt folgende Gleichung her (vgl. Zink [5]):
φ = φ 0 * e − µ *x = φ 0 * e
Mit
− µ * ρ * x
 ρ
Φ: Photonenfluenz (Einheit: 1/cm²)
µ: linearer Schwächungskoeffizient (Einheit: 1/cm)
ρ: Dichte Material
x: Dicke Material
In biologischen Geweben tritt bei sichtbarem Licht eine viel stärkere Streuung auf, als
bei der Belichtung mit Röntgenstrahlung. Ein typischer Streukoeffizient für sichtbares
Licht in Gewebe ist 100/cm. Bei Röntgenstrahlung, welche in der medizinischen Diagnostik angewandt werden, liegt dieser lineare Streukoeffizient bei ungefähr 0,2/cm
(vgl. WANG[6]). Diese Streukoeffizienten sind im Spektralbereich von sichtbarem und
nahem infrarotem Licht relativ konstant. Die Streuung von sichtbarem Licht in Geweben ist weiterhin stark anisotrop, der vorwärtsgerichtete Teil der Streuung überwiegt
dabei (Anisotropiefaktor ≈ 0,9). Die linearen Absorptionskoeffizienten schwanken im
Bereich von sichtbarem und nahem infraroten Licht. Bei Wellenlängen kleiner als 600
nm sind die Absorptionskoeffizienten wesentlich höher (µa>>1/cm) als bei Wellenlängen im nahen infraroten Spektralbereich. In diesem Spektralbereich (600 – 900 nm)
liegen die Absorptionskoeffizienten, wegen der geringen Absorption durch Wasser
(„Wasser- Fenster“), welches der Hauptbestandteil im Gewebe ist, im Bereich 0,1 bis
0,5 /cm (vgl. Schulz [7]). Dies ist der Grund dafür, warum in der optischen Tomographie Lichtwellenlängen im nahen infraroten Bereich zum Einsatz kommen. Der Anteil
der Lichtstreuung an der Lichtschwächung ist also um drei bis vier Größenordnungen
höher als der Anteil der Absorption. Die mittlere freie Weglänge eines Photons, also die
Strecke, welche ein Photon im Mittel im Gewebe überwinden kann ohne eine Wechselwirkung mit dem Gewebe einzugehen, beträgt etwa 0,1 mm (nach Key [8]).
2 Theorie
10
Man kann die Lichtstrahlung, welche ein Gewebe durchdringt, in ballistisch, quasi- ballistisch und diffus einteilen. Ballistisches Licht erfährt keine Streuung im Messobjekt
und trägt so direkte Bildinformationen an einen Detektor. Quasi- ballistisches Licht erfährt nur minimale Streuung im Messobjekt und bringt damit auch noch geringe Informationen über das Messobjekt zum Lichtdetektor. Mehrfachgestreutes Licht ist diffus,
es enthält kaum noch direkte Bildinformationen über das Messobjekt und überlagert das
ballistische und quasi- ballistische Licht am Detektor (nach Wang [6]).
2 Theorie
2.2
11
Optische Tomographie
Um die starke Lichtstreuung von Geweben unter Kontrolle zu bekommen und optische
Computertomographen für die Medizin nutzbar zu machen müssen spezielle Techniken
eingesetzt werden. Wie oben bereits erwähnt, gibt es hier zwei unterschiedliche Ansätze.
Wenn man aus der Lichtstrahlung am Detektor den ballistischen und den quasi- ballistischen Anteil vom diffusen trennen kann, kann die Bildverarbeitung nach dem bekannten
Weg der konventionellen Computertomographie erfolgen. Vorteil dieser Methode ist,
dass die Algorithmen zur Bildverarbeitung relativ einfach zu handhaben und allgemein
verfügbar sind. Nachteil dieser Methode ist, dass die Lichtleistung von ballistischem
und quasiballistischen Licht schon nach wenigen Millimetern in Geweben so gering ist,
dass äußert empfindliche Detektionssysteme benötigt werden. Wang [6] gibt die Dicke
eines so untersuchbaren Gewebes mit höchstens 1,4 mm oder 42 mittlere freie Weglängen an. Die Unterscheidung, ob Licht welches am Detektor aufgefangen wird ballistisch
oder diffus ist, kann zum Beispiel über die Lichtlaufzeit im Messobjekt erfolgen. Idee
dahinter ist, dass der Lichtanteil, welcher keine oder nur wenige Wechselwirkungen mit
dem Messobjekt eingeht als erstes am Detektor ankommt. Das mehrfachgestreute diffuse Licht hat einen längeren Weg durch das Messobjekt und benötigt so mehr Zeit um
am Detektor anzukommen. Für einen solchen Messaufbau benötigt man eine sehr
schnelle hochgenaue und damit teure Triggerung der Belichtung und der Detektion. Die
Belichtung muss hier mit gepulsten Lasern (Pulsbreiten im ps- Bereich) erfolgen.
Der diffuse Ansatz zur Rekonstruktion von Schnittbildern geht von der Strahlungstransportgleichung aus. Diese beschreibt anhand der Wechselwirkungen von Photonen
mit einem Medium die Ausbreitung des Lichtes im Medium(nach Schulz [7]):
 ∂

 v∂t + w * ∇ + µ a (r ) + µ s (r )u (r , w, t ) = µ s (r ) ∫ p (r , w, w' )u (r , w' , t )dw'+ q (r , w, t )
4π
Mit
u: Flussdichte (Photonen/s)
r: Ort
w: Raumrichtung
v: Ausbreitungsgeschwindigkeit im Medium
µa: Absorbtionskoeffizient
µs: Streukoeffizient
p ist die Wahrscheinlichkeit am Ort r für die Streuung eines Photons aus der Richtung w’ in Richtung w.
q ist die Verteilung von Quellen innerhalb der betrachteten Domäne.
Aufgrund der Komplexität dieser Gleichung und der aufwendigen mathematischen Lösung dieses Modells, geht man hier meist von einer sogenannten Diffussionsnäherung
aus. Dazu wird die Winkelabhängigkeit der Flussdichte vereinfacht und die Streuprozesse als isotrop angenommen. Bei einer zeitinvarianten Lichtquelle (kontinuierlicher
Laser) vereinfacht sich obige Gleichung zudem um ihre Zeitkomponente. Letztlich
muss man sich noch weitere Anfangsbedingungen und Randbedingungen schaffen um
2 Theorie
12
diese Gleichung zu lösen (z.B. die Domäne muss bestimmt werden und der Teil der
Lichtstrahlung der die Domäne verlässt „abgezogen“ werden…). Ein Messaufbau der
nach diesem Prinzip arbeitet, wäre zum Beispiel eine Maske in der Lichtleiter regelhaft
angebracht werden. Unter dieser Maske befindet sich das Messobjekt. Die Belichtung
und die Detektion von Licht könnten über diese Maske erfolgen. Zur Lösung der Gleichung müssten hier Objektgröße und Ort der Lichtquelle bekannt sein.
Skizze:
Abbildung 5: Diffuse optische Tomographie.
Skizze eines möglichen Messaufbaus. Die
Belichtung und Detektion könnte über regelhaft in einer halbkugelförmigen Maske angebrachte Lichtleiter erfolgen.
Über einen optischen Multiplexer könnten hier die Lichtleiter als Lichtquelle und Lichtdetektor genutzt werden. Ähnliche Aufbauten werden in Forschungslabors eingesetzt.
Die Auflösung eines Gerätes, das nach der Diffusionsnäherung rekonstruiert, kann aufgrund der Abschätzungen der Strahlungstransportgleichung etwa im Bereich von einem
Millimeter liegen (vgl. Schulz [7]).
Eine weiterer Ansatz ist die optische Kohärenz- Tomographie (optical coherence tomography: OCT). Dieses Messprinzip funktioniert ähnlich wie ein B- Scannverfahren
beim Ultraschall. Es wird also eine Laufzeitanalyse mit Licht in einem Messobjekt gemacht. Man kann OCT betreiben, indem man einen Lichtleiter an ein Messobjekt hält,
mit diesem einen Lichtpuls in das Messobjekt überträgt, und das rückgestreute Licht mit
dem Lichtleiter wieder detektiert (dann wie beim Ultraschall verschieben) . Über die
Laufzeit des Lichtes lässt sich der Ort der Rückstreuung identifizieren. Als zusätzliche
Informationsquelle wird die Kohärenz von Licht ausgenutzt, dadurch ist es möglich,
mehrfach gestreutes Licht von wenig gestreutem Licht zu unterscheiden. Mit OCT- Geräten lassen sich Auflösungen von 5- 30 µm bei Eindringtiefen von 1 – 3 mm erreichen
(vgl. Splinter [9]).
3 Material und Methoden
3
Material und Methoden
3.1
Messaufbau und Beschreibung der verwendeten
Einzelkomponenten
13
Ausgehend von den Computertomographen der ersten und zweiten Generation (Translation- Rotations- Scanner) wurde folgendes Modell als Grundlage für den Aufbau gewählt:
Abbildung 6: Skizze Strahlengang von oben.
Als Lichtquelle soll ein Diodenlaser im nahen infraroten Spektralbereich dienen. Dessen
Strahlung wird mittels geeigneter Optiken auf Objektgröße aufgeweitet und hinter diesem auf die Größe des Detektors einer CCD-Flächenkamera – fokussiert. Anders als
bei den ersten Konzepten der Computertomographie, bei denen Röntgenröhre und Detektor um das belichtete Objekt rotieren bzw. verschoben werden, soll hier nur das Objekt mittels geeigneter Stellmotoren bewegt werden.
Der ganze Aufbau soll möglichst variabel bleiben, um zum Beispiel durch Austausch
oder Entfernen der Optiken den Betriebsmodus des Gerätes vom Flächen- bzw. mehrzeiligen Betrieb auf punktuelles „Abtasten“ des Objektes wechseln zu können.
3 Material und Methoden
14
Folgender Aufbau wurde realisiert:
Abbildung 7: Realisierter Messaufbau. Erstes Foto: Ansicht von oben; Zweites Foto: Ansicht von vorne.
Als mechanisches Grundsystem wurde das Profilschienensystem SYS 65 (OWIS, Staufen, Deutschland) der installiert. Das ganze System ist auf einer Bodenplatte variabel
montierbar und befindet sich in einem schwarzen Kasten aus Aluminium und Plexiglas,
welcher das Tageslicht abhalten soll.
Zur genaueren Betrachtung der verwendeten Komponenten wird der Messaufbau in drei
funktionelle Abschnitte unterteilt:
-
Erzeugung und Leitung des Lichtes zum Objekt
-
Objektpositionierung und Bewegung
-
Leitung und Detektion des Lichtes hinter dem Objekt
3 Material und Methoden
15
3.1.1 Erzeugung und Leitung des Lichtes zum Objekt
Abbildung 8: Lichterzeugung und Lichtleitung zum Messobjekt. Messaufbau von der Vorderseite.
Als Lichtquelle dient der Diodenlaser xldm 650-3 (LINOS Photonics GmbH, Göttingen, Deutschland) mit einer Wellenlänge von 650 nm und einer Lichtleistung von 3
mW. Optional steht ein Diodenlaser der gleichen Bauart mit einer Wellenlänge von 785
nm und einer optischen Leistung von 1 mW zur Verfügung.
Der Diodenlaser emittiert einen elliptischen Strahl (3,5 x 1,5 mm), welcher sich durch
integrierte Optiken fokussieren lässt.
Die Stromversorgung (DC) des Lasers erfolgt über ein Labornetzgerät (alpha +- electronica, Parma, Italien). Zur Verdrahtung und zum Anschluss des Lasers ist ein „Steckkasten“ auf
der Bodenplatte angebracht.
Der Laser ist mittels geeigneter Adapter in einen Aufspannbock
fixiert. Dieser ist auf dem Prismentisch PR80 (Owis, Staufen,
Deutschland) montiert, welcher eine Justierung des Winkels
gegenüber der Horizontalen und der Richtung des Laserstrahls
erlaubt. Die Höhe des Lasers lässt sich der Höhe der Optischen
Bank mittels der Stift – Säulenkombination angleichen.
Abbildung 9 zeigt die Implementierung des Diodenlasers in das Messsystem
3 Material und Methoden
16
Abbildung 10: Die Lichtleitung zum Messobjekt. Von links nach rechts: Plankonvexe Zylinderlinse,
Neutralfilter, Spaltblende, Plankonvexe Zylinderlinse, Umlenkwürfel
Auf der 50 cm langen Profilschiene befinden sich ein Umlenkwürfel, zwei Linsen, eine
Blende und ein Polarisationsfilter. Die Profilschiene ist mittels Reiter und Adapterplatten (Anpassung der Höhe der optischen Achse an die Höhe des Motorblocks) fest mit
der Bodenplatte verschraubt. Die Höhe der optischen Achse ist somit auf 17,5 bis 18 cm
über der Bodenplatte festgelegt.
Der Umlenkwürfel dreht/spiegelt den Laserstrahl in die optische Achse um 90°. Er ist
wie alle auf der Schiene montierten Komponenten mittels Reiter verschiebbar.
Die Stahlaufweitung besteht aus zwei plankonvexen Zylinderlinsen (Brennweiten:
25mm und 200mm). Die Zylinderlinsen weiten den Lichtstrahl in der horizontalen Achse um den Faktor 8 auf. Sie sind mittels geeigneter Aufnahmeplatten an sogenannten
„Transjustierungen“ montiert. Eine Transjustierung erlaubt es, den Winkel der Linse
horizontal und vertikal zur optischen Achse zu verstellen. Zur Änderung des Betriebsmodus vom „Zeilenscanner“ zum „Flächenscanner“ können die Zylinderlinsen durch
Bikonvexlinsen (Brennweiten: 50 und 200mm) ersetzt werden.
Die Spaltblende SP60 weist eine Apertur von maximal 12 x 12 mm auf und dient der
Unterdrückung von Streulicht.
Es können bis zu drei Filter hintereinander auf einem Filterhalter angebracht werden.
Zur Verfügung stehen zwei Neutralfilter mit einer Transmission von 0,1% und ein
Neutralfilter mit einer Transmission von 1%. Der Polarisationsfilter (nicht auf der Abbildung) kann über einen Adapter in die Fassung der Sammellinsen geschraubt und mittels einer Transjustierung auf dem Profil befestigt.
3 Material und Methoden
17
3.1.2 Objektpositionierung und Bewegung
Der Objektpositionierung dienen drei Stellmotoren der Firma Owis (Owis GmbH, Staufen, Deutschland). Die Höhe des Motorblocks bestimmt die Höhe des Messobjekts über
der Bodenplatte und somit auch die Höhe der
Optischen Achse des Messsystems. Sie beträgt bei Nullstellung des Hubmotors 15 cm.
Diese sind über die LSTEP-PCI Interfacekarte mit dem PC verbunden. Die Motorsteuerung erfolgt über das mitgelieferte Software
Development Kit (SDK) direkt in der verwendeten Programmierumgebung (Delphi
2007 s. u.).
Direkt auf der Bodenplatte ist der Höhenverstelltisch HVM 100 montiert. Dieser erlaubt
eine maximale Höhenverstellung von 30 mm
und dient der Schichtselektion am Messobjekt. Er hebt die auf der 120 x 100 mm großen Plattform montierten Motoren und das
Messobjekt bis zu einer Gewichtskraft von
150 N bei einem Positionierfehler von weniger als 60 µm und einem Wiederholfehler
von weniger als 6 µm.
Abbildung 11: Stellmotoren. Unten: Hubtisch,
Mitte: Lineartisch, Oben: Rotationstisch
Auf der Plattform des Höhenverstelltisches ist der Präzisionslineartisch LTM 80-75
montiert. Dieser hat einen maximalen Stellweg von 70 mm und verschiebt das Messobjekt horizontal durch die optische Achse. Er dient somit der Translationsbewegung beim
„Scannen“ größerer Objekte. Der Positionierfehler wird vom Hersteller mit maximal 25
µm pro 100 mm Fahrweg angegeben. Der Wiederholfehler beträgt weniger als 15 µm.
Über eine 1 cm breite Adapterplatte ist der Drehmesstisch DMT 65-25 auf der Plattform des Linearmotors montiert. Der Rotationswinkel des Drehmotors ist unbegrenzt.
Der Wiederholfehler des Motors beträgt laut Herstellerangaben maximal 0,02°. Die
Tragkraft des DMT beträgt 100 N. Somit kann die Belastung auf den gesamten Motorblock durch das Messobjekt theoretisch bis zu 100 N betragen. Auf der Drehachse des
Motors ist ein zusätzlicher Drehteller montiert. Dieser ist 0,5 cm breit und erlaubt eine
komfortablere Positionierung des Messobjektes.
3 Material und Methoden
18
3.1.3 Detektion des Lichtes
Abbildung 12: Lichtfokussierung und -Detektion. Links: Digitalkamera, Mitte: Spaltblende, Rechts:
Plankonvexe Zylinderlinse (Strahlfokussierung)
In der Detektorseite des Aufbaus befinden sich die Digitalkamera, eine Fokussierlinse,
ein Polarisationsfilter und eine Spaltblende. Diese Komponenten sind auf einem Profilschienensystem montiert. Hier wird der Lichtstrahl gefiltert, eingeblendet und auf den
CCD- Chip der Kamera fokussiert.
Das Profilschienensystem hat eine Länge von 30 cm und ist über Adapterplatten zur
Anpassung der Höhe mit der Bodenplatte verschraubt.
Das Polarisationsfilter 80 (nicht auf der Abbildung, LINOS Photonics GmbH, Göttingen, Deutschland) kann über eine Stift-Säulen-Kombination direkt auf der Bodenplatte
zwischen Profilschiene und Motorblock montiert werden. Der Durchmesser des Filters
beträgt 80 mm. Die Richtung der Polarisation lässt sich durch drehen der Filterfolie einstellen. Der maximale Polarisationsgrad des Filters liegt bei über 99,99%. Dies entspricht einem Auslöschungsverhältnis für senkrecht zur Polarisationsachse linear polarisiertes Licht von etwa 1:10000.
Der Fokussierung des Lichtstrahles dient eine Plankonvex- Zylinderlinse mit einer
Brennweite von 100 mm. Um den Betriebsmodus vom „Zeilenscanner“ zum „Flächen-
3 Material und Methoden
19
scanner“ zu ändern kann diese Zylinderlinse durch eine Bikonvexlinse derselben
Brennweite ersetzt werden. Die Linse wird über die oben beschriebene Transjustierung
mit der optischen Bank verbunden. Über den Abstand der Linse zur Detektorfläche lässt
sich die Fokussierung des Lichtstrahls je nach Fokusgröße am Objekt passend zur Breite
der Detektorfläche einstellen.
Zwischen Fokussierlinse und Kamera befindet sich eine Spaltblende SP 60(s. 3.1.1).
Sie dient der Einblendung und der Unterdrückung von Streustrahlung.
Der Lichtdetektor des Messsystems ist die Digitalkamera Scout SC 640 - 70f (Basler
AG, Ahrensburg, Deutschland). Die Kamera ist über eine 1,5 cm breite Adapterplatte zur Anpassung der Höhe der Detektorfläche an die Höhe der optischen Achse – auf einen Reiter des Profilschienensystems montiert. Der Detektor der Kamera ist der CCD –
Chip Sony ICX 424. Dessen optische Größe liegt bei 5,79 x 4,89 mm. Die Pixelgröße
beträgt 7,4 x 7,4 µm, bei 659 x 494 Pixel auf dem Chip. Der Chip arbeitet nach dem
Interline Transfer Prinzip im Progressive Scan Modus. Das bedeutet, dass für jeden Pixel auf dem Chip eine Fotodiode und eine Speicherzelle in der optischen Fläche angebracht sind. Diese sind zeilen- und spaltenweise parallel zueinander angeordnet. Dadurch wird der Füllfaktor – der Anteil des eintreffenden Lichtstrahles, welcher auf eine
lichtempfindliche Stelle trifft – deutlich geringer (keine Herstellerangaben!). Vorteile
hat dies für die Auslesegeschwindigkeit (bis zu 71 Vollbilder pro Sekunde) und die
Auslesegenauigkeit sowie durch die Möglichkeit gezielt eine Region auf dem Chip auslesen zu können.
Die Kamera ist über eine Firewire-Schnittstelle mit dem PC verbunden. Das mitgelieferte Software Development Kit ermöglicht die Bedienung der Kamera in der Programmiersprache C++.
3 Material und Methoden
20
3.1.4 Kalibrier- und Messphantome
Als Kalibrierphantom dient ein Gewindestift:
Abbildung 13: Kalibrierphantom. Oben: liegend, links: verschraubt im Drehteller
Dieser Kalibrierstift hat ein 4mm- Gewinde und kann
so in die Zentralbohrung des Drehtellers des Rotationstisches geschraubt werden. Die Länge des Stiftteiles
beträgt 23 mm und der Durchmesser 1,8 mm. Für die
Kalibriermessungen ist es besonders wichtig, dass dieser Stift gerade und gleichmäßig
rund ist.
Es kommen unterschiedliche Messphantome zum Einsatz. Zunächst werden zur Evaluierung einfache geometrische Objekte (Schattenmessungen z.B. runde Schrauben und
Nägel oder eckige Würfel) eingesetzt. Für die Messung unterschiedlicher Schwächungen wurde folgendes Phantom erstellt:
Dieses Messphantom ist ein Quader
mit quadratischer Grundfläche aus
Plexiglas. Die Kantenlänge beträgt
1,5 cm und die Höhe 1 cm. In der
Mitte liegt eine zentrale Bohrung
von 5 mm Durchmesser. Die Seiten
des Quaders und das Bohrloch haben eine raue Oberfläche.
Abbildung 14: Messphantom.
3 Material und Methoden
3.2
21
Software, Programmierung und Programmablauf
3.2.1 Allgemein/Aufbau
Die komplette Bedien- und Auswertesoftware ist mittels Code Gear RAD Studio (CodeGear, Scotts Valley, CA, USA) in der Programmiersprache Delphi Version 2007 geschrieben. Bei der Bildverarbeitung und Diagrammdarstellung kommen die OpenSource- Komponenten Graphics321 und XYGraph2 zum Einsatz. Zur Bedienung der
Motoren wird auf das mitgelieferte Software Developement Kit (SDK) direkt in Delphi
zugegriffen. Die Kamera hingegen verfügt über ein SDK, welches nur die Programmiersprache C++ unterstützt. Um im Hauptprogramm direkt auf die Kamera zugreifen
zu können, sind die wichtigsten Funktionen der Kamera über Programmbibliotheken
steuerbar. Diese Programmbibliotheken (Dynamic Link Libraries) wurden im Microsoft
Visual Studio 2007 (Microsoft Corporation, USA) in C++ erstellt und exportiert. In
Delphi stehen somit die Befehle Anmelden, Abmelden, Kameraeinstellungen ändern
und Foto machen zur Verfügung.
Das Hauptformular dient der Verknüpfung der verschiedenen Funktionen des ganzen
Messsystems, man hat die Möglichkeit auf die verschiedenen Unterformulare zuzugreifen. Diese sind funktionell in die Bereiche Aufnahme, Auswertung und Testen gegliedert. Die Hierarchie der verschiedenen Formulare stellt sich folgendermaßen dar:
Abbildung 15: Übersicht Software.Dunkelgrau: Hauptformulare, Hellgrau: Unterformulare. Die Pfeile
stellen die Verknüpfungen der verschiedenen Formulare dar.
1
2
http://www.graphics32.org/wiki/
http://www.torry.net/vcl/charts/charts/xygrph23.zip
3 Material und Methoden
22
Der Bereich Aufnahme dient der Akquisition neuer Projektionsaufnahmen. Dazu müssen im Formular zunächst die grundlegenden Einstellungen zur Positionierung und zum
Fahrprogramm für die Motoren eingegeben werden. Dazu gehören Angaben wie die
Anzahl der zu scannenden Schichten, die Aufnahmen pro Schicht, die Größe (Durchmesser und Höhe) des Messobjektes und die Scannregion (Volume of Interest). Falls
der Messaufbau verändert wurde, müssen die Angaben über die Fokushöhe und –breite
des Lichtstrahls am Objekt angepasst werden.
Abbildung 16: Formular Aufnahme.
Sind diese Eingaben bestätigt, errechnet sich die Software das „Fahrprogramm“ für die
Motoren und zeigt dem Anwender dieses an. Außerdem wird der Anwender zu dem
Formular Kamera einstellen weitergeleitet.
Hier stellt der Anwender die Belichtungszeit, die Auflösung und die Ausleseregion auf
der Detektorfläche der Kamera ein. Sobald diese Angaben festgelegt wurden muss der
Kalibrierprozess für den Messaufbau durch den Anwender über einen Schaltknopf gestartet werden. Der Kalibrierprozess für den Messaufbau umfasst eine horizontale Korrektur der Bildfeldwölbung der Fokussierlinse, die Bestimmung der korrekten Ausgangsposition der Motoren für das Fahrprogramm und die Ermittlung der Korrekturdaten für die Rotationsachse (s. u.). Sobald diese Daten aufgenommen worden sind, können die Belichtungszeit oder die Auflösung der Kamera noch solange korrigiert werden,
bis der Anwender durch Klicken auf die Schaltfläche Weiter zurück zum Aufnahmeformular geleitet wird. Mit den dadurch fixen Kameraeinstellungen müssen hier die
Aufnahmen für die Normierung der Datensätze gemacht werden. Dazu werden je 40
Bilder ohne Belichtung der Kamera (Dunkelbilder) und mit Belichtung der Kamera
3 Material und Methoden
23
(Lichtquellenhomogenität) - jeweils ohne das Messobjekt - aufgenommen. Die eigentliche Normierung der aufgenommenen Projektionsaufnahmen erfolgt während des Auswerteprozesses.
Abbildung 17: Formular Kameraeinstellungen.
Daraufhin kann der Anwender im Formular Aufnahme die Ermittlung der Projektionsdaten des Messobjektes starten.
Der Bereich Auswertung ist in die zwei Unterformulare Nachbearbeitung/ Normierung
und Rekonstruktion gegliedert. Die aufgenommenen Projektionsdatensätze müssen für
die Rekonstruktion normiert und angepasst werden. Dies geschieht durch Drücken der
jeweiligen Schaltflächen im gleichnamigen Formular.
Die Normierung erfolgt nach Auswertung der 80 Normieraufnahmen jeder Serie automatisch. Sie beinhaltet eine Umwandlung der Projektionsdaten von Transmissionswerten in Schwächungswerte und deren Darstellung in Graustufen. Sollten bei der Aufnahme der Projektionen mehrere Translationsschritte durchgeführt worden sein, kann der
Anwender durch Aktivierung der entsprechenden Schaltfläche die Bilder verknüpfen.
Im Anschluss daran erfolgt automatisch die Korrektur der Projektionsdaten hinsichtlich
der Objektmittenposition während der Rotation aus den Kalibrieraufnahmen der Rotationsachse.
3 Material und Methoden
24
Des Weiteren stehen dem Anwender ein Tool für das Zuschneiden der Bilddatensätze
und ein Grenzwertfilter zur Rauschunterdrückung zur Verfügung.
Die Projektionsprofile werden während dieser Prozeduren immer mit berechnet und
angezeigt. Diese muss der Anwender am Ende des Nachbearbeitungsprozesses durch
Anklicken einer Schaltfläche exportieren. Damit wird eine ASCII- Datei mit den Werten der Projektionsprofile der Serie erstellt. Die Daten stehen dem Anwender somit zur
Bildrekonstruktion auch mit externen Anwendungen zur Verfügung.
Abbildung 18: Formular Normierung und Nachbearbeitung
Die Rekonstruktion des Schnittbildes ist in dem gleichnamigen Unterformular realisiert. Dort hat der Anwender die Möglichkeit den Rückprojektionsalgorithmus ohne
oder mit Filterung zu verwenden. Zur Auswahl stehen die Filter „Dreieck“, „SheppLogan“. „Hanning“ und „genähertes Dreieck“. Das Filter „Dreieck“ beschreibt dabei
den analytisch korrekten Weg der Rückprojekton (s. u.). Weiterhin kann der Anwender
die Größe des zu rekonstruierenden Bildes angeben. Standardmäßig beträgt diese
Profilänge
2 . Das Kontrollkästchen „Profil strecken“ gibt an, ob die Projektionspro-
3 Material und Methoden
25
file für die Rekonstruktion linear auf Filtergröße (2x Pixel) gestreckt oder mit Leerwerten verlängert werden. Diese Verlängerung erfolgt wegen den verwendeten Algorithmen
(Fouriertransformation s.u.).
Abbildung 19: Formular Rekonstruktion.
In den Diagrammen 1 und 2 werden die Werte des verwendeten Filters im Orts- und Frequenzraum angezeigt. In Diagramm 3 kann der Anwender durch die Profile und nach der Rekonstruktion auch durch die
gefilterten Profile scrollen.
Es wurden zwei Testprogramme integriert: Im Formular CamViewer lassen sich die
Kameraeinstellungen testen, im Formular Motoren steuern die Befehle der Motorsteuerung. Diese Programme wurden zunächst geschrieben um mit den Funktionen der
Hardwarekomponenten vertraut zu werden und die Bedienung zu erlernen. Sie erwiesen
sich aber als sehr nützlich bei Änderungen im Aufbau, um die optischen Komponenten
ausrichten zu können. Auch bei der Suche nach geeigneten Messobjekten genügt es
meist, diese mit den Testprogrammen auszurichten und die Aufnahmen anzusehen, um
deren Eignung beurteilen zu können.
3 Material und Methoden
26
3.2.2 Normierung
Im Normierprozess werden die gewonnenen Bildinformationen, welche die Transmission des Messobjektes darstellen, in Schwächungswerte umgerechnet und der Bildtiefe
linear angepasst. Diese Bildtiefe wird durch die Dynamik des Analog – Digital – Wandlers der Kamera begrenzt. In dem hier verwendeten Aufnahmemodus beträgt die Kameradynamik 8 Bit. Das bedeutet, dass die Farbtiefe des zu normierenden Bildes 256
Graustufenwerte umfasst.
Zur Normierung werden die Normieraufnahmen herangezogen, welche vor der eigentlichen Messung der Projektionen gemacht wurden. Dabei wird zunächst für jeden Pixel
das arithmetische Mittel aus den 40 Dunkelbildern und aus den 40 Lichtquellenbilden
berechnet. Diese zwei Mittelwertbilder dienen als Normierreferenz.
Die normierte Schwächungsprojektion berechnet sich daraus nach folgender Gleichung:
µ [ x, y ] = 255 −
255 × (Pixelwert [ x, y ] − Normref dunkel [ x, y ])
Normref belichtet [ x, y ] − Normref dunkel [ x, y ]
Es wird also für jeden Pixel der Projektionsaufnahme ein Schwächungswert aus dem
Quotienten aus dem gemessenen Transmissionswert des Messobjektes und der Lichtintensität der Lichtquelle ohne Messobjekt berechnet. Allerdings ist der Pixelwert des
unbelichteten Bildes von diesen Messwerten jeweils abzuziehen. Dieser Wert berücksichtigt je nach Belichtungszeit den Einfluss der Hintergrundbeleuchtung oder den
Dunkelstrom des Detektorelements.
In dem Algorithmus des Programms ist die Ausnahmesituation berücksichtigt, bei der
keine Normierung möglich ist:
Normierreferenzbelichtet[x, y] <= Normierreferenzunbelichtet[x, y]
µ[x, y] = 0
Der Schwächungswert kann hier auf Null gesetzt werden, da der Pixel vom Laser nicht
belichtet wird und somit auch keine Schwächung durch das Messobjekt auftreten kann.
Aus Gründen der Rechenperformance sind weitere Ausnahmesituationen definiert, bei
denen auf die Normierung verzichtet wird.
z.B.: Pixelwert[x, y] = Normierreferenzunbelichtet[x, y]
µ[x, y] = 255
3 Material und Methoden
27
3.2.3 Berechnung der Projektionsprofile
Die Berechnung der Projektionsprofile kann nach zwei unterschiedlichen Methoden
erfolgen. Standardmäßig erfolgt die Berechnung der Projektionsprofilwerte aus dem
arithmetischen Mittel der Bildzeilen einer Projektionsaufnahme spaltenweise. Um die
Profile zu glätten bzw. zu entrauschen kann der Anwender statt des arithmetischen Mittelwertes den Medianwert einer Bildspalte verwenden:
Abbildung 20: Berechnungsschema Projektionsprofile.
3 Material und Methoden
28
3.2.4 Kalibrierung des Messaufbaus
Unter Kalibrierung des Messaufbaus fallen die Korrektur der Abbildungsfehler der Fokussierlinse, die Ermittlung des Koordinatenursprungs des Linearmotors und der Mittenabgleich unter Rotation.
Die Daten für die Kalibrierung werden komplett anhand der Messungen mit der Kalibriernadel gewonnen. Da die Kalibrierdaten im Programmablauf vor den Normierdaten
erfasst werden, wird zur Normierung der Kalibrieraufnahmen ein extra Lichtquellenbild
(belichtete Normierreferenz) erstellt. Auf das Dunkelbild wird hier aus Gründen der
Anwenderfreundlichkeit verzichtet. Für die Auswertung der Kalibrierdaten ist diese
einfachere Normierung ausreichend.
Die Korrektur der Abbildungsfehler der detektorseitigen Zylinderlinse betrifft im
Wesentlichen die Korrektur der Bildfeldwölbung der Linse am Detektor. Da auch andere Linsenfehler wie z. B. die sphärische Aberration oder Einstellungsungenauigkeiten
im Messaufbau bestehen, wird die Korrektur nicht theoretisch berechnet, sondern anhand der praktisch gemessenen Kalibrierdaten durchgeführt.
Bei dieser Korrektur wird die Kalibriernadel mithilfe des Linearmotors quer durch den
aufgeweiteten Lichtstrahl gefahren. Alle 0,5 mm wird eine Projektionsaufnahme gemacht. Es werden je nach horizontaler Fokusbreite unterschiedlich viele Projektionsaufnahmen angefertigt (z.B.: Fokusbreite = 24mm => Anzahl der Kalibrieraufnahme =
24mm/0,5mm = 48).
Aufnahmeprinzip:
Abbildung 21: Aufnahmeprinzip Kalibrierung.
Zu sehen sind zwei Beispielaufnahmen aus einer Kalibrierreihe von 56 Aufnahmen.
3 Material und Methoden
29
Für jede dieser Projektionsaufnahmen wird das Projektionsprofil aus dem arithmetischen Spaltenmittelwert (s. 3.2.3.) berechnet. Für die zweite der hier abgebildeten Projektionsaufnahmen sieht das Profil folgendermaßen aus:
Abbildung 22: Auswertung der Profildaten bei der Kalibrierung.
Der Maximalwert ist rot markiert, das effektive halbe Maximum bzw. die Objektbreite sind blau markiert.
Aus diesem Profildatensatz wird für jedes Profil die abgebildete Objektbreite bestimmt.
Die Bestimmung der Objektbreite erfolgt ausgehend vom maximalen Schwächungswert, dieser liegt sicher innerhalb des Messobjektes. Von diesem Punkt aus wird jeder
Profilwert in beide Richtungen darauf überprüft, ob er über einem vorher definierten
Grenzwert liegt. Als Schwellenwert dient hier der effektive halbe maximale Schwächungswert, also die Summe aus dem Maximum des größten Schwächungswertes und
dem minimalen Schwächungswert im Profil dividiert durch zwei. Mit diesem Algorithmus wird die Objektbreite am Detektor in Abhängigkeit von der Objektposition gewonnen. Die tatsächliche Objektposition liegt allerdings nur bei zentraler Objektpositionierung in der Objektmitte. Bei einer Positionierung des Kalibrierstifts im Randbereich des
Lichtstrahls wandert die tatsächliche Objektposition zur Bildmitte hin:
Abweichung der realen Objektposition von der Objektmitte in der Darstellung am Detektor
Abbildung 23:Objektposition bei der Kalibrierung.
Rot werden hier die Objektbreite im Strahlenfeld und die zugehörige Objektposition dargestellt. Da die
Objektbreite nach außen hin kontinuierlich größer wird, weicht die tatsächliche Objektposition (orange)
von der Objektmitte ab.
3 Material und Methoden
30
Aufgrund der guten Korrelation der Motorposition mit der Objektposition im zentralen
Lichtstrahl, wird die tatsächliche Objektposition in den Randbereichen der Zylinderlinse
aus dem mittleren Abstand der zentralen Positionierschritte extrapoliert.
Von Interesse sind die relative Größenänderung der Objektdarstellung der zentralen
Objektposition zu den Randpositionen und die Lage des Minimums. Daher wird eine
Normierung der Darstellungsbreite auf das Minimum durchgeführt. Weil eine kontinuierliche Vergrößerung der Objektdarstellung von der zentralen Position nach außen hin
zu erwarten ist, wird eine lineare Regressionsanalyse zweiter Ordnung mit diesem Datensatz durchgeführt. So kann für jede vertikale Bildspalte ein Korrekturwert ermittelt
werden:
Messdaten
Abbildungsqualität vor der Kalibrierung
Regressionskurve
2
relative Objektbreite
1,8
1,6
1,4
1,2
1
0,8
0
100
200
300
400
500
600
Objektposition /Detektorspalte
Abbildung 24: Verzerrung der Aufnahmen vor der Kalibrierung.
Der Algorithmus zur Berechnung eines linearen Fits eines diskreten Datensatzes ist aus
Press [10] übernommen und angepasst.
Aus der kontinuierlichen Regressionsfunktion lässt sich für jede Detektorelementspalte
deren relative Breite errechnen. Die Werte werden nochmals auf ihr Minimum normiert
und signifikant gerundet. Diese Korrekturtabelle wird während der ganzen Aufnahmeprozedur gespeichert. Die eigentliche Bildkorrektur erfolgt dann immer sobald eine
Aufnahme mit der Kamera gemacht wird durch Zugriff auf diese Korrekturtabelle.
3 Material und Methoden
31
Das Berechnungsschema für das korrigierte Bild soll durch folgendes Beispiel verdeutlicht werden:
Detektorelement
1
2
3
4
5
Messwert
200
190
195
200
195
Korrekturwert
1,00
1,05
1,10
1,18
1,25
Der Messwert des Startdetektorelementes wird mit dem reziproken Wert seines Korrekturwertes multipliziert. Der dann noch fehlende Teil zur normalen Elementbreite(= 1)
wird von dem nächsten Detektorelement anteilig addiert. Für die Detektorelemente in
diesem Beispiel bedeutet dies:
Element 1: korrigierter Messwert =
1
* 200 = 200
1,00
Element 2: korrigierter Messwert =
1
1 

*190 + 1 −
 *195 = 190
1,05
 1,05 
  1 
 1 
1 
1   
Element 3: korr. Mw. = 
− 1 −
− 1 −
  *195 + 1 − 
   * 200 = 196
1
,
10
1
,
05



 1,10  1,05  

  1
 1


Element 4: korr. Mw. = 
− 0,1386  * 200 + 1 − 
− 0,1386   *195 = 199
 1,18


  1,18
Bei 659 Bildspalten der Kamera und relativen Objektgrößen bis etwa 1,8 macht sich der
Effekt dieser Pixelkorrektur deutlich bemerkbar. Die Bildbreite wird auf ungefähr 580
Pixel reduziert.
Die Berechnung dieses korrigierten Bildes muss dabei stets vom Minimum der Regressionsfunktion aus in beide Richtungen erfolgen. Dieses Minimum ist der Ort, an dem
die Lichtstrahlen genau von der Mitte der fokussierenden Zylinderlinse kommen. Da
dies je nach Justierung der Linsen des Messaufbaus nicht unbedingt in der Mitte des
Detektorfeldes liegt, kann die Lage des Minimums auch als Kriterium für die Justage
der Linsen verwendet werden.
Aus den Aufnahmen aus diesem Kalibrierschritt wird eine weitere wichtige Information
gewonnen. Dies ist die Motorposition des Linearmotors, bei der sich das Messobjekt
genau in der Mitte des Detektorfeldes befindet. Um genau diesen Koordinatenpunkt
wird das Messobjekt später rotieren.
Zur Ermittlung dieser Koordinate müssen die obigen Kalibrieraufnahmen zunächst nach
der oben beschriebenen Methode korrigiert werden. Daraufhin werden die zwei Projektionsprofile ermittelt, zwischen deren Objektmitten sich die horizontale Mitte des De-
3 Material und Methoden
32
tektorfeldes befindet. Aus diesen beiden Profilen wird die Motorposition, bei welcher
Objektmitte und Bildmitte aufeinander fallen, linear interpoliert.
Ausgehend von der so ermittelten Nullkoordinate des Linearmotors wird eine Mittenabgleich der Rotationsachse durchgeführt. Die ist notwendig, da schon kleinste Verschiebungen der Objektmitte (2-3 Pixel) während der Rotation zu großen Fehlern bei
der Bildrekonstruktion führen. Die Korrekturdaten für diese Kalibrieraufgabe werden
ähnlich wie bei der Korrektur der Linsenabbildungsfehler gewonnen:
Es wird bei konstanter Stellung des Linearmotors und des Hubmotors (Nullkoordinaten)
alle zehn Grad Rotationswinkel eine Projektionsaufnahme des Kalibrierstifts gemacht.
Bei diesen 36 Aufnahmen sind die Abbildungsfehler schon korrigiert. Es erfolgt nach
Normierung und Profilberechnung die Bestimmung der Objektmitte aus der Mittenposition der Objektgrenzen. Die absolute Abweichung der Mittenposition bei den verschiedenen Rotationswinkeln gegenüber des Referenzwinkels (0°) wird zur Mittenkorrektur
verwendet:
Horizontale Verschiebung der Objektmitte bezogen auf die
Bildmitte
3
Änderung der Objektmitte /Pixel
2
1
0
-1 0
50
100
150
200
250
300
350
-2
-3
-4
-5
-6
-7
-8
Rotationswinkel /°
Abbildung 25: Abweichung der Objektmitte von der Bildmitte während der Rotation.
Diese Daten werden als ASCII- Datei gespeichert. Die eigentliche Mittenkorrektur der
Messaufnahmen erfolgt während des Nachbearbeitungs- und Normierprozesses. Dazu
werden die normierten Projektionsaufnahmen um die Pixelanzahl und Richtung der er-
3 Material und Methoden
33
mittelten Mittenabweichung ihres Projektionswinkels verschoben. Die dabei entstehenden Leerstellen werden durch Nullen aufgefüllt:
Normierte Projektionsaufnahme:
Mittenkorrigierte Projektionsaufnahme
→
Abbildung 26: Funktionsprinzip des Mittenabgleichs.
Die Graustufendarstellung soll den Schwächungswert am Detektor durch das Messobjekt darstellen. Das
Messobjekt wird durch die hellen Pixel (= hohe Lichtschwächung) abgebildet.
Da die Verschiebung nur Pixelweise erfolgen kann, sind die Korrekturdaten ausreichend. Es muss hier keine Interpolation oder Regressionsrechnung sondern lediglich
eine Rundung der Kalibrierdaten auf Pixelschritte und eine Zuordnung der Projektionswinkel der Messaufnahmen auf die (gröbere) Rasterung der Kalibrieraufnahmen erfolgen.
3 Material und Methoden
34
3.2.5 Bildbearbeitungsmöglichkeiten
Nach der Normierung der Messdaten sollten die Projektionsaufnahmen auf die tatsächlich belichtete Detektorfläche zugeschnitten werden. Dadurch kann das Rauschen, welches an dem oberen und unteren Rand der belichteten Detektorfläche auch durch die
Normierung entsteht, unterdrückt werden und der Kontrast in diesem Projektionsprofil
erhöht werden.
Dem Anwender steht ein Schneidewerkzeug im Nachbearbeitungsformular zur Verfügung. Durch Markieren der oberen linken und der unteren rechten Grenzen des zu beschneidenden Bildausschnitts wird die Serie aus Projektionsaufnahmen auf das gewählte Format beschränkt.
Des Weiteren kann der Anwender einen Grenzwertfilter nutzen. Hier kann der Benützer definieren, ab welchem Grauwert die Pixel der Projektionsaufnahmen auf Schwarz
beziehungsweise auf Weiß gesetzt werden. Diese Änderung wird bei jedem Pixel der
Projektionsaufnahmen durchgeführt. Es findet hier somit keine Unterscheidung zwischen Messobjekt und Hintergrund statt.
Die Anwendung dieser Bildbearbeitungsmöglichkeiten erfordert vom Anwender ein
achtsames Vorgehen. Das Schneidewerkzeug sollte beispielsweise nur zum Beschneiden des oberen beziehungsweise unteren Bildabschnittes eingesetzt werden. Wenn die
horizontale Bildbreite nicht auf beiden Seiten gleichmäßig gekürzt wird, liegt die Objektmitte nicht mehr in der Profilmitte. Dadurch entstehen Artefakte bei der Bildrekonstruktion.
3 Material und Methoden
35
Beispiel zur Nachbearbeitung der Projektionsaufnahmen:
Messaufnahme:
Normierung:
Schneiden:
Filterung (hier: Wenn Pixelwert < 60 → Pixelwert = 0):
Projektionsprofil (hier: aus Median) dieser Projektionsaufnahme:
Projektionsprofil
250
Lichtschwächung
200
150
100
50
0
0
50
100
150
200
250
300
350
400
450
500
Detektorspalte
Abbildung 27: Zusammenfassung der Bildbearbeitungsmöglichkeiten.
Die diskreten Profildatenpunkte (blau) wurden wegen der besseren Übersichtlichkeit durch rote Linien
verbunden.
3 Material und Methoden
36
3.2.6 Bildrekonstruktion
Die Algorithmen zur Berechnung eines Schnittbildes aus Projektionsaufnahmen wurden
aus einem bestehenden Programm eines experimentellen Computertomographen des
IMPS übernommen und für die Anwendung am optischen Computertomographen angepasst.
Der Rückprojektionsalgorithmus funktioniert nach folgendem Muster:
Abbildung 28:
Prinzipskizze Rückprojektionsalgorithmus.
Die Berechnung des Schnittbildes erfolgt pixelweise. Das bedeutet, dass für einen Pixel
der Index jedes Profils je nach Projektionswinkel ermittelt wird und die Schwächungswerte dieser Indices addiert werden.
Die Zuordnung eines Profilwertes ergibt sich aus (vgl. Morneburg [11] S. 137ff):
Index p ( x, y, φ m ) = y cos(φ m ) + x sin(φ m )
mit
x, y = Koordinaten Bildmatrix
ε von [ -Auflösung / 2; +Auflösung / 2 ]
φm = Projektionswinkel
Dieser dem Bildelement zu addierende Profilwert wird durch lineare Interpolation der
zwei dem Index am nächsten liegenden Profilwerte ermittelt.
Für alle Bildelemente der Bildmatrix gilt somit:
µ ( x, y ) =
mit
1
NP
N p −1
∑ g (µ
m =0
m
( Index p ) )
g = Interpolationsfunktion
Np = Anzahl Projektionen
Diese Funktion wird so im Rückprojektionsalgorithmus für die ungefilterte Rückprojektion direkt umgesetzt. Die Länge der Projektionsprofile bestimmt hierbei die optima-
3 Material und Methoden
37
le Größe der Bildmatrix. Wenn die Länge der Bilddiagonale genau der Profillänge entspricht, kann jedem Bildelement ein Profilwert jedes Projektionswinkels zugeordnet
werden. Dadurch kann es bei ungünstigen Einstellungen im Aufnahmeformular dazu
kommen, dass Randstrukturen des Messobjektes nicht mehr angezeigt werden. Daher
sind hier durch den Anwender zwei mögliche Bildgrößen wählbar - die optimale Bildgröße und die maximale Bildgröße. Bei der maximalen Bildgröße werden die Höhe und
Breite der Bildmatrix gleich der Profillänge gesetzt. Hier erfolgt eine Nachnormierung
der einzelnen Bildelemente indem nur die tatsächlich für den Grauwert des jeweiligen
Bildelements verantwortlichen Profile in dem Faktor NP in obiger Formel berücksichtigt
werden.
Da die ungefilterte Rückprojektion die Profile „verschmiert“ werden zur Erhöhung der
Bildschärfe des Schnittbildes Filter eingesetzt. Bei diesem gefilterten Rückprojektionsalgorithmus können unterschiedliche Filterkerne eingesetzt werden. Der mathematisch korrekte Filter ist der Filter nach Ramachandran & Lakshminarayanan:
Filter im Frequenzraum
Filter im Ortsraum
0,6
1
0,5
0,9
0,8
0,4
0,7
0,6
Amplitude
Intensität
0,3
0,2
0,1
0,5
0,4
0,3
0
-4
-3
-2
-1
0
1
2
3
4
0,2
-0,1
0,1
-0,2
0
-4
-0,3
Ort
-3
-2
-1
0
1
2
3
4
Frequenz / 1/delta Ort
Abbildung 29: Kontinuierliche Darstellung des Ramachandran & Lakshminarayanan Filterkerns.
Je nach Qualität der Profile (Rauschen) oder gewollter Betonung im Schnittbild können
verschiedene Variationen des Filterkerns eingesetzt werden. Hier sind die Filterkerne
nach Shepp & Logan, Hamming und genähertes Dreieck zusätzlich verfügbar (Definitionen und Formeln siehe Kak [12] oder Morneburg [11]). Die Filterung der Projektionsprofile kann als Faltungsoperation im Ortsraum oder als Multiplikation im Frequenzraum gelöst werden. Aufgrund der einfacheren Umsetzbarkeit wird hier die Methode im
Frequenzraum durchgeführt. Dazu werden die Profile und die Filterkerne in den Frequenzraum transformiert und deren Werte multipliziert. Nach der Rücktransformation
des Multiplikationsergebnisses in den Ortsraum kann die Rückprojektion der gefilterten
Profile genau wie oben bei der ungefilterten Rückprojektion erfolgen.
Die Transformation und Rücktransformation der Daten wird durch die Fouriertransformation erreicht. Es wird ein FastFourierTransform- (FFT) Algorithmus nach Sedgewick
[13] eingesetzt. Dies ist ein sehr schneller rekursiver Algorithmus, der die Fouriertrans-
3 Material und Methoden
38
formation und die inverse Fouriertransformation programmiertechnisch in derselben
Funktion löst. Allerdings muss die Auflösung bei diesem FFT- Algorithmus 2n (mit n ε
N) betragen. Da die Auflösung des Frequenzraumprofils auch durch die Profillänge im
Ortsraum begrenzt wird (Abtasttheorem), werden die Profile auf den Wert des nächsten
höheren möglichen Auflösungsschrittes (typischerweise 1024) verlängert. Diese Verlängerung kann durch lineare Streckung oder Auffüllen mit Null erreicht werden und
wird nach der Rücktransformation durch lineare Stauchung bzw. Schneiden automatisch
wieder rückgängig gemacht.
4 Ergebnisse und Diskussion
39
4
Ergebnisse und Diskussion
4.1
Analyse des Messsystems und seiner Fehlerquellen
4.1.1 Modell Strahlengang
Um die Intensität der Lichtstrahlung am Messobjekt abschätzen zu können und eine
Aussage über den zu erwartenden Grauwert am Detektor treffen zu können, ist ein einfaches Modell des Strahlenganges ausreichend. Hier wird ein Modell umgesetzt, welches die Reflexionsverluste der einzelnen Komponenten des Messaufbaus berücksichtigt. Aus den Herstellerangaben und Messwerten werden die Lichtleistung und die Photonenzahl an den einzelnen Komponenten des Messaufbaus berechnet. Mit der Anzahl
der Photonen am Detektor kann schließlich der zu erwartende mittlere Grauwert berechnet werden.
In dem Modell wird der Aufbau mit dem Standartlaser (650 nm, 3 mW) ohne Polarisationsfilter berücksichtigt:
Lichtquelle
Linsen
Lichtleistung /W
3,0E-03
2,7E-03
2,4E-03
Primärphotonen/s
9,8E+15
8,8E+15
0,9
0,893
Transmission
Neutralfilter Messobjekt
Linse
Sensor
2,4E-06
2,4E-06
2,3E-06
7,9E+15
7,9E+12
7,9E+12
7,5E+12
0,001
1
0,95
Die Transmission (T) des Lasers steht hier für den Anteil der emittierten Strahlung,
welcher in die optische Achse gelangt (Schätzung). Unter Linsen werden die zwei quellenseitigen Aufweitungslinsen (T ≈ 0,95²) und der Strahlumlenkwürfel (T ≈ 0,99) zusammengefasst. Die Transmission des Messobjektes wird hier zur Bestimmung des
mittleren Grauwertes und somit zur Abschätzung der Verluste am Sensor bzw. sonstigen Verluste auf eins gesetzt. Aus dem EMVA- Protokoll des Kameraherstellers können
die Angaben über die Quanteneffizienz, die Kapazität (Saturation Capacity), die Pixelgröße und die CCD- Chipgröße entnommen werden. Vermutlich ist der Füllfaktor (typisch 0,2 - 0,3) des CCD- Chips bei der Ermittlung der Quanteneffizienz berücksichtigt
worden. Hierzu existieren keine Angaben des Kameraherstellers oder des Chipherstellers. Die folgenden Messergebnisse legen dies jedoch nahe.
4 Ergebnisse und Diskussion
40
Der zu erwartende mittlere Grauwert (GW) berechnet sich nach:
GW =
Photonen / s * Fläche Pixel * Gesamtpixelzahl * FaktorVerlust * QE * Zeit Belichtung
Gesamtchipfläche * Pixelzahlbelichtet * Kapazität
* 255
QE = quantum efficiency ≈ 0,27 e/Ph @ 650 nm
Der Verlustfaktor kann aus Messungen abgeschätzt werden. Dazu werden je drei Messaufnahmen ohne Messobjekt mit zwei unterschiedlichen Belichtungszeiten gemacht.
Hierbei muss darauf geachtet werden, dass möglichst keine Pixel in der Sättigung
(Grauwert = 255) liegen. Wenn viele Detektorelemente gesättigt sind wird der Mittelwert des Bildes geringer - es geht Messsignal verloren. In den Aufnahmen werden die
Pixel die ein Messsignal liefern identifiziert (Grenzwert: Pixelwert > 10) und deren Mittelwert gebildet.
Beispielaufnahme 0,1 ms Belichtung:
Abbildung 30: Beispielaufnahme zur Erstellung des Strahlengangmodells.
4 Ergebnisse und Diskussion
41
Die in obiger Bild gemittelten Pixel sind in folgender Abbildung alle ungleich bzw. größer als die dunkelblauen Pixel:
Abbildung 31: Ermittlung des Messsignalanteils im Vollbild.
Aus den je drei Bildern wurden die gewonnenen Messwerte gemittelt und der Verlustfaktor berechnet:
Belichtungszeit /ms
Mittlerer Grauwert
Belichtete Pixel
Verlustfaktor
0,10
59,6
58762
0,91
0,15
80,6
64342
0,91
Er liegt je nach Messaufbau bei etwa 0,85 – 0,95. Es geht also zusätzlich zu den bekannten Verluststellen mindestens 5 % der Lichtstrahlung im Messsystem verloren.
Dies ist wahrscheinlich auf die Einblendung zurückzuführen. Diese wird zwar durch
den „Transmissionsfaktor“ des Lasers schon abgeschätzt, liegt aber hier durch die nicht
vollständige Fokussierung des Laserstrahls auf das Detektorfeld etwas höher. Es sollte
hier aber auch nicht stärker fokussiert werden, da die Lichtintensität an den horizontalen
Bildrändern sonst zu stark abnimmt und dadurch die Messungenauigkeiten größer werden.
4 Ergebnisse und Diskussion
42
4.1.2 Evaluierung der Lichtdetektion
Es wurden Messungen durchgeführt um das Detektorrauschen der Kamera in Abhängigkeit vom Messsignal überprüfen zu könnenDer Dunkelstrom bzw. das Detektorgrundrauschen kann bestimmt werden indem eine
unbelichtete Aufnahme (Detektor durch Schutzklappe verschlossen) ausgewertet wird.
Es wurden fünf Aufnahmen bei unterschiedlichen Belichtungszeiten gemacht. Der Mittelwert und die Standardabweichung wurden berechnet:
Belichtungszeit /ms
Mittlerer Grauwert
Standardabweichung (σ)
0,1
1,5722
0,4978
0,5
1,5698
0,4979
10
1,5715
0,4977
50
1,5716
0,4978
200
1,5745
0,4976
Aus diesen Daten ist zu erkennen, dass unabhängig von den Belichtungszeiten durch
den Dunkelstrom der Kamera ein Grundsignal von etwa 1,57 ± 1,00 (2*σ) Grauwerten
am Detektor zu erwarten ist. Die Messwerte sind sehr konstant.
Das Detektorrauschen lässt sich am Besten prüfen, indem der Detektor durch eine homogene Lichtquelle belichtet wird. Da die Diodenlaser keine homogene Lichtverteilung
im Lichtstrahl liefern und keine kalibrierte homogene Lichtquelle zur Verfügung steht
(z.B. Ulbrichtkugel) wurde die Raumbeleuchtung als in großer Entfernung näherungsweise homogen angenommen.
Messaufbau:
Abbildung 32: Messaufbau Kameraevaluierung.
Die Kamera wird mitsamt Reiter vertikal auf die
Tischkante gestellt. Auf die Eintrittsöffnung des
Lichtdetektors wird ein Neutralfilter zur Lichtschwächung gelegt (Transmission 0,1%). Dieser
Aufbau befindet sich etwa 160 cm zentral unter der
Raumbeleuchtung (4 Leuchtstoffröhren). Es werden mehrere Messaufnahmen bei vier verschiedenen Belichtungszeiten gemacht.
4 Ergebnisse und Diskussion
43
Da die Belichtung bei diesem Messaufbau nicht 100 % homogen ist, können die Aufnahmen nur relativ ausgewertet werden.
Abbildung 33: 3D- Plot eine Messaufnahme zur Bestimmung des Detektorrauschens und zur Identifizierung von Pixelfehlern.
In dem 3D-Plot wird deutlich, dass zwei Pixel am Rand kein Messsignal liefert. Diese
Pixel liegen rechts in der obersten Zeile des Detektorfeldes und liefern bei keiner Aufnahme ein Messsignal. Möglicherweise liegt dies daran, dass diese Pixel als letzte in der
Ausleseprozedur der Kamera berücksichtigt wird(z.B. Dummy für Triggerung; keine
Herstellerangaben!) oder sie sind defekt. Für die Projektionsaufnahmen spielen diese
Pixel jedoch kaum eine Rolle, da das Detektorfeld hier meist auf den mittleren Detektorbereich beschränkt ist und die unteren und oberen Bildanteile nicht ausgelesen werden und da der Grauwert sowohl vor als auch nach der Normierung immer auf
Null(unbelichtet, außerhalb des Messobjektes) bleiben würde.
4 Ergebnisse und Diskussion
44
Um die restlichen Pixel untersuchen zu können wird die Skalierung auf den interessierenden Bereich geändert(hier 210 bis 250):
Abbildung 34: Messaufnahme Detektorrauschen.
Die Belichtung ist leicht inhomogen. Die linke Seite des Detektorfeldes wurde geringer belichtet als der
restliche Teil des Detektorfelds.
In obiger Beispielaufnahme ist bereits zu erkennen, dass keine wirklich homogene Belichtung möglich war (Belichtung linke Bildhälfte geringer als rechts). Um dennoch
Aussagen über die Genauigkeit des Detektorfeldes treffen zu können wird ein Differenzbild aus zwei Messaufnahmen erstellt.
4 Ergebnisse und Diskussion
45
Abbildung 35: Subtraktionsaufnahme Detektorrauschen.
Aus dem Differenzbild ist zu erkennen, dass systematische Homogenitätsschwankungen, welche vermutlich durch die Lichtquelle entstanden sind, nicht mehr vorliegen. Die
Standardabweichung des Differenzbildes kann als Maß für das Detektorrauschen gewählt werden. Sie beträgt bei der obigen Abbildung 3,6 (100ms Belichtung, Grauwertmittel Messaufnahme 234,9). Das relative Detektorrauschen verhält sich antiproportional zur Belichtungszeit bzw. dem Messsignal des Detektors. Das Signal- zu- RauschVerhältnis nimmt also mit dem Grauwert eines Pixel zu.
Belichtungszeit
/ms
unbelichtet
2
10
50
100
Signalpegel
Signalpegel
Standardabw.(σ)
Messbild
Differenzbild Differenzbild
/Grauwert
/Grauwert
1,5
2,2
0,7
6,3
8,9
0,8
48,5
68,6
1,7
118,9
168,0
2,6
234,7
332,1
3,6
Relativer
Rauschanteil
(2* σ/ Signal)
0,63
0,25
0,07
0,04
0,02
Die Abweichungen der mittleren Signalpegel der verschiedenen Messaufnahmen sind
sehr gering. Bei 100 ms Belichtungszeit sind die Pegelschwankungen von weniger als
0,3 Graustufen gemessen worden.
4 Ergebnisse und Diskussion
46
Der Hersteller definiert das Signal- zu- Rausch- Verhältnis (SNR) in Abhängigkeit der
Photonenzahl oder der Ladungsträgerzahl des Detektorelementes. Hier kann das SNR
aus der Differenz des RMS- Grauwertes der Messaufnahmen und des mittleren Dunkelsignals dividiert durch die Standardabweichung des Differenzbildes definiert werden.
 Signalmittel Diffmess − Signalmittel Difffdark
SNR [dB] = 20 * log

σ Diffmess





Der Signalpegel bzw. das Signalmittel des Differenzbildes berechnet sich nach:
Signalmittel Diffmess =
(Signalmittel
) + (Signalmittel
2
Messaufnahme1
)
2
Messaufnahme 2
Das Signal- zu- Rausch- Verhältnis kann damit in Abhängigkeit zum ursprünglichen
Signalpegel der Messaufnahmen ermittelt werden:
Signal- zu- Rausch- Verhältnis
45
40
35
SNR /dB
30
25
20
15
10
5
0
1
10
100
1000
Signalpegel /Grauwert
Abbildung 36: Signal- zu- Rausch- Verhältnis der Kamera.
Das Ergebnis dieser Analyse deckt sich qualitativ mit den Herstellerangaben aus den
EMVA Standart 1288 Protokoll (vgl. Basler [14]). Dort wird ein maximal erreichbares
SNR von 41,5 dB angegeben. Hier liegt dieses Verhältnis etwas niedriger (ca. 40 dB).
Dies liegt vermutlich an der Belichtung und der deshalb verwendeten Messmethode.
Die Standardabweichung wird aus dem Differenzbild entnommen und ist daher größer,
daher muss der „virtuelle“ Signalpegel berechnet werden(Fehleraddierung). Der Hersteller misst bei maximaler Dynamik(16 Bit Graustufen) mit homogenen monochroma-
4 Ergebnisse und Diskussion
47
tischen Licht bei auf die Quanteneffizienz der Kamera bezogen nahezu optimaler Wellenlänge (λ = 545nm, QE ≈ 45%). Hier liegt die Dynamik wie im Messbetrieb bei 8 Bit
Graustufen (dadurch höheres SNR!) durch die polychromatische nicht komplett homogene Belichtung und der daher geänderten Messmethodik, wird der Rauschanteil leicht
überbewertet.
Aus diesen Messergebnisses kann man für das Messsystem schlussfolgern, dass bei geringer Signalstärke der Messfehler am einzelnen Detektorelement sehr groß werden
kann. Wenn mehrere Bildelemente zusammen betrachtet werden, bleibt der Einfluss des
Rauschens jedoch relativ gering. Daher ist ein einzeiliger Betrieb des optischen Computertomographen zu bevorzugen. Falls ein mehrzeiliger Betrieb umgesetzt wird, sollten
nicht alle Detektorzeilen (494) als Projektionsprofile verwendet werden, sondern mehrere dieser Zeilen zu einem Profil zusammengefasst werden, um das Detektorrauschen zu
minimieren.
4 Ergebnisse und Diskussion
48
4.1.3 Evaluierung der Lichtquelle und der Lichtleitung
Als Lichtquelle kommen im Messaufbau Diodenlaser zum Einsatz. Es wird in den Messungen vorzugsweise der Laser mit der größeren Lichtleistung (3 mW) und der Wellenlänge 650 nm eingesetzt (Bei 650 nm ist die Quanteneffizienz der Kamera höher als bei
785 nm.). Daher ist die Qualität der Lichtstrahlung dieses Lasers im Hinblick auf Homogenität und Stabilität im Messbetrieb analysiert worden.
Der Hersteller gibt die Leistungsstabilität mit 5% und die Strahlstabilität mit mindestens
0,2 mrad/C° an. Die Strahldivergenz wird in 2 Achsen angegeben (Strahldivergenz <
0.6 x 3 mrad), da bei Diodenlasern die Laseraustrittsfläche sehr klein ist und senkrecht
zum pn- Diodenübergang im Größenbereich der Wellenlänge liegt. Dadurch entstehen
Beugungsmuster und der Laserstrahl wird divergenter.
Die Homogenität des Laserlichtes kann anhand der 40 belichteten Normieraufnahmen
überprüft werden. Dazu wird für jeden Pixel der arithmetische Mittelwert aus den 40
Aufnahmen berechnet. Die Homogenität wird visuell bewertet. Unter optimalen Messbedingungen und mit einer sehr genauen Justierung kann etwa folgendes Bild der Homogenität der Laserstrahlung erzielt werden:
Abbildung 37: Homogenität der Belichtung.
Das Mittelwertbild ist bereits auf Linsenfehler hin korrigiert, da es aus den Normieraufnahmen einer Serie
stammt.
Hier wird deutlich, dass der Laserstrahl in der Mitte relativ homogen ist, zu den horizontalen Rändern hin werden die Inhomogenitäten größer und die Lichtleistung nimmt
ab. Das typische für das Strahlprofil einer Laserdiode entspricht einer gaußförmigen
Kurve. Durch die Aufweitung des Laserstrahles und die integrierten Optiken wird dieses
Gaußprofil horizontal gestreckt. Dies wird verdeutlicht, wenn das Profil aus den Mittelwerten der Bildspalten betrachtet wird:
4 Ergebnisse und Diskussion
49
Abbildung 38: Bildspaltenweise Betrachtung der Belichtungshomogenität
Im Bereich von der ersten bis hin zur fünfzigsten Bildspalte ist ein sehr regelhaftes
Muster aus Minima und Maxima in dem Intensitätsprofil zu erkennen. Im restlichen
Profil tritt diese Regelhaftigkeit nicht mehr oder in unterschiedlichen Frequenzen auf.
Vermutlich ist dieses Muster auf Beugung an einer Blendenlamelle zurückzuführen. Die
Spaltblenden erzeugen, wenn ihre Lamellen zu nahe an den Lichtstrahl gesetzt werden
ein Beugungsmuster im Detektorbild. Die anderen Intensitätsschwankungen sind durch
den Aufbau der Laserdiode selbst zu begründen. Die charakteristischen Beugungsmuster (s. o.) in der pn– Richtung (hier horizontal) erzeugen ein welliges Muster im Intensitätsprofil im Fernfeld des Laserstrahls. Dies ist hier durch die Aufweitung des Laserstrahls deutlicher zu sehen.
Die Inhomogenitäten im Lichtstrahl des Lasers müssen durch die Normierung bei der
Berechnung der Schwächungswerte berücksichtigt werden. Die Messdaten müssen auf
den jeweiligen Grauwert des Lichtstrahls hoch skaliert werden um homogene Schwächungswerte zu erhalten. Je niedriger dabei die Belichtung eines Pixel ist, desto höher
ist der Fehler der durch die Hochrechnung entsteht (vgl. 4.2.1). Hier muss man somit
einen Kompromiss zwischen Strahlaufweitung, Einblendung und der damit verbundenen Inhomogenität und dadurch induzierten Normierfehler sowie der Messgeschwindigkeit bzw. der Messschritte die bei kleinerem Stahldurchmesser nötig sind finden.
Ein Maß für die Stabilität der Belichtung im Messbetrieb ist die Standardabweichung
der belichteten Pixel über die Zeit. Dies ist auch ein Grund dafür, warum hier 40 Normieraufnahmen gemacht werden. So kann aus diesen Aufnahmen eine Beurteilung über
die Stabilität der Lichtquelle und des ganzen Messaufbaus erfolgen. Hierzu wird die
Standardabweichung für die Darstellung neu skaliert. Dadurch kann eine visuelle Beurteilung der Messstabilität bei der Nachbearbeitung der Projektionsaufnahmen erfolgen.
4 Ergebnisse und Diskussion
50
Bei obigem Beispiel (Messaufbau vom 15.01.2008) ergibt sich folgendes Bild der Standardabweichungen:
Abbildung 39: Stabilität des Messaufbaus.
Die Standardabweichungen wurden zur Darstellung linear vom Minimum (hier 0) zum Maximum (hier
6,10) auf den Graustufenbereich (0 – 255) skaliert.
Die mittlere Standardabweichung beträgt in diesem Beispielbild 1,50. Um eine bessere
Bewertung der Lichtintensitätsschwankungen machen zu können bietet es sich auch hier
an die Standardabweichungen der einzelnen Bildspalten zu betrachten und somit ein
Profil zu erstellen. Da der mittlere Spaltenwert durch die unbelichteten Bereiche im
Detektorfeld verfälscht wird, dient der maximale Spaltenwert als aussagekräftigeres
Maß der Lichtintensitätsschwankungen:
Abbildung 40: Bildspaltenweise Betrachtung der Stabilität des Messaufbaus.
Außerhalb des zentralen Strahlanteils (etwa Spalte 270 – 420) folgen die Intensitätsschwankungen einem Muster aus sich abwechselnden Minima und Maxima. Im zentralen Bereich, der hier nicht optimal in der Bildmitte liegt (vgl. Mittelwertbild), scheint
das Schwankungsprofil verschmiert. Hier ist die Belichtung am größten, daher sind
auch die Schwankungen in der Belichtung am größten.
Die mittlere maximale Standardabweichung der Bildspalten wird als Maß für die
Stabilität der Lichtquelle im Messbetrieb definiert. Sie liegt bei diesem Beispiel bei ±
4 Ergebnisse und Diskussion
51
3,43. Je niedriger dieser Wert liegt, desto geringer sind die Messungenauigkeiten und
das Rauschen in den normierten Projektionsprofilen. Bei zu hohen Werten (> 4) sollte
der Messaufbau überprüft werden (s. Beispiele im Anhang). Die Angaben des Herstellers zur Leistungsstabilität (< 5 %) sind hier nicht vergleichbar. Üblicherweise wird die
Leistungsstabilität pro Betriebsstundenzahl (z.B. 24h) angegeben (hier keine Angabe!),
es werden hier also die längerfristigen Abweichungen z.B. durch Erwärmung berücksichtigt. Die Messung hier dient der Beurteilung der kurzfristigen Schwankungen
(Messaufnahmen erfolgen innerhalb von 1 – 3 Sekunden), da diese für die Messdauer
(etwa 5 – 15 min.) relevanter sind.
Diese Analyse ist als eine Überprüfung des gesamten Strahlungserzeugenden und leitenden Messsystem zu betrachten. Sie wird durchgeführt, weil sich die Stabilität der
Lichtstrahlung als eines der Hauptprobleme des Messaufbaus herauskristallisiert hat.
Der Laser ist auf einem Prismentisch montiert. Dieser Prismentisch wird durch Federn und Schrauben ausgerichtet. Sobald
sich die Stellmotoren im Messbetrieb bewegen, kann es dazu kommen, dass der
Prismentisch samt Laser leicht zu schwingen anfängt. Um diesem entgegenzuwirken
wurden zusätzliche Schrauben zur Arretierung des Tisches in diesem verschraubt (s.
rote Markierung in der nebenstehenden
Abbildung). Alle anderen Komponenten im
Messsystem (Spiegel, Linsen, Filter…)
müssen ebenfalls sehr fest verschraubt sein
um eine hohe Stabilität zu erreichen.
Abbildung 41: Fixierung der Belichtung zur Erhöhung der Stabilität
4 Ergebnisse und Diskussion
4.2
52
Analyse der Methoden
4.2.1 Normierung und Kalibrierung
Zur Evaluierung der verwendeten Methoden wurden statistische Untersuchungen
durchgeführt.
Die Normierung stellt im Prinzip eine 2-Punkt-Kalibrierung jedes einzelnen Bildelementes der Kamera dar:
Normierkennlinie
250
Grauwert normiert
200
150
100
50
0
0
50
100
150
200
250
Grauw ert Pixel Projektionsaufnahm e
Abbildung 42: Normierkennlinie.
Hier ein Beispiel der Kennlinie eines Pixels, dessen Referenzpunkte (Blau) auf 200 (belichtet) und 2
(unbelichtet) angenommen wurden.
Um ein gutes Normierergebnis zu erhalten müssen die Referenzpunkte genau bestimmt
werden können. Dazu muss der Messfehler der Kamera möglichst gering sein und die
Lichtleistung der Lichtquelle während der Normierung und der Aufnahme möglichst
konstant sein (s. 4.1).
Das Signalmittel der belichteten Normierreferenz liegt je nach Einblendung und Aufweitung ungefähr bei 80 bis 100 und bei der unbelichteten Normierreferenz bei ca. 2.
Das bedeutet, dass die reale Bandbreite in welcher unterschiedliche Schwächungswerte
gemessen werden können durchschnittlich bei etwa 100 Graustufen liegt. Diese 100
4 Ergebnisse und Diskussion
53
Graustufenwerte werden hoch skaliert auf den Darstellungsbereich von 0 bis 255 Graustufenwerten. Das bedeutet, dass eine Änderung des Pixelwertes der Projektionsaufnahme von einer Graustufe eine durchschnittliche Änderung von 2,55 Graustufenwerten
durch die Normierung zur Folge hat. Der Messfehler jedes einzelnen Pixels wird dadurch im Durchschnitt auch um diesen Faktor erhöht. Aus diesem Grund ist es sinnvoll
die durchschnittliche Belichtung höchstmöglich, nahe an das Maximum von 255 Graustufenwerten zu legen. Aufgrund der oben beschriebenen Inhomogenität der Lichtleistung im Laserstrahl ist hier ein besserer Durchschnitt als 100 kaum zu erreichen.
Die Kalibrierung umfasst die Korrektur der Abbildungsfehler, die Ermittlung der
Nullmotorposition des Linearmotors und den Mittenabgleich der Rotation. Die Ermittlung dieser Kalibrierdaten erfolgt dabei nach einem ähnlichen Muster. Für diese Methoden muss eine sehr hohe Positioniergenauigkeit der Stellmotoren gelten. Hier können
die Angaben aus den Datenblättern zur Fehlerabschätzung verwendet werden. Es bietet
sich an die Genauigkeit der Motoren mit der Ortsauflösung der Kamera zu vergleichen,
um die Motoren als Fehlerquelle ausschließen zu können.
Aus den Messungen ist bekannt, dass der Kalibierstift, welcher einen Durchmesser von
2 mm hat, im Detektorfeld einen Bereich von ca. 50 - 60 Pixelbreiten (bei typischer
Fokussiereinstellung) abdeckt. Daraus wird die Breite (bh), die ein Pixel in der horizontalen des Objektes repräsentiert berechnet:
bh =
Objektdurchmesser
2mm
=
= 33 bis 40 µm
Pixelzahl hor
50 bis 60
Der horizontale Stellmotor hat eine Positionierungenauigkeit von weniger als 25 µm pro
100 mm Fahrbewegung. Die maximale Verfahrbewegung des Motors beträgt 70mm, im
Kalibrierbetrieb wird der Motor das Objekt jedoch höchstens 40 mm bewegen. Damit
ist die Positioniergenauigkeit bei der Abbildungsfehlerkorrektur und der Bestimmung
der Nullkoordinate etwa um den Faktor 5 – 7 höher als die Auflösung der horizontalen
Objektposition durch das Detektorfeld und kann somit in der Fehlerbetrachtung vernachlässigt werden.
Die Fehler, welche bei der Kalibrierung entstehen sind systematisch bedingt durch die
horizontale Auflösung des Detektorfeldes und die verwendeten Algorithmen.
Bei einer Kalibrieraufnahme wird das Projektionsprofil berechnet und die Breite der
Kalibriernadel im Profil bestimmt (s. 3.2.4). Hier kann es aufgrund der diskret vorliegenden Pixelwerte und des Grenzwertalgorithmus zu kleinen Messabweichungen kommen.
4 Ergebnisse und Diskussion
54
Beispiel Kalibrieraufnahme:
Aus diesem Beispielbild wird das Profil um die Kalibriernadel vergrößert dargestellt:
Abbildung 43: Genauigkeit der Objektbreitenbestimmung bei der Kalibrierung.
Die detektierte Objektgrenze wurde nachträglich rot markiert.
In diesem Beispiel liegt der maximale Profilwert bei 242 (Minimum = 0) und daraus
resultiert ein Schwellenwert bei der Identifizierung der Objektgrenzen von 121. Tatsächliche Objektgrenze ist hier immer der der Index des nächst kleineren Profilwertes.
Daher kann es dazu kommen, dass ein höherer Profilwert eigentlich näher am Schwellenwert liegt und daher möglicherweise die bessere Objektgrenze wäre. Es ist bei den
Dimensionen auch nicht auszuschließen, dass durch stochastische Effekte sich die
Grenze um einen Pixel verschieben kann. Daher wird ein absoluter Größtfehler von drei
Pixelbreiten für die Bestimmung der Objektbreite angenommen. Für die Objektposition
in der Darstellung ergibt sich dadurch ein Größtfehler von 1,5 Pixelbreite.
Statistische Fehler bzw. die Messpräzision können durch die Standardabweichung erfasst werden. Dazu wurde die Erfassung der Objektbreite eines Messaufbaus vom
4 Ergebnisse und Diskussion
55
26.10.2007 elfmal durchgeführt und die Standardabweichung der erfassten Objektbreiten bestimmt. In folgender Abbildung ist die doppelte Standardabweichung als Fehlerbalken eingefügt:
Statistische Analyse der Objektbreitenbestimmung
1,40
1,20
1,10
1,00
relative Breite
1,30
0,90
0,80
35
33
31
29
27
25
23
21
19
17
15
Objektposition /Motorposition/mm
Abbildung 44: Statistische Fehleranalyse bei der Objektbreitenbestimmung.
Die Regressionsfunktion, ein Polynom 2ter Ordnung wird hier durch die rote Linie dargestellt
(hier: y = 0,0032x² - 0,1487x + 2,7387; R² = 0,9738).
Auffällig ist hier, dass die Messpräzision im mittleren Linsenfokussierbereich (y ≈ 1,0)
– hier ist die Belichtung am größten – im Durchschnitt wesentlich höher ist als an den
horizontalen Bildrändern (vgl. Normiergenauigkeit oben). Die maximale doppelte Standardabweichung beträgt in diesem Beispiel 6% (bei x = 28 mm), die Größtfehlerabschätzung liefert für diesen Wert ebenfalls 6%.
Um die tatsächliche Objektposition im Profil zu bestimmen wird diese aus den minimalen relativen Objektbreitenpositionen (= horizontale Linsenmitte) und den Positionierschritten des Stellmotors (= 0,5 mm) für die horizontalen Randbereiche des abbildenden
Systems extrapoliert (vgl. 3.2.4). Hierzu muss die Korrelation die Motorpositionierung
mit den ermittelten Objektpositionen im Profil in diesem Bereich überprüft werden.
Grenzwertwert für die Erfassung des mittleren Linsenbereichs ist eine Vergrößerung der
Objektbreite von höchstens drei Pixelbreiten zur minimalen Objektbreite. In folgender
Abbildung ist diese Korrelationsanalyse für den oben untersuchten Messaufbau dargestellt. Die dreifache Standardabweichung (p = 99,7 %) der Objektposition im Profil ist
aus den elf Messungen berechnet und als Fehlerbalken in folgende Abbildung eingefügt
worden:
4 Ergebnisse und Diskussion
56
Korrelation von Motorposition und Bildposition der
Kalibriernadel im mittleren Linsenabschnitt
480
Bildposition /Profilindex
460
440
420
400
380
360
340
320
300
20
21
22
23
24
25
26
Motorposition /mm
Abbildung 45: Evaluierung der Extrapolation der Objektposition bei der Kalibrierung.
Die Fehlerbalken (3σ) sind wegen den geringen Abweichungen (Maximum = 1) kaum zu erkennen. Der
Korrelationskoeffizient der linearen Regressionsfunktion (y = -28,945x + 1057,6) beträgt R² = 1,000.
Wie aus dem geringen Positionierfehler durch den Stellmotor und durch den geringen
Fehler bei der Ermittlung der Objektposition im Profil zu erwarten war, ist der lineare
Zusammenhang der Objektpositionierung zur Objektposition im mittleren Fokusbereich
der Zylinderlinse sehr gut und damit der Fehler der Extrapolation der lateralen Objektposition aus den mittleren Objektpositionen vernachlässigbar gering.
4 Ergebnisse und Diskussion
57
Die folgende Abbildung zeigt die Änderung in den Kalibrierdaten und deren Regressionsfunktionen, welche durch die Extrapolation entstehen:
Korrektur der Objektposition im Profil
1,6
1,5
rel. Objektbreite
1,4
1,3
1,2
1,1
1,0
0,9
0
100
200
300
400
500
Position /Profilindex
600
Position korrigiert
Position unkorrigiert
Abbildung 46: Auswirkung der Korrektur der Objektposition auf die Kalibrierdaten.
Der polynominale Fit zweiter Ordnung ändert sich durch die Korrektur von y = 3E-06x² - 0,0025x +
1,4825 (mit R² = 0,9618) auf y = 4E-06x² - 0,0029x + 1,5689 (mit R² = 0,9738 s. o.).
Die gesamte Abbildungsfehlerkorrektur wird überprüft, indem die Kalibrierung ein
zweites Mal gestartet wird. Die dabei erstellten Projektionsaufnahmen werden durch die
in der ersten Kalibrierung erstellte Korrekturtabelle nach oben beschriebener Korrekturmethode (vgl. 3.2.4) sofort korrigiert.
4 Ergebnisse und Diskussion
58
Die Erfassung der Objektbreiten liefert dann folgendes Ergebnis:
Ergebnisse der Abbildungsfehlerkorrektur
1,20
1,10
1,05
1,00
relative Objektbreite
1,15
0,95
0,90
33
31
29
27
25
23
21
19
17
15
Objektpositionierung /mm
Abbildung 47: Ergebnisse der Abbildungsfehlerkorrektur.
Dargestellt sind die Mittelwerte aus sechs Messreihen vom 13.11.2007. Die Messwerte jeder Messreihe
wurden auf ihr jeweiliges Minimum normiert. Der Fehlerbalken gibt die doppelte Standardabweichung
eines Messpunktes an.
Es können somit die Abbildungsfehler (Bildfeldwölbung, sphärische Abberation…)
durch diese Kalibriermethode bei Objektgrößenunterschieden in der Darstellung von bis
zu 180% im Randbereich der Zylinderlinse auf etwa ± 5% korrigiert werden. Diese ±
5% Abweichung im Ergebnis spiegeln auch in etwa die Genauigkeit mit der die Messdaten erfasst werden können.
Die Nullkoordinate des Linearmotors, also die Koordinate bei der die Objektmitte
genau in der Bildmitte liegt und um welche damit die Rotation im Messbetrieb stattfindet, kann aufgrund der sehr hohen Motorstellgenauigkeit und der hohen Genauigkeit bei
der Ermittlung der Objektmitte(s. o. ± 1,5 Pixel) mit sehr geringem Fehler bestimmt
werden. Sie wird durch Interpolation der Motorpositionen der Messwerte der zwei zur
Bildmitte nächsten Objektpositionen gewonnen und auf 10 µm genau angegeben, wobei
nach obigen Fehlerabschätzungen eine maximale Genauigkeit von etwa 50 – 60 µm
erzielbar ist. Dies wurde anhand von acht Kontrollmessungen überprüft. Die maximale
Abweichung der Objektmitte von der Bildmitte beträgt 1,5 Pixelbreiten, die doppelte
Standardabweichung beträgt 1,3.
4 Ergebnisse und Diskussion
59
Wenn mit der Kalibriernadel Messaufnahmen gemacht werden, kann festgestellt werden, dass trotz nahezu optimaler Verschraubung dieses Messobjektes in der Mitte des
Drehtellers die Objektposition in den Projektionsprofilen bei den verschiedenen Projektionswinkeln nicht konstant in der Bildmitte bleibt. Dies kann nur durch ungenaue Justage der Hardware zustande kommen. Trotz intensivster Justierbemühungen ist
dieses Problem hardwaretechnisch nicht vollständig in den Griff zu bekommen. Es bestehen sehr viele Freiheitsgrade bei der Justierung der Linsen, Spiegel und Blenden, so
dass eine leichte Verkippung des Lichtstrahles gegenüber der horizontalen und der vertikalen Ebene bzw. eine Verkippung eines der Profile oder des Motorblocks am Messobjekt nicht ausgeschlossen werden kann.
Beispiel Linsenjustierung:
Abbildung 48: Freiheitsgrade bei den Linsenjustagen.
Die roten Pfeile sollen die Möglichkeiten der Justage der Linse, des Reiters und des Profils darstellen.
Das Profil kann eben auf der Bodenplatte justiert werden. Der Reiter ermöglicht eine Verschiebung der
Linse entlang der optischen Achse. Durch zwei Feingewindeschrauben kann der Winkel der Linsenhalterung gegenüber der horizontalen und der vertikalen Ebene verstellt werden. Die Linsenhalterung wird mit
der Transjustierung verschraubt, dabei kann die Linsenhalterung gegenüber der horizontalen Ebene verkippen. Die Zylinderlinse selbst ist durch zwei Kunststoffschrauben an die Linsenhalterung fixiert, kann
aber in der horizontalen Ebene verschoben werden.
Die Korrektur der Mittenabweichung unter Rotation behebt diese Justierfehler. Um
diese Methode anwenden zu können muss sichergestellt werden, dass sich die Winkel
4 Ergebnisse und Diskussion
60
bei der Kalibriermessung und der eigentlichen Projektionsmessung nicht verschieben.
Da aus steuerungstechnischen Gründen der Drehmotor im Mehrschichtbetrieb und bei
mehreren Translationsschritten rekalibriert werden muss (der Endschalter muss zur
Nullstellung der Winkelposition angefahren werden), darf für die nachfolgende Korrektur keine messbare Phasenverschiebung der Mittenabweichung bei der Rekalibrierung
stattfinden. Zur Überprüfung wurde die Kalibrierung bei unverändertem Messaufbau
viermal in Folge (es muss maximal viermal im Messbetrieb rekalibriert werden) durchgeführt:
Einfluss der Rekalibrierung auf die Mittenbestimmung
Kalibrierreihe 1
Kalibrierreihe 2
Kalibrierreihe 3
Kalibrierreihe 4
268
Mittenposition der Kalibriernadel
/Profilindex
267
266
265
264
263
262
261
260
259
258
0
50
100
150
200
250
300
350
Projektionswinkel /°
Abbildung 49: Phasenverschiebung des Rotationsmotors bei einer Rekalibrierung.
Ausgangspunkt für die Korrektur ist der Projektionswinkel 0°. Auf diesen Winkel wird das Profil durch
die Nullkoordinateneinstellung eingestellt (s. o.). Da die Profillänge auch bei gleichem Messaufbau durch
die Abbildungsfehlerkorrektur nicht exakt gleich ist, weichen die Mitten auch leicht voneinander ab (hier
3 Pixelbreiten).
In der Abbildung ist zu erkennen, dass durch die Rekalibrierung keine messbare Phasenverschiebung auftritt. Für die Ermittlung der Objektmitte im Profil gelten obige Angaben zur Fehlerabschätzung (≈ ±1,5 Pixelbreiten). Der sehr strenge cosinusförmige
Verlauf der Kurven deutet wiederum daraufhin, dass nur sehr kleine systematische Fehler vorliegen. Da die Korrektur relativ zur 0°- Einstellung in mindestens 1- PixelSchritten durchgeführt wird, sind die systematischen Messfehler hier vernachlässigbar.
4 Ergebnisse und Diskussion
61
Den Einfluss und damit das Ergebnis der Mittenkorrektur kann man am Besten beurteilen, indem die Bildrekonstruktion einer Messserie einmal mit und einmal ohne diese
Kalibriermethode durchgeführt wird.
In folgender Abbildung ist die Bildrekonstruktion aus den Projektionsaufnahmen der
Kalibriernadel (360 Projektionen, eine Schicht) vom 21.12.2007:
Abbildung 50: Rekonstruktion
ohne Mittenabgleich.
Die Kalibrierung wurde vollständig durchgeführt, es wurde lediglich die Korrektur der
Mitten bei der Nachbearbeitung der Projektionsaufnahmen nicht durchgeführt. Die
Profile wurden normiert und
zugeschnitten. Ein Offset von
60 Graustufen (Grenzwertfilter) und die Medianbestimmung der Profile wurden zur
Rauschunterdrückung
gewählt. Die Rekonstruktion
erfolgte mit dem Ramachandran & Lakshminarayanan Filter.
Zum Vergleich die gleiche Messserie mit der Korrektur der Mittenabweichung:
Abbildung 51: Rekonstruktion
mit Mittenabgleich.
Die Mittenkorrektur wurde
während der Nachbearbeitung
wieder aktiviert. Die obigen
Einstellungen zur Bearbeitung
der Projektionsaufnahmen und
zur Rekonstruktion wurden
übernommen.
4 Ergebnisse und Diskussion
62
Im Vergleich der zwei rekonstruierten Bilder wird deutlich, dass durch den Mittenabgleich der „Halbschattenbereich“ am Objektrand hier komplett eliminiert werden kann.
Dieser Halbschattenbereich entsteht in dem unkorrigierten Bild, weil sich die Projektionsprofile aus den unterschiedlichen Projektionswinkeln nicht korrekt überlagern. Die
Breite dieses Halbschattenbereiches entspricht dabei in etwa der mittleren Abweichung
der Objektposition aus den unterschiedlichen Projektionswinkeln (hier 3,2 Pixelbreiten).
Durch den verwendeten Filterkern (der Ramachandran & Lakshminarayanan Filter ist
sehr empfindlich für starke Kontrastsprünge = hohe Ortsfrequenzen) und der Notwendigkeit die Mittenkorrektur pixelweise durchführen zu müssen, entsteht der Eindruck,
dass Messobjekt im mittenkorrigierten Bild nicht komplett rund ist. Durch geeignete
Auswahl des Filterkerns kann das Ergebnis jedoch noch weiter verbessert werden (vgl.
Messergebnisse 4.3).
4 Ergebnisse und Diskussion
63
4.2.2 Bildrekonstruktion
Die verwendeten Algorithmen und Definitionen nach Sedgewick [13], Morneburg [11]
und Kak [12] zur gefilterten Rückprojektion wurden im Wesentlichen aus einer bestehenden Software3 eines experimentellen Computertomographen übernommen. Die hier
gemachten Anpassungen betreffen die Größe des zu rekonstruierenden Bildes. Diese ist
dynamisch an die Profillänge angepasst worden. Das ist nur möglich, indem die Profillänge auf eine Potenz von 2n verlängert wird (vgl. 3.2.6). Die Profilverlängerung erfolgt
standardmäßig durch lineares Strecken des Profils. Wenn die lineare Streckung deaktiviert wird, werden die Profile durch Nullwerte verlängert. Dadurch ändert sich die relative Objektgröße im Profildatensatz, was die Filterung durch die verschiedenen Filterkerne beeinflusst. Das Ortsfrequenzspektrum verbreitert sich zu den hohen Frequenzen,
es wird sozusagen ein zusätzlicher Hochpaßfilter implementiert.
Als Beispiel sind hier das Projektionsprofil (Länge 554 Pixelbreiten) der Kalibriernadel
bei 0° im Ortsraum und die Fourierspektren (Realteil) dieses Profils einmal mit linearer
Streckung verlängert und einmal mit „Auffüllen“ dargestellt:
Abbildung 52: Profil im Ortsraum.
3
Erstellt von Professor Dr. Klemens Zink, IMPS, FH Gießen- Friedberg
4 Ergebnisse und Diskussion
Abbildung 53: Vergleich der Spektren eines Profils bei verschiedenen Profilverlängerungsmethoden.
64
4 Ergebnisse und Diskussion
65
Das Auffüllen mit Nullwerten (Zeropadding) führt wie hier zu erkennen zu einer Streckung des Spektrums. Diese Aufweitung im Frequenzraum führt damit dazu, dass bei
Multiplikation des Spektrums mit einem Filterkern die mittleren Ortsfrequenzen nicht
so stark unterdrückt werden und die hochfrequenten Anteile stärker betont werden im
Vergleich zum ersten Profispektrum. Nach Filterung mit einem Ramachandran &
Lakshminarayanan Filterkern und linearer Stauchung bzw. Schneiden des Profils auf
seine ursprüngliche Länge ergeben sich folgende Änderungen:
Abbildung 54: Vergleich der gefilterten Profile bei verschiedenen Profilverlängerungsmethoden
Die gefilterten Profile in dieser Abbildung betätigen obige Aussagen. Die Möglichkeit
die Profile im Ortsraum linear zu strecken wirken im Vergleich zum „Auffüllen“ wie
ein Tiefpaßfilter.
Letztlich ist die Wahl der Profilverlängerungsmethode eine weitere Möglichkeit die
Bildinformationen zu filtern. Kriterium für die Auswahl ist daher allein eine Verbesserung der Bildqualität durch eine Methode gegenüber der anderen.
4 Ergebnisse und Diskussion
66
In folgender Abbildung ein Vergleich der rekonstruierten Bilder der Kalibriernadel
(Ausschnitt Zoom 200%), links mit Streckung im Ortsraum und rechts mit „Zeropadding“:
Abbildung 55: Vergleich der rekonstruierten Schnittbilder bei verschiedenen Profilverlängerungsmethoden. Die Profildaten stammen aus derselben Serie. Einzig die Profilverlängerungsmethode wurde geändert. Als Filterkern wurde der Ramachandran & Lakshminarayanan Filter bei der Rückprojektion verwendet.
Für diesen Fall liefert das „Auffüllen“ ein schärferes und damit besseres Rekonstruktionsergebnis. Wie oben bereits erwähnt kann je nach Bildinformationen Profildatensatz
oder nach verwendetem Filterkern das Ergebnis dieser Methoden schwanken.
Die komplette Bildrekonstruktion kann überprüft werden, indem diese bei einem Profildatensatz einmal mit der eingebetteten Software und einmal mit einer externen Software
durchgeführt wird und die Ergebnisse verglichen werde. Dies ist möglich, da die Profildatensätze als ASCII- File exportiert werden (vgl. 3.2.1). Hier wird als Referenzsoftware Matlab R2006 (The MathWorks Inc., Natick, MA, USA) verwendet. Es wird der
Profildatensatz der Kalibriernadel (vom 21.12.2007) verwendet. Die Serie besteht aus
einer Schicht mit 360 Projektionsaufnahmen über 360°. Als Filterkern wird bei der
Rückprojektion der Ramachandran & Lakshminarayanan Filter verwendet. Dieser ist in
beiden Programmen verfügbar. Es werden die Einstellungen in Matlab bezüglich Interpolation, Skalierung und Bildgröße an die eigene Software angepasst.
4 Ergebnisse und Diskussion
67
Das rekonstruierte Bild sieht folgendermaßen aus:
Abbildung 56: Rekonstruktion
im eigenen Programm
.
Das in Matlab rekonstruierte Bild aus dem gleichen Profildatensatz wird zur besseren
Vergleichbarkeit von diesem Bild abgezogen:
Abbildung 57: Vergleich der gefilterten Rückprojektion des eigenen Programms mit einer externen Software.
4 Ergebnisse und Diskussion
68
Würden beide Programme mit exakt den gleichen Algorithmen arbeiten wäre jeder Pixelwert im Bild 0. An der Objektgrenze, der Ort mit dem stärkstem Kontrastsprung und
somit der höchsten Ortsfrequenz, weichen die Bilder um maximal ± 80 Grauwerte voneinander ab. Hier überlagern sich die Bilder somit nicht optimal. Im restlichen Bild gibt
es keine scharfen Kontrastsprünge mehr und die Bilder überlagern sich sehr gut. Bei
genauerer Analyse des Quellcodes in Matlab kann festgestellt werden, dass die Auflösung im Frequenzraum hier eine 2er- Potenz höher gewählt wird. Das liefert eine höhere
Genauigkeit besonders bei den hohen Ortsfrequenzen, da deren Amplituden sehr gering
sind (s. o.). Da diese Frequenzen durch die Multiplikation mit dem Ramachandran &
Lakshminarayanan Filterkern stark betont werden, fallen die Abweichungen an der Objektgrenze größer aus als im restlichen Bild. Sehr gut ist die Überschneidung der Objektgrenzen und der inneren Objektkontraste (diese entstehen durch Beugungsmuster).
Aufgrund dieser Ergebnisse kann die Filterung und die Rückprojektion als korrekt bewertet werden.
4 Ergebnisse und Diskussion
4.3
69
Messergebnisse
Im folgenden Beispiel wurde ein Schraubenkopf nicht mittig auf dem Drehteller positioniert. Der Schraubenkopf hat einen Durchmesser von etwa 7mm. Hiermit soll gezeigt
werden, dass auch bei rotationsachsenferner Positionierung keine Ringartefakte entstehen und das Messobjekt durch die Korrektur der Abbildungsfehler kaum verzerrt wird:
Abbildung 58: Schnittbild einer dezentrierten Schraube.
Einstellparameter: eine Schicht, 360 Projektionen, Pixeloffset: 80, Profile strecken, Hamming- Filterkern
zur Rekonstruktion, bei maximaler Rekonstruktionsbildgröße
Es wurde eine automatische Segmentierung des Objektes in einer externen Bildverarbeitungssoftware durchgeführt. Diese gibt eine Objektbreite von 186 Pixel und eine Objekthöhe von 187 Pixel in den Hauptbildachsen an. Es sind mehrere Artefakte in der
Abbildung zu sehen. Um das Messobjekt herum sind dünne Linien zu sehen. Diese be-
4 Ergebnisse und Diskussion
70
finden sich alle im selben Abstand zum Objekt. Es sind Beugungsmuster die durch
Beugung der Lichtstrahlung an der Oberfläche des Messobjektes entstehen. In den Profilen kann ein Großteil dieser Beugungsmuster durch Wahl eines Pixeloffsets (einer
Untergrenze unter der allen Pixel der Grauwert 0 zugewiesen wird; hier 80) und durch
die Erstellung der Profile aus dem Median der Bildspalten der Projektionsaufnahmen
unterdrückt werden. Durch die Wahl die zu rekonstruierende Bildgröße zu maximieren
entstehen Artefakte an den Ecken des Bildes. Da die Bildgröße (Länge und Breite) genau der Profillänge entspricht werden die Bildinformationen an den Bildrändern nicht
aus allen Projektionsprofilen gewonnen. Es sind hier Streifenmuster zu erkennen, weil
die „Verschmierung“ des Messobjektes nicht mehr gleichmäßig aus allen Projektionswinkeln erfolgt. In der rechten unteren Ecke ist ein besonders auffälliger Streifen zu
sehen. Dieser ist durch ein Artefakt in einem einzigen Projektionsprofil an dieser Stelle
zu erklären (vermutlich eine Stabilitätsschwankung der Belichtung während der Messaufnahme). Da dieser Streifen in dem Bildbereich liegt, welcher nicht durch alle Projektionswinkel abgedeckt wird, ist die Darstellung wesentlich deutlicher (heller) als z.B.
bei den Streifen am Objektrand. Das Material der Schraube ist homogen. Trotzdem
nehmen die Grauwerte in dem rekonstruierten Schwächungsbild von der Objektkante
zur Objektmitte hin ab. Dies liegt daran, dass keine Lichttransmission durch die Schraube hindurch stattfindet. Damit wird der Transmissionswert jedes Profils an der Stelle der
Schraube Null. Innerhalb der Schraube ist der normierte Schwächungswert damit homogen (=255). Bei der Filterung der Profildaten finden eine Betonung der Objektkanten
und eine Dämpfung des Objektkontrastes statt. Wenn das Messobjekt wie hier vollständig homogen ist nimmt die Schwächung zur Objektmitte hin durch die gefilterte Rückprojektion selbst ab.
4 Ergebnisse und Diskussion
71
Wenn kein Licht durch das Messobjekt dring ist die Rekonstruktion von mehreckigen
Objekten besonders schwer (Metallartefakte im CT). Hier ist zur Demonstration das
tomographische Bild eines sechskantigen Bohraufsatzes mit einem Durchmesser von 8
mm abgebildet:
Abbildung 59: Schnittbild
eines kantigen Messobjektes.
Einstellparameter:
eine
Schicht, 450 Projektionen,
Pixeloffset: 85,
strecken, Shepp-
Profile
Logan-
Filterkern zur Rekonstruktion, bei optimaler Rekonstruktionsbildgröße
In der Mitte jeder geraden Fläche entstehen durch das „Verschmieren“ der Ecken aus
den Profilen der 450 Projektionswinkel Artefakte. Diese Artefakte sind somit Abbilder
der Ecken des sechskantigen Objektes. Sie entstehen wiederum, weil kein Licht durch
das metallene Messobjekt dringen kann. Die Artfakte durch Beugungsmuster konnten
hier besser korrigiert werden, weil der Pixeloffset leicht erhöht wurde (= 85). Es ist hier
nur an der rechten unteren Ecke des Messobjektes ein Beugungsstreifen zu erkennen.
4 Ergebnisse und Diskussion
72
Es hat sich herausgestellt, dass die Lichtleistung in diesem Messaufbau zu gering ist,
um semitransparente Objekte zu durchleuchten. Wenn die Belichtungszeit der Kamera
erhöht wird, tritt im Bereich außerhalb des Messobjektes eine Überbelichtung des CCDChips der Kamera auf. Bei Überbelichtung des CCD- Chips springen die durch Licht
erzeugten Ladungsträger im einzelnen Detektorelement auf benachbarte Elemente über
(= Blooming) und es werden zusätzliche Ladungsträger während des Ausleseprozesses
erzeugt, die das Bild spaltenweise verschmieren (= Smear- Effekt). Daher wird eine
selektive Filterung benötigt, welche die Primäre Lichtstrahlung die nicht durch das
Messobjekt gelangt schwächt. Hierzu wird die Eigenschaft der Polarisation des Lichtes
verwendet, also die Möglichkeit die Feldvektoren der Lichtwelle entlang einer Achse
ausrichten zu können.
Es wurden zwei lineare Polarisationsfilter in den Messaufbau implementiert (vgl. 3.1).
Das erste Filter ist direkt vor dem Messobjekt angebracht und transmittiert zu mindestens 99,97% linear polarisiertes Licht. Mit dem zweiten Polarisationsfilter direkt nach
dem Messobjekt können zwei Einstellungen durchgeführt werden. Bei makroskopischen
Messobjekten wird das Polarisationsfilter in die Auslöschung gedreht und schwächt
somit das am Messobjekt vorbei gehende linear polarisierte Licht (Auslöschungsverhältnis etwa 1:10000). Bei mikroskopischen Messobjekten (z.B. dünne Zellschichten)
geht die Polarisation im Messobjekt nicht vollständig verloren. Daher kann das Polfilter
in die Polarisationsachse des ersten Filters gedreht werden. Es lässt somit das durch das
erste Polarisationsfilter linear polarisierte Licht passieren und filtert zusätzlich das durch
Streuung im Messobjekt entstandene unpolarisierte Licht (etwa zu 2/3).
Leider konnten diese zwei Messaufbauten noch nicht vollständig realisiert werden.
Aufgrund von langen Lieferzeiten fehlen noch wichtige Komponenten zur Anpassung
des Messaufbaus. Da beide Polarisationsfilter schon vorhanden sind konnten bereits
erste Messungen an makroskopischen Objekten gemacht werden.
4 Ergebnisse und Diskussion
73
Es zeigt sich, dass die Belichtungszeit der Kamera von etwa 0,2 ms auf circa 50 ms erhöht werden kann und das Neutralfilter (Transmission 0,1%) entfernt werden kann,
wenn dar detektorseitige Polfilter in die maximale Auslöschung gedreht wird und sich
kein Messobjekt im Strahlengang befindet:
Abbildung 60: Lichtbild am Detektor ohne Messobjekt bei voller Auslöschung der Polarisation.
Hier zeigen sich große Inhomogenitäten in der Beleuchtung. Dies liegt zum einen daran,
dass das quellenseitige Polfilter nur im Strahlengang liegt und nicht optimal positioniert
werden kann (Adapter fehlt noch). Außerdem treten Artefakte durch Mehrfachreflexionen an Oberflächen der Filter, Spiegel und Blenden auf. Durch optimales Einstellen des
Filters, des Strahlenganges (neue Aufweitungsoptiken wurden bestellt) und der Blenden
sollte hier eine deutliche Verbesserung möglich sein.
4 Ergebnisse und Diskussion
74
Stellt man das Messphantom aus 3.1.4 hochkant in den Strahlengang, so dass die Bohrung genau in der Mitte der optischen Achse liegt, und optimiert die Blendeneinstellungen so erhält man folgende Projektionsaufnahme:
Abbildung 61: Projektionsaufnahme Messphantom hochkant bei 50 ms Belichtungszeit und Auslöschung
der Polarisation
Der Lichtanteil, welcher die glatte Seite Plexiglasscheibe durchdringt, verliert seine
Polarisation und kann so das detektorseitige Polfilter passieren (etwa zu 33%). In der
Mitte des Phantoms befindet sich eine Bohrung. Der Lichtanteil der durch diese Bohrung trifft wird herausgefiltert und daher ist der mittlere Bildabschnitt in obiger Abbildung schwarz (keine Schwächung, da polarisiertes Licht).
4 Ergebnisse und Diskussion
75
Stellt man nun das Messphantom auf die glatte Seite, so dass die Bohrung zentral und
senkrecht im Strahlengang steht und der Lichtstrahl genau frontal auf eine Seite des
Phantoms trifft, erhält man folgende Projektionsaufnahme:
Abbildung 62: Projektionsaufnahme Messphantom, Belichtungszeit 50 ms, Auslöschung der Polarisation
Die raue Oberfläche des Messphantoms an den Seiten und in der Bohrung sorgt dafür,
dass in der Projektionsaufnahme praktisch nur Rauschen zu sehen ist. Bei rauen flächen
Tritt große Streuung auf, die wenigen Photonen, welche gerade durch das Messobjekt
dringen werden durch die Streuung überlagert.
4 Ergebnisse und Diskussion
76
Um zu testen ob große Kontraste an einem semitransparenten Objekt erkannt werden
können und ob durch Einblendung weitere Verbesserungen zu erwarten sind, wurde
folgernder Messaufbau realisiert:
Abbildung 63: Experimenteller Messaufbau für
Messungen mit dem Poaristionsfiltern.
Aus einem Apfel wurde ein 2 - 3 mm dicker Streifen herausgeschnitten. Dieser wurde im Strahlengang so positioniert, dass die Lichtstrahlung frontal
auf die größte Fläche trifft. Etwa 1 cm hinter dem
Apfelstück wurde zentral eine 4 mm Gewindeschraube positioniert.
Bei einer Belichtungszeit von 1,5 s konnte folgende Projektionsaufnahme gemacht werden:
Abbildung 64: Projektionsaufnahme Apfel und Schraube, Belichtungszeit 1,5 s, Auslöschung der Polarisation.
Durch das Apfelstück dringt gestreutes Licht. Die Kontur der Schraube, welche hinter
dem Apfel liegt ist deutlich zu erkennen. Diese Abbildung soll verdeutlichen, dass
4 Ergebnisse und Diskussion
77
durch genaue Einblendung es möglich sein könnte, die Streuung an schwach streuenden
Messobjekten soweit beherrschen zu können, dass Kontraste im Messobjekt sichtbar
werden.
Hierzu müssen noch weitere Experimente unternommen werden. Es muss untersucht
werden, welchen Winkel (hier über Abstand Apfel – Schraube) und wie stark man einblenden muss, um die Streuung zu eliminieren. Weiterhin sollte ein Phantom entwickelt
werden, dass aus lichtstreuenden und lichtundurchlässigen Material besteht um genauere Aussagen treffen zu können und Tomographie durchführen zu können.
5 Zusammenfassung und Ausblick
5
78
Zusammenfassung und Ausblick
Es konnte gezeigt werden, dass mit diesem Messaufbau und den angewandten Methoden tomographische Rekonstruktionen von einfachen geometrischen Objekten möglich
sind. Derzeit können noch keine Kontraste in den Messobjekten dargestellt werden. Die
Schwächen des Messaufbaus sind die Stabilität der Lichterzeugung und -leitung und die
Inhomogenität des aufgeweiteten Laserstrahls. Durch Schwankungen in der Belichtung
am Detektor entstehen Messfehler in den Projektionsaufnahmen. Diese können nur
durch bildverarbeitende Maßnahmen (z.B. Grenzwertfilterung: Pixeloffset und Medianberechnung der Profile) korrigiert werden. Dadurch gehen Bildinformationen (Kontraste) verloren, welche bei transilluminierten Messobjekten wertvoll sein könnten. Weiterhin tritt bei kleinen Messobjekten und bei Einblendung durch die Spaltblenden Beugung
auf. Diese regelhaften Beugungsmuster könnten eventuell durch Filter in der Bildverarbeitung erkannt und teilweise eliminiert werden.
Es wurden bereits erste Maßnahmen unternommen, um den Messaufbau zu erweitern
und auch Kontraste in semitransparenten Objekten darstellen zu können. Mit neuen
Komponenten sollen die Inhomogenität des Laserstrahls reduziert und die Kontraste in
semitransparenten Objekten sichtbar werden. Die Fixierung des Diodenlasers im Messaufbau sollte ebenfalls überdacht werden. Der Messaufbau könnte auf zwei Arten verändert werden:
Aufbau wie bisher mit professioneller Strahlaufweitung und Polarisationsfiltern zum
Scannen makroskopischer Objekte:
Abbildung 65: Skizze eines möglichen Messaufbaus für makroskopische Messobjekte. Blick von oben.
Die Abbildung ist eine Skizze des Strahlenganges von oben, sie ist nicht maßstabsgetreu
und enthält alle optischen Komponenten. Neu ist hier das professionelle Strahlaufweitungssystem. Dieses vergrößert den Lichtstrahl des Lasers um den Faktor 25 horizontal
und vertikal, enthält einen Raumfilter und ist teilweise abbildungsfehlerkorrigiert. Die
5 Zusammenfassung und Ausblick
79
Idee dahinter ist, den Lichtstrahl überproportional zu vergrößern und dann wieder auf
Objektgröße einzublenden. Dadurch wird nur der Teil des Lichtstrahls verwendet, welcher durch die Mitte der Konvexlinsen tritt. In diesem Bereich sind die Abbildungsfehler im optischen System vernachlässigbar. Letztlich soll hiermit die Homogenität der
Belichtung verbessert werden. Der detektorseitige Polfilter wird als Auslöschungsfilter
für das durch das quellenseitige Polarisationsfilter linear polarisierte Licht eingesetzt.
Im Messobjekt verliert das primäre Licht seine Polarisation und wird daher am detektorseitigen Polfilter nicht ausgelöscht, sondern neu linear polarisiert (Transmission etwa
33%). Der Kontrast zwischen dem Licht, welches am Messobjekt vorbei läuft, und dem
durch das Messobjekt transmittierenden Licht kann durch Rotation der Polarisationsachse des detektorseitigen Polfilters auf bis zu 1:10000 erhöht werden. Hier muss eine
optimale Einstellung auf das jeweilige Messobjekt hin gefunden werden. Für Messobjekte, deren Lichtstreuung nicht wesentlich größer ist als deren Lichtabsorption, sollte
dieser Messaufbau funktionieren.
Umgekehrter Aufbau zum „Scannen“ mikroskopischer Objekte:
Abbildung 66: Skizze eines möglichen Messaufbaus für mikroskopische Messobjekte. Blick von oben.
Bei mikroskopischen Messobjekten (etwa dünne Zellschichten) geht die Polarisation
des Lichtes beim Durchgang nicht verloren. Hier kann der Messaufbau nach obiger
Skizze (nicht maßstabsgetreu!) umgedreht werden. Der Laserstrahl wird hier quellenseitig eingeblendet und linear polarisiert. Das detektorseitige Polfilter wird in die gleiche
Polarisationsachse gedreht wie das quellenseitige, dadurch kann die primäre Lichtstrahlung dieses somit nahezu ohne Verluste passieren. Sollte im Messobjekt Streustrahlung
entstehen und diese auf das detektorseitige Polfilter treffen, so wird diese hier teilweise
linear polarisiert (etwa 33%). Der Großteil wird sozusagen durch den „Wirkungsgrad“
5 Zusammenfassung und Ausblick
80
des Polarisationsfilters herausgefiltert (etwa 66%). Der transmittierte Teil der Lichtstrahlung wird schließlich auf die Größe der Detektorfläche aufgeweitet und eingeblendet.
Um inhomogene und stark streuende Objekte wie Gewebe oder ganze Kleintiere mit
dem optischen Computertomographen untersuchen zu können, sind noch weitergehende
Maßnahmen nötig. Bei Geweben ist der Streukoeffizient für rotes und nahes infrarotes
Licht etwa um den Faktor 100 bis 1000 größer als der Absorptionskoeffizient. Es müssen also Maßnahmen ergriffen werden, um entweder das Streulicht zu identifizieren
(z.B. über Triggerung der Lichtlaufzeit vgl. 2.2) und zu eliminieren oder es muss vom
Ansatz nach dem Vorbild der konventionellen CT Abstand genommen werden und die
Bildgebung aus dem Streulicht direkt erfolgen.
Anhang
81
Anhang
Messstabilität und –homogenität bei unterschiedlicher Justierung im Messaufbau
Messaufbau vom 15.11.2007:
Homogenität der Belichtung:
Homogenität der Belichtung spaltenweise:
Anhang
82
Stabilität des Messaufbaus:
Stabilität des Messaufbaus spaltenweise:
Mittlere maximale Standardabweichung = ± 2,25. Die Justierung und damit die Stabilität und Homogenität dieses Messaufbaus sind sehr gut.
Anhang
Messaufbau vom 14.12.2007
Homogenität der Belichtung:
Homogenität der Belichtung spaltenweise:
83
Anhang
84
Stabilität des Messaufbaus:
Stabilität des Messaufbaus spaltenweise:
Mittlere maximale Standardabweichung = ± 14,42. Der Laserstrahl wurde leicht verkippt justiert. Die Belichtung ist relativ homogen, aber etwas niedriger als im vorherigen Beispiel. Die Abweichungen in der Belichtung über die Zeit sehr groß. Diese Instabilität im Messaufbau führt zu Rauschen nach der Normierung der Projektionsaufnahmen.
Abbildungsverzeichnis
85
Abbildungsverzeichnis
Abbildung 1: Abbildungen an dünnen Sammellinsen ...................................................... 5
Abbildung 2: “Keplersche“ Strahlaufweitung. ................................................................. 6
Abbildung 3: Sphärische Linsenaberration....................................................................... 7
Abbildung 4: Bildfeldwölbung ......................................................................................... 8
Abbildung 5: Diffuse optische Tomographie ................................................................. 12
Abbildung 6: Skizze Strahlengang . ............................................................................... 13
Abbildung 7: Realisierter Messaufbau ........................................................................... 14
Abbildung 8: Lichterzeugung und Lichtleitung zum Messobjekt .................................. 15
Abbildung 9: Implementierung des Diodenlaser in das Messsystem ............................. 15
Abbildung 10:Lichtleitung zum Messobjekt. ................................................................. 16
Abbildung 11: Stellmotoren............................................................................................ 17
Abbildung 12: Lichtfokussierung und -Detektion .......................................................... 18
Abbildung 13: Kalibrierphantom.................................................................................... 20
Abbildung 14: Messphantom.......................................................................................... 20
Abbildung 15: Übersicht Software ................................................................................. 21
Abbildung 16: Formular Aufnahme. .............................................................................. 22
Abbildung 17: Formular Kameraeinstellungen. ............................................................. 23
Abbildung 18: Formular Normierung und Nachbearbeitung ......................................... 24
Abbildung 19: Formular Rekonstruktion........................................................................ 25
Abbildung 20: Berechnungsschema Projektionsprofile. ................................................ 27
Abbildung 21: Aufnahmeprinzip Kalibrierung............................................................... 28
Abbildung 22: Auswertung der Profildaten bei der Kalibrierung .................................. 29
Abbildung 23:Objektposition bei der Kalibrierung ........................................................ 29
Abbildung 24: Verzerrung der Aufnahmen vor der Kalibrierung. ................................. 30
Abbildung 25: Abweichung der Objektmitte von der Bildmitte während der
Rotation............................................................................................................... 32
Abbildung 26: Funktionsprinzip des Mittenabgleichs.................................................... 33
Abbildung 27: Zusammenfassung der Bildbearbeitungsmöglichkeiten ......................... 35
Abbildung 28: Prinzipskizze Rückprojektionsalgorithmus. ........................................... 36
Abbildung 29: Darstellung des Ramachandran & Lakshminarayanan Filterkerns. ....... 37
Abbildung 30: Beispielaufnahme zur Erstellung des Strahlengangmodells................... 40
Abbildung 31: Ermittlung des Messsignalanteils im Vollbild........................................ 41
Abbildung 32: Messaufbau Kameraevaluierung.. .......................................................... 42
Abbildung 33: 3D- Plot eine Messaufnahme zur Bestimmung des
Detektorrauschens und zur Identifizierung von Pixelfehlern. ............................ 43
Abbildung 34: Messaufnahme Detektorrauschen........................................................... 44
Abbildung 35: Subtraktionsaufnahme Detektorrauschen. .............................................. 45
Abbildungsverzeichnis
86
Abbildung 36: Signal- zu- Rausch- Verhältnis der Kamera. .......................................... 46
Abbildung 37: Homogenität der Belichtung................................................................... 48
Abbildung 38: Bildspaltenweise Betrachtung der Belichtungshomogenität .................. 49
Abbildung 39: Stabilität des Messaufbaus...................................................................... 50
Abbildung 40: Bildspaltenweise Betrachtung der Stabilität des Messaufbaus............... 50
Abbildung 41: Fixierung der Belichtung zur Erhöhung der Stabilität............................ 51
Abbildung 42: Normierkennlinie.................................................................................... 52
Abbildung 43: Genauigkeit der Objektbreitenbestimmung bei der Kalibrierung .......... 54
Abbildung 44: Statistische Fehleranalyse bei der Objektbreitenbestimmung. ............... 55
Abbildung 45: Evaluierung der Extrapolation der Objektposition bei der
Kalibrierung ........................................................................................................ 56
Abbildung 46: Auswirkung der Korrektur der Objektposition auf die Kalibrierdaten... 57
Abbildung 47: Ergebnisse der Abbildungsfehlerkorrektur............................................. 58
Abbildung 48: Freiheitsgrade bei den Linsenjustagen ................................................... 59
Abbildung 49: Phasenverschiebung des Rotationsmotors bei einer Rekalibrierung ...... 60
Abbildung 50: Rekonstruktion ohne Mittenabgleich...................................................... 61
Abbildung 51: Rekonstruktion mit Mittenabgleich ........................................................ 61
Abbildung 52: Profil im Ortsraum.................................................................................. 63
Abbildung 53: Vergleich der Spektren eines Profils bei verschiedenen
Profilverlängerungsmethoden. ............................................................................ 64
Abbildung 54: Vergleich der gefilterten Profile bei verschiedenen
Profilverlängerungsmethoden ............................................................................. 65
Abbildung 55: Vergleich der rekonstruierten Schnittbilder bei verschiedenen
Profilverlängerungsmethoden ............................................................................. 66
Abbildung 56: Rekonstruktion im eigenen Programm ................................................... 67
Abbildung 57: Vergleich der gefilterten Rückprojektion des eigenen Programms
mit einer externen Software. ............................................................................... 67
Abbildung 58: Schnittbild einer dezentrierten Schraube................................................ 69
Abbildung 59: Schnittbild eines kantigen Messobjektes................................................ 71
Abbildung 60: Lichtbild am Detektor ohne Messobjekt bei voller Auslöschung der
Polarisation.......................................................................................................... 73
Abbildung 61: Projektionsaufnahme Messphantom hochkant ....................................... 74
Abbildung 62: Projektionsaufnahme Messphantom....................................................... 75
Abbildung 63: Experimenteller Messaufbau für Messungen mit dem
Poaristionsfiltern ................................................................................................. 76
Abbildung 64: Projektionsaufnahme Apfel und Schraube ............................................. 76
Abbildung 65: Skizze eines möglichen Messaufbaus für makroskopische
Messobjekte ........................................................................................................ 78
Abbildung 66: Skizze eines möglichen Messaufbaus für mikroskopische
Messobjekte ........................................................................................................ 79
Literaturverzeichnis
87
Literaturverzeichnis
[1] Praktikumsanleitung Carl von Ossietzky Universität Oldenburg - Fakultät V- Institut für Physik, Modul Grundpraktikum Physik – Teil II: Geometrische Optik, optische
Abbildung und Aberrationen; Stand: 30.01.2008;
www.physik.uni-oldenburg.de/Docs/praktika/APR/pdf/Geometrische_Optik.pdf
[2] Lehn R., Breitfeld P.: Abriss der Geometrischen Optik; Störck- Gymnasium Bad
Saulgau; 26. Februar 2007;
http://docs.sfz-bw.de/phag/skripte/g-optik.pdf
[3] Krücken R.: Vorlesungsskript Experimentalphysik 3, Kapitel 3, Geometrische Optik; TU München; 11/2006;
http://www.e12.physik.tu-muenchen.de/stud/vorlesungen/kruecken
/phys3/current/skript/Vorlesung_12_Projektion_2006-11-27.pdf
[4] Thöniß T.: Abbildungsfehler und Abbildungsleistung optischer Systeme; Homepage
der LINOS Photonics GmbH & Co. KG; Stand: 30.01.2008;
www.winlens.de/pdf/papers/Abbildungsfehler.pdf
[5] Zink K.: Einführung in die Strahlentherapie und Therapie mit offenen Nukliden;
Vorlesungsskript; FH Gießen-Friedberg; Modul Angewandte Medizinische Physik;
Stand SS2002; http://homepages.fh-giessen.de/~hg11956/Lehrveranstaltungen.html
[6] Wang L. V.: Optical Tomography for Biomedical Applications; IEEE Engineering
in Medicine and Biology; March/April 1998; S. 45ff
[7] Schulz R.B.: Development of a Non-Contact Fluorescence Tomography System
with Appropriate Reconstruction Techniques; Dissertation; Ruperto-Carola-Universität
Heidelberg; 2006
[8] Key H., Davies E.R., Jackson P.C., Wells P.N.T.: Optical attenuation characteristics
of breast tissues at visible and near-infrared wavelengths; Phys. Med. Biol., 1991, Vol.
36, No 5, S. 579-590
[9] Splinter R., Hooper B. A.: An introduction to biomedical optics; Taylor & Francis
Group; Boca Raton, Florida, USA; 1. Aufl.; 2007
[10] Press W. H., Flannery B.P., Teukolsky S.A., Vetterling W.T.: Numerical recipes in
pascal; Cambridge University Press; USA; 1. Aufl.; 1992
[11] Morneburg H.: Bildgebende Systeme für die medizinische Diagnostik; Publicis
MCD Verlag; München; 3. Aufl.; 1995
[12] Kak A.C., Slaney M.: Principles of Computerized Tomographic Imaging; IEEE
Press; New York, USA; 1999
[13] Sedgewick R.: Algorithmen; Addison- Wesley; Bonn; 1. Aufl.; 1994
[14] Basler AG: EMVA Standart 1288 Protokoll für die Kameraserie scA640-70fm;
http://www.baslerweb.com/downloads/19696/
Basler_scA640-70fm_EMVA_Standard_1288.pdf
Eidesstattliche Erklärung
88
Eidesstattliche Erklärung
Hiermit erkläre ich, dass ich die vorliegende Diplomarbeit selbständig angefertigt habe.
Es wurden nur die in der Arbeit ausdrücklich benannten Quellen und Hilfsmittel benutzt. Wörtlich oder sinngemäß übernommenes Gedankengut habe ich als solches
kenntlich gemacht.
Gießen, den 01.02.2008
Maximilian Völker
Herunterladen