Entwicklung und Realisierung eines optischen Computertomographen Diplomarbeit Fachhochschule Gießen-Friedberg Fachbereich Krankenhaus- und Medizintechnik, Umwelt- und Biotechnologie Studiengang Medizintechnik angefertigt von Maximilian Völker am Institut für medizinische Physik und Strahlenschutz Referent: Prof. Dr. rer. nat. K. Zink Korreferent: Dipl. Ing. (FH) B. Keil Gießen, 01.02.2008 Inhaltsverzeichnis 2 Inhaltsverzeichnis 1 Einleitung ............................................................................................................. 3 2 Theorie.................................................................................................................. 5 2.1 Optik und Abbildungsfehler .................................................................................. 5 2.1.1 Abbildungen an Linsen.......................................................................................... 5 2.1.2 Lichtstreuung und Absorption............................................................................... 9 2.2 Optische Tomographie ........................................................................................ 11 3 Material und Methoden .................................................................................... 13 3.1 3.1.1 3.1.2 3.1.3 3.1.4 Messaufbau und Beschreibung der verwendeten Einzelkomponenten ............... 13 Erzeugung und Leitung des Lichtes zum Objekt ................................................ 15 Objektpositionierung und Bewegung .................................................................. 17 Detektion des Lichtes .......................................................................................... 18 Kalibrier- und Messphantome ............................................................................. 20 3.2 3.2.1 3.2.2 3.2.3 3.2.4 3.2.5 3.2.6 Software, Programmierung und Programmablauf............................................... 21 Allgemein/Aufbau ............................................................................................... 21 Normierung.......................................................................................................... 26 Berechnung der Projektionsprofile...................................................................... 27 Kalibrierung des Messaufbaus ............................................................................ 28 Bildbearbeitungsmöglichkeiten ........................................................................... 34 Bildrekonstruktion ............................................................................................... 36 4 Ergebnisse und Diskussion ............................................................................... 39 4.1 4.1.1 4.1.2 4.1.3 Analyse des Messsystems und seiner Fehlerquellen ........................................... 39 Modell Strahlengang ........................................................................................... 39 Evaluierung der Lichtdetektion ........................................................................... 42 Evaluierung der Lichtquelle und der Lichtleitung............................................... 48 4.2 Analyse der Methoden......................................................................................... 52 4.2.1 Normierung und Kalibrierung ............................................................................. 52 4.2.2 Bildrekonstruktion ............................................................................................... 63 4.3 Messergebnisse.................................................................................................... 69 5 Zusammenfassung und Ausblick ..................................................................... 78 Anhang........................................................................................................................... 81 Abbildungsverzeichnis.................................................................................................. 85 Literaturverzeichnis ..................................................................................................... 87 Eidesstattliche Erklärung............................................................................................. 88 1 Einleitung 1 3 Einleitung Die optische Tomographie hat in den letzten Jahren zunehmend an Bedeutung für die Forschung und Entwicklung gewonnen. Gründe dafür sind die ständige Verbesserung der Detektionssysteme für sichtbares und nahes infrarotes Licht sowie die Weiterentwicklung der Bildverarbeitungsalgorithmen von diffusem Licht. Es existieren mittlerweile hochempfindliche CCD- und CMOS-Chips, welche die Detektion von sehr geringen Lichtsignalen, die auch durch dünnes Gewebe dringen, ermöglichen. Besonders für die Forschung an Kleintieren existieren unterschiedliche tomographische Prototypen. Für die Medizin werden diese optischen Computertomographen interessant, weil sich dadurch zusätzliche diagnostische Informationen gewinnen lassen. Es ist zum Beispiel möglich durch spezifische fluoreszierende Marker (aus der Fluoreszenzmikroskopie) diagnostisch relevante Bereiche im Schnittbild zu betonen. Dies kann beispielsweise für die Verlaufskontrolle bei einer Tumortherapie interessant sein, da hier anders als bei konventionellen bildgebenden Systemen molekülspezifische Marker existieren. Diese erlauben eine frühere Diagnostik von Veränderungen, als zum Beispiel gewebespezifische Kontrastmittel in der Computertomographie. Außerdem ist die eingesetzte Strahlung sowohl für den Anwender als auch für das Untersuchungsobjekt im Gegensatz zur ionisierenden Strahlung der konventionellen Computertomographen ungefährlich. Durch die damit verbunden geringe Energie der Lichtstrahlung hingegen treten eine hohe Absorption und Streuung des Lichtes im Messobjekt auf. Daher ist die Eindringtiefe begrenzt und es müssen besondere technische Maßnahmen ergriffen werden, um die entstehende Streustrahlung unter Kontrolle zu bekommen. Grundsätzlich kann man hier zwei Ansätze zur Lösung dieses Problems unterscheiden: Im ersten Ansatz konzentriert man sich darauf, die Streustrahlung zu identifizieren und zu eliminieren. Sofern dies gelingt können die Projektionsaufnahmen mit den bekannten Algorithmen aus der konventionellen Computertomographie (gefilterte Rückprojektion) ausgewertet werden. Im zweiten Ansatz wird versucht direkt aus dem Streulicht Bildgebung zu betreiben. Dieser Ansatz geht auf die Strahlungstransportgleichung zurück. Es wird hier sozusagen versucht den Weg des Lichtstrahls durch das Messobjekt zum Detektor zurückzuverfolgen und so Aussagen über das Messobjekt treffen zu können. 1 Einleitung 4 Mit dieser Arbeit wird ein erster Aufbau eines optischen Computertomographen realisiert. Das Gerät soll nach den Regeln der konventionellen Computertomographie erstellt werden und Schnittbilder von einfachen geometrischen Objekten erzeugen. Die Arbeit ist wie folgt gegliedert: Im folgenden Kapitel werden die theoretischen Grundlagen erläutert, auf welche diese Arbeit aufbaut. Hier soll ein Überblick gegeben werden, nach welchen Gesichtspunkten der Messaufbau kreiert wurde und auf welche Grundlagen das Messverfahren zurückgreift. Zusätzlich werden die Hauptpunkte aufgezeigt, welche die optische Computertomographie von der konventionellen Computertomographie unterscheiden. Es werden mehrere Lösungen, die dem Stand der Forschung und Entwicklung entsprechen, kurz vorgestellt. Im Kapitel Material und Methoden wird der Messaufbau vorgestellt. Es wird erklärt, wie die Messdaten aufgenommen und verarbeitet werden. Im Kapitel Ergebnisse und Diskussion erfolgt zunächst eine Analyse des Messaufbaus auf Stärken und Fehlerquellen. Danach werden die angewandten Methoden evaluiert. Anhand von typischen Messergebnissen werden schließlich die Möglichkeiten des Messsystems aufgezeigt und bewertet. Im letzten Kapitel erfolgt eine Zusammenfassung der wichtigsten Erkenntnisse. Es werden Möglichkeiten aufgezeigt, durch welche sich das Messsystem erweitern und verbessern lassen könnte. 2 Theorie 5 2 Theorie 2.1 Optik und Abbildungsfehler 2.1.1 Abbildungen an Linsen Aus der geometrischen Optik können einfache Regeln übernommen werden, die für die Dimensionierung der optischen Komponenten im Messaufbau ausreichend sind. Den Zusammenhang zwischen der radialen Krümmung einer Linse und ihrer Brennweite stellt die Linsenmachergleichung her (vgl. Oldenburg [1]): 1 1 1 = (n − 1) * − f R1 R2 Dabei ist: n: Brechungsindex (Brechzahl) des Linsenglases; n hängt von der Wellenlänge λ des Lichtes ab. R1: Krümmungsradius der linken Linsenoberfläche. R2: Krümmungsradius der rechten Linsenoberfläche. Allgemein wird in der geometrischen Optik der Strahlengang von links nach rechts betrachtet, wobei links immer die Lichtquelle angeordnet ist. Es gilt: R > 0 wenn die Oberfläche nach links gewölbt ist (d.h. der auf der optischen Achse liegende Linsenoberflächenpunkt wird vom einfallenden Licht eher getroffen als die Randpunkte). R < 0 wenn die Oberfläche nach rechts gewölbt ist (d.h. der auf der optischen Achse liegende Linsenoberflächenpunkt wird vom einfallenden Licht später getroffen als die Randpunkte). Die Newtonsche Form der Abbildungsgleichung lautet(vgl. Lehn [2]): z * z’ = f² mit: z=g-f z’ = b - f Grafik Wikipedia Opensource: http://de.wikipedia.org/wiki/Newtonsche_Abbildungsgleichung Abbildung 1: Abbildungen an dünnen Sammellinsen 2 Theorie 6 Will man einen parallelen Lichtstrahl aufweiten, so positioniert man links eine starke Sammellinse oder eine starke Zerstreulinse. In deren bildseitigen Fokus wird der Fokalpunkt der rechten schwächeren Sammellinse geschoben, um ein paralleles Strahlbündel am Ausgang zu erhalten: Abbildung 2: “Keplersche“ Strahlaufweitung. Prinzip der Aufweitung eines Strahlenbündels. parallelen Der Vergrößerungsfaktor (v) der abbildenden Systems ergibt sich dann aus: v = f2 / f1 Bei Abbildungen entstehen in der geometrischen Optik auch immer Abbildungsfehler. Diese können meist durch zusätzliche „Korrekturlinsen“ korrigiert werden. In diesem Messaufbau treten zwei Arten von Abbildungsfehlern auf, die hier aus Platzgründen nur durch bildverarbeitende Maßnahmen korrigiert werden können. 2 Theorie 7 Es tritt die „sphärische Linsenaberration“ auf. Bei normalen Sammellinsen (es gibt auch Asphärische Kondensorlinsen) und Zerstreulinsen ist die Brennweite eines Lichtstrahls abhängig von der Entfernung zur optischen Achse, welche in welcher dieser auf eine radial gekrümmte Linse trifft: Abbildung 3: Sphärische Linsenaberration. Abbildungsfehler durch den Linsenkrümmungsradius am Beispiel einer plankonvexen Linse. Man kann delta f minimieren, indem die Linse (hier plankonvex) so angeordnet wird, dass die Lichtbrechung auf beide Seiten verteilt wird. Den Unterschied in der Brennweite kann man berechen mit (vgl. Krücken [3]): ∆s = mit: h² [n³ + (3n + 2)(n − 1)² p² + 4(n − 1)² pq + (n + 2)q ²] 8 f * n(n − 1)² p = 1- f q= R1 + R1 R2 − R1 ∆s=1/ ∆f s: Brechkraft h: Entfernung zur optischen Achse Für eine Plankonvexlinse mit der Brennweite 100 mm aus Kronglas (mit n = 1,51), welche die Lichtbrechung auf beide Seiten verteilt beträgt die Abweichung der Brennweite in 10 mm Abstand von der optischen Achse etwa +1,8 mm. Diese Linse wird zur Fokussierung im Messaufbau verwendet. 2 Theorie 8 Die „Bildfeldwölbung“ beschreibt die Verzerrung eines Bildes auf einer ebenen Abbildungsfläche durch eine Linse: Abbildung 4: Bildfeldwölbung. Abbildungsfehler, der beim Bild einer Linse auf einer ebenen Fläche entsteht. Ein Objekt wird verzerrt abgebildet, wenn die Bildebene nicht der radialen Krümmung der Brennweite f folgt. Das Bild eines Objektes wird auf einer geraden Ebene verzerrt dargestellt. Um ein scharfes Abbild zu erhalten müsste die Bildebene der radialen Brennweite der Linse folgend gekrümmt sein. Es existieren noch weitere bekannte Abbildungsfehler (vgl. Thöniß [4]). Diese sind für den hier realisierten Messaufbau aber nicht relevant (z.B. chromatische Aberrationen…). 2 Theorie 9 2.1.2 Lichtstreuung und Absorption Sobald ein Lichtstrahl auf Materie trifft, wird er durch Wechselwirkungen mit der Materie geschwächt. Man kann für sichtbares Licht grundsätzlich zwei Arten von Wechselwirkungen des Lichtes mit der Materie unterscheiden. Die Lichtstreuung beinhaltet die Wechselwirkungen mit Materie, bei der es zu einer Richtungsänderung und / oder zu einer Energieänderung der primären Lichtstrahlung kommt. Die Lichtabsorption beschreibt die Wechselwirkungen mit Materie bei der ein Photon von einem Atom oder Molekül absorbiert wird. Die Anzahl und die Arten der Wechselwirkungen sind hierbei grundsätzlich abhängig von der Energie der Lichtstrahlung, der Zusammensetzung der Materie und der Dichte der Materie. Zur Berechnung dieser Streu- und Absorptionsprozesse sind lineare Schwächungskoeffizienten definiert. Den Zusammenhang zwischen den Dicken eines illuminierten Materials und den Verlusten an Primärphotonen durch Lichtschwächung stellt folgende Gleichung her (vgl. Zink [5]): φ = φ 0 * e − µ *x = φ 0 * e Mit − µ * ρ * x ρ Φ: Photonenfluenz (Einheit: 1/cm²) µ: linearer Schwächungskoeffizient (Einheit: 1/cm) ρ: Dichte Material x: Dicke Material In biologischen Geweben tritt bei sichtbarem Licht eine viel stärkere Streuung auf, als bei der Belichtung mit Röntgenstrahlung. Ein typischer Streukoeffizient für sichtbares Licht in Gewebe ist 100/cm. Bei Röntgenstrahlung, welche in der medizinischen Diagnostik angewandt werden, liegt dieser lineare Streukoeffizient bei ungefähr 0,2/cm (vgl. WANG[6]). Diese Streukoeffizienten sind im Spektralbereich von sichtbarem und nahem infrarotem Licht relativ konstant. Die Streuung von sichtbarem Licht in Geweben ist weiterhin stark anisotrop, der vorwärtsgerichtete Teil der Streuung überwiegt dabei (Anisotropiefaktor ≈ 0,9). Die linearen Absorptionskoeffizienten schwanken im Bereich von sichtbarem und nahem infraroten Licht. Bei Wellenlängen kleiner als 600 nm sind die Absorptionskoeffizienten wesentlich höher (µa>>1/cm) als bei Wellenlängen im nahen infraroten Spektralbereich. In diesem Spektralbereich (600 – 900 nm) liegen die Absorptionskoeffizienten, wegen der geringen Absorption durch Wasser („Wasser- Fenster“), welches der Hauptbestandteil im Gewebe ist, im Bereich 0,1 bis 0,5 /cm (vgl. Schulz [7]). Dies ist der Grund dafür, warum in der optischen Tomographie Lichtwellenlängen im nahen infraroten Bereich zum Einsatz kommen. Der Anteil der Lichtstreuung an der Lichtschwächung ist also um drei bis vier Größenordnungen höher als der Anteil der Absorption. Die mittlere freie Weglänge eines Photons, also die Strecke, welche ein Photon im Mittel im Gewebe überwinden kann ohne eine Wechselwirkung mit dem Gewebe einzugehen, beträgt etwa 0,1 mm (nach Key [8]). 2 Theorie 10 Man kann die Lichtstrahlung, welche ein Gewebe durchdringt, in ballistisch, quasi- ballistisch und diffus einteilen. Ballistisches Licht erfährt keine Streuung im Messobjekt und trägt so direkte Bildinformationen an einen Detektor. Quasi- ballistisches Licht erfährt nur minimale Streuung im Messobjekt und bringt damit auch noch geringe Informationen über das Messobjekt zum Lichtdetektor. Mehrfachgestreutes Licht ist diffus, es enthält kaum noch direkte Bildinformationen über das Messobjekt und überlagert das ballistische und quasi- ballistische Licht am Detektor (nach Wang [6]). 2 Theorie 2.2 11 Optische Tomographie Um die starke Lichtstreuung von Geweben unter Kontrolle zu bekommen und optische Computertomographen für die Medizin nutzbar zu machen müssen spezielle Techniken eingesetzt werden. Wie oben bereits erwähnt, gibt es hier zwei unterschiedliche Ansätze. Wenn man aus der Lichtstrahlung am Detektor den ballistischen und den quasi- ballistischen Anteil vom diffusen trennen kann, kann die Bildverarbeitung nach dem bekannten Weg der konventionellen Computertomographie erfolgen. Vorteil dieser Methode ist, dass die Algorithmen zur Bildverarbeitung relativ einfach zu handhaben und allgemein verfügbar sind. Nachteil dieser Methode ist, dass die Lichtleistung von ballistischem und quasiballistischen Licht schon nach wenigen Millimetern in Geweben so gering ist, dass äußert empfindliche Detektionssysteme benötigt werden. Wang [6] gibt die Dicke eines so untersuchbaren Gewebes mit höchstens 1,4 mm oder 42 mittlere freie Weglängen an. Die Unterscheidung, ob Licht welches am Detektor aufgefangen wird ballistisch oder diffus ist, kann zum Beispiel über die Lichtlaufzeit im Messobjekt erfolgen. Idee dahinter ist, dass der Lichtanteil, welcher keine oder nur wenige Wechselwirkungen mit dem Messobjekt eingeht als erstes am Detektor ankommt. Das mehrfachgestreute diffuse Licht hat einen längeren Weg durch das Messobjekt und benötigt so mehr Zeit um am Detektor anzukommen. Für einen solchen Messaufbau benötigt man eine sehr schnelle hochgenaue und damit teure Triggerung der Belichtung und der Detektion. Die Belichtung muss hier mit gepulsten Lasern (Pulsbreiten im ps- Bereich) erfolgen. Der diffuse Ansatz zur Rekonstruktion von Schnittbildern geht von der Strahlungstransportgleichung aus. Diese beschreibt anhand der Wechselwirkungen von Photonen mit einem Medium die Ausbreitung des Lichtes im Medium(nach Schulz [7]): ∂ v∂t + w * ∇ + µ a (r ) + µ s (r )u (r , w, t ) = µ s (r ) ∫ p (r , w, w' )u (r , w' , t )dw'+ q (r , w, t ) 4π Mit u: Flussdichte (Photonen/s) r: Ort w: Raumrichtung v: Ausbreitungsgeschwindigkeit im Medium µa: Absorbtionskoeffizient µs: Streukoeffizient p ist die Wahrscheinlichkeit am Ort r für die Streuung eines Photons aus der Richtung w’ in Richtung w. q ist die Verteilung von Quellen innerhalb der betrachteten Domäne. Aufgrund der Komplexität dieser Gleichung und der aufwendigen mathematischen Lösung dieses Modells, geht man hier meist von einer sogenannten Diffussionsnäherung aus. Dazu wird die Winkelabhängigkeit der Flussdichte vereinfacht und die Streuprozesse als isotrop angenommen. Bei einer zeitinvarianten Lichtquelle (kontinuierlicher Laser) vereinfacht sich obige Gleichung zudem um ihre Zeitkomponente. Letztlich muss man sich noch weitere Anfangsbedingungen und Randbedingungen schaffen um 2 Theorie 12 diese Gleichung zu lösen (z.B. die Domäne muss bestimmt werden und der Teil der Lichtstrahlung der die Domäne verlässt „abgezogen“ werden…). Ein Messaufbau der nach diesem Prinzip arbeitet, wäre zum Beispiel eine Maske in der Lichtleiter regelhaft angebracht werden. Unter dieser Maske befindet sich das Messobjekt. Die Belichtung und die Detektion von Licht könnten über diese Maske erfolgen. Zur Lösung der Gleichung müssten hier Objektgröße und Ort der Lichtquelle bekannt sein. Skizze: Abbildung 5: Diffuse optische Tomographie. Skizze eines möglichen Messaufbaus. Die Belichtung und Detektion könnte über regelhaft in einer halbkugelförmigen Maske angebrachte Lichtleiter erfolgen. Über einen optischen Multiplexer könnten hier die Lichtleiter als Lichtquelle und Lichtdetektor genutzt werden. Ähnliche Aufbauten werden in Forschungslabors eingesetzt. Die Auflösung eines Gerätes, das nach der Diffusionsnäherung rekonstruiert, kann aufgrund der Abschätzungen der Strahlungstransportgleichung etwa im Bereich von einem Millimeter liegen (vgl. Schulz [7]). Eine weiterer Ansatz ist die optische Kohärenz- Tomographie (optical coherence tomography: OCT). Dieses Messprinzip funktioniert ähnlich wie ein B- Scannverfahren beim Ultraschall. Es wird also eine Laufzeitanalyse mit Licht in einem Messobjekt gemacht. Man kann OCT betreiben, indem man einen Lichtleiter an ein Messobjekt hält, mit diesem einen Lichtpuls in das Messobjekt überträgt, und das rückgestreute Licht mit dem Lichtleiter wieder detektiert (dann wie beim Ultraschall verschieben) . Über die Laufzeit des Lichtes lässt sich der Ort der Rückstreuung identifizieren. Als zusätzliche Informationsquelle wird die Kohärenz von Licht ausgenutzt, dadurch ist es möglich, mehrfach gestreutes Licht von wenig gestreutem Licht zu unterscheiden. Mit OCT- Geräten lassen sich Auflösungen von 5- 30 µm bei Eindringtiefen von 1 – 3 mm erreichen (vgl. Splinter [9]). 3 Material und Methoden 3 Material und Methoden 3.1 Messaufbau und Beschreibung der verwendeten Einzelkomponenten 13 Ausgehend von den Computertomographen der ersten und zweiten Generation (Translation- Rotations- Scanner) wurde folgendes Modell als Grundlage für den Aufbau gewählt: Abbildung 6: Skizze Strahlengang von oben. Als Lichtquelle soll ein Diodenlaser im nahen infraroten Spektralbereich dienen. Dessen Strahlung wird mittels geeigneter Optiken auf Objektgröße aufgeweitet und hinter diesem auf die Größe des Detektors einer CCD-Flächenkamera – fokussiert. Anders als bei den ersten Konzepten der Computertomographie, bei denen Röntgenröhre und Detektor um das belichtete Objekt rotieren bzw. verschoben werden, soll hier nur das Objekt mittels geeigneter Stellmotoren bewegt werden. Der ganze Aufbau soll möglichst variabel bleiben, um zum Beispiel durch Austausch oder Entfernen der Optiken den Betriebsmodus des Gerätes vom Flächen- bzw. mehrzeiligen Betrieb auf punktuelles „Abtasten“ des Objektes wechseln zu können. 3 Material und Methoden 14 Folgender Aufbau wurde realisiert: Abbildung 7: Realisierter Messaufbau. Erstes Foto: Ansicht von oben; Zweites Foto: Ansicht von vorne. Als mechanisches Grundsystem wurde das Profilschienensystem SYS 65 (OWIS, Staufen, Deutschland) der installiert. Das ganze System ist auf einer Bodenplatte variabel montierbar und befindet sich in einem schwarzen Kasten aus Aluminium und Plexiglas, welcher das Tageslicht abhalten soll. Zur genaueren Betrachtung der verwendeten Komponenten wird der Messaufbau in drei funktionelle Abschnitte unterteilt: - Erzeugung und Leitung des Lichtes zum Objekt - Objektpositionierung und Bewegung - Leitung und Detektion des Lichtes hinter dem Objekt 3 Material und Methoden 15 3.1.1 Erzeugung und Leitung des Lichtes zum Objekt Abbildung 8: Lichterzeugung und Lichtleitung zum Messobjekt. Messaufbau von der Vorderseite. Als Lichtquelle dient der Diodenlaser xldm 650-3 (LINOS Photonics GmbH, Göttingen, Deutschland) mit einer Wellenlänge von 650 nm und einer Lichtleistung von 3 mW. Optional steht ein Diodenlaser der gleichen Bauart mit einer Wellenlänge von 785 nm und einer optischen Leistung von 1 mW zur Verfügung. Der Diodenlaser emittiert einen elliptischen Strahl (3,5 x 1,5 mm), welcher sich durch integrierte Optiken fokussieren lässt. Die Stromversorgung (DC) des Lasers erfolgt über ein Labornetzgerät (alpha +- electronica, Parma, Italien). Zur Verdrahtung und zum Anschluss des Lasers ist ein „Steckkasten“ auf der Bodenplatte angebracht. Der Laser ist mittels geeigneter Adapter in einen Aufspannbock fixiert. Dieser ist auf dem Prismentisch PR80 (Owis, Staufen, Deutschland) montiert, welcher eine Justierung des Winkels gegenüber der Horizontalen und der Richtung des Laserstrahls erlaubt. Die Höhe des Lasers lässt sich der Höhe der Optischen Bank mittels der Stift – Säulenkombination angleichen. Abbildung 9 zeigt die Implementierung des Diodenlasers in das Messsystem 3 Material und Methoden 16 Abbildung 10: Die Lichtleitung zum Messobjekt. Von links nach rechts: Plankonvexe Zylinderlinse, Neutralfilter, Spaltblende, Plankonvexe Zylinderlinse, Umlenkwürfel Auf der 50 cm langen Profilschiene befinden sich ein Umlenkwürfel, zwei Linsen, eine Blende und ein Polarisationsfilter. Die Profilschiene ist mittels Reiter und Adapterplatten (Anpassung der Höhe der optischen Achse an die Höhe des Motorblocks) fest mit der Bodenplatte verschraubt. Die Höhe der optischen Achse ist somit auf 17,5 bis 18 cm über der Bodenplatte festgelegt. Der Umlenkwürfel dreht/spiegelt den Laserstrahl in die optische Achse um 90°. Er ist wie alle auf der Schiene montierten Komponenten mittels Reiter verschiebbar. Die Stahlaufweitung besteht aus zwei plankonvexen Zylinderlinsen (Brennweiten: 25mm und 200mm). Die Zylinderlinsen weiten den Lichtstrahl in der horizontalen Achse um den Faktor 8 auf. Sie sind mittels geeigneter Aufnahmeplatten an sogenannten „Transjustierungen“ montiert. Eine Transjustierung erlaubt es, den Winkel der Linse horizontal und vertikal zur optischen Achse zu verstellen. Zur Änderung des Betriebsmodus vom „Zeilenscanner“ zum „Flächenscanner“ können die Zylinderlinsen durch Bikonvexlinsen (Brennweiten: 50 und 200mm) ersetzt werden. Die Spaltblende SP60 weist eine Apertur von maximal 12 x 12 mm auf und dient der Unterdrückung von Streulicht. Es können bis zu drei Filter hintereinander auf einem Filterhalter angebracht werden. Zur Verfügung stehen zwei Neutralfilter mit einer Transmission von 0,1% und ein Neutralfilter mit einer Transmission von 1%. Der Polarisationsfilter (nicht auf der Abbildung) kann über einen Adapter in die Fassung der Sammellinsen geschraubt und mittels einer Transjustierung auf dem Profil befestigt. 3 Material und Methoden 17 3.1.2 Objektpositionierung und Bewegung Der Objektpositionierung dienen drei Stellmotoren der Firma Owis (Owis GmbH, Staufen, Deutschland). Die Höhe des Motorblocks bestimmt die Höhe des Messobjekts über der Bodenplatte und somit auch die Höhe der Optischen Achse des Messsystems. Sie beträgt bei Nullstellung des Hubmotors 15 cm. Diese sind über die LSTEP-PCI Interfacekarte mit dem PC verbunden. Die Motorsteuerung erfolgt über das mitgelieferte Software Development Kit (SDK) direkt in der verwendeten Programmierumgebung (Delphi 2007 s. u.). Direkt auf der Bodenplatte ist der Höhenverstelltisch HVM 100 montiert. Dieser erlaubt eine maximale Höhenverstellung von 30 mm und dient der Schichtselektion am Messobjekt. Er hebt die auf der 120 x 100 mm großen Plattform montierten Motoren und das Messobjekt bis zu einer Gewichtskraft von 150 N bei einem Positionierfehler von weniger als 60 µm und einem Wiederholfehler von weniger als 6 µm. Abbildung 11: Stellmotoren. Unten: Hubtisch, Mitte: Lineartisch, Oben: Rotationstisch Auf der Plattform des Höhenverstelltisches ist der Präzisionslineartisch LTM 80-75 montiert. Dieser hat einen maximalen Stellweg von 70 mm und verschiebt das Messobjekt horizontal durch die optische Achse. Er dient somit der Translationsbewegung beim „Scannen“ größerer Objekte. Der Positionierfehler wird vom Hersteller mit maximal 25 µm pro 100 mm Fahrweg angegeben. Der Wiederholfehler beträgt weniger als 15 µm. Über eine 1 cm breite Adapterplatte ist der Drehmesstisch DMT 65-25 auf der Plattform des Linearmotors montiert. Der Rotationswinkel des Drehmotors ist unbegrenzt. Der Wiederholfehler des Motors beträgt laut Herstellerangaben maximal 0,02°. Die Tragkraft des DMT beträgt 100 N. Somit kann die Belastung auf den gesamten Motorblock durch das Messobjekt theoretisch bis zu 100 N betragen. Auf der Drehachse des Motors ist ein zusätzlicher Drehteller montiert. Dieser ist 0,5 cm breit und erlaubt eine komfortablere Positionierung des Messobjektes. 3 Material und Methoden 18 3.1.3 Detektion des Lichtes Abbildung 12: Lichtfokussierung und -Detektion. Links: Digitalkamera, Mitte: Spaltblende, Rechts: Plankonvexe Zylinderlinse (Strahlfokussierung) In der Detektorseite des Aufbaus befinden sich die Digitalkamera, eine Fokussierlinse, ein Polarisationsfilter und eine Spaltblende. Diese Komponenten sind auf einem Profilschienensystem montiert. Hier wird der Lichtstrahl gefiltert, eingeblendet und auf den CCD- Chip der Kamera fokussiert. Das Profilschienensystem hat eine Länge von 30 cm und ist über Adapterplatten zur Anpassung der Höhe mit der Bodenplatte verschraubt. Das Polarisationsfilter 80 (nicht auf der Abbildung, LINOS Photonics GmbH, Göttingen, Deutschland) kann über eine Stift-Säulen-Kombination direkt auf der Bodenplatte zwischen Profilschiene und Motorblock montiert werden. Der Durchmesser des Filters beträgt 80 mm. Die Richtung der Polarisation lässt sich durch drehen der Filterfolie einstellen. Der maximale Polarisationsgrad des Filters liegt bei über 99,99%. Dies entspricht einem Auslöschungsverhältnis für senkrecht zur Polarisationsachse linear polarisiertes Licht von etwa 1:10000. Der Fokussierung des Lichtstrahles dient eine Plankonvex- Zylinderlinse mit einer Brennweite von 100 mm. Um den Betriebsmodus vom „Zeilenscanner“ zum „Flächen- 3 Material und Methoden 19 scanner“ zu ändern kann diese Zylinderlinse durch eine Bikonvexlinse derselben Brennweite ersetzt werden. Die Linse wird über die oben beschriebene Transjustierung mit der optischen Bank verbunden. Über den Abstand der Linse zur Detektorfläche lässt sich die Fokussierung des Lichtstrahls je nach Fokusgröße am Objekt passend zur Breite der Detektorfläche einstellen. Zwischen Fokussierlinse und Kamera befindet sich eine Spaltblende SP 60(s. 3.1.1). Sie dient der Einblendung und der Unterdrückung von Streustrahlung. Der Lichtdetektor des Messsystems ist die Digitalkamera Scout SC 640 - 70f (Basler AG, Ahrensburg, Deutschland). Die Kamera ist über eine 1,5 cm breite Adapterplatte zur Anpassung der Höhe der Detektorfläche an die Höhe der optischen Achse – auf einen Reiter des Profilschienensystems montiert. Der Detektor der Kamera ist der CCD – Chip Sony ICX 424. Dessen optische Größe liegt bei 5,79 x 4,89 mm. Die Pixelgröße beträgt 7,4 x 7,4 µm, bei 659 x 494 Pixel auf dem Chip. Der Chip arbeitet nach dem Interline Transfer Prinzip im Progressive Scan Modus. Das bedeutet, dass für jeden Pixel auf dem Chip eine Fotodiode und eine Speicherzelle in der optischen Fläche angebracht sind. Diese sind zeilen- und spaltenweise parallel zueinander angeordnet. Dadurch wird der Füllfaktor – der Anteil des eintreffenden Lichtstrahles, welcher auf eine lichtempfindliche Stelle trifft – deutlich geringer (keine Herstellerangaben!). Vorteile hat dies für die Auslesegeschwindigkeit (bis zu 71 Vollbilder pro Sekunde) und die Auslesegenauigkeit sowie durch die Möglichkeit gezielt eine Region auf dem Chip auslesen zu können. Die Kamera ist über eine Firewire-Schnittstelle mit dem PC verbunden. Das mitgelieferte Software Development Kit ermöglicht die Bedienung der Kamera in der Programmiersprache C++. 3 Material und Methoden 20 3.1.4 Kalibrier- und Messphantome Als Kalibrierphantom dient ein Gewindestift: Abbildung 13: Kalibrierphantom. Oben: liegend, links: verschraubt im Drehteller Dieser Kalibrierstift hat ein 4mm- Gewinde und kann so in die Zentralbohrung des Drehtellers des Rotationstisches geschraubt werden. Die Länge des Stiftteiles beträgt 23 mm und der Durchmesser 1,8 mm. Für die Kalibriermessungen ist es besonders wichtig, dass dieser Stift gerade und gleichmäßig rund ist. Es kommen unterschiedliche Messphantome zum Einsatz. Zunächst werden zur Evaluierung einfache geometrische Objekte (Schattenmessungen z.B. runde Schrauben und Nägel oder eckige Würfel) eingesetzt. Für die Messung unterschiedlicher Schwächungen wurde folgendes Phantom erstellt: Dieses Messphantom ist ein Quader mit quadratischer Grundfläche aus Plexiglas. Die Kantenlänge beträgt 1,5 cm und die Höhe 1 cm. In der Mitte liegt eine zentrale Bohrung von 5 mm Durchmesser. Die Seiten des Quaders und das Bohrloch haben eine raue Oberfläche. Abbildung 14: Messphantom. 3 Material und Methoden 3.2 21 Software, Programmierung und Programmablauf 3.2.1 Allgemein/Aufbau Die komplette Bedien- und Auswertesoftware ist mittels Code Gear RAD Studio (CodeGear, Scotts Valley, CA, USA) in der Programmiersprache Delphi Version 2007 geschrieben. Bei der Bildverarbeitung und Diagrammdarstellung kommen die OpenSource- Komponenten Graphics321 und XYGraph2 zum Einsatz. Zur Bedienung der Motoren wird auf das mitgelieferte Software Developement Kit (SDK) direkt in Delphi zugegriffen. Die Kamera hingegen verfügt über ein SDK, welches nur die Programmiersprache C++ unterstützt. Um im Hauptprogramm direkt auf die Kamera zugreifen zu können, sind die wichtigsten Funktionen der Kamera über Programmbibliotheken steuerbar. Diese Programmbibliotheken (Dynamic Link Libraries) wurden im Microsoft Visual Studio 2007 (Microsoft Corporation, USA) in C++ erstellt und exportiert. In Delphi stehen somit die Befehle Anmelden, Abmelden, Kameraeinstellungen ändern und Foto machen zur Verfügung. Das Hauptformular dient der Verknüpfung der verschiedenen Funktionen des ganzen Messsystems, man hat die Möglichkeit auf die verschiedenen Unterformulare zuzugreifen. Diese sind funktionell in die Bereiche Aufnahme, Auswertung und Testen gegliedert. Die Hierarchie der verschiedenen Formulare stellt sich folgendermaßen dar: Abbildung 15: Übersicht Software.Dunkelgrau: Hauptformulare, Hellgrau: Unterformulare. Die Pfeile stellen die Verknüpfungen der verschiedenen Formulare dar. 1 2 http://www.graphics32.org/wiki/ http://www.torry.net/vcl/charts/charts/xygrph23.zip 3 Material und Methoden 22 Der Bereich Aufnahme dient der Akquisition neuer Projektionsaufnahmen. Dazu müssen im Formular zunächst die grundlegenden Einstellungen zur Positionierung und zum Fahrprogramm für die Motoren eingegeben werden. Dazu gehören Angaben wie die Anzahl der zu scannenden Schichten, die Aufnahmen pro Schicht, die Größe (Durchmesser und Höhe) des Messobjektes und die Scannregion (Volume of Interest). Falls der Messaufbau verändert wurde, müssen die Angaben über die Fokushöhe und –breite des Lichtstrahls am Objekt angepasst werden. Abbildung 16: Formular Aufnahme. Sind diese Eingaben bestätigt, errechnet sich die Software das „Fahrprogramm“ für die Motoren und zeigt dem Anwender dieses an. Außerdem wird der Anwender zu dem Formular Kamera einstellen weitergeleitet. Hier stellt der Anwender die Belichtungszeit, die Auflösung und die Ausleseregion auf der Detektorfläche der Kamera ein. Sobald diese Angaben festgelegt wurden muss der Kalibrierprozess für den Messaufbau durch den Anwender über einen Schaltknopf gestartet werden. Der Kalibrierprozess für den Messaufbau umfasst eine horizontale Korrektur der Bildfeldwölbung der Fokussierlinse, die Bestimmung der korrekten Ausgangsposition der Motoren für das Fahrprogramm und die Ermittlung der Korrekturdaten für die Rotationsachse (s. u.). Sobald diese Daten aufgenommen worden sind, können die Belichtungszeit oder die Auflösung der Kamera noch solange korrigiert werden, bis der Anwender durch Klicken auf die Schaltfläche Weiter zurück zum Aufnahmeformular geleitet wird. Mit den dadurch fixen Kameraeinstellungen müssen hier die Aufnahmen für die Normierung der Datensätze gemacht werden. Dazu werden je 40 Bilder ohne Belichtung der Kamera (Dunkelbilder) und mit Belichtung der Kamera 3 Material und Methoden 23 (Lichtquellenhomogenität) - jeweils ohne das Messobjekt - aufgenommen. Die eigentliche Normierung der aufgenommenen Projektionsaufnahmen erfolgt während des Auswerteprozesses. Abbildung 17: Formular Kameraeinstellungen. Daraufhin kann der Anwender im Formular Aufnahme die Ermittlung der Projektionsdaten des Messobjektes starten. Der Bereich Auswertung ist in die zwei Unterformulare Nachbearbeitung/ Normierung und Rekonstruktion gegliedert. Die aufgenommenen Projektionsdatensätze müssen für die Rekonstruktion normiert und angepasst werden. Dies geschieht durch Drücken der jeweiligen Schaltflächen im gleichnamigen Formular. Die Normierung erfolgt nach Auswertung der 80 Normieraufnahmen jeder Serie automatisch. Sie beinhaltet eine Umwandlung der Projektionsdaten von Transmissionswerten in Schwächungswerte und deren Darstellung in Graustufen. Sollten bei der Aufnahme der Projektionen mehrere Translationsschritte durchgeführt worden sein, kann der Anwender durch Aktivierung der entsprechenden Schaltfläche die Bilder verknüpfen. Im Anschluss daran erfolgt automatisch die Korrektur der Projektionsdaten hinsichtlich der Objektmittenposition während der Rotation aus den Kalibrieraufnahmen der Rotationsachse. 3 Material und Methoden 24 Des Weiteren stehen dem Anwender ein Tool für das Zuschneiden der Bilddatensätze und ein Grenzwertfilter zur Rauschunterdrückung zur Verfügung. Die Projektionsprofile werden während dieser Prozeduren immer mit berechnet und angezeigt. Diese muss der Anwender am Ende des Nachbearbeitungsprozesses durch Anklicken einer Schaltfläche exportieren. Damit wird eine ASCII- Datei mit den Werten der Projektionsprofile der Serie erstellt. Die Daten stehen dem Anwender somit zur Bildrekonstruktion auch mit externen Anwendungen zur Verfügung. Abbildung 18: Formular Normierung und Nachbearbeitung Die Rekonstruktion des Schnittbildes ist in dem gleichnamigen Unterformular realisiert. Dort hat der Anwender die Möglichkeit den Rückprojektionsalgorithmus ohne oder mit Filterung zu verwenden. Zur Auswahl stehen die Filter „Dreieck“, „SheppLogan“. „Hanning“ und „genähertes Dreieck“. Das Filter „Dreieck“ beschreibt dabei den analytisch korrekten Weg der Rückprojekton (s. u.). Weiterhin kann der Anwender die Größe des zu rekonstruierenden Bildes angeben. Standardmäßig beträgt diese Profilänge 2 . Das Kontrollkästchen „Profil strecken“ gibt an, ob die Projektionspro- 3 Material und Methoden 25 file für die Rekonstruktion linear auf Filtergröße (2x Pixel) gestreckt oder mit Leerwerten verlängert werden. Diese Verlängerung erfolgt wegen den verwendeten Algorithmen (Fouriertransformation s.u.). Abbildung 19: Formular Rekonstruktion. In den Diagrammen 1 und 2 werden die Werte des verwendeten Filters im Orts- und Frequenzraum angezeigt. In Diagramm 3 kann der Anwender durch die Profile und nach der Rekonstruktion auch durch die gefilterten Profile scrollen. Es wurden zwei Testprogramme integriert: Im Formular CamViewer lassen sich die Kameraeinstellungen testen, im Formular Motoren steuern die Befehle der Motorsteuerung. Diese Programme wurden zunächst geschrieben um mit den Funktionen der Hardwarekomponenten vertraut zu werden und die Bedienung zu erlernen. Sie erwiesen sich aber als sehr nützlich bei Änderungen im Aufbau, um die optischen Komponenten ausrichten zu können. Auch bei der Suche nach geeigneten Messobjekten genügt es meist, diese mit den Testprogrammen auszurichten und die Aufnahmen anzusehen, um deren Eignung beurteilen zu können. 3 Material und Methoden 26 3.2.2 Normierung Im Normierprozess werden die gewonnenen Bildinformationen, welche die Transmission des Messobjektes darstellen, in Schwächungswerte umgerechnet und der Bildtiefe linear angepasst. Diese Bildtiefe wird durch die Dynamik des Analog – Digital – Wandlers der Kamera begrenzt. In dem hier verwendeten Aufnahmemodus beträgt die Kameradynamik 8 Bit. Das bedeutet, dass die Farbtiefe des zu normierenden Bildes 256 Graustufenwerte umfasst. Zur Normierung werden die Normieraufnahmen herangezogen, welche vor der eigentlichen Messung der Projektionen gemacht wurden. Dabei wird zunächst für jeden Pixel das arithmetische Mittel aus den 40 Dunkelbildern und aus den 40 Lichtquellenbilden berechnet. Diese zwei Mittelwertbilder dienen als Normierreferenz. Die normierte Schwächungsprojektion berechnet sich daraus nach folgender Gleichung: µ [ x, y ] = 255 − 255 × (Pixelwert [ x, y ] − Normref dunkel [ x, y ]) Normref belichtet [ x, y ] − Normref dunkel [ x, y ] Es wird also für jeden Pixel der Projektionsaufnahme ein Schwächungswert aus dem Quotienten aus dem gemessenen Transmissionswert des Messobjektes und der Lichtintensität der Lichtquelle ohne Messobjekt berechnet. Allerdings ist der Pixelwert des unbelichteten Bildes von diesen Messwerten jeweils abzuziehen. Dieser Wert berücksichtigt je nach Belichtungszeit den Einfluss der Hintergrundbeleuchtung oder den Dunkelstrom des Detektorelements. In dem Algorithmus des Programms ist die Ausnahmesituation berücksichtigt, bei der keine Normierung möglich ist: Normierreferenzbelichtet[x, y] <= Normierreferenzunbelichtet[x, y] µ[x, y] = 0 Der Schwächungswert kann hier auf Null gesetzt werden, da der Pixel vom Laser nicht belichtet wird und somit auch keine Schwächung durch das Messobjekt auftreten kann. Aus Gründen der Rechenperformance sind weitere Ausnahmesituationen definiert, bei denen auf die Normierung verzichtet wird. z.B.: Pixelwert[x, y] = Normierreferenzunbelichtet[x, y] µ[x, y] = 255 3 Material und Methoden 27 3.2.3 Berechnung der Projektionsprofile Die Berechnung der Projektionsprofile kann nach zwei unterschiedlichen Methoden erfolgen. Standardmäßig erfolgt die Berechnung der Projektionsprofilwerte aus dem arithmetischen Mittel der Bildzeilen einer Projektionsaufnahme spaltenweise. Um die Profile zu glätten bzw. zu entrauschen kann der Anwender statt des arithmetischen Mittelwertes den Medianwert einer Bildspalte verwenden: Abbildung 20: Berechnungsschema Projektionsprofile. 3 Material und Methoden 28 3.2.4 Kalibrierung des Messaufbaus Unter Kalibrierung des Messaufbaus fallen die Korrektur der Abbildungsfehler der Fokussierlinse, die Ermittlung des Koordinatenursprungs des Linearmotors und der Mittenabgleich unter Rotation. Die Daten für die Kalibrierung werden komplett anhand der Messungen mit der Kalibriernadel gewonnen. Da die Kalibrierdaten im Programmablauf vor den Normierdaten erfasst werden, wird zur Normierung der Kalibrieraufnahmen ein extra Lichtquellenbild (belichtete Normierreferenz) erstellt. Auf das Dunkelbild wird hier aus Gründen der Anwenderfreundlichkeit verzichtet. Für die Auswertung der Kalibrierdaten ist diese einfachere Normierung ausreichend. Die Korrektur der Abbildungsfehler der detektorseitigen Zylinderlinse betrifft im Wesentlichen die Korrektur der Bildfeldwölbung der Linse am Detektor. Da auch andere Linsenfehler wie z. B. die sphärische Aberration oder Einstellungsungenauigkeiten im Messaufbau bestehen, wird die Korrektur nicht theoretisch berechnet, sondern anhand der praktisch gemessenen Kalibrierdaten durchgeführt. Bei dieser Korrektur wird die Kalibriernadel mithilfe des Linearmotors quer durch den aufgeweiteten Lichtstrahl gefahren. Alle 0,5 mm wird eine Projektionsaufnahme gemacht. Es werden je nach horizontaler Fokusbreite unterschiedlich viele Projektionsaufnahmen angefertigt (z.B.: Fokusbreite = 24mm => Anzahl der Kalibrieraufnahme = 24mm/0,5mm = 48). Aufnahmeprinzip: Abbildung 21: Aufnahmeprinzip Kalibrierung. Zu sehen sind zwei Beispielaufnahmen aus einer Kalibrierreihe von 56 Aufnahmen. 3 Material und Methoden 29 Für jede dieser Projektionsaufnahmen wird das Projektionsprofil aus dem arithmetischen Spaltenmittelwert (s. 3.2.3.) berechnet. Für die zweite der hier abgebildeten Projektionsaufnahmen sieht das Profil folgendermaßen aus: Abbildung 22: Auswertung der Profildaten bei der Kalibrierung. Der Maximalwert ist rot markiert, das effektive halbe Maximum bzw. die Objektbreite sind blau markiert. Aus diesem Profildatensatz wird für jedes Profil die abgebildete Objektbreite bestimmt. Die Bestimmung der Objektbreite erfolgt ausgehend vom maximalen Schwächungswert, dieser liegt sicher innerhalb des Messobjektes. Von diesem Punkt aus wird jeder Profilwert in beide Richtungen darauf überprüft, ob er über einem vorher definierten Grenzwert liegt. Als Schwellenwert dient hier der effektive halbe maximale Schwächungswert, also die Summe aus dem Maximum des größten Schwächungswertes und dem minimalen Schwächungswert im Profil dividiert durch zwei. Mit diesem Algorithmus wird die Objektbreite am Detektor in Abhängigkeit von der Objektposition gewonnen. Die tatsächliche Objektposition liegt allerdings nur bei zentraler Objektpositionierung in der Objektmitte. Bei einer Positionierung des Kalibrierstifts im Randbereich des Lichtstrahls wandert die tatsächliche Objektposition zur Bildmitte hin: Abweichung der realen Objektposition von der Objektmitte in der Darstellung am Detektor Abbildung 23:Objektposition bei der Kalibrierung. Rot werden hier die Objektbreite im Strahlenfeld und die zugehörige Objektposition dargestellt. Da die Objektbreite nach außen hin kontinuierlich größer wird, weicht die tatsächliche Objektposition (orange) von der Objektmitte ab. 3 Material und Methoden 30 Aufgrund der guten Korrelation der Motorposition mit der Objektposition im zentralen Lichtstrahl, wird die tatsächliche Objektposition in den Randbereichen der Zylinderlinse aus dem mittleren Abstand der zentralen Positionierschritte extrapoliert. Von Interesse sind die relative Größenänderung der Objektdarstellung der zentralen Objektposition zu den Randpositionen und die Lage des Minimums. Daher wird eine Normierung der Darstellungsbreite auf das Minimum durchgeführt. Weil eine kontinuierliche Vergrößerung der Objektdarstellung von der zentralen Position nach außen hin zu erwarten ist, wird eine lineare Regressionsanalyse zweiter Ordnung mit diesem Datensatz durchgeführt. So kann für jede vertikale Bildspalte ein Korrekturwert ermittelt werden: Messdaten Abbildungsqualität vor der Kalibrierung Regressionskurve 2 relative Objektbreite 1,8 1,6 1,4 1,2 1 0,8 0 100 200 300 400 500 600 Objektposition /Detektorspalte Abbildung 24: Verzerrung der Aufnahmen vor der Kalibrierung. Der Algorithmus zur Berechnung eines linearen Fits eines diskreten Datensatzes ist aus Press [10] übernommen und angepasst. Aus der kontinuierlichen Regressionsfunktion lässt sich für jede Detektorelementspalte deren relative Breite errechnen. Die Werte werden nochmals auf ihr Minimum normiert und signifikant gerundet. Diese Korrekturtabelle wird während der ganzen Aufnahmeprozedur gespeichert. Die eigentliche Bildkorrektur erfolgt dann immer sobald eine Aufnahme mit der Kamera gemacht wird durch Zugriff auf diese Korrekturtabelle. 3 Material und Methoden 31 Das Berechnungsschema für das korrigierte Bild soll durch folgendes Beispiel verdeutlicht werden: Detektorelement 1 2 3 4 5 Messwert 200 190 195 200 195 Korrekturwert 1,00 1,05 1,10 1,18 1,25 Der Messwert des Startdetektorelementes wird mit dem reziproken Wert seines Korrekturwertes multipliziert. Der dann noch fehlende Teil zur normalen Elementbreite(= 1) wird von dem nächsten Detektorelement anteilig addiert. Für die Detektorelemente in diesem Beispiel bedeutet dies: Element 1: korrigierter Messwert = 1 * 200 = 200 1,00 Element 2: korrigierter Messwert = 1 1 *190 + 1 − *195 = 190 1,05 1,05 1 1 1 1 Element 3: korr. Mw. = − 1 − − 1 − *195 + 1 − * 200 = 196 1 , 10 1 , 05 1,10 1,05 1 1 Element 4: korr. Mw. = − 0,1386 * 200 + 1 − − 0,1386 *195 = 199 1,18 1,18 Bei 659 Bildspalten der Kamera und relativen Objektgrößen bis etwa 1,8 macht sich der Effekt dieser Pixelkorrektur deutlich bemerkbar. Die Bildbreite wird auf ungefähr 580 Pixel reduziert. Die Berechnung dieses korrigierten Bildes muss dabei stets vom Minimum der Regressionsfunktion aus in beide Richtungen erfolgen. Dieses Minimum ist der Ort, an dem die Lichtstrahlen genau von der Mitte der fokussierenden Zylinderlinse kommen. Da dies je nach Justierung der Linsen des Messaufbaus nicht unbedingt in der Mitte des Detektorfeldes liegt, kann die Lage des Minimums auch als Kriterium für die Justage der Linsen verwendet werden. Aus den Aufnahmen aus diesem Kalibrierschritt wird eine weitere wichtige Information gewonnen. Dies ist die Motorposition des Linearmotors, bei der sich das Messobjekt genau in der Mitte des Detektorfeldes befindet. Um genau diesen Koordinatenpunkt wird das Messobjekt später rotieren. Zur Ermittlung dieser Koordinate müssen die obigen Kalibrieraufnahmen zunächst nach der oben beschriebenen Methode korrigiert werden. Daraufhin werden die zwei Projektionsprofile ermittelt, zwischen deren Objektmitten sich die horizontale Mitte des De- 3 Material und Methoden 32 tektorfeldes befindet. Aus diesen beiden Profilen wird die Motorposition, bei welcher Objektmitte und Bildmitte aufeinander fallen, linear interpoliert. Ausgehend von der so ermittelten Nullkoordinate des Linearmotors wird eine Mittenabgleich der Rotationsachse durchgeführt. Die ist notwendig, da schon kleinste Verschiebungen der Objektmitte (2-3 Pixel) während der Rotation zu großen Fehlern bei der Bildrekonstruktion führen. Die Korrekturdaten für diese Kalibrieraufgabe werden ähnlich wie bei der Korrektur der Linsenabbildungsfehler gewonnen: Es wird bei konstanter Stellung des Linearmotors und des Hubmotors (Nullkoordinaten) alle zehn Grad Rotationswinkel eine Projektionsaufnahme des Kalibrierstifts gemacht. Bei diesen 36 Aufnahmen sind die Abbildungsfehler schon korrigiert. Es erfolgt nach Normierung und Profilberechnung die Bestimmung der Objektmitte aus der Mittenposition der Objektgrenzen. Die absolute Abweichung der Mittenposition bei den verschiedenen Rotationswinkeln gegenüber des Referenzwinkels (0°) wird zur Mittenkorrektur verwendet: Horizontale Verschiebung der Objektmitte bezogen auf die Bildmitte 3 Änderung der Objektmitte /Pixel 2 1 0 -1 0 50 100 150 200 250 300 350 -2 -3 -4 -5 -6 -7 -8 Rotationswinkel /° Abbildung 25: Abweichung der Objektmitte von der Bildmitte während der Rotation. Diese Daten werden als ASCII- Datei gespeichert. Die eigentliche Mittenkorrektur der Messaufnahmen erfolgt während des Nachbearbeitungs- und Normierprozesses. Dazu werden die normierten Projektionsaufnahmen um die Pixelanzahl und Richtung der er- 3 Material und Methoden 33 mittelten Mittenabweichung ihres Projektionswinkels verschoben. Die dabei entstehenden Leerstellen werden durch Nullen aufgefüllt: Normierte Projektionsaufnahme: Mittenkorrigierte Projektionsaufnahme → Abbildung 26: Funktionsprinzip des Mittenabgleichs. Die Graustufendarstellung soll den Schwächungswert am Detektor durch das Messobjekt darstellen. Das Messobjekt wird durch die hellen Pixel (= hohe Lichtschwächung) abgebildet. Da die Verschiebung nur Pixelweise erfolgen kann, sind die Korrekturdaten ausreichend. Es muss hier keine Interpolation oder Regressionsrechnung sondern lediglich eine Rundung der Kalibrierdaten auf Pixelschritte und eine Zuordnung der Projektionswinkel der Messaufnahmen auf die (gröbere) Rasterung der Kalibrieraufnahmen erfolgen. 3 Material und Methoden 34 3.2.5 Bildbearbeitungsmöglichkeiten Nach der Normierung der Messdaten sollten die Projektionsaufnahmen auf die tatsächlich belichtete Detektorfläche zugeschnitten werden. Dadurch kann das Rauschen, welches an dem oberen und unteren Rand der belichteten Detektorfläche auch durch die Normierung entsteht, unterdrückt werden und der Kontrast in diesem Projektionsprofil erhöht werden. Dem Anwender steht ein Schneidewerkzeug im Nachbearbeitungsformular zur Verfügung. Durch Markieren der oberen linken und der unteren rechten Grenzen des zu beschneidenden Bildausschnitts wird die Serie aus Projektionsaufnahmen auf das gewählte Format beschränkt. Des Weiteren kann der Anwender einen Grenzwertfilter nutzen. Hier kann der Benützer definieren, ab welchem Grauwert die Pixel der Projektionsaufnahmen auf Schwarz beziehungsweise auf Weiß gesetzt werden. Diese Änderung wird bei jedem Pixel der Projektionsaufnahmen durchgeführt. Es findet hier somit keine Unterscheidung zwischen Messobjekt und Hintergrund statt. Die Anwendung dieser Bildbearbeitungsmöglichkeiten erfordert vom Anwender ein achtsames Vorgehen. Das Schneidewerkzeug sollte beispielsweise nur zum Beschneiden des oberen beziehungsweise unteren Bildabschnittes eingesetzt werden. Wenn die horizontale Bildbreite nicht auf beiden Seiten gleichmäßig gekürzt wird, liegt die Objektmitte nicht mehr in der Profilmitte. Dadurch entstehen Artefakte bei der Bildrekonstruktion. 3 Material und Methoden 35 Beispiel zur Nachbearbeitung der Projektionsaufnahmen: Messaufnahme: Normierung: Schneiden: Filterung (hier: Wenn Pixelwert < 60 → Pixelwert = 0): Projektionsprofil (hier: aus Median) dieser Projektionsaufnahme: Projektionsprofil 250 Lichtschwächung 200 150 100 50 0 0 50 100 150 200 250 300 350 400 450 500 Detektorspalte Abbildung 27: Zusammenfassung der Bildbearbeitungsmöglichkeiten. Die diskreten Profildatenpunkte (blau) wurden wegen der besseren Übersichtlichkeit durch rote Linien verbunden. 3 Material und Methoden 36 3.2.6 Bildrekonstruktion Die Algorithmen zur Berechnung eines Schnittbildes aus Projektionsaufnahmen wurden aus einem bestehenden Programm eines experimentellen Computertomographen des IMPS übernommen und für die Anwendung am optischen Computertomographen angepasst. Der Rückprojektionsalgorithmus funktioniert nach folgendem Muster: Abbildung 28: Prinzipskizze Rückprojektionsalgorithmus. Die Berechnung des Schnittbildes erfolgt pixelweise. Das bedeutet, dass für einen Pixel der Index jedes Profils je nach Projektionswinkel ermittelt wird und die Schwächungswerte dieser Indices addiert werden. Die Zuordnung eines Profilwertes ergibt sich aus (vgl. Morneburg [11] S. 137ff): Index p ( x, y, φ m ) = y cos(φ m ) + x sin(φ m ) mit x, y = Koordinaten Bildmatrix ε von [ -Auflösung / 2; +Auflösung / 2 ] φm = Projektionswinkel Dieser dem Bildelement zu addierende Profilwert wird durch lineare Interpolation der zwei dem Index am nächsten liegenden Profilwerte ermittelt. Für alle Bildelemente der Bildmatrix gilt somit: µ ( x, y ) = mit 1 NP N p −1 ∑ g (µ m =0 m ( Index p ) ) g = Interpolationsfunktion Np = Anzahl Projektionen Diese Funktion wird so im Rückprojektionsalgorithmus für die ungefilterte Rückprojektion direkt umgesetzt. Die Länge der Projektionsprofile bestimmt hierbei die optima- 3 Material und Methoden 37 le Größe der Bildmatrix. Wenn die Länge der Bilddiagonale genau der Profillänge entspricht, kann jedem Bildelement ein Profilwert jedes Projektionswinkels zugeordnet werden. Dadurch kann es bei ungünstigen Einstellungen im Aufnahmeformular dazu kommen, dass Randstrukturen des Messobjektes nicht mehr angezeigt werden. Daher sind hier durch den Anwender zwei mögliche Bildgrößen wählbar - die optimale Bildgröße und die maximale Bildgröße. Bei der maximalen Bildgröße werden die Höhe und Breite der Bildmatrix gleich der Profillänge gesetzt. Hier erfolgt eine Nachnormierung der einzelnen Bildelemente indem nur die tatsächlich für den Grauwert des jeweiligen Bildelements verantwortlichen Profile in dem Faktor NP in obiger Formel berücksichtigt werden. Da die ungefilterte Rückprojektion die Profile „verschmiert“ werden zur Erhöhung der Bildschärfe des Schnittbildes Filter eingesetzt. Bei diesem gefilterten Rückprojektionsalgorithmus können unterschiedliche Filterkerne eingesetzt werden. Der mathematisch korrekte Filter ist der Filter nach Ramachandran & Lakshminarayanan: Filter im Frequenzraum Filter im Ortsraum 0,6 1 0,5 0,9 0,8 0,4 0,7 0,6 Amplitude Intensität 0,3 0,2 0,1 0,5 0,4 0,3 0 -4 -3 -2 -1 0 1 2 3 4 0,2 -0,1 0,1 -0,2 0 -4 -0,3 Ort -3 -2 -1 0 1 2 3 4 Frequenz / 1/delta Ort Abbildung 29: Kontinuierliche Darstellung des Ramachandran & Lakshminarayanan Filterkerns. Je nach Qualität der Profile (Rauschen) oder gewollter Betonung im Schnittbild können verschiedene Variationen des Filterkerns eingesetzt werden. Hier sind die Filterkerne nach Shepp & Logan, Hamming und genähertes Dreieck zusätzlich verfügbar (Definitionen und Formeln siehe Kak [12] oder Morneburg [11]). Die Filterung der Projektionsprofile kann als Faltungsoperation im Ortsraum oder als Multiplikation im Frequenzraum gelöst werden. Aufgrund der einfacheren Umsetzbarkeit wird hier die Methode im Frequenzraum durchgeführt. Dazu werden die Profile und die Filterkerne in den Frequenzraum transformiert und deren Werte multipliziert. Nach der Rücktransformation des Multiplikationsergebnisses in den Ortsraum kann die Rückprojektion der gefilterten Profile genau wie oben bei der ungefilterten Rückprojektion erfolgen. Die Transformation und Rücktransformation der Daten wird durch die Fouriertransformation erreicht. Es wird ein FastFourierTransform- (FFT) Algorithmus nach Sedgewick [13] eingesetzt. Dies ist ein sehr schneller rekursiver Algorithmus, der die Fouriertrans- 3 Material und Methoden 38 formation und die inverse Fouriertransformation programmiertechnisch in derselben Funktion löst. Allerdings muss die Auflösung bei diesem FFT- Algorithmus 2n (mit n ε N) betragen. Da die Auflösung des Frequenzraumprofils auch durch die Profillänge im Ortsraum begrenzt wird (Abtasttheorem), werden die Profile auf den Wert des nächsten höheren möglichen Auflösungsschrittes (typischerweise 1024) verlängert. Diese Verlängerung kann durch lineare Streckung oder Auffüllen mit Null erreicht werden und wird nach der Rücktransformation durch lineare Stauchung bzw. Schneiden automatisch wieder rückgängig gemacht. 4 Ergebnisse und Diskussion 39 4 Ergebnisse und Diskussion 4.1 Analyse des Messsystems und seiner Fehlerquellen 4.1.1 Modell Strahlengang Um die Intensität der Lichtstrahlung am Messobjekt abschätzen zu können und eine Aussage über den zu erwartenden Grauwert am Detektor treffen zu können, ist ein einfaches Modell des Strahlenganges ausreichend. Hier wird ein Modell umgesetzt, welches die Reflexionsverluste der einzelnen Komponenten des Messaufbaus berücksichtigt. Aus den Herstellerangaben und Messwerten werden die Lichtleistung und die Photonenzahl an den einzelnen Komponenten des Messaufbaus berechnet. Mit der Anzahl der Photonen am Detektor kann schließlich der zu erwartende mittlere Grauwert berechnet werden. In dem Modell wird der Aufbau mit dem Standartlaser (650 nm, 3 mW) ohne Polarisationsfilter berücksichtigt: Lichtquelle Linsen Lichtleistung /W 3,0E-03 2,7E-03 2,4E-03 Primärphotonen/s 9,8E+15 8,8E+15 0,9 0,893 Transmission Neutralfilter Messobjekt Linse Sensor 2,4E-06 2,4E-06 2,3E-06 7,9E+15 7,9E+12 7,9E+12 7,5E+12 0,001 1 0,95 Die Transmission (T) des Lasers steht hier für den Anteil der emittierten Strahlung, welcher in die optische Achse gelangt (Schätzung). Unter Linsen werden die zwei quellenseitigen Aufweitungslinsen (T ≈ 0,95²) und der Strahlumlenkwürfel (T ≈ 0,99) zusammengefasst. Die Transmission des Messobjektes wird hier zur Bestimmung des mittleren Grauwertes und somit zur Abschätzung der Verluste am Sensor bzw. sonstigen Verluste auf eins gesetzt. Aus dem EMVA- Protokoll des Kameraherstellers können die Angaben über die Quanteneffizienz, die Kapazität (Saturation Capacity), die Pixelgröße und die CCD- Chipgröße entnommen werden. Vermutlich ist der Füllfaktor (typisch 0,2 - 0,3) des CCD- Chips bei der Ermittlung der Quanteneffizienz berücksichtigt worden. Hierzu existieren keine Angaben des Kameraherstellers oder des Chipherstellers. Die folgenden Messergebnisse legen dies jedoch nahe. 4 Ergebnisse und Diskussion 40 Der zu erwartende mittlere Grauwert (GW) berechnet sich nach: GW = Photonen / s * Fläche Pixel * Gesamtpixelzahl * FaktorVerlust * QE * Zeit Belichtung Gesamtchipfläche * Pixelzahlbelichtet * Kapazität * 255 QE = quantum efficiency ≈ 0,27 e/Ph @ 650 nm Der Verlustfaktor kann aus Messungen abgeschätzt werden. Dazu werden je drei Messaufnahmen ohne Messobjekt mit zwei unterschiedlichen Belichtungszeiten gemacht. Hierbei muss darauf geachtet werden, dass möglichst keine Pixel in der Sättigung (Grauwert = 255) liegen. Wenn viele Detektorelemente gesättigt sind wird der Mittelwert des Bildes geringer - es geht Messsignal verloren. In den Aufnahmen werden die Pixel die ein Messsignal liefern identifiziert (Grenzwert: Pixelwert > 10) und deren Mittelwert gebildet. Beispielaufnahme 0,1 ms Belichtung: Abbildung 30: Beispielaufnahme zur Erstellung des Strahlengangmodells. 4 Ergebnisse und Diskussion 41 Die in obiger Bild gemittelten Pixel sind in folgender Abbildung alle ungleich bzw. größer als die dunkelblauen Pixel: Abbildung 31: Ermittlung des Messsignalanteils im Vollbild. Aus den je drei Bildern wurden die gewonnenen Messwerte gemittelt und der Verlustfaktor berechnet: Belichtungszeit /ms Mittlerer Grauwert Belichtete Pixel Verlustfaktor 0,10 59,6 58762 0,91 0,15 80,6 64342 0,91 Er liegt je nach Messaufbau bei etwa 0,85 – 0,95. Es geht also zusätzlich zu den bekannten Verluststellen mindestens 5 % der Lichtstrahlung im Messsystem verloren. Dies ist wahrscheinlich auf die Einblendung zurückzuführen. Diese wird zwar durch den „Transmissionsfaktor“ des Lasers schon abgeschätzt, liegt aber hier durch die nicht vollständige Fokussierung des Laserstrahls auf das Detektorfeld etwas höher. Es sollte hier aber auch nicht stärker fokussiert werden, da die Lichtintensität an den horizontalen Bildrändern sonst zu stark abnimmt und dadurch die Messungenauigkeiten größer werden. 4 Ergebnisse und Diskussion 42 4.1.2 Evaluierung der Lichtdetektion Es wurden Messungen durchgeführt um das Detektorrauschen der Kamera in Abhängigkeit vom Messsignal überprüfen zu könnenDer Dunkelstrom bzw. das Detektorgrundrauschen kann bestimmt werden indem eine unbelichtete Aufnahme (Detektor durch Schutzklappe verschlossen) ausgewertet wird. Es wurden fünf Aufnahmen bei unterschiedlichen Belichtungszeiten gemacht. Der Mittelwert und die Standardabweichung wurden berechnet: Belichtungszeit /ms Mittlerer Grauwert Standardabweichung (σ) 0,1 1,5722 0,4978 0,5 1,5698 0,4979 10 1,5715 0,4977 50 1,5716 0,4978 200 1,5745 0,4976 Aus diesen Daten ist zu erkennen, dass unabhängig von den Belichtungszeiten durch den Dunkelstrom der Kamera ein Grundsignal von etwa 1,57 ± 1,00 (2*σ) Grauwerten am Detektor zu erwarten ist. Die Messwerte sind sehr konstant. Das Detektorrauschen lässt sich am Besten prüfen, indem der Detektor durch eine homogene Lichtquelle belichtet wird. Da die Diodenlaser keine homogene Lichtverteilung im Lichtstrahl liefern und keine kalibrierte homogene Lichtquelle zur Verfügung steht (z.B. Ulbrichtkugel) wurde die Raumbeleuchtung als in großer Entfernung näherungsweise homogen angenommen. Messaufbau: Abbildung 32: Messaufbau Kameraevaluierung. Die Kamera wird mitsamt Reiter vertikal auf die Tischkante gestellt. Auf die Eintrittsöffnung des Lichtdetektors wird ein Neutralfilter zur Lichtschwächung gelegt (Transmission 0,1%). Dieser Aufbau befindet sich etwa 160 cm zentral unter der Raumbeleuchtung (4 Leuchtstoffröhren). Es werden mehrere Messaufnahmen bei vier verschiedenen Belichtungszeiten gemacht. 4 Ergebnisse und Diskussion 43 Da die Belichtung bei diesem Messaufbau nicht 100 % homogen ist, können die Aufnahmen nur relativ ausgewertet werden. Abbildung 33: 3D- Plot eine Messaufnahme zur Bestimmung des Detektorrauschens und zur Identifizierung von Pixelfehlern. In dem 3D-Plot wird deutlich, dass zwei Pixel am Rand kein Messsignal liefert. Diese Pixel liegen rechts in der obersten Zeile des Detektorfeldes und liefern bei keiner Aufnahme ein Messsignal. Möglicherweise liegt dies daran, dass diese Pixel als letzte in der Ausleseprozedur der Kamera berücksichtigt wird(z.B. Dummy für Triggerung; keine Herstellerangaben!) oder sie sind defekt. Für die Projektionsaufnahmen spielen diese Pixel jedoch kaum eine Rolle, da das Detektorfeld hier meist auf den mittleren Detektorbereich beschränkt ist und die unteren und oberen Bildanteile nicht ausgelesen werden und da der Grauwert sowohl vor als auch nach der Normierung immer auf Null(unbelichtet, außerhalb des Messobjektes) bleiben würde. 4 Ergebnisse und Diskussion 44 Um die restlichen Pixel untersuchen zu können wird die Skalierung auf den interessierenden Bereich geändert(hier 210 bis 250): Abbildung 34: Messaufnahme Detektorrauschen. Die Belichtung ist leicht inhomogen. Die linke Seite des Detektorfeldes wurde geringer belichtet als der restliche Teil des Detektorfelds. In obiger Beispielaufnahme ist bereits zu erkennen, dass keine wirklich homogene Belichtung möglich war (Belichtung linke Bildhälfte geringer als rechts). Um dennoch Aussagen über die Genauigkeit des Detektorfeldes treffen zu können wird ein Differenzbild aus zwei Messaufnahmen erstellt. 4 Ergebnisse und Diskussion 45 Abbildung 35: Subtraktionsaufnahme Detektorrauschen. Aus dem Differenzbild ist zu erkennen, dass systematische Homogenitätsschwankungen, welche vermutlich durch die Lichtquelle entstanden sind, nicht mehr vorliegen. Die Standardabweichung des Differenzbildes kann als Maß für das Detektorrauschen gewählt werden. Sie beträgt bei der obigen Abbildung 3,6 (100ms Belichtung, Grauwertmittel Messaufnahme 234,9). Das relative Detektorrauschen verhält sich antiproportional zur Belichtungszeit bzw. dem Messsignal des Detektors. Das Signal- zu- RauschVerhältnis nimmt also mit dem Grauwert eines Pixel zu. Belichtungszeit /ms unbelichtet 2 10 50 100 Signalpegel Signalpegel Standardabw.(σ) Messbild Differenzbild Differenzbild /Grauwert /Grauwert 1,5 2,2 0,7 6,3 8,9 0,8 48,5 68,6 1,7 118,9 168,0 2,6 234,7 332,1 3,6 Relativer Rauschanteil (2* σ/ Signal) 0,63 0,25 0,07 0,04 0,02 Die Abweichungen der mittleren Signalpegel der verschiedenen Messaufnahmen sind sehr gering. Bei 100 ms Belichtungszeit sind die Pegelschwankungen von weniger als 0,3 Graustufen gemessen worden. 4 Ergebnisse und Diskussion 46 Der Hersteller definiert das Signal- zu- Rausch- Verhältnis (SNR) in Abhängigkeit der Photonenzahl oder der Ladungsträgerzahl des Detektorelementes. Hier kann das SNR aus der Differenz des RMS- Grauwertes der Messaufnahmen und des mittleren Dunkelsignals dividiert durch die Standardabweichung des Differenzbildes definiert werden. Signalmittel Diffmess − Signalmittel Difffdark SNR [dB] = 20 * log σ Diffmess Der Signalpegel bzw. das Signalmittel des Differenzbildes berechnet sich nach: Signalmittel Diffmess = (Signalmittel ) + (Signalmittel 2 Messaufnahme1 ) 2 Messaufnahme 2 Das Signal- zu- Rausch- Verhältnis kann damit in Abhängigkeit zum ursprünglichen Signalpegel der Messaufnahmen ermittelt werden: Signal- zu- Rausch- Verhältnis 45 40 35 SNR /dB 30 25 20 15 10 5 0 1 10 100 1000 Signalpegel /Grauwert Abbildung 36: Signal- zu- Rausch- Verhältnis der Kamera. Das Ergebnis dieser Analyse deckt sich qualitativ mit den Herstellerangaben aus den EMVA Standart 1288 Protokoll (vgl. Basler [14]). Dort wird ein maximal erreichbares SNR von 41,5 dB angegeben. Hier liegt dieses Verhältnis etwas niedriger (ca. 40 dB). Dies liegt vermutlich an der Belichtung und der deshalb verwendeten Messmethode. Die Standardabweichung wird aus dem Differenzbild entnommen und ist daher größer, daher muss der „virtuelle“ Signalpegel berechnet werden(Fehleraddierung). Der Hersteller misst bei maximaler Dynamik(16 Bit Graustufen) mit homogenen monochroma- 4 Ergebnisse und Diskussion 47 tischen Licht bei auf die Quanteneffizienz der Kamera bezogen nahezu optimaler Wellenlänge (λ = 545nm, QE ≈ 45%). Hier liegt die Dynamik wie im Messbetrieb bei 8 Bit Graustufen (dadurch höheres SNR!) durch die polychromatische nicht komplett homogene Belichtung und der daher geänderten Messmethodik, wird der Rauschanteil leicht überbewertet. Aus diesen Messergebnisses kann man für das Messsystem schlussfolgern, dass bei geringer Signalstärke der Messfehler am einzelnen Detektorelement sehr groß werden kann. Wenn mehrere Bildelemente zusammen betrachtet werden, bleibt der Einfluss des Rauschens jedoch relativ gering. Daher ist ein einzeiliger Betrieb des optischen Computertomographen zu bevorzugen. Falls ein mehrzeiliger Betrieb umgesetzt wird, sollten nicht alle Detektorzeilen (494) als Projektionsprofile verwendet werden, sondern mehrere dieser Zeilen zu einem Profil zusammengefasst werden, um das Detektorrauschen zu minimieren. 4 Ergebnisse und Diskussion 48 4.1.3 Evaluierung der Lichtquelle und der Lichtleitung Als Lichtquelle kommen im Messaufbau Diodenlaser zum Einsatz. Es wird in den Messungen vorzugsweise der Laser mit der größeren Lichtleistung (3 mW) und der Wellenlänge 650 nm eingesetzt (Bei 650 nm ist die Quanteneffizienz der Kamera höher als bei 785 nm.). Daher ist die Qualität der Lichtstrahlung dieses Lasers im Hinblick auf Homogenität und Stabilität im Messbetrieb analysiert worden. Der Hersteller gibt die Leistungsstabilität mit 5% und die Strahlstabilität mit mindestens 0,2 mrad/C° an. Die Strahldivergenz wird in 2 Achsen angegeben (Strahldivergenz < 0.6 x 3 mrad), da bei Diodenlasern die Laseraustrittsfläche sehr klein ist und senkrecht zum pn- Diodenübergang im Größenbereich der Wellenlänge liegt. Dadurch entstehen Beugungsmuster und der Laserstrahl wird divergenter. Die Homogenität des Laserlichtes kann anhand der 40 belichteten Normieraufnahmen überprüft werden. Dazu wird für jeden Pixel der arithmetische Mittelwert aus den 40 Aufnahmen berechnet. Die Homogenität wird visuell bewertet. Unter optimalen Messbedingungen und mit einer sehr genauen Justierung kann etwa folgendes Bild der Homogenität der Laserstrahlung erzielt werden: Abbildung 37: Homogenität der Belichtung. Das Mittelwertbild ist bereits auf Linsenfehler hin korrigiert, da es aus den Normieraufnahmen einer Serie stammt. Hier wird deutlich, dass der Laserstrahl in der Mitte relativ homogen ist, zu den horizontalen Rändern hin werden die Inhomogenitäten größer und die Lichtleistung nimmt ab. Das typische für das Strahlprofil einer Laserdiode entspricht einer gaußförmigen Kurve. Durch die Aufweitung des Laserstrahles und die integrierten Optiken wird dieses Gaußprofil horizontal gestreckt. Dies wird verdeutlicht, wenn das Profil aus den Mittelwerten der Bildspalten betrachtet wird: 4 Ergebnisse und Diskussion 49 Abbildung 38: Bildspaltenweise Betrachtung der Belichtungshomogenität Im Bereich von der ersten bis hin zur fünfzigsten Bildspalte ist ein sehr regelhaftes Muster aus Minima und Maxima in dem Intensitätsprofil zu erkennen. Im restlichen Profil tritt diese Regelhaftigkeit nicht mehr oder in unterschiedlichen Frequenzen auf. Vermutlich ist dieses Muster auf Beugung an einer Blendenlamelle zurückzuführen. Die Spaltblenden erzeugen, wenn ihre Lamellen zu nahe an den Lichtstrahl gesetzt werden ein Beugungsmuster im Detektorbild. Die anderen Intensitätsschwankungen sind durch den Aufbau der Laserdiode selbst zu begründen. Die charakteristischen Beugungsmuster (s. o.) in der pn– Richtung (hier horizontal) erzeugen ein welliges Muster im Intensitätsprofil im Fernfeld des Laserstrahls. Dies ist hier durch die Aufweitung des Laserstrahls deutlicher zu sehen. Die Inhomogenitäten im Lichtstrahl des Lasers müssen durch die Normierung bei der Berechnung der Schwächungswerte berücksichtigt werden. Die Messdaten müssen auf den jeweiligen Grauwert des Lichtstrahls hoch skaliert werden um homogene Schwächungswerte zu erhalten. Je niedriger dabei die Belichtung eines Pixel ist, desto höher ist der Fehler der durch die Hochrechnung entsteht (vgl. 4.2.1). Hier muss man somit einen Kompromiss zwischen Strahlaufweitung, Einblendung und der damit verbundenen Inhomogenität und dadurch induzierten Normierfehler sowie der Messgeschwindigkeit bzw. der Messschritte die bei kleinerem Stahldurchmesser nötig sind finden. Ein Maß für die Stabilität der Belichtung im Messbetrieb ist die Standardabweichung der belichteten Pixel über die Zeit. Dies ist auch ein Grund dafür, warum hier 40 Normieraufnahmen gemacht werden. So kann aus diesen Aufnahmen eine Beurteilung über die Stabilität der Lichtquelle und des ganzen Messaufbaus erfolgen. Hierzu wird die Standardabweichung für die Darstellung neu skaliert. Dadurch kann eine visuelle Beurteilung der Messstabilität bei der Nachbearbeitung der Projektionsaufnahmen erfolgen. 4 Ergebnisse und Diskussion 50 Bei obigem Beispiel (Messaufbau vom 15.01.2008) ergibt sich folgendes Bild der Standardabweichungen: Abbildung 39: Stabilität des Messaufbaus. Die Standardabweichungen wurden zur Darstellung linear vom Minimum (hier 0) zum Maximum (hier 6,10) auf den Graustufenbereich (0 – 255) skaliert. Die mittlere Standardabweichung beträgt in diesem Beispielbild 1,50. Um eine bessere Bewertung der Lichtintensitätsschwankungen machen zu können bietet es sich auch hier an die Standardabweichungen der einzelnen Bildspalten zu betrachten und somit ein Profil zu erstellen. Da der mittlere Spaltenwert durch die unbelichteten Bereiche im Detektorfeld verfälscht wird, dient der maximale Spaltenwert als aussagekräftigeres Maß der Lichtintensitätsschwankungen: Abbildung 40: Bildspaltenweise Betrachtung der Stabilität des Messaufbaus. Außerhalb des zentralen Strahlanteils (etwa Spalte 270 – 420) folgen die Intensitätsschwankungen einem Muster aus sich abwechselnden Minima und Maxima. Im zentralen Bereich, der hier nicht optimal in der Bildmitte liegt (vgl. Mittelwertbild), scheint das Schwankungsprofil verschmiert. Hier ist die Belichtung am größten, daher sind auch die Schwankungen in der Belichtung am größten. Die mittlere maximale Standardabweichung der Bildspalten wird als Maß für die Stabilität der Lichtquelle im Messbetrieb definiert. Sie liegt bei diesem Beispiel bei ± 4 Ergebnisse und Diskussion 51 3,43. Je niedriger dieser Wert liegt, desto geringer sind die Messungenauigkeiten und das Rauschen in den normierten Projektionsprofilen. Bei zu hohen Werten (> 4) sollte der Messaufbau überprüft werden (s. Beispiele im Anhang). Die Angaben des Herstellers zur Leistungsstabilität (< 5 %) sind hier nicht vergleichbar. Üblicherweise wird die Leistungsstabilität pro Betriebsstundenzahl (z.B. 24h) angegeben (hier keine Angabe!), es werden hier also die längerfristigen Abweichungen z.B. durch Erwärmung berücksichtigt. Die Messung hier dient der Beurteilung der kurzfristigen Schwankungen (Messaufnahmen erfolgen innerhalb von 1 – 3 Sekunden), da diese für die Messdauer (etwa 5 – 15 min.) relevanter sind. Diese Analyse ist als eine Überprüfung des gesamten Strahlungserzeugenden und leitenden Messsystem zu betrachten. Sie wird durchgeführt, weil sich die Stabilität der Lichtstrahlung als eines der Hauptprobleme des Messaufbaus herauskristallisiert hat. Der Laser ist auf einem Prismentisch montiert. Dieser Prismentisch wird durch Federn und Schrauben ausgerichtet. Sobald sich die Stellmotoren im Messbetrieb bewegen, kann es dazu kommen, dass der Prismentisch samt Laser leicht zu schwingen anfängt. Um diesem entgegenzuwirken wurden zusätzliche Schrauben zur Arretierung des Tisches in diesem verschraubt (s. rote Markierung in der nebenstehenden Abbildung). Alle anderen Komponenten im Messsystem (Spiegel, Linsen, Filter…) müssen ebenfalls sehr fest verschraubt sein um eine hohe Stabilität zu erreichen. Abbildung 41: Fixierung der Belichtung zur Erhöhung der Stabilität 4 Ergebnisse und Diskussion 4.2 52 Analyse der Methoden 4.2.1 Normierung und Kalibrierung Zur Evaluierung der verwendeten Methoden wurden statistische Untersuchungen durchgeführt. Die Normierung stellt im Prinzip eine 2-Punkt-Kalibrierung jedes einzelnen Bildelementes der Kamera dar: Normierkennlinie 250 Grauwert normiert 200 150 100 50 0 0 50 100 150 200 250 Grauw ert Pixel Projektionsaufnahm e Abbildung 42: Normierkennlinie. Hier ein Beispiel der Kennlinie eines Pixels, dessen Referenzpunkte (Blau) auf 200 (belichtet) und 2 (unbelichtet) angenommen wurden. Um ein gutes Normierergebnis zu erhalten müssen die Referenzpunkte genau bestimmt werden können. Dazu muss der Messfehler der Kamera möglichst gering sein und die Lichtleistung der Lichtquelle während der Normierung und der Aufnahme möglichst konstant sein (s. 4.1). Das Signalmittel der belichteten Normierreferenz liegt je nach Einblendung und Aufweitung ungefähr bei 80 bis 100 und bei der unbelichteten Normierreferenz bei ca. 2. Das bedeutet, dass die reale Bandbreite in welcher unterschiedliche Schwächungswerte gemessen werden können durchschnittlich bei etwa 100 Graustufen liegt. Diese 100 4 Ergebnisse und Diskussion 53 Graustufenwerte werden hoch skaliert auf den Darstellungsbereich von 0 bis 255 Graustufenwerten. Das bedeutet, dass eine Änderung des Pixelwertes der Projektionsaufnahme von einer Graustufe eine durchschnittliche Änderung von 2,55 Graustufenwerten durch die Normierung zur Folge hat. Der Messfehler jedes einzelnen Pixels wird dadurch im Durchschnitt auch um diesen Faktor erhöht. Aus diesem Grund ist es sinnvoll die durchschnittliche Belichtung höchstmöglich, nahe an das Maximum von 255 Graustufenwerten zu legen. Aufgrund der oben beschriebenen Inhomogenität der Lichtleistung im Laserstrahl ist hier ein besserer Durchschnitt als 100 kaum zu erreichen. Die Kalibrierung umfasst die Korrektur der Abbildungsfehler, die Ermittlung der Nullmotorposition des Linearmotors und den Mittenabgleich der Rotation. Die Ermittlung dieser Kalibrierdaten erfolgt dabei nach einem ähnlichen Muster. Für diese Methoden muss eine sehr hohe Positioniergenauigkeit der Stellmotoren gelten. Hier können die Angaben aus den Datenblättern zur Fehlerabschätzung verwendet werden. Es bietet sich an die Genauigkeit der Motoren mit der Ortsauflösung der Kamera zu vergleichen, um die Motoren als Fehlerquelle ausschließen zu können. Aus den Messungen ist bekannt, dass der Kalibierstift, welcher einen Durchmesser von 2 mm hat, im Detektorfeld einen Bereich von ca. 50 - 60 Pixelbreiten (bei typischer Fokussiereinstellung) abdeckt. Daraus wird die Breite (bh), die ein Pixel in der horizontalen des Objektes repräsentiert berechnet: bh = Objektdurchmesser 2mm = = 33 bis 40 µm Pixelzahl hor 50 bis 60 Der horizontale Stellmotor hat eine Positionierungenauigkeit von weniger als 25 µm pro 100 mm Fahrbewegung. Die maximale Verfahrbewegung des Motors beträgt 70mm, im Kalibrierbetrieb wird der Motor das Objekt jedoch höchstens 40 mm bewegen. Damit ist die Positioniergenauigkeit bei der Abbildungsfehlerkorrektur und der Bestimmung der Nullkoordinate etwa um den Faktor 5 – 7 höher als die Auflösung der horizontalen Objektposition durch das Detektorfeld und kann somit in der Fehlerbetrachtung vernachlässigt werden. Die Fehler, welche bei der Kalibrierung entstehen sind systematisch bedingt durch die horizontale Auflösung des Detektorfeldes und die verwendeten Algorithmen. Bei einer Kalibrieraufnahme wird das Projektionsprofil berechnet und die Breite der Kalibriernadel im Profil bestimmt (s. 3.2.4). Hier kann es aufgrund der diskret vorliegenden Pixelwerte und des Grenzwertalgorithmus zu kleinen Messabweichungen kommen. 4 Ergebnisse und Diskussion 54 Beispiel Kalibrieraufnahme: Aus diesem Beispielbild wird das Profil um die Kalibriernadel vergrößert dargestellt: Abbildung 43: Genauigkeit der Objektbreitenbestimmung bei der Kalibrierung. Die detektierte Objektgrenze wurde nachträglich rot markiert. In diesem Beispiel liegt der maximale Profilwert bei 242 (Minimum = 0) und daraus resultiert ein Schwellenwert bei der Identifizierung der Objektgrenzen von 121. Tatsächliche Objektgrenze ist hier immer der der Index des nächst kleineren Profilwertes. Daher kann es dazu kommen, dass ein höherer Profilwert eigentlich näher am Schwellenwert liegt und daher möglicherweise die bessere Objektgrenze wäre. Es ist bei den Dimensionen auch nicht auszuschließen, dass durch stochastische Effekte sich die Grenze um einen Pixel verschieben kann. Daher wird ein absoluter Größtfehler von drei Pixelbreiten für die Bestimmung der Objektbreite angenommen. Für die Objektposition in der Darstellung ergibt sich dadurch ein Größtfehler von 1,5 Pixelbreite. Statistische Fehler bzw. die Messpräzision können durch die Standardabweichung erfasst werden. Dazu wurde die Erfassung der Objektbreite eines Messaufbaus vom 4 Ergebnisse und Diskussion 55 26.10.2007 elfmal durchgeführt und die Standardabweichung der erfassten Objektbreiten bestimmt. In folgender Abbildung ist die doppelte Standardabweichung als Fehlerbalken eingefügt: Statistische Analyse der Objektbreitenbestimmung 1,40 1,20 1,10 1,00 relative Breite 1,30 0,90 0,80 35 33 31 29 27 25 23 21 19 17 15 Objektposition /Motorposition/mm Abbildung 44: Statistische Fehleranalyse bei der Objektbreitenbestimmung. Die Regressionsfunktion, ein Polynom 2ter Ordnung wird hier durch die rote Linie dargestellt (hier: y = 0,0032x² - 0,1487x + 2,7387; R² = 0,9738). Auffällig ist hier, dass die Messpräzision im mittleren Linsenfokussierbereich (y ≈ 1,0) – hier ist die Belichtung am größten – im Durchschnitt wesentlich höher ist als an den horizontalen Bildrändern (vgl. Normiergenauigkeit oben). Die maximale doppelte Standardabweichung beträgt in diesem Beispiel 6% (bei x = 28 mm), die Größtfehlerabschätzung liefert für diesen Wert ebenfalls 6%. Um die tatsächliche Objektposition im Profil zu bestimmen wird diese aus den minimalen relativen Objektbreitenpositionen (= horizontale Linsenmitte) und den Positionierschritten des Stellmotors (= 0,5 mm) für die horizontalen Randbereiche des abbildenden Systems extrapoliert (vgl. 3.2.4). Hierzu muss die Korrelation die Motorpositionierung mit den ermittelten Objektpositionen im Profil in diesem Bereich überprüft werden. Grenzwertwert für die Erfassung des mittleren Linsenbereichs ist eine Vergrößerung der Objektbreite von höchstens drei Pixelbreiten zur minimalen Objektbreite. In folgender Abbildung ist diese Korrelationsanalyse für den oben untersuchten Messaufbau dargestellt. Die dreifache Standardabweichung (p = 99,7 %) der Objektposition im Profil ist aus den elf Messungen berechnet und als Fehlerbalken in folgende Abbildung eingefügt worden: 4 Ergebnisse und Diskussion 56 Korrelation von Motorposition und Bildposition der Kalibriernadel im mittleren Linsenabschnitt 480 Bildposition /Profilindex 460 440 420 400 380 360 340 320 300 20 21 22 23 24 25 26 Motorposition /mm Abbildung 45: Evaluierung der Extrapolation der Objektposition bei der Kalibrierung. Die Fehlerbalken (3σ) sind wegen den geringen Abweichungen (Maximum = 1) kaum zu erkennen. Der Korrelationskoeffizient der linearen Regressionsfunktion (y = -28,945x + 1057,6) beträgt R² = 1,000. Wie aus dem geringen Positionierfehler durch den Stellmotor und durch den geringen Fehler bei der Ermittlung der Objektposition im Profil zu erwarten war, ist der lineare Zusammenhang der Objektpositionierung zur Objektposition im mittleren Fokusbereich der Zylinderlinse sehr gut und damit der Fehler der Extrapolation der lateralen Objektposition aus den mittleren Objektpositionen vernachlässigbar gering. 4 Ergebnisse und Diskussion 57 Die folgende Abbildung zeigt die Änderung in den Kalibrierdaten und deren Regressionsfunktionen, welche durch die Extrapolation entstehen: Korrektur der Objektposition im Profil 1,6 1,5 rel. Objektbreite 1,4 1,3 1,2 1,1 1,0 0,9 0 100 200 300 400 500 Position /Profilindex 600 Position korrigiert Position unkorrigiert Abbildung 46: Auswirkung der Korrektur der Objektposition auf die Kalibrierdaten. Der polynominale Fit zweiter Ordnung ändert sich durch die Korrektur von y = 3E-06x² - 0,0025x + 1,4825 (mit R² = 0,9618) auf y = 4E-06x² - 0,0029x + 1,5689 (mit R² = 0,9738 s. o.). Die gesamte Abbildungsfehlerkorrektur wird überprüft, indem die Kalibrierung ein zweites Mal gestartet wird. Die dabei erstellten Projektionsaufnahmen werden durch die in der ersten Kalibrierung erstellte Korrekturtabelle nach oben beschriebener Korrekturmethode (vgl. 3.2.4) sofort korrigiert. 4 Ergebnisse und Diskussion 58 Die Erfassung der Objektbreiten liefert dann folgendes Ergebnis: Ergebnisse der Abbildungsfehlerkorrektur 1,20 1,10 1,05 1,00 relative Objektbreite 1,15 0,95 0,90 33 31 29 27 25 23 21 19 17 15 Objektpositionierung /mm Abbildung 47: Ergebnisse der Abbildungsfehlerkorrektur. Dargestellt sind die Mittelwerte aus sechs Messreihen vom 13.11.2007. Die Messwerte jeder Messreihe wurden auf ihr jeweiliges Minimum normiert. Der Fehlerbalken gibt die doppelte Standardabweichung eines Messpunktes an. Es können somit die Abbildungsfehler (Bildfeldwölbung, sphärische Abberation…) durch diese Kalibriermethode bei Objektgrößenunterschieden in der Darstellung von bis zu 180% im Randbereich der Zylinderlinse auf etwa ± 5% korrigiert werden. Diese ± 5% Abweichung im Ergebnis spiegeln auch in etwa die Genauigkeit mit der die Messdaten erfasst werden können. Die Nullkoordinate des Linearmotors, also die Koordinate bei der die Objektmitte genau in der Bildmitte liegt und um welche damit die Rotation im Messbetrieb stattfindet, kann aufgrund der sehr hohen Motorstellgenauigkeit und der hohen Genauigkeit bei der Ermittlung der Objektmitte(s. o. ± 1,5 Pixel) mit sehr geringem Fehler bestimmt werden. Sie wird durch Interpolation der Motorpositionen der Messwerte der zwei zur Bildmitte nächsten Objektpositionen gewonnen und auf 10 µm genau angegeben, wobei nach obigen Fehlerabschätzungen eine maximale Genauigkeit von etwa 50 – 60 µm erzielbar ist. Dies wurde anhand von acht Kontrollmessungen überprüft. Die maximale Abweichung der Objektmitte von der Bildmitte beträgt 1,5 Pixelbreiten, die doppelte Standardabweichung beträgt 1,3. 4 Ergebnisse und Diskussion 59 Wenn mit der Kalibriernadel Messaufnahmen gemacht werden, kann festgestellt werden, dass trotz nahezu optimaler Verschraubung dieses Messobjektes in der Mitte des Drehtellers die Objektposition in den Projektionsprofilen bei den verschiedenen Projektionswinkeln nicht konstant in der Bildmitte bleibt. Dies kann nur durch ungenaue Justage der Hardware zustande kommen. Trotz intensivster Justierbemühungen ist dieses Problem hardwaretechnisch nicht vollständig in den Griff zu bekommen. Es bestehen sehr viele Freiheitsgrade bei der Justierung der Linsen, Spiegel und Blenden, so dass eine leichte Verkippung des Lichtstrahles gegenüber der horizontalen und der vertikalen Ebene bzw. eine Verkippung eines der Profile oder des Motorblocks am Messobjekt nicht ausgeschlossen werden kann. Beispiel Linsenjustierung: Abbildung 48: Freiheitsgrade bei den Linsenjustagen. Die roten Pfeile sollen die Möglichkeiten der Justage der Linse, des Reiters und des Profils darstellen. Das Profil kann eben auf der Bodenplatte justiert werden. Der Reiter ermöglicht eine Verschiebung der Linse entlang der optischen Achse. Durch zwei Feingewindeschrauben kann der Winkel der Linsenhalterung gegenüber der horizontalen und der vertikalen Ebene verstellt werden. Die Linsenhalterung wird mit der Transjustierung verschraubt, dabei kann die Linsenhalterung gegenüber der horizontalen Ebene verkippen. Die Zylinderlinse selbst ist durch zwei Kunststoffschrauben an die Linsenhalterung fixiert, kann aber in der horizontalen Ebene verschoben werden. Die Korrektur der Mittenabweichung unter Rotation behebt diese Justierfehler. Um diese Methode anwenden zu können muss sichergestellt werden, dass sich die Winkel 4 Ergebnisse und Diskussion 60 bei der Kalibriermessung und der eigentlichen Projektionsmessung nicht verschieben. Da aus steuerungstechnischen Gründen der Drehmotor im Mehrschichtbetrieb und bei mehreren Translationsschritten rekalibriert werden muss (der Endschalter muss zur Nullstellung der Winkelposition angefahren werden), darf für die nachfolgende Korrektur keine messbare Phasenverschiebung der Mittenabweichung bei der Rekalibrierung stattfinden. Zur Überprüfung wurde die Kalibrierung bei unverändertem Messaufbau viermal in Folge (es muss maximal viermal im Messbetrieb rekalibriert werden) durchgeführt: Einfluss der Rekalibrierung auf die Mittenbestimmung Kalibrierreihe 1 Kalibrierreihe 2 Kalibrierreihe 3 Kalibrierreihe 4 268 Mittenposition der Kalibriernadel /Profilindex 267 266 265 264 263 262 261 260 259 258 0 50 100 150 200 250 300 350 Projektionswinkel /° Abbildung 49: Phasenverschiebung des Rotationsmotors bei einer Rekalibrierung. Ausgangspunkt für die Korrektur ist der Projektionswinkel 0°. Auf diesen Winkel wird das Profil durch die Nullkoordinateneinstellung eingestellt (s. o.). Da die Profillänge auch bei gleichem Messaufbau durch die Abbildungsfehlerkorrektur nicht exakt gleich ist, weichen die Mitten auch leicht voneinander ab (hier 3 Pixelbreiten). In der Abbildung ist zu erkennen, dass durch die Rekalibrierung keine messbare Phasenverschiebung auftritt. Für die Ermittlung der Objektmitte im Profil gelten obige Angaben zur Fehlerabschätzung (≈ ±1,5 Pixelbreiten). Der sehr strenge cosinusförmige Verlauf der Kurven deutet wiederum daraufhin, dass nur sehr kleine systematische Fehler vorliegen. Da die Korrektur relativ zur 0°- Einstellung in mindestens 1- PixelSchritten durchgeführt wird, sind die systematischen Messfehler hier vernachlässigbar. 4 Ergebnisse und Diskussion 61 Den Einfluss und damit das Ergebnis der Mittenkorrektur kann man am Besten beurteilen, indem die Bildrekonstruktion einer Messserie einmal mit und einmal ohne diese Kalibriermethode durchgeführt wird. In folgender Abbildung ist die Bildrekonstruktion aus den Projektionsaufnahmen der Kalibriernadel (360 Projektionen, eine Schicht) vom 21.12.2007: Abbildung 50: Rekonstruktion ohne Mittenabgleich. Die Kalibrierung wurde vollständig durchgeführt, es wurde lediglich die Korrektur der Mitten bei der Nachbearbeitung der Projektionsaufnahmen nicht durchgeführt. Die Profile wurden normiert und zugeschnitten. Ein Offset von 60 Graustufen (Grenzwertfilter) und die Medianbestimmung der Profile wurden zur Rauschunterdrückung gewählt. Die Rekonstruktion erfolgte mit dem Ramachandran & Lakshminarayanan Filter. Zum Vergleich die gleiche Messserie mit der Korrektur der Mittenabweichung: Abbildung 51: Rekonstruktion mit Mittenabgleich. Die Mittenkorrektur wurde während der Nachbearbeitung wieder aktiviert. Die obigen Einstellungen zur Bearbeitung der Projektionsaufnahmen und zur Rekonstruktion wurden übernommen. 4 Ergebnisse und Diskussion 62 Im Vergleich der zwei rekonstruierten Bilder wird deutlich, dass durch den Mittenabgleich der „Halbschattenbereich“ am Objektrand hier komplett eliminiert werden kann. Dieser Halbschattenbereich entsteht in dem unkorrigierten Bild, weil sich die Projektionsprofile aus den unterschiedlichen Projektionswinkeln nicht korrekt überlagern. Die Breite dieses Halbschattenbereiches entspricht dabei in etwa der mittleren Abweichung der Objektposition aus den unterschiedlichen Projektionswinkeln (hier 3,2 Pixelbreiten). Durch den verwendeten Filterkern (der Ramachandran & Lakshminarayanan Filter ist sehr empfindlich für starke Kontrastsprünge = hohe Ortsfrequenzen) und der Notwendigkeit die Mittenkorrektur pixelweise durchführen zu müssen, entsteht der Eindruck, dass Messobjekt im mittenkorrigierten Bild nicht komplett rund ist. Durch geeignete Auswahl des Filterkerns kann das Ergebnis jedoch noch weiter verbessert werden (vgl. Messergebnisse 4.3). 4 Ergebnisse und Diskussion 63 4.2.2 Bildrekonstruktion Die verwendeten Algorithmen und Definitionen nach Sedgewick [13], Morneburg [11] und Kak [12] zur gefilterten Rückprojektion wurden im Wesentlichen aus einer bestehenden Software3 eines experimentellen Computertomographen übernommen. Die hier gemachten Anpassungen betreffen die Größe des zu rekonstruierenden Bildes. Diese ist dynamisch an die Profillänge angepasst worden. Das ist nur möglich, indem die Profillänge auf eine Potenz von 2n verlängert wird (vgl. 3.2.6). Die Profilverlängerung erfolgt standardmäßig durch lineares Strecken des Profils. Wenn die lineare Streckung deaktiviert wird, werden die Profile durch Nullwerte verlängert. Dadurch ändert sich die relative Objektgröße im Profildatensatz, was die Filterung durch die verschiedenen Filterkerne beeinflusst. Das Ortsfrequenzspektrum verbreitert sich zu den hohen Frequenzen, es wird sozusagen ein zusätzlicher Hochpaßfilter implementiert. Als Beispiel sind hier das Projektionsprofil (Länge 554 Pixelbreiten) der Kalibriernadel bei 0° im Ortsraum und die Fourierspektren (Realteil) dieses Profils einmal mit linearer Streckung verlängert und einmal mit „Auffüllen“ dargestellt: Abbildung 52: Profil im Ortsraum. 3 Erstellt von Professor Dr. Klemens Zink, IMPS, FH Gießen- Friedberg 4 Ergebnisse und Diskussion Abbildung 53: Vergleich der Spektren eines Profils bei verschiedenen Profilverlängerungsmethoden. 64 4 Ergebnisse und Diskussion 65 Das Auffüllen mit Nullwerten (Zeropadding) führt wie hier zu erkennen zu einer Streckung des Spektrums. Diese Aufweitung im Frequenzraum führt damit dazu, dass bei Multiplikation des Spektrums mit einem Filterkern die mittleren Ortsfrequenzen nicht so stark unterdrückt werden und die hochfrequenten Anteile stärker betont werden im Vergleich zum ersten Profispektrum. Nach Filterung mit einem Ramachandran & Lakshminarayanan Filterkern und linearer Stauchung bzw. Schneiden des Profils auf seine ursprüngliche Länge ergeben sich folgende Änderungen: Abbildung 54: Vergleich der gefilterten Profile bei verschiedenen Profilverlängerungsmethoden Die gefilterten Profile in dieser Abbildung betätigen obige Aussagen. Die Möglichkeit die Profile im Ortsraum linear zu strecken wirken im Vergleich zum „Auffüllen“ wie ein Tiefpaßfilter. Letztlich ist die Wahl der Profilverlängerungsmethode eine weitere Möglichkeit die Bildinformationen zu filtern. Kriterium für die Auswahl ist daher allein eine Verbesserung der Bildqualität durch eine Methode gegenüber der anderen. 4 Ergebnisse und Diskussion 66 In folgender Abbildung ein Vergleich der rekonstruierten Bilder der Kalibriernadel (Ausschnitt Zoom 200%), links mit Streckung im Ortsraum und rechts mit „Zeropadding“: Abbildung 55: Vergleich der rekonstruierten Schnittbilder bei verschiedenen Profilverlängerungsmethoden. Die Profildaten stammen aus derselben Serie. Einzig die Profilverlängerungsmethode wurde geändert. Als Filterkern wurde der Ramachandran & Lakshminarayanan Filter bei der Rückprojektion verwendet. Für diesen Fall liefert das „Auffüllen“ ein schärferes und damit besseres Rekonstruktionsergebnis. Wie oben bereits erwähnt kann je nach Bildinformationen Profildatensatz oder nach verwendetem Filterkern das Ergebnis dieser Methoden schwanken. Die komplette Bildrekonstruktion kann überprüft werden, indem diese bei einem Profildatensatz einmal mit der eingebetteten Software und einmal mit einer externen Software durchgeführt wird und die Ergebnisse verglichen werde. Dies ist möglich, da die Profildatensätze als ASCII- File exportiert werden (vgl. 3.2.1). Hier wird als Referenzsoftware Matlab R2006 (The MathWorks Inc., Natick, MA, USA) verwendet. Es wird der Profildatensatz der Kalibriernadel (vom 21.12.2007) verwendet. Die Serie besteht aus einer Schicht mit 360 Projektionsaufnahmen über 360°. Als Filterkern wird bei der Rückprojektion der Ramachandran & Lakshminarayanan Filter verwendet. Dieser ist in beiden Programmen verfügbar. Es werden die Einstellungen in Matlab bezüglich Interpolation, Skalierung und Bildgröße an die eigene Software angepasst. 4 Ergebnisse und Diskussion 67 Das rekonstruierte Bild sieht folgendermaßen aus: Abbildung 56: Rekonstruktion im eigenen Programm . Das in Matlab rekonstruierte Bild aus dem gleichen Profildatensatz wird zur besseren Vergleichbarkeit von diesem Bild abgezogen: Abbildung 57: Vergleich der gefilterten Rückprojektion des eigenen Programms mit einer externen Software. 4 Ergebnisse und Diskussion 68 Würden beide Programme mit exakt den gleichen Algorithmen arbeiten wäre jeder Pixelwert im Bild 0. An der Objektgrenze, der Ort mit dem stärkstem Kontrastsprung und somit der höchsten Ortsfrequenz, weichen die Bilder um maximal ± 80 Grauwerte voneinander ab. Hier überlagern sich die Bilder somit nicht optimal. Im restlichen Bild gibt es keine scharfen Kontrastsprünge mehr und die Bilder überlagern sich sehr gut. Bei genauerer Analyse des Quellcodes in Matlab kann festgestellt werden, dass die Auflösung im Frequenzraum hier eine 2er- Potenz höher gewählt wird. Das liefert eine höhere Genauigkeit besonders bei den hohen Ortsfrequenzen, da deren Amplituden sehr gering sind (s. o.). Da diese Frequenzen durch die Multiplikation mit dem Ramachandran & Lakshminarayanan Filterkern stark betont werden, fallen die Abweichungen an der Objektgrenze größer aus als im restlichen Bild. Sehr gut ist die Überschneidung der Objektgrenzen und der inneren Objektkontraste (diese entstehen durch Beugungsmuster). Aufgrund dieser Ergebnisse kann die Filterung und die Rückprojektion als korrekt bewertet werden. 4 Ergebnisse und Diskussion 4.3 69 Messergebnisse Im folgenden Beispiel wurde ein Schraubenkopf nicht mittig auf dem Drehteller positioniert. Der Schraubenkopf hat einen Durchmesser von etwa 7mm. Hiermit soll gezeigt werden, dass auch bei rotationsachsenferner Positionierung keine Ringartefakte entstehen und das Messobjekt durch die Korrektur der Abbildungsfehler kaum verzerrt wird: Abbildung 58: Schnittbild einer dezentrierten Schraube. Einstellparameter: eine Schicht, 360 Projektionen, Pixeloffset: 80, Profile strecken, Hamming- Filterkern zur Rekonstruktion, bei maximaler Rekonstruktionsbildgröße Es wurde eine automatische Segmentierung des Objektes in einer externen Bildverarbeitungssoftware durchgeführt. Diese gibt eine Objektbreite von 186 Pixel und eine Objekthöhe von 187 Pixel in den Hauptbildachsen an. Es sind mehrere Artefakte in der Abbildung zu sehen. Um das Messobjekt herum sind dünne Linien zu sehen. Diese be- 4 Ergebnisse und Diskussion 70 finden sich alle im selben Abstand zum Objekt. Es sind Beugungsmuster die durch Beugung der Lichtstrahlung an der Oberfläche des Messobjektes entstehen. In den Profilen kann ein Großteil dieser Beugungsmuster durch Wahl eines Pixeloffsets (einer Untergrenze unter der allen Pixel der Grauwert 0 zugewiesen wird; hier 80) und durch die Erstellung der Profile aus dem Median der Bildspalten der Projektionsaufnahmen unterdrückt werden. Durch die Wahl die zu rekonstruierende Bildgröße zu maximieren entstehen Artefakte an den Ecken des Bildes. Da die Bildgröße (Länge und Breite) genau der Profillänge entspricht werden die Bildinformationen an den Bildrändern nicht aus allen Projektionsprofilen gewonnen. Es sind hier Streifenmuster zu erkennen, weil die „Verschmierung“ des Messobjektes nicht mehr gleichmäßig aus allen Projektionswinkeln erfolgt. In der rechten unteren Ecke ist ein besonders auffälliger Streifen zu sehen. Dieser ist durch ein Artefakt in einem einzigen Projektionsprofil an dieser Stelle zu erklären (vermutlich eine Stabilitätsschwankung der Belichtung während der Messaufnahme). Da dieser Streifen in dem Bildbereich liegt, welcher nicht durch alle Projektionswinkel abgedeckt wird, ist die Darstellung wesentlich deutlicher (heller) als z.B. bei den Streifen am Objektrand. Das Material der Schraube ist homogen. Trotzdem nehmen die Grauwerte in dem rekonstruierten Schwächungsbild von der Objektkante zur Objektmitte hin ab. Dies liegt daran, dass keine Lichttransmission durch die Schraube hindurch stattfindet. Damit wird der Transmissionswert jedes Profils an der Stelle der Schraube Null. Innerhalb der Schraube ist der normierte Schwächungswert damit homogen (=255). Bei der Filterung der Profildaten finden eine Betonung der Objektkanten und eine Dämpfung des Objektkontrastes statt. Wenn das Messobjekt wie hier vollständig homogen ist nimmt die Schwächung zur Objektmitte hin durch die gefilterte Rückprojektion selbst ab. 4 Ergebnisse und Diskussion 71 Wenn kein Licht durch das Messobjekt dring ist die Rekonstruktion von mehreckigen Objekten besonders schwer (Metallartefakte im CT). Hier ist zur Demonstration das tomographische Bild eines sechskantigen Bohraufsatzes mit einem Durchmesser von 8 mm abgebildet: Abbildung 59: Schnittbild eines kantigen Messobjektes. Einstellparameter: eine Schicht, 450 Projektionen, Pixeloffset: 85, strecken, Shepp- Profile Logan- Filterkern zur Rekonstruktion, bei optimaler Rekonstruktionsbildgröße In der Mitte jeder geraden Fläche entstehen durch das „Verschmieren“ der Ecken aus den Profilen der 450 Projektionswinkel Artefakte. Diese Artefakte sind somit Abbilder der Ecken des sechskantigen Objektes. Sie entstehen wiederum, weil kein Licht durch das metallene Messobjekt dringen kann. Die Artfakte durch Beugungsmuster konnten hier besser korrigiert werden, weil der Pixeloffset leicht erhöht wurde (= 85). Es ist hier nur an der rechten unteren Ecke des Messobjektes ein Beugungsstreifen zu erkennen. 4 Ergebnisse und Diskussion 72 Es hat sich herausgestellt, dass die Lichtleistung in diesem Messaufbau zu gering ist, um semitransparente Objekte zu durchleuchten. Wenn die Belichtungszeit der Kamera erhöht wird, tritt im Bereich außerhalb des Messobjektes eine Überbelichtung des CCDChips der Kamera auf. Bei Überbelichtung des CCD- Chips springen die durch Licht erzeugten Ladungsträger im einzelnen Detektorelement auf benachbarte Elemente über (= Blooming) und es werden zusätzliche Ladungsträger während des Ausleseprozesses erzeugt, die das Bild spaltenweise verschmieren (= Smear- Effekt). Daher wird eine selektive Filterung benötigt, welche die Primäre Lichtstrahlung die nicht durch das Messobjekt gelangt schwächt. Hierzu wird die Eigenschaft der Polarisation des Lichtes verwendet, also die Möglichkeit die Feldvektoren der Lichtwelle entlang einer Achse ausrichten zu können. Es wurden zwei lineare Polarisationsfilter in den Messaufbau implementiert (vgl. 3.1). Das erste Filter ist direkt vor dem Messobjekt angebracht und transmittiert zu mindestens 99,97% linear polarisiertes Licht. Mit dem zweiten Polarisationsfilter direkt nach dem Messobjekt können zwei Einstellungen durchgeführt werden. Bei makroskopischen Messobjekten wird das Polarisationsfilter in die Auslöschung gedreht und schwächt somit das am Messobjekt vorbei gehende linear polarisierte Licht (Auslöschungsverhältnis etwa 1:10000). Bei mikroskopischen Messobjekten (z.B. dünne Zellschichten) geht die Polarisation im Messobjekt nicht vollständig verloren. Daher kann das Polfilter in die Polarisationsachse des ersten Filters gedreht werden. Es lässt somit das durch das erste Polarisationsfilter linear polarisierte Licht passieren und filtert zusätzlich das durch Streuung im Messobjekt entstandene unpolarisierte Licht (etwa zu 2/3). Leider konnten diese zwei Messaufbauten noch nicht vollständig realisiert werden. Aufgrund von langen Lieferzeiten fehlen noch wichtige Komponenten zur Anpassung des Messaufbaus. Da beide Polarisationsfilter schon vorhanden sind konnten bereits erste Messungen an makroskopischen Objekten gemacht werden. 4 Ergebnisse und Diskussion 73 Es zeigt sich, dass die Belichtungszeit der Kamera von etwa 0,2 ms auf circa 50 ms erhöht werden kann und das Neutralfilter (Transmission 0,1%) entfernt werden kann, wenn dar detektorseitige Polfilter in die maximale Auslöschung gedreht wird und sich kein Messobjekt im Strahlengang befindet: Abbildung 60: Lichtbild am Detektor ohne Messobjekt bei voller Auslöschung der Polarisation. Hier zeigen sich große Inhomogenitäten in der Beleuchtung. Dies liegt zum einen daran, dass das quellenseitige Polfilter nur im Strahlengang liegt und nicht optimal positioniert werden kann (Adapter fehlt noch). Außerdem treten Artefakte durch Mehrfachreflexionen an Oberflächen der Filter, Spiegel und Blenden auf. Durch optimales Einstellen des Filters, des Strahlenganges (neue Aufweitungsoptiken wurden bestellt) und der Blenden sollte hier eine deutliche Verbesserung möglich sein. 4 Ergebnisse und Diskussion 74 Stellt man das Messphantom aus 3.1.4 hochkant in den Strahlengang, so dass die Bohrung genau in der Mitte der optischen Achse liegt, und optimiert die Blendeneinstellungen so erhält man folgende Projektionsaufnahme: Abbildung 61: Projektionsaufnahme Messphantom hochkant bei 50 ms Belichtungszeit und Auslöschung der Polarisation Der Lichtanteil, welcher die glatte Seite Plexiglasscheibe durchdringt, verliert seine Polarisation und kann so das detektorseitige Polfilter passieren (etwa zu 33%). In der Mitte des Phantoms befindet sich eine Bohrung. Der Lichtanteil der durch diese Bohrung trifft wird herausgefiltert und daher ist der mittlere Bildabschnitt in obiger Abbildung schwarz (keine Schwächung, da polarisiertes Licht). 4 Ergebnisse und Diskussion 75 Stellt man nun das Messphantom auf die glatte Seite, so dass die Bohrung zentral und senkrecht im Strahlengang steht und der Lichtstrahl genau frontal auf eine Seite des Phantoms trifft, erhält man folgende Projektionsaufnahme: Abbildung 62: Projektionsaufnahme Messphantom, Belichtungszeit 50 ms, Auslöschung der Polarisation Die raue Oberfläche des Messphantoms an den Seiten und in der Bohrung sorgt dafür, dass in der Projektionsaufnahme praktisch nur Rauschen zu sehen ist. Bei rauen flächen Tritt große Streuung auf, die wenigen Photonen, welche gerade durch das Messobjekt dringen werden durch die Streuung überlagert. 4 Ergebnisse und Diskussion 76 Um zu testen ob große Kontraste an einem semitransparenten Objekt erkannt werden können und ob durch Einblendung weitere Verbesserungen zu erwarten sind, wurde folgernder Messaufbau realisiert: Abbildung 63: Experimenteller Messaufbau für Messungen mit dem Poaristionsfiltern. Aus einem Apfel wurde ein 2 - 3 mm dicker Streifen herausgeschnitten. Dieser wurde im Strahlengang so positioniert, dass die Lichtstrahlung frontal auf die größte Fläche trifft. Etwa 1 cm hinter dem Apfelstück wurde zentral eine 4 mm Gewindeschraube positioniert. Bei einer Belichtungszeit von 1,5 s konnte folgende Projektionsaufnahme gemacht werden: Abbildung 64: Projektionsaufnahme Apfel und Schraube, Belichtungszeit 1,5 s, Auslöschung der Polarisation. Durch das Apfelstück dringt gestreutes Licht. Die Kontur der Schraube, welche hinter dem Apfel liegt ist deutlich zu erkennen. Diese Abbildung soll verdeutlichen, dass 4 Ergebnisse und Diskussion 77 durch genaue Einblendung es möglich sein könnte, die Streuung an schwach streuenden Messobjekten soweit beherrschen zu können, dass Kontraste im Messobjekt sichtbar werden. Hierzu müssen noch weitere Experimente unternommen werden. Es muss untersucht werden, welchen Winkel (hier über Abstand Apfel – Schraube) und wie stark man einblenden muss, um die Streuung zu eliminieren. Weiterhin sollte ein Phantom entwickelt werden, dass aus lichtstreuenden und lichtundurchlässigen Material besteht um genauere Aussagen treffen zu können und Tomographie durchführen zu können. 5 Zusammenfassung und Ausblick 5 78 Zusammenfassung und Ausblick Es konnte gezeigt werden, dass mit diesem Messaufbau und den angewandten Methoden tomographische Rekonstruktionen von einfachen geometrischen Objekten möglich sind. Derzeit können noch keine Kontraste in den Messobjekten dargestellt werden. Die Schwächen des Messaufbaus sind die Stabilität der Lichterzeugung und -leitung und die Inhomogenität des aufgeweiteten Laserstrahls. Durch Schwankungen in der Belichtung am Detektor entstehen Messfehler in den Projektionsaufnahmen. Diese können nur durch bildverarbeitende Maßnahmen (z.B. Grenzwertfilterung: Pixeloffset und Medianberechnung der Profile) korrigiert werden. Dadurch gehen Bildinformationen (Kontraste) verloren, welche bei transilluminierten Messobjekten wertvoll sein könnten. Weiterhin tritt bei kleinen Messobjekten und bei Einblendung durch die Spaltblenden Beugung auf. Diese regelhaften Beugungsmuster könnten eventuell durch Filter in der Bildverarbeitung erkannt und teilweise eliminiert werden. Es wurden bereits erste Maßnahmen unternommen, um den Messaufbau zu erweitern und auch Kontraste in semitransparenten Objekten darstellen zu können. Mit neuen Komponenten sollen die Inhomogenität des Laserstrahls reduziert und die Kontraste in semitransparenten Objekten sichtbar werden. Die Fixierung des Diodenlasers im Messaufbau sollte ebenfalls überdacht werden. Der Messaufbau könnte auf zwei Arten verändert werden: Aufbau wie bisher mit professioneller Strahlaufweitung und Polarisationsfiltern zum Scannen makroskopischer Objekte: Abbildung 65: Skizze eines möglichen Messaufbaus für makroskopische Messobjekte. Blick von oben. Die Abbildung ist eine Skizze des Strahlenganges von oben, sie ist nicht maßstabsgetreu und enthält alle optischen Komponenten. Neu ist hier das professionelle Strahlaufweitungssystem. Dieses vergrößert den Lichtstrahl des Lasers um den Faktor 25 horizontal und vertikal, enthält einen Raumfilter und ist teilweise abbildungsfehlerkorrigiert. Die 5 Zusammenfassung und Ausblick 79 Idee dahinter ist, den Lichtstrahl überproportional zu vergrößern und dann wieder auf Objektgröße einzublenden. Dadurch wird nur der Teil des Lichtstrahls verwendet, welcher durch die Mitte der Konvexlinsen tritt. In diesem Bereich sind die Abbildungsfehler im optischen System vernachlässigbar. Letztlich soll hiermit die Homogenität der Belichtung verbessert werden. Der detektorseitige Polfilter wird als Auslöschungsfilter für das durch das quellenseitige Polarisationsfilter linear polarisierte Licht eingesetzt. Im Messobjekt verliert das primäre Licht seine Polarisation und wird daher am detektorseitigen Polfilter nicht ausgelöscht, sondern neu linear polarisiert (Transmission etwa 33%). Der Kontrast zwischen dem Licht, welches am Messobjekt vorbei läuft, und dem durch das Messobjekt transmittierenden Licht kann durch Rotation der Polarisationsachse des detektorseitigen Polfilters auf bis zu 1:10000 erhöht werden. Hier muss eine optimale Einstellung auf das jeweilige Messobjekt hin gefunden werden. Für Messobjekte, deren Lichtstreuung nicht wesentlich größer ist als deren Lichtabsorption, sollte dieser Messaufbau funktionieren. Umgekehrter Aufbau zum „Scannen“ mikroskopischer Objekte: Abbildung 66: Skizze eines möglichen Messaufbaus für mikroskopische Messobjekte. Blick von oben. Bei mikroskopischen Messobjekten (etwa dünne Zellschichten) geht die Polarisation des Lichtes beim Durchgang nicht verloren. Hier kann der Messaufbau nach obiger Skizze (nicht maßstabsgetreu!) umgedreht werden. Der Laserstrahl wird hier quellenseitig eingeblendet und linear polarisiert. Das detektorseitige Polfilter wird in die gleiche Polarisationsachse gedreht wie das quellenseitige, dadurch kann die primäre Lichtstrahlung dieses somit nahezu ohne Verluste passieren. Sollte im Messobjekt Streustrahlung entstehen und diese auf das detektorseitige Polfilter treffen, so wird diese hier teilweise linear polarisiert (etwa 33%). Der Großteil wird sozusagen durch den „Wirkungsgrad“ 5 Zusammenfassung und Ausblick 80 des Polarisationsfilters herausgefiltert (etwa 66%). Der transmittierte Teil der Lichtstrahlung wird schließlich auf die Größe der Detektorfläche aufgeweitet und eingeblendet. Um inhomogene und stark streuende Objekte wie Gewebe oder ganze Kleintiere mit dem optischen Computertomographen untersuchen zu können, sind noch weitergehende Maßnahmen nötig. Bei Geweben ist der Streukoeffizient für rotes und nahes infrarotes Licht etwa um den Faktor 100 bis 1000 größer als der Absorptionskoeffizient. Es müssen also Maßnahmen ergriffen werden, um entweder das Streulicht zu identifizieren (z.B. über Triggerung der Lichtlaufzeit vgl. 2.2) und zu eliminieren oder es muss vom Ansatz nach dem Vorbild der konventionellen CT Abstand genommen werden und die Bildgebung aus dem Streulicht direkt erfolgen. Anhang 81 Anhang Messstabilität und –homogenität bei unterschiedlicher Justierung im Messaufbau Messaufbau vom 15.11.2007: Homogenität der Belichtung: Homogenität der Belichtung spaltenweise: Anhang 82 Stabilität des Messaufbaus: Stabilität des Messaufbaus spaltenweise: Mittlere maximale Standardabweichung = ± 2,25. Die Justierung und damit die Stabilität und Homogenität dieses Messaufbaus sind sehr gut. Anhang Messaufbau vom 14.12.2007 Homogenität der Belichtung: Homogenität der Belichtung spaltenweise: 83 Anhang 84 Stabilität des Messaufbaus: Stabilität des Messaufbaus spaltenweise: Mittlere maximale Standardabweichung = ± 14,42. Der Laserstrahl wurde leicht verkippt justiert. Die Belichtung ist relativ homogen, aber etwas niedriger als im vorherigen Beispiel. Die Abweichungen in der Belichtung über die Zeit sehr groß. Diese Instabilität im Messaufbau führt zu Rauschen nach der Normierung der Projektionsaufnahmen. Abbildungsverzeichnis 85 Abbildungsverzeichnis Abbildung 1: Abbildungen an dünnen Sammellinsen ...................................................... 5 Abbildung 2: “Keplersche“ Strahlaufweitung. ................................................................. 6 Abbildung 3: Sphärische Linsenaberration....................................................................... 7 Abbildung 4: Bildfeldwölbung ......................................................................................... 8 Abbildung 5: Diffuse optische Tomographie ................................................................. 12 Abbildung 6: Skizze Strahlengang . ............................................................................... 13 Abbildung 7: Realisierter Messaufbau ........................................................................... 14 Abbildung 8: Lichterzeugung und Lichtleitung zum Messobjekt .................................. 15 Abbildung 9: Implementierung des Diodenlaser in das Messsystem ............................. 15 Abbildung 10:Lichtleitung zum Messobjekt. ................................................................. 16 Abbildung 11: Stellmotoren............................................................................................ 17 Abbildung 12: Lichtfokussierung und -Detektion .......................................................... 18 Abbildung 13: Kalibrierphantom.................................................................................... 20 Abbildung 14: Messphantom.......................................................................................... 20 Abbildung 15: Übersicht Software ................................................................................. 21 Abbildung 16: Formular Aufnahme. .............................................................................. 22 Abbildung 17: Formular Kameraeinstellungen. ............................................................. 23 Abbildung 18: Formular Normierung und Nachbearbeitung ......................................... 24 Abbildung 19: Formular Rekonstruktion........................................................................ 25 Abbildung 20: Berechnungsschema Projektionsprofile. ................................................ 27 Abbildung 21: Aufnahmeprinzip Kalibrierung............................................................... 28 Abbildung 22: Auswertung der Profildaten bei der Kalibrierung .................................. 29 Abbildung 23:Objektposition bei der Kalibrierung ........................................................ 29 Abbildung 24: Verzerrung der Aufnahmen vor der Kalibrierung. ................................. 30 Abbildung 25: Abweichung der Objektmitte von der Bildmitte während der Rotation............................................................................................................... 32 Abbildung 26: Funktionsprinzip des Mittenabgleichs.................................................... 33 Abbildung 27: Zusammenfassung der Bildbearbeitungsmöglichkeiten ......................... 35 Abbildung 28: Prinzipskizze Rückprojektionsalgorithmus. ........................................... 36 Abbildung 29: Darstellung des Ramachandran & Lakshminarayanan Filterkerns. ....... 37 Abbildung 30: Beispielaufnahme zur Erstellung des Strahlengangmodells................... 40 Abbildung 31: Ermittlung des Messsignalanteils im Vollbild........................................ 41 Abbildung 32: Messaufbau Kameraevaluierung.. .......................................................... 42 Abbildung 33: 3D- Plot eine Messaufnahme zur Bestimmung des Detektorrauschens und zur Identifizierung von Pixelfehlern. ............................ 43 Abbildung 34: Messaufnahme Detektorrauschen........................................................... 44 Abbildung 35: Subtraktionsaufnahme Detektorrauschen. .............................................. 45 Abbildungsverzeichnis 86 Abbildung 36: Signal- zu- Rausch- Verhältnis der Kamera. .......................................... 46 Abbildung 37: Homogenität der Belichtung................................................................... 48 Abbildung 38: Bildspaltenweise Betrachtung der Belichtungshomogenität .................. 49 Abbildung 39: Stabilität des Messaufbaus...................................................................... 50 Abbildung 40: Bildspaltenweise Betrachtung der Stabilität des Messaufbaus............... 50 Abbildung 41: Fixierung der Belichtung zur Erhöhung der Stabilität............................ 51 Abbildung 42: Normierkennlinie.................................................................................... 52 Abbildung 43: Genauigkeit der Objektbreitenbestimmung bei der Kalibrierung .......... 54 Abbildung 44: Statistische Fehleranalyse bei der Objektbreitenbestimmung. ............... 55 Abbildung 45: Evaluierung der Extrapolation der Objektposition bei der Kalibrierung ........................................................................................................ 56 Abbildung 46: Auswirkung der Korrektur der Objektposition auf die Kalibrierdaten... 57 Abbildung 47: Ergebnisse der Abbildungsfehlerkorrektur............................................. 58 Abbildung 48: Freiheitsgrade bei den Linsenjustagen ................................................... 59 Abbildung 49: Phasenverschiebung des Rotationsmotors bei einer Rekalibrierung ...... 60 Abbildung 50: Rekonstruktion ohne Mittenabgleich...................................................... 61 Abbildung 51: Rekonstruktion mit Mittenabgleich ........................................................ 61 Abbildung 52: Profil im Ortsraum.................................................................................. 63 Abbildung 53: Vergleich der Spektren eines Profils bei verschiedenen Profilverlängerungsmethoden. ............................................................................ 64 Abbildung 54: Vergleich der gefilterten Profile bei verschiedenen Profilverlängerungsmethoden ............................................................................. 65 Abbildung 55: Vergleich der rekonstruierten Schnittbilder bei verschiedenen Profilverlängerungsmethoden ............................................................................. 66 Abbildung 56: Rekonstruktion im eigenen Programm ................................................... 67 Abbildung 57: Vergleich der gefilterten Rückprojektion des eigenen Programms mit einer externen Software. ............................................................................... 67 Abbildung 58: Schnittbild einer dezentrierten Schraube................................................ 69 Abbildung 59: Schnittbild eines kantigen Messobjektes................................................ 71 Abbildung 60: Lichtbild am Detektor ohne Messobjekt bei voller Auslöschung der Polarisation.......................................................................................................... 73 Abbildung 61: Projektionsaufnahme Messphantom hochkant ....................................... 74 Abbildung 62: Projektionsaufnahme Messphantom....................................................... 75 Abbildung 63: Experimenteller Messaufbau für Messungen mit dem Poaristionsfiltern ................................................................................................. 76 Abbildung 64: Projektionsaufnahme Apfel und Schraube ............................................. 76 Abbildung 65: Skizze eines möglichen Messaufbaus für makroskopische Messobjekte ........................................................................................................ 78 Abbildung 66: Skizze eines möglichen Messaufbaus für mikroskopische Messobjekte ........................................................................................................ 79 Literaturverzeichnis 87 Literaturverzeichnis [1] Praktikumsanleitung Carl von Ossietzky Universität Oldenburg - Fakultät V- Institut für Physik, Modul Grundpraktikum Physik – Teil II: Geometrische Optik, optische Abbildung und Aberrationen; Stand: 30.01.2008; www.physik.uni-oldenburg.de/Docs/praktika/APR/pdf/Geometrische_Optik.pdf [2] Lehn R., Breitfeld P.: Abriss der Geometrischen Optik; Störck- Gymnasium Bad Saulgau; 26. Februar 2007; http://docs.sfz-bw.de/phag/skripte/g-optik.pdf [3] Krücken R.: Vorlesungsskript Experimentalphysik 3, Kapitel 3, Geometrische Optik; TU München; 11/2006; http://www.e12.physik.tu-muenchen.de/stud/vorlesungen/kruecken /phys3/current/skript/Vorlesung_12_Projektion_2006-11-27.pdf [4] Thöniß T.: Abbildungsfehler und Abbildungsleistung optischer Systeme; Homepage der LINOS Photonics GmbH & Co. KG; Stand: 30.01.2008; www.winlens.de/pdf/papers/Abbildungsfehler.pdf [5] Zink K.: Einführung in die Strahlentherapie und Therapie mit offenen Nukliden; Vorlesungsskript; FH Gießen-Friedberg; Modul Angewandte Medizinische Physik; Stand SS2002; http://homepages.fh-giessen.de/~hg11956/Lehrveranstaltungen.html [6] Wang L. V.: Optical Tomography for Biomedical Applications; IEEE Engineering in Medicine and Biology; March/April 1998; S. 45ff [7] Schulz R.B.: Development of a Non-Contact Fluorescence Tomography System with Appropriate Reconstruction Techniques; Dissertation; Ruperto-Carola-Universität Heidelberg; 2006 [8] Key H., Davies E.R., Jackson P.C., Wells P.N.T.: Optical attenuation characteristics of breast tissues at visible and near-infrared wavelengths; Phys. Med. Biol., 1991, Vol. 36, No 5, S. 579-590 [9] Splinter R., Hooper B. A.: An introduction to biomedical optics; Taylor & Francis Group; Boca Raton, Florida, USA; 1. Aufl.; 2007 [10] Press W. H., Flannery B.P., Teukolsky S.A., Vetterling W.T.: Numerical recipes in pascal; Cambridge University Press; USA; 1. Aufl.; 1992 [11] Morneburg H.: Bildgebende Systeme für die medizinische Diagnostik; Publicis MCD Verlag; München; 3. Aufl.; 1995 [12] Kak A.C., Slaney M.: Principles of Computerized Tomographic Imaging; IEEE Press; New York, USA; 1999 [13] Sedgewick R.: Algorithmen; Addison- Wesley; Bonn; 1. Aufl.; 1994 [14] Basler AG: EMVA Standart 1288 Protokoll für die Kameraserie scA640-70fm; http://www.baslerweb.com/downloads/19696/ Basler_scA640-70fm_EMVA_Standard_1288.pdf Eidesstattliche Erklärung 88 Eidesstattliche Erklärung Hiermit erkläre ich, dass ich die vorliegende Diplomarbeit selbständig angefertigt habe. Es wurden nur die in der Arbeit ausdrücklich benannten Quellen und Hilfsmittel benutzt. Wörtlich oder sinngemäß übernommenes Gedankengut habe ich als solches kenntlich gemacht. Gießen, den 01.02.2008 Maximilian Völker