speckle_BV - Weblearn

Werbung
Probleme der Bildverarbeitung
bei der polychromatischen Rauheitsmessung
Thomas Risse
Institut für Informatik und Automation
Hochschule Bremen
Zusammenfassung
Wenn per polychromatischen Rauheitsmessung die Oberflächengüte etwa von Karosserieblechen
beurteilt werden soll, wirft die Auswertung der dabei entstehenden speckle Bilder eine Reihe von
Problemen für die Bildverarbeitung auf, die hier erörtert werden. Erste, eher entmutigende
Untersuchungsergebnisse werden vorgestellt und Alternativen aufgezeigt.
1. Einführung
Bei dem Vorhaben der polychromatischen Rauheitsmessung etwa von Karosserieblechen handelt
es sich um ein Projekt, das vom Bremer Institut für Betriebstechnik und angewandte
Arbeitswissenschaft, BIBA sowie dem Fachgebiet Meß- , Steuerungs- und Regelungstechnik im
Fachbereich Produktionstechnik der Universität Bremen (Meßverfahren, Meßtechnik) und dem
Institut für Informatik und Automation der Hochschule Bremen (Bildverarbeitung, Simulation,
FPGA-Implementierung) gemeinsam durchgeführt wird.
Ziel des Vorhabens ist die Entwicklung und Implementierung eines Verfahrens zur
Rauheitsmessung, d.h.
–
–
–
Bestimmung von Rauheitsindikatoren
Bestimmung des Optischen Zentrums
bei hoher Robustheit der Algorithmen, bei guter Trennung der Rauheitsklassen,
bei hoher Geschwindigkeit der Implementierung
Das fragliche Messverfahren wirft eine Reihe von Problemen der Bildverarbeitung auf. Diese
werden hier vorgestellt und erörtert. Ein Vergleichskriterium zur Beurteilung der Ansätze ist die
sogenannte Robustheit. Ein Verfahren heißt in diesem robust, wenn es Rauhigkeitsindikatoren
weitgehend unabhängig von etwaigen Schwellwerten bestimmt und sich dieselben Indikatoren
ergeben, wenn man genügend große Ausschnitte aus den zu analysierenden speckle-Bildern
analysiert. Ein paar vielversprechende Ansätze werden hier vorgestellt. Diese erweisen sich
allerdings als nicht ausreichend robust. Daher werden weiterführende Ansätze als Alternativen
skizziert.
1.1 Vorgaben und Randbedingungen
•
•
•
•
•
Messung der Oberflächenrauheit etwa von Bandstahl im 0.05μm- bis 4μm-Bereich
kontinuierlich, ohne Stopp der Produktion
500m/min
an-/isotrop rauh, glatt, gedreht, nitriert, geschliffen, erodiert, geläppt etc.
Kalibrierung
durch
Rugotest-Proben,
Tastschnittgerät,
Profilometer,
Weißlichtinterferometrie, Raster-Mikroskopie, o.ä.
2 Messverfahren
Im nachfolgend dargestellten Messaufbau trifft ein polychromatischer Laserstrahl die Oberfläche.
Eine LCD-Kamera nimmt das rückgestreute Licht auf. Die entstehenden sogenannten speckleBilder sind per digitaler Bildverarbeitung auszuwerten.
Die folgende Skizze [Patzelt et al] zeigt, wie Specklemuster durch Interferenzen entstehen.
•
•
•
•
Flächenelemente der beleuchteten Oberfläche streuen Kugelwellen (alle Punkte tragen zu
jedem Punkt der Beobachtungsebene bei.)
unterschiedliche Wegstrecken des Lichts erzeugen Gangunterschiede
konstruktive und destruktive Überlagerung stellt sich ein.
Polychromatisches Licht hat Kombination mehrere Effekte zur Folge.
Zusammengefasst kann das Messverfahren wie folgt dargestellt werden [Lehmann et al].
Typischerweise sehen speckle-Bilder so aus:
3. Auswertung
Rauhigkeit der Oberfläche spiegelt sich in der Elongation der speckle in radialer Richtung vom
optischen Zentrum, von der optischen Achse wider, wie der folgende, theoretisch hergeleitete
Zusammenhang für verschiedene Rauheitsklassen zeigt.
3
2.8
Rq=0.1 um
Rq=0.25 um
2.6
normierte Speckle-Elongation (E)
2.4
2.2
Rq=0.5 um
2
Rq=0.75 um
1.8
Rq=1 um
1.6
Rq=1.25 um
Rq=1.5 um
1.4
1.2
1
0
0.5
1
1.5
2
2.5
Abstand zur optischen Achse (x1) [mm]
3
3.5
4
Grundsätzlich gilt somit, die speckle-Elongation bezüglich des optischen Zentrums zu
bestimmen.
•
•
•
•
Dabei kann das optische Zentrum für die nachfolgende Auswertung wie auch für die
Kalibrierung der Mess-Aperatur nutzbringend zu bestimmen sein.
Speckle-Erkennung und –Messung wurde mit den folgenden Ansätzen angegangen:
– Hough-Transformation mit template (global)
– Klassische Hough-Transformation (eher global)
– Achsen maximaler und minimaler Trägheit (lokal)
(Auto-) Korrelation mit/ohne optische/r Achse
Rauheit bei festem Abstand zur optischen Achse
Bei der Bewertung der im Folgenden beschriebenen Verfahren sind echte, gemessene speckleBilder insofern problematisch, als an unterschiedlichen Stellen des Bildes unterschiedliche
Rauhigkeit (lokales Phänomen) vorliegen kann. Simulierte speckle-Bilder [GochSimon] haben
diesem Problem abgeholfen.
Für jeden der im Folgenden beschrieben Ansätze wurden die Auswertungsergebnisse bislang
nicht statistisch ausgewertet. Insofern liegen z.Zt. nur Ergebnisse von Versuchsreihen mit jeweils
einigen wenigen speckle-Bildern vor.
3.1 Auswertung per Hough-Transformation mit template
Die Hough-Transformation [Kunz] ist ein Verfahren der Evidenz-Akkumulation. In einem
Parameter-Raum [Risse], realisiert durch Felder von Zählern, wird ermittelt, wie stark das
Vorhandensein eines parametrisierten Objektes im zu untersuchenden Binär-Bild ausgeprägt ist.
Auf diese Weise kann man beispielsweise feststellen, welche Geraden in einem Strecken
enthaltenden Binär-Bild zu erkennen sind.
Hier schien vielversprechend, die Hough-Transform mit einem Template zu verwenden: man
verschiebt das binäre template so über das binäre speckle Bild, dass der Mittelpunkt in jedem
Punkt des speckle Bildes zu liegen kommt. In jeder dieser Positionen wird gezählt, an wie vielen
Positionen (weiße) Pixel im speckle und im verschobenen template übereinstimmen. Der Zähler
mit dem höchsten Zählerstand steht dann für den Mittelpunkt mit der größten Evidenz. Bei
mehreren Maxima oder mehreren Zählern mit Zählerständen nahe dem Maximum kann ein
gewichtetes Mittel (gewichteter Schwerpunkt) die Genauigkeit der Bestimmung des optischen
Zentrums erhöhen.
•
•
•
Problematisch ist die Binarisierung: welche Schwelle? Adaptive Binarisierung?
Die Wahl eines geeigneten templates vergrößert den Parameter-Raum um mindestens
zwei Dimensionen (Übrigens wurden noch weitere Arten von templates erprobt).
Das Verfahren scheint nicht ausreichend robust zu sein!
3.2 Auswertung per klassischer Hough-Transformation
Die klassische Hough-Transformation wurde zu Erkennung von Geraden in Raster-Bildern
entwickelt und erst danach auf andere parametrisierbare Objekte verallgemeinert.
Da ist es nahe liegend, sich Evidenz für Geraden aufgrund von speckle-Elongation im speckleBild zu versprechen. Man wird also per klassischer Hough-Transformation diese Geraden und
ihre Schnittpunkte bestimmen (Dieses Problem kann durch die Adaption einer Version des
Bresenham-Algorithmus effizient gelöst werden), geeignet Schnittpunkte auswählen und das
optische Zentrum als gewichtetes Mittel (gewichteter Schwerpunkt) dieser Schnittpunkte
berechnen.
•
•
•
Problematisch ist die Binarisierung: welche Schwelle? Adaptive Binarisierung?
Selektion geeigneter Geraden bedeutet Verwendung weiterer Schwellen.
Das Verfahren scheint nicht ausreichend robust zu sein!
3.3 Auswertung per speckle-Erkennung und Bestimmung ihrer Elongation
Hier werden speckles als Zusammenhangskomponenten im binären speckle-Bild identifiziert (es
handelt sich also um ein lokales Verfahren), ihre Achsen minimaler und maximaler Trägheit
bestimmt, geeignete speckles, nämlich solche, bei denen sich die Trägheit bezüglich dieser
beiden Achsen genügend unterscheidet, selektiert und das optische Zentrum als Schwerpunkt der
Schnittpunkte Achsen maximaler Trägheit dieser ausgewählten speckles bestimmt. Dieses
Problem kann durch die Adaption einer Version des Bresenham-Algorithmus effizient gelöst
werden. In den Versuchsreihen bildete sich folgende Einschätzung heraus:
•
•
•
Problematisch ist die Binarisierung: welche Schwelle? Adaptive Binarisierung?
Selektion geeigneter speckles bedeutet Verwendung einer weiteren Schwelle.
Das Verfahren scheint nicht ausreichend robust zu sein!
3.4 Auswertung per Autokorrelation
Wenn man Ausschnitte des speckle-Bildes autokorreliert und damit das speckle-Bild lokal
autokorreliert, kann man aus der Autokorrelationsfunktion, AKF, Indikatoren für (lokale)
speckle-Elongation gewinnen. Vorteilhaft ist, dass keine Binarisierung nötig ist! Die AutoKorrelationsfunktion von Bild-Ausschnitten lokalisiert das speckle-Bild in Form einer Abtastung.
Die speckle-Elongation spiegelt sich in Gradienten der Autokorrelationsfunktion nahe (0,0)
wider. Indikatoren von [Lehmann et al] sind beispielsweise Steigungen der beiden Sekanten
durch AKF(0,0) und jeweils AKF(Δx,0) bzw. AKF(0, Δy).
Durch Auswertung der AKF-Gradienten in Bild-Ausschnitten mit Zentrum auf Horizontalen oder
Vertikalen durch das optische Zentrum hofft man, direkt Indikatoren für speckle-Elongation und
damit für Rauhigkeit zu gewinnen. Diese Ansätze wurden in viele Richtungen weiterverfolgt.
Allerdings sind die SKFen typischerweise in der Umgebung von (0,0) alles andere als so glatt,
wie der folgenden Graph erwarten und hoffen lässt.
•
•
Wenn die AKF zu uneinheitlich ist, um aus finiten Differenzen Gradienten-Informationen
zu gewinnen, liegt es nahe, das speckle-Bild oder die AKF zu glätten. Dies allerdings
wirft das klassische Dilemma auf: Wieviel Glättung ist zuträglich?
Insbesondere bei sehr rauen Oberflächen ergebn sich überlappende Rauheitsklassen!
3.5 Auswertung per Kreuzkorrelation
Bis hierher wurde immer das Grauwert-speckle-Bild, das die polychromatische Information in
einem speckle Bild zusammenfasst, untersucht. Aus Bilder gewonnen bei Beleuchtung der
Oberfläche mit Laserlicht unterschiedlicher Wellenlänge kann selbstverständlich auch
Information über die Lage des optischen Zentrums gewonnen werden. Man bekommt ein
Richtungsfeld und kann wiederum anhand der Schnittpunkte der mit diesen Richtungsvektoren
kollinearen Geraden auf das optische Zentrum schließen.
4 Ausblick
Derzeit werden neben der Kreuzkorrelation von Bildern verschiedener Wellenlänge noch weitere
Ansätze verfolgt.
•
•
•
Wavelets, Fourier-Koeffizienten u.ä.
Simulation kann nicht nur helfen, speckle-Bilder ‚einheitlicher Rauheit’ zu synthetisieren
sondern auch die Vorgänge an der Oberfläche besser zu verstehen.
„Von anderen lernen“ (Radar, Hochfrequenz-Technik)
mit dem Ziel, robustere, sensitivere, schnellere, d.h. gut auf FPGAs zu implementierende
Verfahren zu Bestimmung der Oberflächenrauheit zu entwickeln.
Refrenzen
[GochSimon] Gert Goch und Sven Simon: Modellierung kohärenter Streulicht-Messprozesse für
deterministische Nanostrukturen und stochastische Oberflächendefekte; StraMNano, DFG,
Freiburg 24.2.2005
[Kunz] Dietmar Kunz: Hough-Transformation; Digitale Bildverarbeitung II, FH Köln,
http://www.fo.fh-koeln.de/dozenten/dkunz/skripte/bvii/hough.pdf
[Lehmann et al] Peter Lehmann, Stefan Patzelt, Gert Goch: Surface roughness characterization
based on polychromatic far-field speckles of either continuous or discrete spectral distribution; in
W. Osten, W. Jüptner: The data science library; Elsevier, Paris 2001, pp 71–78
[Patzelt et al] Stefan Patzelt, Peter Lehmann, Gert Goch: Grenzen überwinden – In-ProzessRauheitscharakterisierung technischer Oberflächen; QZ - Qualität und Zuverlässigkeit, Vol. 47/6
2002, S. 652-655
[Risse] Thomas Risse: Hough Transform for Line Recognition – Complexity of Filling the
Accumulator and of Cluster Detection; Computer Vision, Graphics and Image Processing, 46, pp
327–345, 1989
Herunterladen