Probleme der Bildverarbeitung bei der polychromatischen Rauheitsmessung Thomas Risse Institut für Informatik und Automation Hochschule Bremen Zusammenfassung Wenn per polychromatischen Rauheitsmessung die Oberflächengüte etwa von Karosserieblechen beurteilt werden soll, wirft die Auswertung der dabei entstehenden speckle Bilder eine Reihe von Problemen für die Bildverarbeitung auf, die hier erörtert werden. Erste, eher entmutigende Untersuchungsergebnisse werden vorgestellt und Alternativen aufgezeigt. 1. Einführung Bei dem Vorhaben der polychromatischen Rauheitsmessung etwa von Karosserieblechen handelt es sich um ein Projekt, das vom Bremer Institut für Betriebstechnik und angewandte Arbeitswissenschaft, BIBA sowie dem Fachgebiet Meß- , Steuerungs- und Regelungstechnik im Fachbereich Produktionstechnik der Universität Bremen (Meßverfahren, Meßtechnik) und dem Institut für Informatik und Automation der Hochschule Bremen (Bildverarbeitung, Simulation, FPGA-Implementierung) gemeinsam durchgeführt wird. Ziel des Vorhabens ist die Entwicklung und Implementierung eines Verfahrens zur Rauheitsmessung, d.h. – – – Bestimmung von Rauheitsindikatoren Bestimmung des Optischen Zentrums bei hoher Robustheit der Algorithmen, bei guter Trennung der Rauheitsklassen, bei hoher Geschwindigkeit der Implementierung Das fragliche Messverfahren wirft eine Reihe von Problemen der Bildverarbeitung auf. Diese werden hier vorgestellt und erörtert. Ein Vergleichskriterium zur Beurteilung der Ansätze ist die sogenannte Robustheit. Ein Verfahren heißt in diesem robust, wenn es Rauhigkeitsindikatoren weitgehend unabhängig von etwaigen Schwellwerten bestimmt und sich dieselben Indikatoren ergeben, wenn man genügend große Ausschnitte aus den zu analysierenden speckle-Bildern analysiert. Ein paar vielversprechende Ansätze werden hier vorgestellt. Diese erweisen sich allerdings als nicht ausreichend robust. Daher werden weiterführende Ansätze als Alternativen skizziert. 1.1 Vorgaben und Randbedingungen • • • • • Messung der Oberflächenrauheit etwa von Bandstahl im 0.05μm- bis 4μm-Bereich kontinuierlich, ohne Stopp der Produktion 500m/min an-/isotrop rauh, glatt, gedreht, nitriert, geschliffen, erodiert, geläppt etc. Kalibrierung durch Rugotest-Proben, Tastschnittgerät, Profilometer, Weißlichtinterferometrie, Raster-Mikroskopie, o.ä. 2 Messverfahren Im nachfolgend dargestellten Messaufbau trifft ein polychromatischer Laserstrahl die Oberfläche. Eine LCD-Kamera nimmt das rückgestreute Licht auf. Die entstehenden sogenannten speckleBilder sind per digitaler Bildverarbeitung auszuwerten. Die folgende Skizze [Patzelt et al] zeigt, wie Specklemuster durch Interferenzen entstehen. • • • • Flächenelemente der beleuchteten Oberfläche streuen Kugelwellen (alle Punkte tragen zu jedem Punkt der Beobachtungsebene bei.) unterschiedliche Wegstrecken des Lichts erzeugen Gangunterschiede konstruktive und destruktive Überlagerung stellt sich ein. Polychromatisches Licht hat Kombination mehrere Effekte zur Folge. Zusammengefasst kann das Messverfahren wie folgt dargestellt werden [Lehmann et al]. Typischerweise sehen speckle-Bilder so aus: 3. Auswertung Rauhigkeit der Oberfläche spiegelt sich in der Elongation der speckle in radialer Richtung vom optischen Zentrum, von der optischen Achse wider, wie der folgende, theoretisch hergeleitete Zusammenhang für verschiedene Rauheitsklassen zeigt. 3 2.8 Rq=0.1 um Rq=0.25 um 2.6 normierte Speckle-Elongation (E) 2.4 2.2 Rq=0.5 um 2 Rq=0.75 um 1.8 Rq=1 um 1.6 Rq=1.25 um Rq=1.5 um 1.4 1.2 1 0 0.5 1 1.5 2 2.5 Abstand zur optischen Achse (x1) [mm] 3 3.5 4 Grundsätzlich gilt somit, die speckle-Elongation bezüglich des optischen Zentrums zu bestimmen. • • • • Dabei kann das optische Zentrum für die nachfolgende Auswertung wie auch für die Kalibrierung der Mess-Aperatur nutzbringend zu bestimmen sein. Speckle-Erkennung und –Messung wurde mit den folgenden Ansätzen angegangen: – Hough-Transformation mit template (global) – Klassische Hough-Transformation (eher global) – Achsen maximaler und minimaler Trägheit (lokal) (Auto-) Korrelation mit/ohne optische/r Achse Rauheit bei festem Abstand zur optischen Achse Bei der Bewertung der im Folgenden beschriebenen Verfahren sind echte, gemessene speckleBilder insofern problematisch, als an unterschiedlichen Stellen des Bildes unterschiedliche Rauhigkeit (lokales Phänomen) vorliegen kann. Simulierte speckle-Bilder [GochSimon] haben diesem Problem abgeholfen. Für jeden der im Folgenden beschrieben Ansätze wurden die Auswertungsergebnisse bislang nicht statistisch ausgewertet. Insofern liegen z.Zt. nur Ergebnisse von Versuchsreihen mit jeweils einigen wenigen speckle-Bildern vor. 3.1 Auswertung per Hough-Transformation mit template Die Hough-Transformation [Kunz] ist ein Verfahren der Evidenz-Akkumulation. In einem Parameter-Raum [Risse], realisiert durch Felder von Zählern, wird ermittelt, wie stark das Vorhandensein eines parametrisierten Objektes im zu untersuchenden Binär-Bild ausgeprägt ist. Auf diese Weise kann man beispielsweise feststellen, welche Geraden in einem Strecken enthaltenden Binär-Bild zu erkennen sind. Hier schien vielversprechend, die Hough-Transform mit einem Template zu verwenden: man verschiebt das binäre template so über das binäre speckle Bild, dass der Mittelpunkt in jedem Punkt des speckle Bildes zu liegen kommt. In jeder dieser Positionen wird gezählt, an wie vielen Positionen (weiße) Pixel im speckle und im verschobenen template übereinstimmen. Der Zähler mit dem höchsten Zählerstand steht dann für den Mittelpunkt mit der größten Evidenz. Bei mehreren Maxima oder mehreren Zählern mit Zählerständen nahe dem Maximum kann ein gewichtetes Mittel (gewichteter Schwerpunkt) die Genauigkeit der Bestimmung des optischen Zentrums erhöhen. • • • Problematisch ist die Binarisierung: welche Schwelle? Adaptive Binarisierung? Die Wahl eines geeigneten templates vergrößert den Parameter-Raum um mindestens zwei Dimensionen (Übrigens wurden noch weitere Arten von templates erprobt). Das Verfahren scheint nicht ausreichend robust zu sein! 3.2 Auswertung per klassischer Hough-Transformation Die klassische Hough-Transformation wurde zu Erkennung von Geraden in Raster-Bildern entwickelt und erst danach auf andere parametrisierbare Objekte verallgemeinert. Da ist es nahe liegend, sich Evidenz für Geraden aufgrund von speckle-Elongation im speckleBild zu versprechen. Man wird also per klassischer Hough-Transformation diese Geraden und ihre Schnittpunkte bestimmen (Dieses Problem kann durch die Adaption einer Version des Bresenham-Algorithmus effizient gelöst werden), geeignet Schnittpunkte auswählen und das optische Zentrum als gewichtetes Mittel (gewichteter Schwerpunkt) dieser Schnittpunkte berechnen. • • • Problematisch ist die Binarisierung: welche Schwelle? Adaptive Binarisierung? Selektion geeigneter Geraden bedeutet Verwendung weiterer Schwellen. Das Verfahren scheint nicht ausreichend robust zu sein! 3.3 Auswertung per speckle-Erkennung und Bestimmung ihrer Elongation Hier werden speckles als Zusammenhangskomponenten im binären speckle-Bild identifiziert (es handelt sich also um ein lokales Verfahren), ihre Achsen minimaler und maximaler Trägheit bestimmt, geeignete speckles, nämlich solche, bei denen sich die Trägheit bezüglich dieser beiden Achsen genügend unterscheidet, selektiert und das optische Zentrum als Schwerpunkt der Schnittpunkte Achsen maximaler Trägheit dieser ausgewählten speckles bestimmt. Dieses Problem kann durch die Adaption einer Version des Bresenham-Algorithmus effizient gelöst werden. In den Versuchsreihen bildete sich folgende Einschätzung heraus: • • • Problematisch ist die Binarisierung: welche Schwelle? Adaptive Binarisierung? Selektion geeigneter speckles bedeutet Verwendung einer weiteren Schwelle. Das Verfahren scheint nicht ausreichend robust zu sein! 3.4 Auswertung per Autokorrelation Wenn man Ausschnitte des speckle-Bildes autokorreliert und damit das speckle-Bild lokal autokorreliert, kann man aus der Autokorrelationsfunktion, AKF, Indikatoren für (lokale) speckle-Elongation gewinnen. Vorteilhaft ist, dass keine Binarisierung nötig ist! Die AutoKorrelationsfunktion von Bild-Ausschnitten lokalisiert das speckle-Bild in Form einer Abtastung. Die speckle-Elongation spiegelt sich in Gradienten der Autokorrelationsfunktion nahe (0,0) wider. Indikatoren von [Lehmann et al] sind beispielsweise Steigungen der beiden Sekanten durch AKF(0,0) und jeweils AKF(Δx,0) bzw. AKF(0, Δy). Durch Auswertung der AKF-Gradienten in Bild-Ausschnitten mit Zentrum auf Horizontalen oder Vertikalen durch das optische Zentrum hofft man, direkt Indikatoren für speckle-Elongation und damit für Rauhigkeit zu gewinnen. Diese Ansätze wurden in viele Richtungen weiterverfolgt. Allerdings sind die SKFen typischerweise in der Umgebung von (0,0) alles andere als so glatt, wie der folgenden Graph erwarten und hoffen lässt. • • Wenn die AKF zu uneinheitlich ist, um aus finiten Differenzen Gradienten-Informationen zu gewinnen, liegt es nahe, das speckle-Bild oder die AKF zu glätten. Dies allerdings wirft das klassische Dilemma auf: Wieviel Glättung ist zuträglich? Insbesondere bei sehr rauen Oberflächen ergebn sich überlappende Rauheitsklassen! 3.5 Auswertung per Kreuzkorrelation Bis hierher wurde immer das Grauwert-speckle-Bild, das die polychromatische Information in einem speckle Bild zusammenfasst, untersucht. Aus Bilder gewonnen bei Beleuchtung der Oberfläche mit Laserlicht unterschiedlicher Wellenlänge kann selbstverständlich auch Information über die Lage des optischen Zentrums gewonnen werden. Man bekommt ein Richtungsfeld und kann wiederum anhand der Schnittpunkte der mit diesen Richtungsvektoren kollinearen Geraden auf das optische Zentrum schließen. 4 Ausblick Derzeit werden neben der Kreuzkorrelation von Bildern verschiedener Wellenlänge noch weitere Ansätze verfolgt. • • • Wavelets, Fourier-Koeffizienten u.ä. Simulation kann nicht nur helfen, speckle-Bilder ‚einheitlicher Rauheit’ zu synthetisieren sondern auch die Vorgänge an der Oberfläche besser zu verstehen. „Von anderen lernen“ (Radar, Hochfrequenz-Technik) mit dem Ziel, robustere, sensitivere, schnellere, d.h. gut auf FPGAs zu implementierende Verfahren zu Bestimmung der Oberflächenrauheit zu entwickeln. Refrenzen [GochSimon] Gert Goch und Sven Simon: Modellierung kohärenter Streulicht-Messprozesse für deterministische Nanostrukturen und stochastische Oberflächendefekte; StraMNano, DFG, Freiburg 24.2.2005 [Kunz] Dietmar Kunz: Hough-Transformation; Digitale Bildverarbeitung II, FH Köln, http://www.fo.fh-koeln.de/dozenten/dkunz/skripte/bvii/hough.pdf [Lehmann et al] Peter Lehmann, Stefan Patzelt, Gert Goch: Surface roughness characterization based on polychromatic far-field speckles of either continuous or discrete spectral distribution; in W. Osten, W. Jüptner: The data science library; Elsevier, Paris 2001, pp 71–78 [Patzelt et al] Stefan Patzelt, Peter Lehmann, Gert Goch: Grenzen überwinden – In-ProzessRauheitscharakterisierung technischer Oberflächen; QZ - Qualität und Zuverlässigkeit, Vol. 47/6 2002, S. 652-655 [Risse] Thomas Risse: Hough Transform for Line Recognition – Complexity of Filling the Accumulator and of Cluster Detection; Computer Vision, Graphics and Image Processing, 46, pp 327–345, 1989