Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 1 Ingmar Jahr LEXIKON der industriellen Bildverarbeitung Begriffe und Abkürzungen aus der industriellen Bildverarbeitung Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 2 3964-R-Protokoll 0-9 0-9 3964-R-Protokoll standardisiertes, herstellerneutrales serielles Protokoll zur Übertragung von Hexadezimal-Werten. Von Siemens entwickelte Datenübertragungsprozedur für eine Punkt-zu-Punkt-Verbindung (➚Punktsteuerung). Zeichenorientiertes Protokoll. Die Steuerzeichen für das Protokoll entsprechen DIN 66003/ISO 646 (7-BitZeichencode). A Abbildung ➚optische Abbildung Abbildungsfehler Optische Abbildungsfehler werden durch optische Elemente verursacht. Nicht alle von einem Punkt auf dem Objekt ausgehenden ➚Lichtstrahlen treffen sich nach der ➚optischen Abbildung im gleichen Pixel. Das führt dazu, dass das Objekt nicht originalgetreu (mathematisch ähnlich) im Bild erscheint hinsichtlich seiner Maßstabstreue, Schärfe, seines Kontrastes und seiner Farbtreue. Fünf Abbildungsfehler sind typisch: ➚Öffnungsfehler (auch sphärische Aberration), ➚Astigmatismus, ➚Koma, ➚Bildfeldwölbung, ➚Verzeichnung. ➚Farbfehler werden aus den Abbildungsfehlern abgeleitet. Eine anschauliche Zusammenfassung und Quantifizierung aller Abbildungsfehler (außer Verzeichnung) liefert die ➚Modulationsübertragungsfunktion. Abbildungsfehler können an realen optischen Systemen nie ganz beseitigt werden. Sie können nur auf ein für den jeweiligen Anwendungsfall akzeptables Maß reduziert werden. Allgemeine Aussagen zu Abbildungsfehlern: Abbildungsfehler sind im achsnahen Bereich (um die optische Achse) i. A. am kleinsten und am Bildrand am größten; Abbildungsfehler sind in Zonen von konzentrischen Kreisen gleich groß; Abbildungsfehler können durch bewusste Blendeneinstellung (mittlere Blende) verringert werden – es gibt ein Optimum; die Spezifikationen der Abbildungsfehler gelten nur innerhalb des festgelegten Betriebsbereiches (z.B. durch Schneckengang vorgegebenen Entfernungsbereich), außerhalb dessen werden die Abbildungsfehler größer; jedes sphärische optische Bauelement hat Abbildungsfehler; Objektive gleicher Brennweite/Öffnung können sehr verschiedene Abbildungsfehler aufweisen; die Korrektion der Abbildungsfehler erfolgt immer hinsichtlich des Anwendungszweckes; Korrektion ist ein Kompromiss zwischen Aufwand (Komplexität, Materialaufwand, Entwicklung) und Korrektionszustand Abbildungsgüte, auch Bildgüte, Abbildungsleistung. All- 2 gemeine Charakterisierung der Abbildungseigenschaften eines optischen Systems. Dazu gehören z.B. ➚Auflösungsvermögen, ➚Kontrast, ➚Verzeichnung. Ein gute Aussage über die Abbildungsgüte liefern die Modulationsübertragungskurven sowie die Korrektionsdarstellung der ➚Verzeichnung. Abbildungsleistung ➚Abbildungsgüte Abbildungsmaßstab, ß‘, fälschlicherweise auch Vergrößerung. Vorzeichenbehaftetes Verhältnis der Bildgröße y‘ zur Objektgröße y: ß’ = y’/y. Der Abbildungsmaßstab ist die Brücke zur metrisch-maßlichen ➚Kalibrierung von Bildverarbeitungssystemen. Er gibt die Vergrößerung/Verkleinerung von senkrecht zur optischen Achse stehenden Objekten im Bild an und besitzt bei der höhenvertauschten optischen Abbildung einen negativen Wert. Zum Teil wird auch nur der Betrag angegeben. |ß‘| < 1 verkleinerte Abbildung, typisch: Landschaftsaufnahme |ß‘| = 1 Objekt- und Sensorgröße sind identisch |ß‘| > 1 vergrößerte Abbildung, typisch: mikroskopische Aufnahme Beispiele für synonyme Sprechweise: ß‘ = -8,8 : 1 = -8,8 = 8,8-fach vergrößerte Abbildung ß‘ = -3,6/60 = -0,05 = 20-fach verkleinerte Abbildung Die Beziehungen zur ➚Brennweite f‘ und ➚Arbeitsabstand WD/ ➚Objektabstand a sind näherungsweise: ß‘ = f‘/(a + f‘) mit (f‘ > 0, a > 0, a ≈ WD) Abbildungstiefe Bildseitiges Pendant zur ➚Schärfentiefe. Bereich, in dem sich der ➚Bildaufnehmer entlang der optischen Achse verschieben darf, solange ein scharfes Bild entsteht. Im Sinne der ➚geometrischen Optik durch die Struktur des Bildaufnehmers hervorgerufen. Ablenkwinkel Winkelangabe, die die geänderte Lichtaustrittrichtung gegenüber dem einfallenden Licht angibt. Abschaltung ➚Vignettierung Abschnittstest Direkte Testmöglichkeit für geänderte Prüfprogrammabschnitte in modernen Benutzeroberflächen. Geänderte Programmteile können sofort aus dem Prüfprogrammeditor heraus auf ihre Funktionsfähigkeit getestet werden. Das setzt die Möglichkeit der direkten Funktionsausführung aus dem Prüfprogrammeditor voraus (z.B. durch ➚Fernsteuerung des Bildverarbeitungssystems). Besonders gut ist der Abschnittstest bei der Inbetriebnahme von Bildverarbeitungsanlagen sowie bei der Fehlersuche nutzbar. Absorption Schwächung von Strahlung beim Durchgang durch ein Medium unter Energieumwandlung. Absorption ermöglicht das Abbilden von ➚Prüfobjekten mit ➚Durchlichtbeleuchtung. Ein reales ➚Prüfobjekt ist meist eine unbekannte Mischung aus ➚Reflexion, Absorption, ➚Transmission. (s. auch Absorptionsgrad) Lexikon der industriellen Bildverarbeitung Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 3 Airy-Scheibchen Absorptionsfilter ➚Lichtfilter, das durch ➚Absorption Licht wellenlängenabhängig durchlässt, z.B. ➚Farbfilter. Absorptionsgrad Kurzzeichen α. Verhältnis von absorbiertem zu einfallendem ➚Strahlungsfluss. Es gilt der Energieerhaltungssatz: ➚Reflexion + ➚Absorption + ➚Transmission = 100%. Der Absorptionsgrad hat bei ➚Durchlichtbeleuchtung und ➚Auflichtbeleuchtung einen starken Einfluss auf den ➚Kontrast, der im Bild erreicht wird. Der Absorptionsgrad ist material-, wellenlängen- und winkelabhängig. Ein großer Absorptionsgrad lässt ein Prüfobjekt dunkel erscheinen. Abstand Messung des Abstandes ist eine typische Aufgabe für Bildverarbeitungssysteme. Zur Ermittlung geometrischer Maße können Abstände zwischen ➚Geometrieelementen berechnet werden durch: Abstand zwischen zwei Punkten; Lotabstand Punkt auf Gerade; Lotabstand Kreismittelpunkt auf Gerade; Abstand Punkt – Kreismittelpunkt; Abstand Kreismittelpunkt – Kreismittelpunkt Abstrahlcharakteristik, auch Indikatrix. ➚Lichtquellen verteilen die von ihnen ausgesendete Strahlung in einer bestimmten charakteristischen Form, der Abstrahlcharakteristik. Solche Charakteristika für Leuchtdichte können dem ➚Lambertstrahler entsprechend halbkugelförmig, in anderen Fällen keulen- oder nierenförmig sein. Die Form der Abstrahlung heißt für dieses Beispiel auch Leuchtdichteindikatrix. Die Abstrahlcharakteristik wirkt über das ➚Prüfobjekt oder einen ➚Diffusor direkt auf die ➚Beleuchtungsstärkeverteilung auf dem ➚Bildaufnehmer. (s. auch Leuchtdichteindikatrix) Abtastfrequenz Frequenz, mit der ein zeitliches oder örtliches Signal abgetastet wird. (s. auch Abtasttheorem) Abtasttheorem Bei der Inspektion kleinster Strukturen muss zur Vermeidung von Informationsverlust das Abtasttheorem beachtet werden. Bezogen auf die Bildverarbeitung bedeutet das: Ein ➚Bildaufnehmer kann maximal sicher Details auflösen (besonders bei kleinen periodisch wiederkehrenden Mustern), die mindestens 2 Pixel groß sind. Bei dieser Abtastfrequenz = Ortsfrequenz fg (Nyquistfrequenz) entsteht kein Informationsverlust. Sind die Details kleiner als 2 Pixel (Ortsfrequenz f > fg), kommt es zu ➚Alaising (Unterabtastung)/Schwebungen, die nicht vorhandene Objektdetails vortäuschen: Informationen gehen verloren. Grenzortsfrequenz fg = 1/2p; p – Pixelabstand. Beispiel: Ein CCD-Chip besitzt 100 Pixel/mm, also eine Bildpunktgröße von 0,01 mm. Bei einer Abbildung mit ➚Abbildungsmaßstab 1 können nur Strukturen sicher vom CCD-Chip aufgelöst werden, deren Abstände > = 0,02 mm sind. Achromat Linsenart, die aus mindestens zwei verkitteten Linsen besteht und in Bezug auf zwei Wellenlängen kor- Lexikon der industriellen Bildverarbeitung rigiert ist. Anwendung in vielen in der Bildverarbeitung gebräuchlichen Objektiven. Achsnaher Bereich, auch paraxiales Gebiet. Bereich um die optische Achse, bei dem alle Winkelfunktionen durch den Winkel selbst ersetzt werden (sin a = tan a = a, cos a = 1). In einem kleinen Bereich (ca. < +/-3 Grad) können dadurch lineare Funktionen zur Beschreibung genutzt werden. Die Optik des Paraxialgebietes wird auch Gaußsche Optik oder kollineare Abbildung genannt. Die Nutzung des achsnahen Bereiches stellt eine Vereinfachung der optischen Beziehungen dar, so dass umkehrbar eindeutige Beziehungen zwischen Objekt und Bild genutzt werden können. Für die Belange der industriellen Bildverarbeitung ist diese Betrachtungsweise für die weitaus meisten Fälle ausreichend. Active X Programmierschnittstelle, über die andere Anwenderprogramme auf Daten von ➚PC-basierten Bildverarbeitungssystemen unter Windows® zugreifen können. Adaptation Fähigkeit des menschlichen Auges, sich in seiner Empfindlichkeit an die Leuchtdichte der Objekte anzupassen. Das betrifft einen Bereich von 1012cd. Adaptive Beleuchtung ➚Strukturierte Beleuchtung, die ein individuell konfigurierbares Helligkeitsmuster zulässt. Als ➚Lichtquellen sind dazu ausschließlich ➚LEDs geeignet. Durch die Einstellung von Helligkeitsmustern lassen sich adaptive Beleuchtungen intelligent an Bildverarbeitungsaufgaben anpassen. Einzelne LEDs oder LED-Gruppen werden durch die integrierte Elektronik separat angesteuert. Das betrifft Helligkeit und Zeitdauer. Blitz-Modus und statischer Modus werden durch ein und dieselbe Beleuchtung realisiert (Triggerung über digitale oder serielle Schnittstelle) Der Zugriff auf adaptive Beleuchtungen kann über verschiedene ➚Schnittstellen erfolgen: ➚Digitale Ein-/Ausgänge, ➚RS-232, ➚Ethernet, ➚USB, ➚Profibus. Mit adaptiven Beleuchtungen können störende Reflexe verhindert werden oder Bildbereiche objektspezifisch hervorgehoben werden. Sie sind ein Teil der ➚Bildvorverarbeitung durch Licht. ADC Analogue Digital Converter ➚Analog-Digital-Umsetzer Additive Farbmischung ➚Farbmischung ADU ➚Analog Digital Umsetzer AES ➚Automatic Electronic Shutter AF ➚Auto-Fokus-Objektiv Afokal Optisches System mit unendlich großer Brennweite, z.B. Ferngläser, Zielfernrohre. AGC ➚Automatic Gain Control. AIA American Imaging Association. Bildverarbeitungsvereinigung für die Industrie in den USA. www.machinevisiononline.org Airy-Scheibchen Zentrales Maximum der Energieverteilung bei ➚Beugung an einer kreisförmigen Öffnung. 3 A Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 4 Akkommodation A Das Airy-Scheibchen ist durch den ersten dunklen Ring im Beugungsmuster begrenzt. Bedeutung hat das AiryScheibchen für die Beschreibung der maximalen ➚Auflösung eines optischen Systems. Sein Durchmesser beträgt D = 2,44 λ − k λ = Wellenlänge k = Blendenzahl Akkommodation Entfernungseinstellung des menschlichen Auges. Aktive Fläche ➚Lichtempfindliche Fläche Aktor, auch Stellglied, das in den Prozess eingreift. Typische Aktoren sind Magnetventile, Pneumatikzylinder, Sortierklappen u.Ä., können aber auch komplexerer Natur sein: Handhabungssysteme, Roboter. Aktoren können über Leistungsendstufen, eine ➚speicherprogrammierbare Steuerung oder direkt von Bildverbeitungssystemen angesteuert werden. Algorithmus ist eine Berechnungsvorschrift, die in ein Computerprogramm umgesetzt wurde. Algorithmen bilden die Grundlage der Bildverarbeitung. So beruhen z.B. die Filterung von Bildern und Segmentierung auf Algorithmen. Weiteres in DIN 19226. Aliasing ➚Unterabtastung American Society for Quality 1946 gegründete amerikanische Organisation, die sich mit der Förderung des Qualitätsbewusstsein befasst. www.asq.org Analog-Digital-Umsetzer, ADU. Setzt ➚Analogsignale in einer elektronischen Schaltung in ➚Digitalsignale um. Dieser Vorgang der ➚Digitalisierung analoger Signale ist zentraler Bestandteil von ➚Framegrabbern für Analogkameras. Das Bildsignal der Kamera wird durch die Digitalisierung in ein rechnerlesbares Format umgesetzt, das im ➚Bildspeicher abgelegt wird. Die Abtastfrequenz (➚Abtasttheorem) des ADU muss für die Bandbreite des ➚Videosignals groß genug sein. Generell gilt: je größer die ➚Bildpunktzahl des ➚Bildaufnehmers, desto höher die erforderliche Abtastfrequenz. Die ➚Digitalisierungstiefe des ADU bestimmt, wie viele verschiedene Helligkeitsstufen aufgelöst werden können. Analog-Digital-Wandler ➚Analog-Digital-Umsetzer Analogkamera Kamera, die Bilddaten über das ➚Videosignal als ➚Analogsignal ausgibt. Zur Verarbeitung der Bilddaten in einem Bildverarbeitungssystem muss das Videosignal über ein Kabel übertragen und im ➚Framegrabber digitalisiert werden. (s. auch Analog-DigitalUmsetzer) Analogsignal Signal, dessen Informationsparameter in beliebig feinen Abstufungen, im Rahmen der technischen Grenzen, vorkommen kann. Unendliche viele Signalzustände sind möglich. Die Speicherung und Verarbeitung von Analogsignalen ist schwierig, weshalb in der Automatisierungstechnik wie auch der Bildverarbeitung fast 4 ausschließlich digitale oder digitalisierte Analogsignale (➚Digitalisierung) verwendet werden. Analysator dient dem Nachweise der linearen ➚Polarisation. Anamorphotische Abbildung, nicht rotationssymmetrische Abbildung durch verschiedene ➚Abbildungsmaßstäbe in x- und y-Richtung. Das Verfahren nutzt ➚Zylinderlinsen zum Stauchen bzw. Strecken bei Aufnahme bzw. Wiedergabe. Die asymmetrische Abstrahlung von Laser-Dioden wird ebenfalls so kompensiert. Oft wird ein zentriertes optisches System mit einem anamorphotischen Vorsatz versehen (z.B. Breitwandkino mit 35 mm-Film). American National Standards Institute, amerikanische Organisation (Mitglied der ISO), die einheitliche Regelungen/Normen erstellt und deren Einhaltung überwacht. ANSI-Standards sind weltweit anerkannt. www.ansi.org Ansteuerschaltung ➚LED-Beleuchtungen Antastalgorithmus Mathematischer Algorithmus beim ➚Antasten zur Bestimmung des ➚Kantenortes. Gemäß dem ➚Kantenortskriterium werden für verschiedene Anwendungszwecke und verschieden geformte Kanten unterschiedliche Antastalgorithmen verwendet. Die Antastalgorithmen sind unterschiedlich empfindlich und zeitlich aufwendig. Verschiedene typische Algorithmen werden genutzt: Binärverfahren: Einfachstes Verfahren. Mit dem Parameter ➚Schwellwert wird vorgegeben, welche Pixel als dunkel (unterhalb des Schwellwertes) und welche als hell (oberhalb des Schwellwertes) definiert werden. Mit dem Schwellwert kann die Helligkeit im Bild angepasst werden. Eine robustere Version gegen Helligkeitsänderungen ist das Binärverfahren mit ➚dynamischem Schwellwert. ➚Störfilter werden genutzt. Vorteil: sehr schnell. Nachteile: sehr lichtabhängig, kein definierter Kantenort, keine 2D-Rauschunterdrückung, funktioniert nur hinreichend bei symmetrischer ➚Kantenform. Typische Kantengenauigkeit: +/- 1...2 Pixel. Anwendung: bei gutem Kontrast (mindestens 30% Grauwertunterschied, bei homogener Ausleuchtung, relativ sicher nur im Durchlicht, typisches Beispiel: Stanzteilerkennung im diffusen Durchlicht). Grauwertverfahren: Bei diesem Verfahren muss in einem festgelegt breiten ➚Kantenübergang (Parameter Unschärfe) ein bestimmter ➚Kontrast (Parameter Kontrast) auftreten, damit eine Kante erkannt wird. ➚Störfilter werden genutzt. Vorteile: schnell, wenig lichtempfindlich, Nachteile: kein definierter Kantenort, keine 2D-Rauschunterdrückung, breite Kanten werden ungenauer er- Lexikon der industriellen Bildverarbeitung Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 5 Antaststrahl kannt, typische Kantengenauigkeit: +/- 1 Pixel. Anwendung: auch im Auflicht. Typisches Beispiel: Oberflächenkontrolle. Grauwertverfahren mit Subpixel: Enthält aufeinanderfolgende Prozesse: 1.) Grauwertverfahren (s.o.), 2.) Feinanalyse der unter 1. gefundenen Kante mittels ➚Subpixel-Antastung. Dabei werden drei Bereiche untersucht: die dunkle Zone, der Kantenübergang, die helle Zone. Zur Genauigkeitssteigerung und Mittelung von Kantenstörungen werden mehrere ➚Antaststrahlen nebeneinander genutzt (Parameter Breite). Vorteil: Sehr wiederholgenau: real 1/3 bis 1/10 Pixel (➚Interpolationsfaktor). Nachteil: braucht etwas mehr Zeit als das Grauwertverfahren, Störunterdrückung nur zum Teil möglich. Anwendung: besonders für präzise Messungen im Durchlicht und beim ➚telezentrischen Messen. Typisches Beispiel: Präzisionsmessungen von Drehteilen. Bemerkung: Die erreichbaren Genauigkeiten hängen stark vom Gesamtmessystem (Optik, Objekt, Beleuchtung, Kamera, Framegrabber, Algorithmus, etc.) ab. Gradientenverfahren: das Standardverfahren in industriellen Prozessen. Sucht nach der ersten Kante, die dem eingestellten Parameter „Gradientenschwelle“ genügt, also dem ersten genügend steilen Grauwertanstieg. Zur Genauigkeitssteigerung und Mittelung von Kantenstörungen werden mehrere ➚Antaststrahlen nebeneinander genutzt (Parameter Breite). Vorteil: sehr geringe Beleuchtungsabhängigkeit, gute 2D-Störunterdrückung, große Antastsicherheit bei guter Genauigkeit, ➚Kontrast hat so gut wie keinen Einfluss, arbeitet schneller als Faltungsverfahren, typische Kantengenauigkeit: +/- 1 Pixel. Nachteil: durch Nutzung der 2D-Störunterdrückung etwas langsamer als das Grauwertverfahren. Anwendung: für scharfe Kanten, sowohl im Durchlicht als auch im Auflicht. Typisches Beispiel: für Teile mit stark wechselnden Teileeigenschaften. Gradientenverfahren mit maximalem Koeffizienten (Variante vom Gradientenverfahren) sucht im Gegensatz zum Gradientenverfahren nach der Kante mit dem größten Gradienten. Typisches Beispiel: Vermessung von Glühwendeln in Glaskolben. Faltungsverfahren: arbeitet ähnlich wie das Gradientenverfahren (s.o.), jedoch mit zweidimensionaler Spektralanalyse. Vorteile: 2D-Rauschunterdrückung, sehr störlichtunabhängig, Kontrast hat so gut wie keinen Einfluss, selbst unter ungünstigen Bedingungen auf +/-1 Pixel genau. Anwendung: für unscharfe Kanten, für breite, flache Kanten, gut auch im Auflicht anzuwenden. Typisches Beispiel: Formkontrolle an Spritzgussteilen. Faltungsverfahren mit maximalem Koeffizient. Sonderfall des Faltungsverfahrens: Sucht nach der kontrastreichsten Kante. Vorteile: 2D-Rauschunterdrückung, sehr störlich- Lexikon der industriellen Bildverarbeitung tunabhängig, selbst unter ungünstigen Bedingungen auf +/- 0,5 Pixel genau. Typisches Beispiel: Analyse unscharfer Bilder. Antastbreite Zur Verbesserung der Robustheit und statistischen Sicherheit beim ➚Antasten werden mehrere parallele ➚Antaststrahlen in ➚Antastrichtung zur Ermittlung des ➚Kantenortes genutzt. Die Anzahl der parallel liegenden Antaststrahlen ist die Antastbreite (angegeben in Pixeln). Antasten, auch Kantenerkennung, Kantendetektion. Übertragung eines Begriffes aus der berührenden Messtechnik auf die berührungslose Messtechnik. Berührungsloses Antasten ist die Suche nach einem Strukturübergang in einem ortsaufgelösten Bild. In der Bildverarbeitung werden Bilder mit Helligkeitsunterschieden (➚Grauwertdifferenzen, ➚Farbdifferenzen) untersucht. Das Antasten erfolgt entlang eines oder mehrerer ➚Antaststrahlen mittels ➚Antastalgorithmen. Der Ort, an dem die ➚Kante gemäß des ➚Kantenortkriteriums detektiert wurde, ist der ➚Kantenort. Grundproblem: Die Übertragung des Begriffes „Antasten“ aus der berührenden auf die berührungslose Messtechnik stellt ein Grundproblem der Bildverarbeitung hinsichtlich der Vergleichbarkeit von Ergebnissen unterschiedlicher Messverfahren dar. Praktische Tipps zum Antasten: kurze Antaststrahlen nutzen, so ist die Rechenzeit kürzer. Eine zweistufige Vorgehensweise nutzen: 1.) Finden der Kante mit einem robusten Algorithmus (z.B. Gradientenverfahren). 2.) Feinanalyse mit sehr kurzen Antaststrahlen, z.B. durch Grauwertverfahren mit Subpixeling. Antastparameter Parameter für die ➚Antastalgorithmen, die einen direkten Einfluss auf den ermittelten ➚Kantenort haben. Die Wahl und Optimierung der Antastparameter bestimmt in hohem Maße die Zuverlässigkeit und ➚Genauigkeit der Antastung unter wechselnden Bedingungen, wie sie im Industriealltag typisch sind. Antastparameter sind: gewählter ➚Antastalgorithmus, Start-/Endkoordinaten des ➚Antaststrahles, ➚Antastbreite, Art des ➚Kantenüberganges, ➚Störfilter, zulässige ➚Unschärfe, Mindestkontrast, Parameter für die abzulegenden Ergebnisse (Koordinaten, Kantenrichtung). Durch Einstellung der Antastparameter kann sich auf die zu erwartende ➚Kantenform eingestellt werden und eine geringe ➚Antastunsicherheit hergestellt werden. Antastrichtung ➚Kantenrichtung Antaststrahl, auch Antastpfeil, Suchpfeil, Suchstrahl. Der Antaststrahl beschreibt die Richtung, in der ein ➚Kantenübergang untersucht wird. In Richtung des Antaststrahles werden die ➚Antastalgorithmen abgearbeitet. Die Richtung des Antaststrahles (Antastrichtung) bestimmt die einzustellenden ➚Antastparameter ➚„Kan- 5 A Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 6 Antastunsicherheit A tenrichtung“ und „Start- und Endkoordinaten“. (s. auch Antastbreite) Antastunsicherheit Die auf das ➚Antasten bezogene ➚Messunsicherheit. Antastunsicherheiten wirken sich nicht nur hinsichtlich der Messergebnisse aus, sondern können auch bei nichtmaßlichem ➚Prüfen die Funktion einer gesamten Anlage in Frage stellen. Die Antastunsicherheit lässt sich durch Optimieren der ➚Antastparameter verkleinern. Diese Optimierung ist wesentlicher Bestandteil der Inbetriebnahme von Anlagen mit Bildverarbeitung. Antastverfahren ➚Antastalgorithmus Antireflex-Schicht ➚reflexionsmindernde Schichten. Anwesenheitskontrolle Vorgang des nichtmaßlichen ➚Prüfens. Typischer Anwendungsfall der Bildverarbeitung, bei dem auf Vorhandensein/Nichtvorhandensein von Merkmalen des ➚Prüfobjektes geprüft wird. Anzeigeseite Die auf einem Monitor dargestellte ➚Bildspeicherseite. AOI 1.) area of interest ➚Prüffenster 2.) Automatical Optical Inspection: Automatische optische Inspektion. Aus der Elektroniktechnologie stammende Technik zur Bestückungskontrolle von Leiterplatten in einem fertigungstechnisch frühen Stadium. Apertur ➚Öffnung Aperturblende ➚Öffnungsblende AR-Beschichtung Antireflex-Beschichtung, ➚reflexionsmindernde Schichten Arbeitsabstand Abk. WD (working distance). Abstand zwischen dem ➚Prüfobjekt und der ersten Körperkante des optischen Systems aus Richtung des Prüfobjektes. Er wird als praxisbezogenes Maß für ➚Objektive in der Bildverarbeitung angegeben. Eingefügte optische Bauteile (z.B. ➚Filter und ➚Schutzgläser), ➚Prismenvorsätze und mechanische Zubehörteile müssen mit eingerechnet werden (Vergrößerung der ➚optischen Weglänge). Der Arbeitsabstand ist abhängig vom: ➚Abbildungsmaßstab, ➚Brennweite, Objektivtyp. ➚Telezentrische Objektive haben meist einen fest eingestellten Arbeitsabstand. Einfluss der ➚Beleuchtungswellenlänge: durch ➚Dispersion kommt es zu veränderten Arbeitsabständen. Für Machine Vision ist ein möglichst großer Arbeitsabstand der Objektive von Bedeutung, um einen freien Eingriff für Handhabungsgeräte, Zuführeinheiten oder Roboter zu ermöglichen. (s. auch Objektabstand, Auflagenmaß) Arbeitsbereich ➚Prüffenster Area of Interest ➚Prüffenster Artefakte sind ➚Objekte im Bild, die nicht real in der aufgenommenen ➚Szene existieren, sondern erst durch Fehler in der ➚Bildaufnahme (➚Abbildungsfehler, ➚Aliasing, begrenzte ➚Grauwertauflösung) oder -verarbeitung u.a. entstanden sind. 6 ASA American Standards Association. Vorgängervereinigung des ➚ANSI. Von der ASA wurde u.a. die Empfindlichkeit von Filmen und CCD-Sensoren definiert. ASCII American Standard Code for Information Interchange. Codierung von Zeichendarstellung für die Datenverarbeitung und -übertragung. Mit 7 bit können 128 Zeichen (Groß-/Kleinbuchstaben und Sonder-, Steuerzeichen) dargestellt werden. Erweiterte Version mit 8 bit (256 Zeichen) möglich. Wird von Bildverarbeitungssystemen u.a. benutzt zur Übergabe diskreter Ergebnisse. aspect ratio ➚Seitenverhältnis asphärische Linse ➚Linsenform ASQ ➚American Society for Quality Astigmatismus auch Zweischalenfehler. ➚Abbildungsfehler, der bei der Abbildung von schief in das ➚Objektiv eintretenden ➚Strahlenbündeln auftritt. Beispielsweise wird ein kreuzförmiges ➚Prüfobjekt, das astigmatismusbehaftet abgebildet wird, in zwei verschieden weit entfernte ➚Bildebenen abgebildet. Das heißt: der waagerechte „Balken“ des Kreuzes erscheint in einer, der senkrechte „Balken“ des Kreuzes in einer anderen Ebene scharf. In einer Bildauffangebene bewirkt der Astigmatismus eine unscharfe Abbildung. Astigmatismus entsteht auch beim Einfügen von ➚planparallelen Platten (Lichtfilter, Schutzgläser, rückverspiegelte Planspiegel, Prismen) in konvergente Strahlengänge. Asymmetriefelder ➚Koma Asynchron blitzen ist ein triggergesteuerter Bildaufnahmebefehl. Die ➚Bildaufnahme beginnt sofort nach der Triggerung, wogegen das Triggersignal für die Blitzbeleuchtung erst nach einer einstellbaren Verzögerungszeit ausgegeben wird. (s. auch Blitzsynchronisation) Asynchrone Bildaufnahme bedeutet, dass die ➚Bildaufnahme in der Kamera zu jedem beliebigen Zeitpunkt (asynchron zum Videotakt) durch einen externen Triggerimpuls gestartet werden kann. Das setzt im Gegensatz zur synchronen Bildaufnahme, die nach einem von der Kamera vorgegeben festen Bildraster arbeitet und zu bekannten Zeitpunkten Bilder liefert, einerseits einen ➚Framegrabber voraus, der die asynchrone Bildaufnahme startet, andererseits eine start/restart-fähige Kamera (➚Progressive Scan). Wird meist zusammen mit ➚asynchron blitzen verwendet. Asynchrone Bildaufnahme wird zur Aufnahme schnell laufender Prüfobjekte sowie bei unregelmäßig erscheinenden Objekten genutzt, z.B. in der Verpackungs-, Stanz- oder Lebensmittelindustrie. Attributive Prüfung Vorgang des nichtmaßlichen ➚Prüfens. Typischer Anwendungsfall der Bildverarbeitung, bei dem auf den Grad der Ausprägung von ➚Merkmalen des ➚Prüfobjektes geprüft wird. Auflagemaß bezeichnet bei Kameras die Entfernung zwischen der ➚Bildebene (Lage der lichtempfindlichen Lexikon der industriellen Bildverarbeitung Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 7 Ausbreitungsgeschwindigkeit Schicht des ➚Bildaufnehmers) und der ➚Objektivanlagefläche. Das Auflagemaß ist eine ➚optische Weglänge, d.h. die durch das Deckglas des Sensorchips verursachte ➚optische Wegdifferenz geht in das Auflagemaß mit ein. Bei ➚C-Mount-Kameras beträgt das Auflagemaß 17,526 mm, bei ➚CS-Mount-Kameras 12,526 mm. Es wird zusammen mit dem ➚Objektivanschluss angegeben. Das Auflagemaß ist ein empfindlicher optischer Parameter. Schon kleine Abweichungen haben große Wirkung auf die Änderung der ➚Objektweite/des ➚Arbeitsabstandes. Ist das Auflagenmaß zu klein, erscheint das Objekt näher, als es die Angabe auf dem Entfernungseinstellring des Objektivs angibt, ein Ausgleich ist möglich. Ist das Auflagenmaß zu gross kann u.U. nicht scharf abgebildet werden (wirkt wie ein eingefügter ➚Zwischenring). Hinweis: Das Entfernen eines ➚Infrarotsperrfilters aus der Kamera wirkt wie eine Verkleinerung des Auflagenmaßes. Auflichtbeleuchtung Beleuchtungsrichtung, bei dem die Beleuchtung im Halbraum vor der Objektebene liegt, in dem sich auch das Abbildungssystem befindet. Anwendungen u.a. in der Robotik, Verpackungsindustrie, ➚Prüfobjekte auf Transportbändern. Auflichtbeleuchtung benötigt i.A. diffus reflektierende Objekte. Große Leuchtflächen sorgen bei Auflichtbeleuchtung für gleichmäßige Helligkeit. Grenzen der Auflichtbeleuchtung: Die Abbildungsqualität bei Auflichtbeleuchtung ist sehr stark von den Eigenschaften der ➚Prüfobjekte abhängig. Poröse Oberfläche, ausgerissene Objektkanten, verrundete Objektkanten, unterschiedlicher Reflexionsgrad, Verschmutzungen beeinflussen direkt die Messgenauigkeit. Die erreichbaren Messgenauigkeiten liegen im Bereich von mehreren Pixeln (vgl. auch VDI-Richtlinie 2617, Bl. 6.1, S. 10). Typische Beipiele für Auflichtbeleuchtungskomponenten sind: Ringlichter, Halogenstrahler, Leuchtstofflampenbeleuchtungen. Auflösung ➚Auflösungsvermögen ➚Grauwertauflösung Auflösungsvermögen 1.) Ortsauflösungsvermögen, vgl. ➚Grauwertauflösung. Das Auflösungsvermögen beschreibt die Unterscheidbarkeit feiner Objektstrukturen. Begrenzt wird das Auflösungsvermögen durch die Struktur des ➚Bildaufnehmers, die ➚beugungsbegrenzte Abbildung des Objektivs und die ➚Abbildungsfehler. Beim optischen Auflösungsvermögen müssen zwei getrennte benachbarte Objekte einzeln abgebildet werden. Der Abstand x für zwei deutlich auflösbarer Punkte (➚Kontrast 14%) ist: für entozentrische Objektive = WD · tan (1,22 · λ · k/f); für telezentrische und Mikroskopobjektive: Y’min = 0,61 λ/NA. λ = Beleuchtungswellenlänge, k = Blendenzahl, f = Lexikon der industriellen Bildverarbeitung Brennweite, NA = numerische Apertur, WD = Arbeitsabstand. Schlussfolgerungen: Für möglichst gut auswertbare Details mit Bildverarbeitung sind ➚Abbildungsmaßstäbe > = 5 zu nutzen. ➚Leere Vergrößerung tritt bei sichtbarem Licht für Abbildungsmaßstäbe > 10 auf. Kurze ➚Beleuchtungswellenlänge (blaues Licht) erhöht das Auflösungsvermögen (bei mikroskopischer Abbildung). Große numerische Apertur oder weit geöffnete Blende erhöht das Auflösungsvermögen, steht aber einer großen ➚Schärfentiefe entgegen. 2.) Bezogen auf den ➚Bildaufnehmer bedeutet Auflösungsvermögen das durch die ➚Pixelgröße begrenzte Vermögen, Details abzubilden (➚Abtasttheorem). Das Auflösungsvermögen eines Bildaufnehmers kann in horizontaler und vertikaler Richtung verschieden sein, wenn die Pixel nicht quadratisch sind. Je größer die ➚Bildpunktauflösung eines Bildaufnehmers (größere Bildpunktzahl), desto besser ist sein Auflösungsvermögen. Das Auflösungsvermögen eines Bildaufnehmers beträgt unter Beachtung des Abtasttheorems: ➚Bildpunktauflösung/2 In das Gesamtauflösungsvermögen einer Anlage mit Bildverarbeitung gehen die Einzelauflösungsvermögen ein von: Beleuchtung, Optik, Bildaufnehmer, Kameraelektronik, Framegrabber, Software, Mechanik (➚Genauigkeit einer Bildverarbeitungsanlage) 3.) Das Auflösungsvermögen eines Sensors für Helligkeiten wird durch das ➚Grauwertauflösungsvermögen, ➚Farbauflösungsvermögen beschrieben. Augenempfindlichkeit ➚V-Lambda-Kurve Augenschutz Sichtbare, energiereiche Strahlung (z.B. durch Laser) schädigt das menschliche Auge (➚Laserklassen). Daher müssen Schutzmaßnahmen ergriffen werden (siehe EN 60825). Aber auch nicht sichtbare Strahlung (➚infrarotes Licht und ➚ultraviolettes Licht) schädigt, wenn sie in hoher Leistung auftritt, da der Schutzmechanismus des Schließens der Iris sowie der Augenlider wegen der fehlenden Wahrnehmung nicht funktioniert. In vielen Anwendungen der industriellen Bildverarbeitung, die von störendem Tages-, Sonnenoder Hallenlicht unabhängig gemacht werden sollen, wird mit ➚infrarotem Licht gearbeitet. Wegen der immer leistungsfähiger werdenden ➚Lichtquellen (auch LEDs) muss die Euronorm EN 171 beachtet werden. Ausbreitungsgeschwindigkeit Die höchste Ausbreitungsgeschwindigkeit hat Licht im Vakuum mit < 300.000 km/s. Ähnlich in Luft. Entsprechend der ➚Brechzahl breitet sich Licht in allen anderen Medien langsamer aus. Auf Grund verschiedener materialspezifischer Ausbreitungsgeschwindigkeit des Lichtes kommt es zur ➚Brechung. (s. auch optische Weglänge) 7 A Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 8 Ausgleichsgerade A B Ausgleichsgerade ➚Bestgerade Ausgleichskreis ➚Bestkreis Ausrichtung beschreibt die Lage und Drehlage von Prüfobjekten. In vielen Fällen kann auf die Ausrichtung der Prüfobjekte kein Einfluss genommen werden, da sie von Handhabungs- und Transportsystemen vorgegeben ist. In diesen Fällen muss durch entsprechende invariante Anordnungen (Einsatz ➚telezentrischer Objektive, kontrast- und ➚kantenformunabhängiger ➚Antastalgorithmen, ➚Lage- und ➚Drehlagenachführung u.a.) eine möglichst große Unabhängigkeit der Prüfung von der Teileausrichtung erreicht werden. (s. auch Justierung) Ausrichtung telezentrischer Systeme ➚Justierung Austrittspupille Bild der ➚Öffnungsblende, das von der optischen Achse vom Bildaufnehmer aus sichtbar ist. Auto-Fokus-Objektiv Objektiv, die die ➚Einstellentfernung automatisch nachregelt. Die zur Entfernungsmessung notwendige Sensorik reicht von einfachen Fototransistoren bis hin zu Bildverarbeitung (➚Fokustest). Auto-Fokus-Objektive werden in der industriellen Bildverarbeitung nur selten genutzt, da durch die variable Einstellentfernung keine definierten Verhältnisse bezüglich des ➚Abbildungsmaßstabes und der ➚Schärfentiefe vorliegen. Auto-Iris-Objektiv Objektiv mit Nachführung der ➚Blende. Über einen lichtempfindlichen Sensor (im Objektiv integriert oder Nutzung des ➚Bildaufnehmers der angeschlossenen Kamera mit Rückführung des Helligkeitssignals) wird die Blendenöffnung automatisch gesteuert. Auto-Iris-Objektive werden häufig in der Sicherheitstechnik angewendet, wo es darauf ankommt, unter verschiedensten Helligkeitsverhältnissen gleich helle Bilder zu erhalten. Für die industrielle Bildverarbeitung sind Auto-Iris-Objektive ungeeignet, da sich durch variierende Blende auch die ➚Schärfentiefe ändert und damit keine konstanten Verhältnisse im Bild vorliegen. Auto White Balance Automatischer Weißabgleich. ➚Weißabgleich Automatic Electronic Shutter Automatische Steuerung der ➚Integrationszeit eines CCD-Bildaufnehmers/-Kamera. AES wird bei Kameras in der Sicherheitstechnik oft verwendet, um sie an wechselnde Helligkeiten anzupassen. In der industriellen Bildverarbeitung ist AES nicht zu empfehlen, da sich durch die variable Integrationszeit die ➚Bewegungsunschärfe ändern kann. (s. auch Shutter) Automatic Gain Control AGC: Automatische Verstärkungsregelung für einen konstanten Videoausgangspegel, unabhängig vom Eingangssignal des ➚Bildaufnehmers. Bei schwankender Beleuchtung sorgt AGC für gleichbleibende Helligkeit und regelt die Verstärkung des Videosignales innerhalb des Regelbereiches. Aus 8 den Anforderungen der Sicherheitstechnik entstanden, ist die automatische Verstärkungsregelung für die Bildverarbeitung nicht geeignet, da sie alle Bilder auf einen gleichen mittleren ➚Grauwert anhebt. Für die Bildverarbeitung muss AGC ausgeschaltet und mit festen Verstärkungen gearbeitet werden. AWB Auto White Balance. Automatischer ➚Weißabgleich B Bahnsteuerung Continuous Path Control, Steuerungsart von ➚Computerized Numerical Control. Die Bewegung wird entlang einer durch eine Funktion vorgegebenen Kurve durchgeführt. Häufiger Einsatz in Industrierobotern, Brennschneid-, Dreh-, Fräsmaschinen. Vgl. Punktsteuerung. Bandpassfilter Filter, das nur für eine bestimmten schmalen Wellenlängenbereich eine maximale Durchlässigkeit (➚Transmissionsgrad) aufweist. Wird wesentlich charakterisiert durch Mittenwellenlänge (Wellenlänge bester Durchlässigkeit) und ➚Halbwertsbreite (Abfall auf 50% der maximalen ➚Transmission). Meist durch ➚Interferenzfilter realisiert. Bandpassfilter müssen hinsichtlich ihrer Mittenwellenlänge sehr genau auf die eingesetzte Beleuchtung abgestimmt werden. Mit ihnen lässt sich die beste Unterdrückung von ➚Fremdlicht erreichen. Bar-Code Eindimensionaler Code aus schmalen/breiten Strichen und Lücken zur Darstellung alphanumerischer Zeichen. Verschiedenste Codes werden verwendet: EAN (EAN13: Lebensmittel, Bücher, Zeitschriften. Besteht aus Balken und Zwischenräumen in vier verschiedenen Breiten, u.U. schwierig zu lesen; EAN8: kosmetische Produkte), CODABAR (Medizin-/Klinikbereich), PZN (Medikamente), Code 2/5 (zwei verschiedene Breiten von Balken und Zwischenräumen, auch unter ungünstigen Bedingungen gut zu lesen), Code 39 (geringe Informationsdichte, da auch Buchstaben darstellbar sind). Die Ablesung erfolgt meist mit Laserscannern, da die Auflösung von CCD- oder CMOS-Kameras i.A. zu gering ist. Das Lesen mit Bildverarbeitung ist sinnvoll, wenn das Bar-Code-Lesen in komplexe Aufgabenstellungen integriert ist oder bei Nutzung spezieller oder speziell angeordneter Codes (ringförmige oder deformierte Codes). www.ean.de BAS-Signal Bild-Austast-Synchron-Signal. ➚Videosignal Baudrate Einheit für die Schrittgeschwindigkeit der Datenübertragung. Wird pro Schritt ein bit übertragen, ist die Baudrate gleich der Übertragungsrate in bit/s. Bei der Datenfernübertragung können mehrere bit/Schritt Lexikon der industriellen Bildverarbeitung Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 9 Beleuchtungsrichtung übertragen werden, weshalb dabei Baudrate und Übertragungsrate nicht gleichzusetzen sind. Allgemein übliche Stufung: 300, 1200, 2400, 4800, 9600 etc. (jeweils Verdopplung) Bearbeitungsseite ➚Bildspeicherseite, auf der aktuell die Bildverarbeitungsalgorithmen ausgeführt werden Bedienoberfläche, auch Benutzeroberfläche. Schnittstelle zwischen der elementaren Funktionalität eines Bildverarbeitungssystems und der Bedienung durch den Bildverarbeitungsanwender. Die Nutzerfeundlichkeit moderner Bedienoberflächen zeichnet sich durch Intuitivität, die Möglichkeit, die Bildverarbeitungsfunktionen sofort online zu testen, grafische Bedienerführung und Parametrierung statt Programmierung aus. Bekannte Bedienoberflächen für die industrielle Bildverarbeitung sind u.a.: Spreadsheet, VCWin, Framework. Bedingter Sprung Element strukturierter Prüfprogrammgestaltung. Bedingte Sprünge in Bildverarbeitungssystemen nehmen auf das Ergebnis vorhergehender Befehle Bezug. So kann nach erfolgreichen oder fehlgeschlagenen Einzelbefehlen oder nach erfolgreichen oder fehlgeschlagenen ➚Bedingungsblöcken an andere Prüfprogrammstellen gesprungen werden. Bedingte Sprünge sind effektive Funktionen, Bildverarbeitungsanwenderprogramme flexibel zu machen. Bedingungsblock Bedingungsblöcke fassen die Ergebnisse der Ausführung aller im Bedingungsblock vereinigten Befehle durch eine UND-Verknüpfung zusammen. War die Ausführung aller Befehle im Bedingungsblock fehlerfrei, so gilt der ganze Bedingungsblock als fehlerfrei. War nur ein Befehl im Bedingungsblock fehlerbehaftet, so gilt der ganze Bedingungsblock als fehlgeschlagen. Beleuchtung mit Kameradurchblick Spezielle Form einer ➚Auflichtbeleuchtung. Eine großflächige ➚Flächenbeleuchtung hat in ihrem Zentrum einen Durchbruch, durch den das Objektiv Durchblick durch die Beleuchtung hat. Das ermöglicht eine großflächige und gleichmäßige Ausleuchtung aus Kamerarichtung, auch bei leicht gewölbten und diffus reflektierenden Teilen. Anwendungen u.a. in der Robotik (am Greifer) sowie in der Verpackungsindustrie. Beleuchtungsabstand ist der Abstand zwischen dem ➚Prüfobjekt und der ➚Lichtaustrittsfläche der Beleuchtung. Bei der ➚Auflichtbeleuchtung bestimmt der Beleuchtungsabstand bestimmt in starkem Maße die Helligkeit des Kamerabildes durch das Wirken des ➚fotometrischen Entfernungsgesetzes. Aus diesem Grund sollte die Beleuchtung so dicht wie möglich an das Prüfobjekt herangebracht werden. Bei der ➚Durchlichtbeleuchtung spielt der Beleuchtungsabstand durch die konstante ➚Leuchtdichte eine geringere Rolle. Dennoch sollte der Beleuchtungsab- Lexikon der industriellen Bildverarbeitung stand möglichst mehr als 3 mal so groß wie der ➚Schärfentiefebereich sein, damit Schmutz auf der Beleuchtung nicht abgebildet wird. (s. auch Beleuchtungsrichtung, Beleuchtungswinkel) Beleuchtungsapertur ist ein Maß für den zur Beleuchtung genutzten Öffnungswinkel. Somit haben ➚diffuse Beleuchtungen große Beleuchtungsaperturen, ➚gerichtete Beleuchtungen kleine und ➚telezentrische Beleuchtungen besonders kleine Beleuchtungsaperturen. ➚Dunkelfeldbeleuchtungen haben eine Beleuchtungsapertur in Form eines Hohlkegels. Hier wird hier die Beleuchtungsapertur durch die innere und äußere Apertur angegeben. Beleuchtungseigenschaften Neben einer Vielzahl möglicher Eigenschaften, die Beleuchtungen charakterisieren können, sind in der Bildverarbeitung die gebräuchlichsten: a) Eigenschaften des verwendeten Lichtes: Lichtausbreitungsrichtung (diffus, gerichtet, telezentrisch, parallel); örtliche Homogenität (Gleichmäßigkeit, Struktur); zeitliche Homogenität (Modulation, Blitz, statisch); ➚Wellenlänge (UV, VIS, IR); ➚Kohärenzgrad; Leistung (➚Lichtenergie); ➚Polarisation; b) Herkunftsrichtung des Lichtes: ➚Auflicht; ➚Durchlicht; c) Eigenschaften des beleuchteten Feldes: ➚Hellfeldbeleuchtung; ➚Dunkelfeldbeleuchtung Beleuchtungsprofil ➚Beleuchtungsstärkeverteilung Beleuchtungsregelung Regelung von Beleuchtungsparametern (Konstanz der emittierten ➚Wellenlänge, zeitliche Konstanz der Lichtemission (➚Blitzlänge, ➚Lichtstärke)). Wird meist zum Konstanthalten der ➚Beleuchtungsstärke auf dem ➚Prüfobjekt und ➚Bildaufnehmer angewendet. ➚LED-Beleuchtungen ermöglichen durch ihre einfache elektrische Ansteuerbarkeit in idealer Weise die Beleuchtungsregelung. In ihren ➚Ansteuerschaltungen sind verschiedenste Möglichkeiten dazu vorgesehen. Die Motivationen für eine Regelung der Helligkeit einer Beleuchtung können verschieden sein. Es lassen sich: die Helligkeitsdrift durch Alterung der Beleuchtung kompensieren; die Helligkeitsdrift durch Erwärmung der Beleuchtung kompensieren; verschiedene ➚Prüfobjekte durch Anpassung der Beleuchtungsparameter mit ein und derselben Beleuchtung prüfen; komplexe Beleuchtungsszenarien mit mehreren in ihrer Helligkeit und Leuchtdauer (auch Blitzbetrieb) aufeinander abgestimmten Beleuchtungen realisieren. (s. auch adaptive Beleuchtung) Beleuchtungsrichtung lässt sich in zwei grundsätzliche Richtungen aufteilen, die durch die ➚Objektebene voneinander getrennt sind: Beleuchtung aus Richtung der Kamera: ➚Auflichtbeleuchtung; Beleuchtung aus Richtung hinter der Objektebene: ➚Durchlichtbeleuchtung 9 B Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 10 Beleuchtungsstärke B Beleuchtungsstärke Lichttechnische Größe, Formelzeichen E. Die durch die Augenempfindlichkeit (➚V-Lambda-Kurve) bewertete Bestrahlungsstärke. Die Beleuchtungsstärke beschreibt den ➚Lichtstrom, der auf eine beliebig ausgerichtete Fläche fällt. E = dϕ/dA Einheit in ➚Lumen [lm]/m2 = ➚Lux [lx] oder ➚Candela [cd] · ➚Steradiant [sr]/m2. Beleuchtungsstärke auf dem Bildaufnehmer Die ➚Leuchtdichte kann bei Abbildung durch ➚Objektive nicht vergrößert werden. Dagegen kann die ➚Beleuchtungsstärke beeinflusst werden: Für die Beleuchtungsstärke auf dem Sensor gilt in Näherung: E = Eob · ρ · τ/(4 · k2 · [1 - ß’2]) mit k = ➚Blendenzahl τ = ➚Transmissionsgrad beim Lichtdurchgang durch das Objektiv (τ ≈ 0,9) ρ = ➚Reflexionsgrad des ➚Prüfobjektes Eob = ➚Beleuchtungsstärke auf dem Prüfobjekt ß’ = ➚Abbildungsmaßstab (ß’ < 0!) Diese Angaben gelten nur in der Bildmitte, zusätzlich ist die natürliche ➚Vignettierung zu berücksichtigen. Die Beleuchtungsstärke auf dem Bildaufnehmer ist genaugenommen von einer Reihe weiterer Faktoren abhängig: ➚Wellenlänge (spektrale Empfindlichkeit des Bildaufnehmers); Licht-einfallswinkel, (diffus, gerichtet, telezentrisch, strukturiert); ➚Beleuchtungsstärke der Lichtquelle; ➚Reflexions-, ➚Absorptions-, ➚Transmissionsgrad des Objekts; Reflexions-, Absorptions-, Transmissionsgrad des Objektivs, Verwendung von ➚Lichtfiltern Beleuchtungsstärkediagramm ➚Beleuchtungsstärkeverteilung Beleuchtungsstärketest, auch Luxwerttest. Komplexer Befehl zur Ermittlung der ➚Beleuchtungsstärkeverteilung einer beleuchteten Fläche. Wird u.a. zur Bewertung der Eigenschaften bei der Scheinwerferprüfung genutzt. Es können mittlere, minimale oder maximale ➚Beleuchtungsstärke ermittelt und bewertet werden. Für den Beleuchtungsstärketest ist eine ➚Kalibrierung des Nennwertes der Beleuchtungsstärke mit einem ➚Lux-Meter notwendig. Dazu werden Korrekturfaktoren zur Berücksichtigung von ➚Filtern und Kameraempfindlichkeiten eingefügt. Beleuchtungsstärkeverteilung, auch Beleuchtungsprofil. Gibt die Verteilung der ➚Beleuchtungsstärke über die beleuchtete Fläche an, die von einer Beleuchtung hervorgerufen wird. Die gewünschte Verteilung kann je Anwendungsfall verschieden sein. a) zeitlich konstante Beleuchtungsstärkeverteilung. Kurzzeit- und Langzeitstabilität können Kriterien sein. b) örtlich homogene Beleuchtung, grafisch dargestellt mit dem Beleuchtungsstärkediagramm 10 c) definierte Verteilung der Beleuchtungsstärke: ➚strukturierte Beleuchtungen, ➚adaptive Beleuchtungen. Die praktische Beleuchtungsstärkeverteilung weicht von den Idealzuständen ab, z.B. durch prinzipbedingten Helligkeitsabfall zur Bildmitte bei ➚Dunkelfeldringlichtern; qualitätsbedingt durch den Einsatz von Low-cost-Objektiven und Beleuchtungen; falschen Einsatz von Beleuchtungen (➚Ringlicht bei glänzender Oberfläche). Weitere Einflussfaktoren für die auf dem ➚Bildaufnehmer erscheinende Beleuchtungsstärkeverteilung sind: der ➚Beleuchtungsabstand; der ➚Lichteinfallswinkel; die ➚Lichteinfallsrichtung; die natürliche ➚Vignettierung durch das Objektiv. Die Beleuchtungsstärkeverteilung von ➚Ringlichtern kann z.B. gezielt zur Korrektur der natürlichen Vignettierung genutzt werden. Beleuchtungstechniken Die Kombination der ➚Beleuchtungseigenschaften (Eigenschaft des Lichtes, Herkunftsrichtung des Lichtes und Eigenschaft des beleuchteten Feldes) ergibt eine Reihe von Kombinationsmöglichkeiten, die Beleuchtungstechniken (zu lesen v.u.n.o.): Auflichtbeleuchtung Durchlichtbeleuchtung Hellfeld Dunkelfeld Hellfeld Dunkelfeld diffus diffus diffus diffus gerichtet gerichtet gerichtet gerichtet (telezentrisch) telezentrisch – strukturiert – – – Beispiel für Bezeichnung einer Beleuchtungstechnik: gerichtete Dunkelfeld-Auflichtbeleuchtung Beleuchtungsverfahren ➚Beleuchtungstechnik Beleuchtungswellenlänge Für die Beleuchtung eines ➚Prüfobjektes/einer ➚Szene verwendete ➚Wellenlänge (Lichtfarbe). Je nach Teileeigenschaften des ➚Prüfobjektes treten Wechselwirkungen mit der Beleuchtungswellenlänge auf, wodurch Details des Prüfobjektes hervorgehoben oder unterdrückt werden können (➚Bildvorverarbeitung). Die Beleuchtungswellenlänge bestimmt, wie stark am Prüfobjekt ➚Absorption, ➚Transmission und ➚Reflexion stattfinden. Der gezielte Einsatz von Beleuchtungswellenlängen führt zu maximalem Kontrast (➚Komplementärfarbe). (s. auch Weißlicht) Beleuchtungswinkel ➚Lichteinfallswinkel Belichtung Belichtung (H) ist das Einwirken einer Beleuchtungsstärke (E) auf einen Bildaufnehmer über eine gewisse Zeit (t). H = ∫ E dt. Ziel der Belichtung ist es, ein ausreichend kontrastreiches (hell/dunkel), kein überbelichtetes und kein unterbelichtetes Bild zu erzielen. Um eine konstante Helligkeit in verschiedenen Bildern zu erreichen, muss die Belichtung konstant gehalten werden. Dazu gibt es zwei Möglichkeiten: a) die Zeit halbieren und die Beleuchtungsstärke verdoppeln; b) die Zeit verdoppeln und die Beleuchtungsstärke halbieren (kann zu ➚Bewegungsunschärfe führen). Lexikon der industriellen Bildverarbeitung Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 11 Bewegungsunschärfe Je nach Applikation kann im Vordergrund stehen: lange/kurze Belichtungszeit (statische/schnelle Prozesse); kleine/große Blendenzahl (kleine/große Schärfentiefe); oder beides. Belichtungszeit Zeit, für die der ➚Bildaufnehmer lichtempfindlich gemacht wird. Wird in industriellen Kameras elektronisch eingestellt. Für ➚CCDs auch ➚Integrationszeit. Benutzeroberfläche ➚Bedienoberfläche Berührungsloses Antasten Suche eines Strukturüberganges (Helligkeitsunterschiedes) entlang eines ➚Antaststrahles mit bildverarbeitenden Verfahren. Der ➚Kantenort wird dort gefunden, wo der Helligkeitsverlauf dem ➚Kantenortskriterium entspricht. (s. auch Antasten) Berührungsschutz ➚IP-Schutzklassen Beschreibungsgeometrie ➚Geometrieelemente Bestgerade Bildverarbeitungsfunktion zur Erzeugung einer bestmöglich in einen Toleranzschlauch eingepassten Gerade, die aus einer mit Bildverarbeitung gewonnenen Punktmenge oder aus ➚Konturen gebildet wird. Typisch dient die Verwendung der Funktion Bestgerade zum statistischen Ausgleich unregelmäßiger Körperkanten an ➚Prüfobjekten, die in ihrer Idealgeometrie gerade sind. Die Breite des gebildeten Toleranzschlauches gibt Auskunft über die Geradheit der von den beschreibenden Punkten ermittelten Gerade. Je mehr Punkte oder Konturen zur Ermittlung der Bestgerade genutzt werden, desto genauer die Bestgerade. Bestkreis Bildverarbeitungsfunktion zur Erzeugung eines bestmöglich in einen Toleranzschlauch eingepassten Kreises, der aus einer mit Bildverarbeitung gewonnenen Punktmenge gebildet wird. Typisch dient die Verwendung der Funktion Bestkreis zum statistischen Ausgleich ungleichmäßiger Körperkanten an ➚Prüfobjekten, die in ihrer Idealgeometrie rund sind. Die Breite des gebildeten Toleranzschlauches gibt Auskunft über die Rundheit des von den beschreibenden Punkten ermittelten Kreises. Je mehr Punkte oder Konturen zur Ermittlung des Bestkreises genutzt werden, desto genauer der Bestkreis. Mindestanzahl ist drei. Bestrahlungsstärke ➚Beleuchtungsstärke Beugung Durch die Wellennatur des Lichtes erklärbare Erscheinung, dass Licht beim Auftreffen auf eine Körperkante seine Ausbreitungsrichtung um die Kante herum in den eigentlich dunklen Bereich hinein ändert. Die Wellenflächennormale wird um die Objektkante gebeugt. Beugung wird nicht durch Brechung, Reflexion oder Streuung hervorgerufen, sondern durch die Wellennatur des Lichtes. An abgebildeten Objektkanten treten Beugungseffekte in Form von typischen Beugungsmustern auf. Je nach Form des Objektes können diese sehr verschieden sein (z.B. bei einer geraden Kante: Par- Lexikon der industriellen Bildverarbeitung allelen abnehmender Intensität). Die Größe der Beugungserscheinungen ist abhängig von der verwendeten ➚Wellenlänge. Ein Punkt wird bei Abbildung mit Beugung vergrößert zu D = 2,44 · λ · k (Durchmesser des sog. Airy-Scheibchens λ-Wellenlänge, k-Blendenzahl). Die Größe der Beugungserscheinung ist proportional zur verwendeten Wellenlänge. Beugung tritt nicht nur an Kanten des Objektes sondern auch an Fassungsbauteilen des Objektivs sowie an der Blende auf und führt zu Unschärfe (➚förderliche Blende, ➚beugungsbegrenztes Objektiv). Beugung begrenzt die ➚Auflösung durch Überlagerung von Beugungserscheinungen. So kommt es bei großen Abbildungsmaßstäben (>10) zur ➚leeren Vergrößerung. Beugungsmuster ändern die ➚Kantenform, was die Auswertbarkeit mit Bildverarbeitungsalgorithmen erschwert. Beugung wird in Beugungsgittern gezielt genutzt um Lichtstrukturen zu erzeugen, z.B. bei ➚Strahlformungsoptiken für Laser, zur ➚Triangulation oder beim ➚Lichtschnittverfahren. Beugungsbegrenztes Objektiv Ein abbildungsfehlerfreies Objektiv, das nur durch die ➚Beugung des Lichtes in seiner ➚Abbildungsgüte begrenzt ist (beugungsbegrenzte Abbildung). Hochwertige Objektive erreichen in ihrem Korrektionszustand die Beugungsbegrenztheit praktisch. Für die meisten Anwendungen der industriellen Bildverarbeitung sind durch die begrenzte ➚Bildpunktauflösung beugungsbegrenzte Objektive überdimensioniert. Beugungseffekt ➚Beugung Beugungserscheinung svw. Beugungseffekt, ➚Beugung Beugungsgitter Anordnung regelmäßiger, untereinander gleichartiger Elemente mit konstantem Abstand in der Größenordnung der Lichtwellenlänge. Entsprechend dem Funktionsprinzip kann das Beugungsgitter lichtdurchlässig (Transmissionsgitter), absorbierend (Absorptionsgitter) oder reflektieren (Reflexionsgitter) sein. Beugungsgitter werden u.a. in ➚Strahlformungsoptiken für ➚Diodenlaser genutzt. Beugungsmuster ➚Beugung Bewegungsunschärfe Bewegt sich das ➚Prüfobjekt während der lichtempfindlichen Zeit (➚Integrationszeit) der Kamera, so hinterlässt das Objekt im ➚Bild eine verwischte Struktur. Die Breite der verwischten Strukturen stellen ein Maß für die Bewegungsunschärfe dar. Für die sichere Funktion von Bildverarbeitungsalgorithmen sollten für die Bewegungsunschärfe im Bild weniger als 1 Pixel angestrebt werden. Durch Rückrechnung von der minimal möglichen ➚Shutterzeit und der maximal zulässigen Bewegungsunschärfe lässt sich die maximale Geschwindigkeit berechnen, mit der sich ein Prüfobjekt an Kamera und Objektiv vorbeibewegen darf. Bewegungsunschärfe kann verursacht werden durch: 11 B Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 12 Bild B Bewegung des Prüfobjekes während der Belichtungszeit (durch Transport, aber auch Schwingungen); zu lange Belichtungszeit (➚Shutter), zu lange Beleuchtungszeit (➚Blitzzeit); Schwingungen durch instabile Befestigung der Bildverarbeitungskomponenten. Bild Ergebnis der ➚optischen Abbildung. Ein Bild ist die zweidimensionale Projektion einer dreidimensionalen Szene auf einen ➚Bildaufnehmer. Bilder können unterschiedliche Datenbreite (➚Digitalisierungstiefe) besitzen: ➚Binärbild, ➚Grauwertbild, ➚Farbbild. Ihre örtliche ➚Auflösung bestimmt den Informationsgehalt eines Bildes. Bild-Austast-Synchron-Signal ➚Videosignal Bildaddition Pixelweise Addition der Helligkeitswerte zweier Bilder. Dabei werden die Werte von ➚Pixeln mit gleichen Koordinaten (Zeile, Spalte) addiert. Bildaddition kann zur Aufhellung dunkler Bilder oder mit zusätzlicher Mittelwertbildung zur Verringerung des ➚Bildrauschens genutzt werden. Bildakquisition ➚Bildaufnahme Bildanalyse ist die Bewertung eines Bildes nach seinen Eigenschaften. Dabei werden Methoden der Statistik und des Messens, basierend auf Grauwertbildverarbeitung, kombiniert. Mit Bildanaylsefunktionen kann bestimmt werden, ob die Bildqualität gut genug für die Inspektionsaufgabe ist. Desweiteren können mit Bildanalysefunktionen auch Abbildungen auf ihren Inhalt hin analysiert werden, oder um zu entscheiden, welche Funktion zur Aufgabenlösung verwendet werden muss. Bildarithmetik Punktoperation, bei der pixelweise (ohne Einfluss auf Nachbarpixel) mehrere Bilder verrechnet werden. (s. auch ➚Bildsubtraktion, ➚Bildaddition) Bildattribute beschreiben die Eigenschaften des im ➚Bildspeicher abgelegten ➚Bildes. Das können sein: Bildbreite [Pixel], Bildhöhe [Pixel] binär, Schwarz/weiß oder Farbe ➚Digitalisierungstiefe, Dateigröße, minimaler enthaltener Grauwert, maximaler enthaltener Grauwert, Grauwertverteilung, Vorhandensein und Anzahl sich wiederholender Elemente,Farben. Bildaufnahme Vorgang von der ➚Belichtung des ➚Bildaufnehmers, der Signalwandlung im Bildaufnehmer, der Übertragung des ➚Videosignals, Digitalisierung im ➚Framegrabber, bis zum Ablegen der digitalisierten Bilddaten im ➚Bildspeicher. (s. auch Bildeinzug) Bildaufnahmefrequenz ➚Bildfrequenz Bildaufnahmeseite ➚Bildeinzugseite Bildaufnahmezeit Zeit, die eine Kamera benötigt, um die Bildinformation vollständig auszulesen. Typische Zeiten für ➚CCD-Sensoren sind: 12 Hz Vollbildsensor: 83 ms; 25 Hz Vollbildsensor: 40 ms; 30 Hz Vollbildsensor: 33 ms; 54 Hz Volbildsensor: 19 ms. Die Bildaufnahmezeit ist abhängig von der ➚Pixelzahl und der ➚Bildfrequenz. 12 Prinzipbedingt besitzen ➚CMOS-Sensoren kürzere Bildaufnahmezeiten, da bei ihnen durch direkte Adressierung der Pixel auch nur Teilbereiche des ➚Bildaufnehmers ausgelesen werden können. Bildaufnehmer Sensorische Baugruppe, die einen physikalischen Effekt nutzt und ein Signal ausgibt. Vielfach ist eine Signalvorverarbeitung enthalten. Sensoren dienen der Gewinnung von Informationen über Produkte und Prozesse. Sensoren für die Bildverarbeitung werden auch Bildaufnehmer genannt und wandeln ein einfallendes optisches Intensitätsmuster in ein elektrisches Signal. In der industriellen Bildverarbeitung werden meist ➚CCD/➚CMOS-Sensoren genutzt, die nach verschiedenen Funktionsprinzipien arbeiten. Die Unterteilung erfolgt entsprechend der Geometrie der lichtempfindlichen Fläche des Bildaufnehmers in Zeilensensoren (➚Zeilenkamera) und Flächensensoren (➚Matrixkamera). Die Weiterentwicklung der Sensorchips geht in Richtung höhere ➚Auflösungen (größere ➚Pixelzahl), schnelleres Bild Auslesen (größere ➚Bildwiederholfrequenz) sowie Integration von Intelligenz auf dem Sensorchip. Im Sprachgebrauch kann mit Sensor auch ein komplettes Stand-alone-Bildverarbeitungssystem gemeint sein, das eine festgelegte Aufgabe z.B. zum Zeichen lesen wahrnimmt. Bildaufnehmergröße Größe des Bildaufnehmers in der Bildverarbeitung. Traditionell im Breiten-/Höhenverhältnis 4:3 (aus den Notwendigkeiten der analogen Fernsehtechnik abgeleitet). Neuere Sensoren können durch den Einsatz der Digitaltechnik auch in anderen Größen vorkommen. Die Zoll-bezogene Bezeichnung geht auf die Größe der ➚Vidikon-Vakuumaufnahmeröhre mit dem Ursprungsformat 1" zurück. Dabei wurde mit 1" der Röhrendurchmesser beschrieben. Daraus wurde die Sensorgröße auch von Halbleitersensoren abgeleitet: Bezeich- Fläche Diagonale typisches nung (mm2) (mm) Pixelraster (µm) 1" 12,8 · 9,6 16 9 2/3" 8,8 · 6,6 11 6,7 1/2" 6,4 · 4,8 8 6,7 1/3" 4,8 · 3,6 6 6 1/4" 3,6 · 2,7 4,5 5 1/5" 2,9 · 2,2 3,6 4 1/6" 2,1 · 1,6 2,7 4 1/10" ... 1,8 3 Kleinere Sensorgrößen stellen gesteigerte Anforderungen an die Optik (höhere ➚Auflösung, Miniaturisierung) und machen sie teurer. Daher hat sich für die industrielle Bildverarbeitung eine Sensorgröße von 1/2" als Standard eingepegelt. Das zu nutzende Objektiv muss auf Lexikon der industriellen Bildverarbeitung Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 13 Bildfrequenz die Bildaufnehmergröße abgestimmt werden, sonst kommt es zu künstlicher Vignettierung. Objektive besitzen eine Angabe der maximal zur verwendenden Sensorgröße. Bildbearbeitung ist ein Bereich grafischer Anwendungen am Computer. Die Bildbearbeitung ist eher künstlerisch als technisch ausgerichtet, hat also mit Bildverarbeitung wenig zu tun und dient zur Bearbeitung vorhandenen Bildmaterials mit dem Ziel Bilder zu retuschieren, korrigieren (Helligkeit, Bildschärfe), verfemden. Verwendet auch ➚Bildfilter, die die Bildverarbeitung nutzt. Bilddatenkompression Die bei der Übertragung von Bilddaten anfallenden Datenmengen sind enorm. So liefert eine Megapixelkamera mit 30Hz Vollbildfrequenz pro Sekunde 30Mbyte Bilddaten. Daher werden Bilddaten, die aus Bildverarbeitungssystemen heraus übertragen werden (z.B. zur Übertragung von ➚Fehlerbildern bei der ➚Fernwartung über ➚Ethernet), komprimiert. Dazu gibt es verschiedene Verfahren. Einige arbeiten mit Verlusten an Bildinformation bei der Dekompression (➚jpeg), andere ohne (z.B. ➚Lauflängencodierung). Für die Übertragung von Fehlerbildern muss ein verlustfreies Verfahren gewählt werden, damit die Fehlerentstehung am Bild mit Originaldaten nachvollzogen werden kann. Bilddiagonale ➚Bildaufnehmergröße Bildebene, auch Bildaufnehmerebene. Ebene, in der die optimale optische Abbildung stattfindet. Auf die Bildebene bezogen werden die ➚Abbildungsfehler. In der Bildebene befindet sich z.B. ➚Bildaufnehmer einer Kamera. Bildeinzug Art und Weise, wie die Bildinformation vom Bildaufnehmer in den Bildspeicher transferiert wird. Die Art des Bildeinzuges bestimmt die Genauigkeit der Ortsauflösung der ➚Pixel im späteren ➚Speicherbild. Frei laufender oder pixelunsynchroner Bildeinzug: Das ➚Videosignal wird als fortlaufendes Signal zum Framegrabber übertragen. Nur die Synchronsignale „Zeilenende“ und „Bildende“ ermöglichen die Zuordnung der Videoinformation. Wo genau das Pixel innerhalb der Zeile liegt, ist damit nicht zu ermitteln. Pixelsynchroner Bildeinzug mit Videosignal und Pixeltakt über Kamerakabel: Neben der Bildinformation wird auch der Takt eines jeden Pixels (➚Pixelclock) übertragen. Diese Art des Bildeinzuges verspricht eine höhere Genauigkeit der Bildverarbeitung. Allerdings muss eine großer Hardware-Aufwand betrieben werden zur laufzeitsynchronen Übertragung des Pixeltaktes. Pixelidentischer Bildeinzug direkt am Bildaufnehmer: Jedes Pixel wird in unmittelbarer Nähe des Bildsensors digitalisiert. Der hohe Aufwand der räumlich getrennten Verarbeitung des Pixeltaktes entfällt. Das Videosignal Lexikon der industriellen Bildverarbeitung kann mit hoher Genauigkeit weiterverarbeitet werden. Pixelsynchroner oder pixelidentischer Bildeinzug sind für alle messtechnischen Anwendungen der Bildverarbeitung unabdingbar. Bildeinzugsseite Das von der Kamera erzeugte und gewonnene ➚digitale Bild wird zur Bearbeitung durch die Bildverarbeitungsalgorithmen in einem Speicherbereich, der ➚Bildspeicherseite, im Rechner abgelegt. Auf die Bildeinzugsseite kann von der Bildverarbeitungssoftware zugegriffen werden. Bildfeldwölbung Ein ➚Abbildungsfehler. Eine Abbildung mit Bildfeldwölbung erfolgt nicht in einer ➚Bildebene, sondern auf einer Bildschale. Dadurch ergeben sich Zonen gleicher Schärfe in Form von konzentrischen Ringen. Hinweis auf Bildfeldwölbung gibt es dann, wenn beim Durchfahren der Entfernungseinstellung im Bild immer nur in kreisförmigen Zonen scharf abgebildet werden. Bildfenster Unter Windows® arbeitende Bedienoberflächen von Bildverarbeitungsprogrammen nutzen häufig ein Fenster, in das das aktuelle Kamerabild eingeblendet wird. Es wird als Bildfenster bezeichnet. Bildfilter, auch Raumfilter, sind digitale Filter, die verwendet werden, um Merkmale eines Bildes/Bildausschnittes (➚Prüffenster) hervorzuheben, zu unterdrücken, oder deren Bildqualität zu verbessern. Sie dienen der ➚Bildvorverarbeitung. Zu den Bildfiltern gehören frequenzselektive Filter (➚Hochpassfilter, ➚Tiefpassfilter, ➚Bandpassfilter, Bandsperre), sowie weitere, wie z.B.: ➚Laplacefilter, ➚Median, Prewitt, ➚Sobelfilter, ➚Min-Filter, ➚Max-Filter. Bildfolge In zeitlich definierter Abfolge aufgenommene Bilder. Typisch für Fernsehbilder. In der digitalen Bildverarbeitung nicht so häufig genutzt, da die Anforderungen an die Geschwindigkeit der Datenübertragung und -speicherung sehr hoch sind. Aus Bildfolgen kann z.B. die Bewegungsrichtung eines Objektes erkannt werden. Hochgeschwindigkeitsaufnahmesysteme zeichnen Bildfolgen auf, um mit dem Auge nicht erkennbare Vorgänge in ihrer Abfolge sichtbar zu machen („Zeitlupe“). Bildfrequenz Die Bildfrequenz ist die vom ➚Bildaufnehmer pro Sekunde lieferbare Anzahl an Bildern. Die Anzahl der ausgelesenen Bilder ist stark abhängig von der ➚Pixelzahl. Für ➚CCD-Sensoren ist die Bildfrequenz schaltungstechnisch im Chip vorgegeben und kann nur unter Kompromissen (➚Binning) vergrößert werden. CMOS-Sensoren liefern typisch bis zu 600 Hz Bildfrequenz, können aber durch das Auslesen kleiner ➚Prüffenster wesentlich in ihrer (Teil-)Bildfequenz beschleunigt werden (z.B. bei Prüffenster 32 · 128 Pixel mit 60.000 Hz). Gebräuchliche Vollbildfrequenzen sind 25 und 30 Hz für Standard-CCD-Kameras, die der Videotechnik entstammen, 120 Hz für leistungsfähige CCD- 13 B Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 14 Bildgröße B Kameras der industriellen Bildverarbeitung und bis zu 100.000 Hz für Hochgeschwindigkeitskameras. Bildgröße ➚Bildaufnehmergröße Bildgüte ➚Abbildungsgüte Bildhelligkeit Die in der ➚Bildebene vom optischen System erzeugte Bestrahlungsstärke gewichtet mit der Empfindlichkeit des Bildaufnehmers. Die Bildhelligkeit hängt von vielen Faktoren ab, u.a. der Beleuchtung des Prüfobjektes, dem Prüfobjekt, der ➚Transmission und der ➚Lichtstärke des optischen Systems, der ➚Bildaufnehmerempfindlichkeit und der Wellenlänge. Bildkontrast ➚Kontrast Bildkoordinatensystem Bezugssystem, das die Lage der ➚Pixel im ➚Bildaufnehmer angibt. Bildkoordinaten ergeben sich aus der Zeilen- und Spaltenstruktur des Bildaufnehmers. Ursprung ist links oben im Bild. Das Bildkoordinatensystem liegt im Unterschied zum ➚Kamerakoordinatensystem in der ➚Bildebene der Kamera. Müssen Koordinaten von mehreren Kameras miteinander verrechnet werden, muss dazu das ➚Weltkoordinatensystem verwendet werden. (s. auch Koordinatentransformation) Bildleitkabel sind sortierte ➚Lichtwellenleiter, deren Zuordnung der einzelnen Fasern auf der Lichteintrittsseite genauso ist, wie auf der Lichtaustrittsseite. Jede einzelne Faser „transportiert“ ein Pixel. Je nach Durchmesser der Fasern kann das ➚Auflösungsvermögen verschieden hoch sein. Bildleitkabel mit bis zu 100.000 Fasern sind möglich. Wird auf der Eintrittsfläche ein Bild eingekoppelt, so wird das Bild auf die Austrittsfläche übertragen. Je nach Packungsdichte (Zwischenräume durch die runden aneinanderliegenden Fasern) kommt es zu Kontrastverlusten. Bildleitkabel werden vorrangig für flexible ➚Endoskope genutzt. Bildmitte Geometrischer Ort, der den fiktiven Durchstoßpunkt der ➚optischen Achse durch die Bildebene/den ➚Bildaufnehmer kennzeichnet. Bildpunkt ➚Pixel Bildpunktauflösung (auch Pixelauflösung) ist das kleinste vom Bildaufnehmerraster unterscheidbare Detail. Nicht mit dem Auflösungsvermögen der Optik (➚Modulationsübertragungsfunktion) zu verwechseln. Berechnung nach: Bildpunktauflösung = Größe des Gesichtsfeldes/verfügbare Bildpunktzahl (Angabe in mm/Pixel). Bei sehr feinen Strukturen ist das ➚Abtasttheorem zu beachten. Dadurch kann unter ungünstigen Umständen die Bildpunktauflösung um die Hälfte schlechter werden. Verbesserung der Bildpunktauflösung ist möglich durch: größere ➚Pixelzahl/hochauflösende Sensoren; maximale Ausnutzung des ➚Gesichtsfeldes (am Bildrand sind Abbildungsfehler größer!); Bildaufnehmer mit Piezo- 14 Verschiebung; ➚Subpixel-Antastung; Objektiv-Sonderbauformen wie z.B. ➚Zweimessstellenobjektive Bildpunktzahl ➚Pixelzahl Bildrauschen Überlagerung der Bildinformation durch stochastisches Rauschen. Bildrauschen entsteht durch Rauschanteile der beteiligten Elektronik in ➚Bildaufnehmer, Framegrabber, Kamera sowie durch in den Bildaufnehmer eindringende Strahlung. Bei Bildern mit schlechtem ➚Kontrast kann das Bildrauschen zu schlechter Auswertbarkeit führen. Bildrauschen lässt sich vermeiden durch Aufsummierung mehrerer Bilder mit Langzeit-shutter oder per Software durch Mittelung der Bildinformation einzelner Pixel. Bildschärfe bezeichnet die Fähigkeit eines Objektivs ein scharfes Bild zu erzeugen. Sie wird durch ➚Abbildungsfehler, ➚Fokussierung sowie durch ➚Beugung eingeschränkt. Bildsequenz ➚Bildfolge Bildsignal ➚Videosignal Bildspeicher Speicherbereich, in dem die digitalisierten Bilddaten abgelegt werden. Bildspeicher sind in ➚Bildspeicherseiten unterteilt. Jede Bildspeicherseite kann ein digitalisiertes Bild speichern. Je nach Größe können viele Bilder gespeichert werden. Typische Größen von Bildspeichern sind 2 ...8 Mbyte. Bildspeicherseite Die Bildspeicherseite nimmt die vom ➚Framegrabber digitalisierte Bildinformation aus der Kamera auf. Bildverarbeitungssysteme besitzen i.A. mehrere Bildspeicherseiten. Bildspeicherseiten können verschieden genutzt werden als ➚Anzeigeseite ➚Bearbeitungsseite ➚Bildeinzugsseite ➚Demoseite. Durch die Trennung von Bildeinzugsseite und Bearbeitungsseite lässt sich die Abarbeitungsgeschwindigkeit von ➚Prüfprogrammen steigern. So kann bei ➚paralleler Bildaufnahme der Bildeinzug einer Bildaufnahme auf die Bildaufnahmeseite gestartet werden, während auf der Bearbeitungsseite das zuvor aufgenommene Bild parallel verarbeitet wird. (s. auch Parallelverarbeitung) Bildsubtraktion Bildpunktweise Subtraktion der Grauwerte zweier Bilder. Dabei werden jeweils die Grauwerte der Pixel mit gleichen Zeilen- und Spaltenkoordinaten subtrahiert. Kann bei sehr lagegenauen übereinstimmenden Bildern mittels ➚Grauwerttest zur ➚Anwesenheitskontrolle genutzt werden. Bildtransformation Bilddaten für ein Ausgangsbild werden aus Bilddaten eines Eingangsbildes gemäß einer Transformationsvorschrift berechnet. Beispiele sind die ➚Fourier- und die Hough-Transformation. Bildverarbeitung ist eine noch recht junge Technologie, die ihren Durchbruch Anfang der 80er Jahre des letzten Jahrhunderts geschafft hat. Sie beschäftigt sich mit Bildern, Bildfolgen mit dem Ziel der Manipulation und Aus- Lexikon der industriellen Bildverarbeitung Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 15 Bitmaske wertung mit Hilfe technischer Mittel, um: die Bildqualität zu verbessern (➚Kontrast, ➚Farbe, ➚Bildschärfe); Bilder zu restaurieren (Rauschbefreiung, geometrische Ent-zerrung, ...); Bildern zu codieren (➚Datenkompression, ...); Bilder zu verstehen und zu interpretieren (➚Bildanalyse, ➚Mustererkennung). Diese Merkmale lassen die Bildverarbeitung überall dort anwenden, wo Bilder anfallen und ausgewertet werden müssen: in der Biologie (Zellen zählen), in der Medizin (Computertomogramme auswerten), im Bauwesen (Auswertung von Wärmebildern), in der Sicherheitstechnik (Kontrolle biometrischer Maße). Die industrielle Bildverarbeitung (= industrielle Anwendung der Bildverarbeitung) hat sich zu einer Leittechnologie der Automatisierungstechnik entwickelt, die in nahezu allen Branchen der verarbeitenden Industrie anzutreffen ist. Bildverarbeitung ist eine Synthesetechnologie, an der viele Fachrichtungen beteiligt sind: Lichttechnik, Optik, Elektronik, Informatik, Informationstechnik, Automatisierungstechnik. Dadurch sind die Funktionszusammenhänge sehr komplex. (s. auch Machine Vision) Bildverarbeitungs-Bibliothek stellt Grundfunktionen der Bildverarbeitung als DLL- oder OCX-Datei für das Prüfprogramm zur Verfügung für immer wiederkehrende grundlegende Funktionen (➚Bildfilter, ➚Klassifikation etc.). Die Bildverarbeitungs-Bibliothek wird in die Applikationssoftware eingebunden. Bildverarbeitungssensor ➚Smart Camera Sensor Bildverarbeitungssystem Anlage zur Gewinnung, Aufbereitung (Vorverarbeitung), Verarbeitung, Analyse und Ergebnisermittlung aus visuellen Daten. Ein Bildverarbeitungssytem ist ein komplexes technisches System und setzt sich aus einer Reihe von sehr verschiedenen Systemkomponenten zusammen: Beleuchtung, Optik, Kamera, Framegrabber, Computer, Kommunikationsschnittstellen, Prozessschnittstellen, Software Bildverbesserung Die durch ➚optische Abbildung gewonnenen und im ➚Bildspeicher abgelegten Bilder weisen hinsichtlich Helligkeitsverteilung, geometrischer Eigenschaften, ➚Rauschen u.a. Eigenschaften auf, die durch gezielten Einsatz von Algorithmen und ➚Bildfiltern verbessert werden können, ohne dabei die vorhandene Bildinformation zu beschädigen. (s. auch Bildvorverarbeitung, Kontrastverstärkung) Bildvorverarbeitung dient der Informationsreduktion zur effektiven Bildverarbeitung. Die Bildinformation wird mit dem Zweck der ➚Bildverbesserung geändert. Bildvorverarbeitung findet statt, bevor Bildverarbeitungsalgorithmen mit der Informationsgewinnung aus dem Bild beginnen (➚Segmentierung). Zur Bildvorverarbeitung werden häufig ➚Bildfilter verwendet. Drei Bereiche sind für die Bildvorverarbeitung typisch: Lexikon der industriellen Bildverarbeitung Geometrische Entzerrung (z.B. Beheben von ➚Verzeichnung), Bildverbesserung (Homogenisieren, ➚Kontrast, ➚Bildschärfe, Beseitigung von ➚Rauschen), Bildrestaurierung (bei gestörter Bildübertragung). In einigen Softwarepaketen zur Bildverarbeitung sind Algorithmen zur Bildvorverarbeitung schon in den Funktionen eingebaut. Damit wird sichergestellt, dass die Bildvorverarbeitung nur in bestimmten Bereichen (➚Prüffenster) wirksam wird, was zur Steigerung der Verabeitungsgeschwindigkeit beiträgt. Optische Bildvorverarbeitung ist durch die Ausführung in Lichtgeschwindigkeit besonders effektiv: durch gezielten und bewussten Optik- und Beleuchtungseinsatz lassen sich Abbildungsform, Kontrast und Bildschärfe dramatisch steigern und durch eingesparten Hard- undSoftwareaufwand Kosten sparen. Bildwandler ➚Bildaufnehmer Bildwiederholfrequenz, auch Bildwiederholrate. ➚Bildfrequenz Binäralgorithmus ➚Antastalgorithmus Binärbild Digitales Bild im ➚Bildspeicher, bei dem jedem ➚Pixel ein Wert schwarz (0) oder weiß (1) zugeordnet ist. Sonderfall eines ➚Grauwertbildes. (s. auch ➚Schwellwert) Binärbildverarbeitung ➚Merkmalsextraktion aus einem ➚Binärbild. Sehr schnelles Verfahren, da sehr hardwarenah gearbeitet werden kann. Empfindlich gegen Änderungen in der Beleuchtung. (s. auch Grauwertbildverarbeitung, Farbbildverarbeitung) Binäre Antastung ➚Antastalgorithmus Binäre Morphologie ➚Morphologische Bildverarbeitung Binärschwelle ➚Schwellwert Binärverfahren ➚Antastalgorithmus Binarisierung Einstellung eines ➚Schwellwertes zwischen minimalem und maximalem ➚Grauwert, in dessen Ergebnis ein ➚Binärbild mit nur zwei Helligkeitsstufen (hell und dunkel) vorliegt. (s. auch Look up Tabelle) Binarisierungsschwelle ➚Schwellwert Binning Technik zum Zusammenfassen von Ladungen von benachbarten ➚Pixeln in ➚CCD-Sensoren. Dadurch wird das ➚Signal-Rausch-Verhältnis verringert und der ➚Bildaufnehmer kann schneller ausgelesen werden (➚Bildfrequenz), allerdings auf Kosten einer geringeren ➚Bildpunktauflösung. Der Binningfaktor gibt an, wie viele Pixel zusammengefasst werden. 2 · 2 bedeutet, dass jeweils die Pixel aus 2 benachbarten Zeilen und Spalten kombiniert werden. Beim Software-Binning werden benachbarte ➚Pixel aus dem ➚Bildspeicher zusammengefasst, wodurch sich das ➚Bildrauschen verringert. Bitmap ➚BMP-Dateiformat Bitmaske ➚Portkontrolle 15 B Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 16 Blende B Blende Öffnung im optischen System, die den Durchgang von Strahlen mechanisch beschneidet (➚Öffnungsblende, Feldblende). Blenden können von ihrer Größe fix sein (➚Festblende) oder veränderlich ( ➚einstellbare Blende). (s. auch förderliche Blende) Blendenautomatik ➚Auto-Iris-Objektiv Blendendurchmesser ➚Lichtstärke Blendenreihe ➚Blendenzahl Blendensteuerung/Blendenregelung ➚Auto-Iris-Objektiv Blendenstufe ➚Blendenzahl Blendenzahl Über ➚Öffnungsblenden wird Einfluss auf die Größe der freien Öffnung, und damit auf die ➚Lichtstärke und die Blendenzahl k genommen. Die kleinste einstellbare Blendenzahl entspricht dem Kehrwert des ➚Öffnungsverhältnisses: k = f’/ØEP mit k = Blendenzahl; f’ = Brennweite des Objektivs; ØEP = Durchmesser Eintrittspupille. Beispiel: Ein Objektiv mit f’= 50 mm hat einen Frontlinsen-Ø von 28 mm. Bei diesem Objektiv ist die sichtbare freie Öffnung (➚Eintrittspupille) etwa gleich dem Frontlinsendurchmesser. Damit wird k = 50 mm/28 mm = 1,78 ≈ 1,8. Für die näherungsweise Umrechnung der Blendenzahl in die ➚numerische Apertur NA (Umgebung Luft) gilt: k = 1/2NA mit NA = NA’ · ß’ mit (NA’ = bildseitige numerische Apertur, ß’ = Abbildungsmaßstab). Die Größe der kleinsten Blendenzahl bestimmt die ➚Lichtstärke eines Objektivs. Eine Halbierung des durchgehenden Lichtstroms geschieht bei Halbierung der Lichtdurchtrittsfläche der Blende. Irisblenden umschließen i.A. eine Kreisfläche, so dass bei Halbierung der Fläche der Blendendurchmesser um √2 kleiner wird. So entsteht die typische Blendenzahlreihe: 0,7; 1; 1,4; 2; 2,8; 4; 5,6; 8; 11; 16; 22; 32. (s. auch förderliche Blende, Schärfentiefe, Bewegungsunschärfe) Blitzbeleuchtungen sind Beleuchtungen, deren Leuchtdauer sehr kurz ist (➚Blitzzeit) im Verhältnis zu Belichtungszeit der aufnehmenden Kamera. Im Allgemeinen werden Leuchtdauern < 1ms als Blitz bezeichnet. Im Unterschied zur ➚Stroboskopbeleuchtung wird die Blitzbeleuchtung durch einen Trigger ausgelöst und kommt nach der ➚Blitzverzögerungszeit zum Leuchten. Die ➚Blitzfrequenz ist abhängig von der Applikation und kann u.U. die ➚Bildfrequenz erreichen. Charakteristisch für Blitzbeleuchtungen sind die konstante emittierte Lichtenergie (auch bei Veränderung der Blitzzeit, gleiche Helligkeit!), schnelle Anstiegs- und Abfallzeiten der Lichtaussendung sowie geringe Verzögerungszeiten, was durch komplexe elektrische Schaltungen realisiert wird. Als Lichtquellen kommen hauptsächlich ➚Infrarot-LEDs zum Einsatz, die kurzzeitig mit dem 10-fachen ihres 16 Nennstromes betrieben werden und dabei die 10-fache Lichtausbeute liefern. ➚Gasentladungslampen liefern sehr helles Licht, sind aber problematisch hinsichtlich ➚EMV, sind gefährlich durch die interne Verwendung von Hochspannung, altern recht schnell (bis zu 70% Helligkeitsverlust am Ende der Lebensdauer) und besitzen ein nicht ausgeglichenes ➚Spektrum des ausgesendeten Lichtes. Um verschiedene ➚Beleuchtungstechniken realisieren zu können, werden verschiedenste Formen (Flächen, Ringlichter) verwendet als auch Varianten, bei dem das Blitzlicht in ➚Lichtwellenleiter eingekoppelt wird. An die ➚Blitzsynchronisation bei schnelllaufenden Prozessen werden hohe Ansprüche hinsichtlich des Zeitverhaltens gestellt. Leistungsfähige Bildverarbeitungssysteme stellen dafür fertige Funktionen (➚asynchron Blitzen) zur Verfügung. Blitzlichtbeleuchtungen werden dort genutzt, wo schnelle und bewegte Prozesse sichtbar gemacht werden müssen (Stanzteile, Halbleiterindustrie), intensives Dauerlicht zu Überhitzung führen würde (Verpackung wärmeempfindlicher Produkte) oder wo Bediener bei permanentem Betrieb der Beleuchtung gestört werden. Anforderungen an Blitzbeleuchtungen für Machine Vision: hell wegen dem bevorzugten Einsatz im ➚Durchlicht; kurze Verzögerungszeiten, Anstiegs-, Abfallzeiten im Blitz selbst; ➚Blitzfrequenz > Bildfrequenz der Kamera; ➚EMV-Tauglichkeit; lange Lebensdauer, auch bei Vibrationen, Luftfeuchtigkeit, Wärme; geringer Helligkeitsverlust über die Lebensdauer; änderbare Blitzzeit bei konstanter Lichtenergie; änderbare Blitzhelligkeit ohne Änderung der Blitzzeit; Arbeit mit verschiedenen Triggerpegeln (TTL/SPS). Blitzlänge ➚Blitzzeit Blitzröhre ➚Blitzbeleuchtung Blitzsynchronisation Schnelllaufende Prozesse benötigen zur sicheren Funktion eine Synchronisation verschiedener Vorgänge u. a. derer zur ➚Bildaufnahme. Die Blitzsynchronisation schließt Kamera (➚Shutter), Trigger und ➚Blitzbeleuchtung ein. Nach der ➚Blitzverzögerungszeit erreicht die Blitzbeleuchtung ihre volle Helligkeit. Danach sollte die ➚Shutterzeit beginnen und enden, bevor die Blitzhelligkeit abnimmt. Moderne Bildverarbeitungsprogramme übernehmen die Synchronisation der Blitzauslösung und Bildaufnahme. So lassen sich damit u.a. aus der Software heraus komfortabel die Blitzdauer, Verzögerungszeit, die Triggerflanke oder -zustand und die zu belegende Bildspeicherseite parametrieren. Änderungen in der Synchronisation können verursacht Lexikon der industriellen Bildverarbeitung Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 17 Brennweite werden durch: variable/unbekannte Zeitpunkte des Triggerimpulses; variable/unbekannte Verzögerungszeiten; variable/unbekannte Blitzzeiten; variable/unbekannte Shutterzeiten; Start Bildaufnahme zu früh/zu spät; variable/unbekannte Signallaufzeiten in der Maschine Blitzverzögerungszeit Zeit, die vom Anliegen eines Triggersignals (50% des Endpegels) an einer Blitzbeleuchtung vergeht, bis die Blitzbeleuchtung 50% ihrer Endhelligkeit erreicht hat. Blitzwiederholfrequenz Frequenz mit der eine ➚Blitzbeleuchtung im Dauerbetrieb arbeiten kann. Sie wird begrenzt durch die Fähigkeit einiger ➚Lichtquellen, schnell nacheinander Blitzen zu können: ➚Gasentladungslampen brauchen Zeit zur Abkühlung. ➚LED-Blitzbeleuchtungen sind theoretisch bis in den MHz-Bereich blitzfähig. Ein weiteres Hindernis, das die Blitzwiederholfrequenz begrenzt, ist die schnelle Bereitstellung kurzzeitig großer Energiemengen, wie sie für Blitzbeleuchtungen typisch sind. ➚Stroboskope realisieren eine große Blitzwiederholfrequenz. Blitzzeit Zeitdauer der Lichtaussendung einer ➚Blitzbeleuchtung, währenddessen die ➚Helligkeit >90% des Maximalwertes ist. Mit➚Gasentladungslampen lassen sich Blitzzeiten <= 1ps erreichen, typisch sind in der industriellen Bildverarbeitung bei Nutzung von LED-Blitzbeleuchtungen Zeiten von 5 ... 100 µs. Blob Gruppe von benachbarten und zusammenhängenden ➚Pixeln gleichen oder ähnlichen ➚Grauwertes. Blobanalyse untersucht ➚Blobs durch Schwerpunkt- und Flächenbestimmung, wobei die zu erkennenden Objekte geschlossene ➚Konturen aufweisen müssen. Die zu Grunde liegenden ➚Grauwerte und Größe der Flächen werden mit ➚Toleranzern versehen, um das Verfahren möglichst robust zu machen. Blobanalyse wird verwendet zum Zählen, Finden von Objekten sowie zur ➚Lage-/Drehlagenachführung genutzt. Blooming Erscheinung bei der ➚Überbelichtung an ➚CCDs, die sich durch ausgefranste helle Zonen an der überbelichteten Stelle im Bild bemerkbar machen. Wird der Chip mit zu viel Licht beaufschlagt, werden zu viel Elektronen erzeugt, die dann in Nachbar-Pixel überlaufen. Blooming ist eine Erscheinung der ➚Sättigung und führt an den überbelichteten Bereichen zu Informationsverlust. Moderne CCD-Chips vermeiden Blooming durch Abflussmöglichkeiten für überzählige Ladungen. BMP-Dateiformat: Bit Map Picture. Gebräuchliches Dateiformat zum Bilddatentransfer von Bildverarbeitungssystemen, das ohne Verluste arbeitet, aber je nach Bildgröße sehr umfangreich ist. BMP-Dateien liegen in einem Pixelformat vor. Komprimierte Formate mit RLE = Run-Length Encoding für 4-Bit- und 8-Bit Bitmaps (RLE4 bzw. RLE8) sind möglich. Lexikon der industriellen Bildverarbeitung BNC Bayonett Neill Concelmann. Robuster Steckertyp mit Bajonettverschluss, der für den Anschluss von ➚Koaxialkabeln genutzt wird. Über BNC-Stecker werden u.a. analoge ➚Videosignale übertragen. Bogenlampe lichtstarke ➚Gasentladungslampe mit thermischer Lichtemission des Lichtbogens. Beispiele sind Quecksilber- und Natriumdampflampen. Brauchen Vorwärmzeit von einigen Minuten bis zur vollen Helligkeit. Wegen aufwendiger Ansteuerung, unflexibler Bauform, geringen Steuermöglichkeiten und begrenzter Lebensdauer in der Bildverarbeitung so gut wie nicht im Einsatz. Brechkraft Kehrwert der ➚Brennweite eines abbildenden optischen Systems (bezogen auf Umgebung Luft). 1 Einheit: = dpt: Dioptrien m Brechung Richtungsänderung des Lichtes an der Grenzfläche beim Übergang von einem nichtleitenden Medium in ein anderes. Auf Brechung beruht die Lichtübertragung in Linsen. (s. auch Brechungsgesetz) Brechungsgesetz beschreibt die Richtungsänderung eines Lichtstrahls an der Grenzfläche zweier nichtleitender Medien unterschiedlicher Brechzahl: n · sin e = n’ · sin e‘ mit n = Brechzahl vor der Grenzfläche; n’ = Brechzahl nach der Grenzfläche; e = Einfallswinkel (zwischen Lot auf Fläche und einfallendem Lichtstrahl); e‘ = Austrittswinkel (zwischen Lot auf Fläche und austretenden Lichtstrahl) (s. auch Brechung) Brechungsindex ➚Brechzahl Brechzahl, auch Brechungsindex. Verhältnis der ➚Lichtgeschwindigkeit im Vakuum (Cv) zur Lichtgeschwindigkeit in dem betrachteten Medium (Cm) oder der Sinusse von Ein- und Ausfallwinkel. Winkelbezug ist dabei das Lot auf die reflektierende Fläche: n= Cv/Cm = sin e/sin e’ Anmerkung: Die Brechzahl n ist wellenlängenabhängig (➚Dispersion). Brennebene Ebene, rechtwinklig zur ➚optischen Achse, die den ➚Brennpunkt beinhaltet. Die bildseitige Brennebene bildet die ➚Bildebene für eine Abbildung aus Unendlich. Brennpunkt Punkt auf der ➚optischen Achse, in dem sich achsparallel durch eine Linse einfallendes Licht idealerweise in einem Punkt sammelt. Tritt sowohl objektseitig als auch bildseitig auf. (s. auch Brennweite) Brennpunktstrahl Lichtstrahl (➚geometrische Optik), der von der ➚Hauptebene eines ➚optischen Systems aus durch den ➚Brennpunkt verläuft. (s. auch Brennweite) Brennweite Formelzeichen f, f’. Die wichtigste kennzeichnende Größe eines abbildenden optischen Systems. Ergibt sich aus den Systemdaten Radien, Glassorten, Linsendicken, Medium zwischen den Linsen, Abstände. Die Brennweite wird von den ➚Hauptebenen zum jeweiligen ➚Brennpunkt gemessen. Die Brennweite legt das 17 B Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 18 Bus B C ➚Gesichtsfeld fest und ist verbunden mit den ➚Gesichtsfeldwinkeln: eine kurze Brennweite (➚Weitwinkelobjektiv) verursacht bei festem ➚Arbeitsabstand große Gesichtsfeldwinkel und kleine Details, eine lange Brennweite (➚Teleobjektiv) verursacht kleine Gesichtsfeldwinkel und große Objektdetails. Brennweitenangaben werden nur für fokale Systeme (Systeme mit Brennpunkt) gemacht. Die typische Brennweitenstufung in der Bildverarbeitung ist: 3.5, 4.5, 6, 8, 10, 12, 16, 25, 35, 50, 75, 100 mm. Diese Folge ermöglicht die Austauschbarkeit. Wird eine Kamera mit nächstkleinerer ➚Bildaufnehmergröße gewählt, bleibt bei gleichzeitiger Auswahl der nächstkürzeren Brennweite der ➚Arbeitsabstand, die Größe des Gesichtsfeldes und damit der Gesichtsfeldwinkel gleich. Brennweiten sind in der Objektivbezeichnung codiert: z.B. Tevidon 2/10 (10 mm Brennweite); Fujinon 1:1,4/50 (50 mm Brennweite). Die Beziehungen zu ➚Abbildungsmaßstab ß’ und ➚Arbeitsabstand WD/➚Objektabstand a sind näherungsweise: f’ = a · ß’/(1- ß’) mit (a > 0, a ≈ WD, ß’ < 0) Bus, oder Bussystem tauscht als Sammelleitung Daten und Steuerinformationen zwischen Komponenten gemäß einem vereinbarten ➚Protokoll aus. Es gibt serielle und parallele Busse. Serielle Busse übertragen bitserielle Informationen über große Entfernungen, z.B. über Zweidrahtleitung, ➚Koaxialleitung oder ➚Lichtwellenleiter. Tpische Vertreter sind ➚CAN-Bus, ➚Ethernet,➚Profibus, ➚Interbus. Parallele Busse nutzen mehrere parallele Leitungen, auf denen bitparallel über kurze Enfernungen übertragen wird. Beispiele sind der ➚VME-Bus und der PCI-Bus (➚Peripherical Component Interface). Die innerhalb von Bildverarbeitungssystemen genutzen Bussysteme benötigen für die Informationsübertragung immer größere Bandbreiten, weswegen vorzungsweise parallele Bussysteme genutzt werden. An der Schnittstelle zum industriellen Prozess kommen meist serielle Busse zum Einsatz. C C Betriebssystemunabhängige Programmiersprache. Durch die maschinennahe Programmierung und Effektivität der Routinen ist C die bevorzugte Sprache der Entwickler von Bildverarbeitungssoftwarepaketen. Weiterentwicklung ist C++ sowie Visual C. CiA CAN in Automation. Hersteller- und Informationsvereinigung für den CAN-Bus. www.can-cia.de CDI, Cloudy-Day-Illuminator ➚Schattenfreie Beleuchtung C-Mount Standardgewindeanschluss für ➚Matrix-Kameras in der Machine Vision. Gewinde 1-32 UN2A ⁄1" 18 Außendurchmesser mit 32 Gängen auf 1", ➚Auflagenmaß: 17,526 mm. C-Mount-Objektive können mit 5 mm-Zwischenring an ➚CS-Mount-Kameras verwendet werden. C-Signal Chrominaz-Signal. ➚Videosignal Camera Link Kabelspezifikation für ein Kommunikationsinterface für Bildverarbeitungsapplikationen. Speziell für die Bildübertragung zwischen Kamera und ➚Framegrabber ausgelegt. Nutzt Niedervolt-Differenzsignale zur störsicheren Signalübertragung. Theoretisch auf 2,3 Gbit/s verlustlose Übertragung begrenzt (Spezifikationen: Camera Link basic configuration: ca. 192 Mbyte/s, Camera Link full configuration: ca. 512 Mbyte/s). Zur Übertragung von Video-, Steuer-, Kommunikationsdaten (serielle Datenübertragung). MDR-26 pin Steckverbinder. Camera Link wurde im Jahr 2000 spezifiziert. CAN-Bus Controller Area Network. Serielles Bussystem, ursprünglich für die Automobilindustrie entwickelt. Spezifiziert in ISO 11898. Arbeitet über verdrillte Zweidrahtleitung vorwiegend mit Entfernungen < 40 m. Begrenzt auf 1 Mbit/s Datenübertragungsrate. Praktisch bis zu 64 Busteilnehmer. Echtzeitfähig und zuverlässig durch umfangreiche Fehlererkennungsmaßnahmen. www.can-cia.de Candela Abkürzung cd. SI-Einheit der ➚Lichtstärke. Definiert durch die Lichtstärke einer Lichtquelle, die eine ➚monochromatische Strahlung mit einer Frequenz von 540 THz ausstrahlt und deren ➚Strahlstärke 1/683 W · sr-1 beträgt. Eine Punktquelle von 1 Candela strahlt 1 Lumen in einen ➚Raumwinkel von 1 Steradiant ab. CCD ➚Charge Coupled Device CCD-Iris Ein spezieller Betriebsmodus des ➚Shutters einer ➚CCD-Kamera. Die ➚Shutterzeit wird vom ➚CCD mit der Zielgabe geregelt, das Niveau des ➚Videosignals möglichst konstant zu halten, auch bei Beleuchtungsänderungen und trotz einer konstanten Blendeneinstellung. Wird vorrangig für die Anwendung in der Sicherheitstechnik genutzt. Für eine Reihe von industriellen Applikationen führt die selbsttätige Änderung der Shutterzeit zu Problemen mit der ➚Bewegungsunschärfe, besonders dann, wenn bewegte ➚Prüfobjekte untersucht werden müssen. Auch führt die variable Shutterzeit zu unterschiedlichen Rauschanteilen im Bild. CCD-Kamera Kamera, die einen ➚CCD als ➚Bildaufnehmer nutzt. Einteilung in ➚Zeilenkameras, ➚Matrixkameras. Ausführung in Schwarz/weiß und als ➚Farbkamera. Das verwendete CCD erzeugt ein analoges ➚Videosignal. Je nach Weiterverarbeitung des Videosignals in der CCD-Kamera gibt es ➚Analogkameras und ➚Digitalkameras. CCD-Kameras nach dem Stand der Technik haben ➚Vollbild-Sensoren und arbeiten mit ➚Progressiv Scan. CCD-Kameras sind die in der Bildverarbei- Lexikon der industriellen Bildverarbeitung Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 19 CMOS-Sensor tung am weitesten verbreiteten Kameras und sind technologisch sehr weit ausgereift. (s. auch Pixelzahl, Sensorgröße) CCD-Rauschen Unerwünschtes Signal am Ausgang des ➚CCDs, das dem ➚Viedeosignal überlagert ist. Entsteht durch ➚Dunkelstrom, sowie durch Rauschanteile der steuernden und signalverarbeitenden Elektronik im Inneren des CCD-Chips. CCFL ➚Cold Cathode Fluorescent Lamp CCIR Comité Consultatif International des Radiocommunications. Internationaler Ausschuss für den Funkdienst. CCIR steht in Zusammenhang mit ➚CCD-Kameras für die europäische Video-Norm von Schwarz/weiß-Bildern mit einer ➚Bildfrequenz von 50 Halbbildern pro Sekunde und 625 Zeilen. CCTV-Objektiv, Closed-circuit-television-Objektiv. Bezeichnung für Objektive, die für Beobachtungszwecke (Sicherheitstechnik) entwickelt wurden. Häufig, trotz ihrer Nachteile (mangelnde ➚Abbildungsgüte, fehlende ➚Industrietauglichkeit) auch in der Bildverarbeitung genutzt. CDS ➚Correlated Double Sampling Cg-/Cgk-Wert Cgm, Capability; gauge measurement. Fähigkeitsindex für die ➚Wiederholgenauigkeit eines Prüfmittels (Messgerätestreuung mit einem Normal als ➚Prüfobjekt). Die Prüfmittelfähigkeit ist gegeben, wenn Cgm > = 1,33 ist. Cgm = 0,2 · T/6 · s mit s = Standardabweichung, T = ➚Toleranzbereich. Cgmk, Capability; gauge measurement koefficient. Fähigkeitsindex für die ➚Genauigkeit eines Prüfmittels (Messgerätestreuung mit einem Normal als ➚Prüfobjekt). Dieser Index enthält ➚systematische und ➚zufällige Anteile (Fehler) der Messwertabweichung. Die Fähigkeit ist gegeben, wenn Cgmk > = 1,33 ist. Cgmk = (Xnormal + 0,1 · T) - Xq ges/3 · s oder Cgmk = Xq ges - (Xnormal - 0,1 · T)/3 · s mit s = Standardabweichung, T = ➚Toleranzbereich, Xnormal = ➚Istwert des Normals, Xq ges = Mittelwert aller Messwerte. Cg-, Cgk-Werte werden auch angewendet zur Qualifizierung von Prüfmitteln mit Bildverarbeitung. Charge Coupled Device, CCD. Integrierter Schaltkreis, der Lichtinformation (Photonen) in Ladungen umwandelt. In eindimensionaler (CCD-Zeile) oder zweidimensionaler (CCD-Matrix) Form (Zeilen und Spalten) werden Ladungen in ➚Pixeln („lichtempfindlicher Kondensator“) gesammelt. Wo viel Licht einfällt, entstehen viele Ladungen, wo wenig Licht einfällt, wenige. So entsteht ein ortsdiskretes Ladungsbild, das in seiner Intensität über die ➚optische Abbildung der Helligkeitsverteilung auf dem lichtgebenden Objekt entspricht. Um die Ladungspakete, die sich in den Pixeln gesammelt haben, auszulesen, werden die Ladungen mit Hilfe getaktet angeleg- Lexikon der industriellen Bildverarbeitung ter elektrischer Felder vertikal und horizontal sukzessive durch den ganzen Bildaufnehmer (durch vertikale und horzontale Shiftregister) verschoben. Für das Verschieben der Ladungen gibt es verschiedene Prinzipien (➚Interline-Transfer-Sensor, ➚Frame-Transfer-Sensor). Am Ende der Ladungsverschiebung entsteht ein serielles analoges ➚Videosignal. Nach diesem Prinzip funktionieren die meisten heute gebräuchlichen (CCD-)Kameras für die industrielle Bildverarbeitung. Die einzelnen CCD-Pixel sind nur hellempfindlich (➚spektrale Empfindlichkeit). Farbfähigkeit kann nur durch den Einsatz von Lichtfiltern (➚Farbsensor) oder spektrale ➚Strahlteiler erreicht werden. Vorteile der CCD-Technik: ist empfindlicher als ➚CMOS; Pixel wirken integrierend („sammeln Helligkeit“); Kurzzeitbelichtung sehr effektiv möglich; billig, genau, und sehr präzise (➚Maßverkörperung); hoher ➚Füllaktor. Grenzen der CCD-Technologie: Serieller Datenzugriff. Um an die Bildinformation eines Pixels zu kommen, muss der gesamte Bildaufnehmer ausgelesen werden. (Auslesezeit!); geringer ➚Dynamikumfang; Auftreten von ➚Blooming; Auftreten von ➚Smear (besonders bei Frame-transfer-Sensoren). (s. auch Pixelzahl, Pixelgröße, Progressive Scan, CMOS-Sensor) Checksumme ➚Prüfsumme chromatische Aberration ➚Farbfehler Chrominanz-Signal ➚Videosignal CIE ➚Commission Internationale d´éclairage Clipping Abschneiden von ➚Objekten an den Rändern des ➚Prüffensters. So entstehen z.B. offene ➚Konturen. Closing ➚Morphologische Operation, bei der nacheinander ➚Dilatation und ➚Erosion durchgeführt wird. Die Zahl der Erosionsschritte muss genauso groß sein wie die der Dilatationsschritte. Durch Closing wachsen eng beieinanderliegende helle ➚Objekte zusammen, Löcher werden geschlossen und konkave Strukturen am Rand von Objekten geschlossen. Cloudy day-Beleuchtung ➚Schattenfreie Beleuchtung CMOS-Sensor Complementary Metal Oxide Seminconductor-Sensor. Integrierter Schaltkreis, der Lichtinformation (Photonen) in Ladungen umwandelt. In allgemein zweidimensionaler Form (Matrix von Fotodioden oder -transistoren) werden Ladungen in ➚Pixeln gesammelt. Wo viel Licht einfällt entstehen viele Ladungen, wo wenig Licht einfällt, wenige. So entsteht ein ortsdiskretes Ladungsbild, das in seiner Intensität über die ➚optische Abbildung der Helligkeitsverteilung auf dem lichtgebenden Objekt entspricht. Die Information, die das Ladungsbild erzeugt, wird über sukzessive Adressierung der Spalten- und Zeilenadresse der Pixel ausgelesen. Auch einzelne Pixel können zu jeder Zeit und sehr schnell nacheinander ausgelesen werden. Damit ist ein 19 C Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 20 CMYK C CMOS-Sensor wie ein digitaler Speicherschaltkreis ansprechbar. Da die Adressierungslogik für jedes Pixel mindestens zwei Transistoren benötigt, geht Fläche für den lichtempfindlichen Teil des Sensors verloren, was sich in dem geringer ➚Füllfaktor als bei CCD-Sensoren niederschlägt und zu einer geringeren Lichtempfindlichkeit führt. Auch ist die ➚Pixel-Response-Non-Uniformity durch Streuung der Bauelementedaten der großen notwendigen Anzahl an Ansteuerbauelementen wesentlich schlechter als bei ➚CCDs. Bei CMOS-Sensoren ist prinzipbedingt kein ➚Blooming möglich, der ➚Dynamikbereich beträgt typisch 120dB bei einer logarithmischen Empfindlichkeitskennlinie. Durch die verwendete Technologie erfolgt die ➚Analog-Digital-Umsetzung der Pixelhelligkeitssignale sofort auf dem Chip (pixelidentischer ➚Bildeinzug), weshalb CMOS-Sensoren i.A. ➚digitale Videosignale liefern. Auch Bildvorverarbeitung auf dem CMOS-Chip ist möglich. Nahezu beliebige geometrische Formen der Pixelanordnung können erreicht werden. Im Gegensatz zu CCDs wirkt ein CMOS-Sensor nicht integrierend, er liefert Augenblickswerte der Helligkeit auf den Bildaufnehmern. Weitere CMOS-Vorteile: Dynamikumfang bis 150 db (CCD typ. 50 dB) ist möglich; direkte Adressierung der Pixel (Bildausschnitte sehr schnell lesbar); hohe Bildraten (1,3 Mpixel-Vollbild mit 600 Hz); Betriebstemperaturen bis 125 Grad. CMOS-Sensoren sind in der industriellen Bildverarbeitung im Vormarsch, da durch sie viele neue Applikationen mit extremem Helligkeitsumfang möglich werden: Schweißnahtverfolgung, bei Einsatz von Laserlichtquellen, als Videofahrtenschreiber in der Automotive-Industrie uvm. CMYK Cyan, magenta, yellow, key. Farbmodell für die subtraktive ➚Farbmischung beim Druckprozess (Offsetdruck). In der Bildverarbeitung ungebräuchlich. CNC ➚Computerized Numerical Control Codierter Lichtansatz Art einer ➚strukturierten Beleuchtung, die die aktive ➚Triangulation nutzt. Flächendeckend können räumliche Koordinaten gewonnen werden. Zur Genauigkeitssteigerung wird der codierte Lichtansatz mit ➚Subpixel-Antastung durch das ➚Phasenshiftverfahren versehen. Berechnungszeiten der Höheninformation für das gesamte Bild liegen im Sekundenbereich. Bei der Projektion eines Liniengitters auf ein ➚Prüfobjekt wirkt jede Dunkel-Hell-Kante wie ein ➚Lichtschnitt. Normale Gitterprojektionsverfahren haben ein Zuordnungsproblem zwischen den Linien im Bild und den Linien des Gitters. Beim codierten Lichtansatz wird die Eindeutigkeit durch die Aufnahme von Folgen von Linienbildern erreicht, wobei je ➚Bildaufnahme die Anzahl der projizierten ➚Kanten nach einer bestimmten Codierung (z.B. nach dem GrayCode) erhöht wird. 20 Gerätetechnisch wird der codierte Lichtansatz realisiert durch LCD-Projektoren, die auch individuelle Linienmuster zulassen. Anwendung: Rapid Prototyping, Rekonstruktion von Skulpturen, Vermessung von Karosserieteilen, Vermessung von Gesichtern. (s. auch strukturierte Beleuchtung, Phasenshiftverfahren, Moiré-Verfahren) Cold Cathode Fluorescent Lamp Kaltkathoden-Fluoreszenzlampe. COM-Server Endgerät in ➚TCP/IP-Ethernet-Netzwerken, das Schnittstellen für serielle Geräte und digitale Einund Ausgabepunkte über das Netzwerk zur Verfügung stellt. Über COM-Server können Bildverarbeitungssysteme, die über eine ➚serielle RS232-Schnittstelle, aber über keinen ➚Ethernet-Anschluss verfügen, in EthernetNetzwerke eingebunden werden. Das Bildverarbeitungssystem stellt dazu die notwendigen Kommunikationsschnittstellen zur Verfügung. Über den COM-Server mit seiner eigenen ➚IP-Adresse ist dann das Bildverarbeitungssystem über Ethernet ansprechbar. (s. auch Fernwartung) Commission Internationale d´éclairage Internationale Beleuchtungskommission. Beschäftigt sich mit allen Belangen von Licht, Farbe und Beleuchtung. www.cie.co.at Composite Sync Zusammengeführtes Synchronsignal, welches das ➚vertikale Synchronsignal und ➚horizontale Synchronsignal beinhaltet. Composite Video Signal ➚Videosignal Computerized Numerical Control, CNC. Speicherprogrammierbare Steuergeräte, die besonders in Werkzeugund Druckmaschinen und in variierter Form in Industrierobotern eingesetzt werden. Zur Steuerung von Bewegungsabläufen kommen ➚Punktsteuerungen oder ➚Bahnsteuerungen zum Einsatz. Einige Bildverarbeitungssysteme besitzen ➚Schnittstellen zu CNC-Steuerungen. Correlated Double Sampling CDS. Interne Schaltungstechnik für CCD-Chips, um thermisches Rauschen zu unterdrücken. Genutzt für extrem-rauscharme Kameras. Cosinus4-Abfall ➚Vignettierung Cosinus4-Gesetz ➚Vignettierung CRC ➚Prüfsumme CRT, Cathode Ray Tube. Kathodenstrahlröhre CS-Mount Gewindebezeichnung für 1"x1/32" UN2A (Gewindenenndurchmesser 1"; 32 Gewindegänge auf 1" Länge), ➚Auflagemaß 12,5 mm. Verkleinerte Form von ➚C-Mount. CS-Mount-Objektive können an C-MountKameras nicht verwendet werden. Cyan, auch Zyan, entsteht bei additiver ➚Farbmischung aus grün und blau. Blaugrüne Farbe, die resultiert, wenn der rote Farbanteil aus weißem Licht entfernt wird. (s. auch Komplementärfarbe) C++ ➚C Lexikon der industriellen Bildverarbeitung Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 21 Diffuse Beleuchtung D DAC Digital to Analogue Converter (engl.) ➚Digital Analog Umsetzer Data Matrix Code Zweidimensionaler Code mit großer Informationsdichte. In einem Data Matrix Code können alphanumerische Zeichen verschlüsselt werden. Der Code wird in vielen Bereichen des produzierenden Gewerbes (besonders der Automobilindustrie und bei der Distribution) für die Teileidentifikation genutzt. Der ECC200-Standard ist hierbei am gebräuchlichsten. Data Matrix Code gibt es in den Codegröße von 10 · 10 bis 26 · 26 Punkten. Varianten sind gedruckte, gelaserte oder genadelte Codes. Genadelte Codes können durch eine veränderliche Struktur des Codes Beleuchtungsprobleme hervorrufen. Datenkompression Verringerung der Datenmenge zur Einsparung von Speicherplatz oder Handhabung (Datenübertragung) großer Datenmengen. Datenkompression beruht auf der Eliminierung redundanter Zeichen bzw. dynamischer Zuordnung von Datenbits in Abhängigkeit der Häufigkeit eines Zeichens (character). Man unterscheidet Verfahren mit echter und verlustbehafteter Kompression. Meistgenutzter Einsatz bei der Komprimierung von Bildern (jpeg oder mpeg). Genutze Verfahren sind u.a. die Lauflängenkodierung (run length coding), run end coding und differentielle Pulscodemodulation. DAU ➚Digital Analog Umsetzer Deckglas ➚Planparallele Platte zum lichtdurchlässigen Abschluss des ➚CCD-Chips im Schaltkreisgehäuse. Manchmal mit ➚Infrarotsperrfilterschicht bedampft. Häufig Träger von ➚Staub, der bei starker Abblendung durch die ➚Abbildungstiefe sichtbar wird. Defektpixel Im Herstellungsprozess von ➚Bilaufnehmern kommt es zu Ausfällen oder stark differierender ➚Empfindlichkeit einzelner ➚Pixel. Je nach Güteklasse wird die Anzahl dieser Defektpixel klassifiziert. Sie kann von 0 bis zu 1000 je Sensor reichen. Intelligente Signalverarbeitung in Kameras ermöglicht die Fehlerkorrektur solcher Pixel dadurch, dass die Defektpixel im Ausgangssignal durch den mittleren Helligkeitswert der umgebenden Pixel ersetzt werden. Defokussierung Gegensatz zu ➚Fokussierung. Das Unscharfstellen eines Bildes. Demoseite ➚Bildspeicherseite, auf der während der laufenden Bildvearbeitung Demonstrationsgrafiken zur Veranschaulichung eingeblendet werden. Eine Trennung zwischen ➚Bearbeitungs- und Demoseite ist vorteilhaft, wenn z.B. eine Szene unter verschiedenen Beleuchtungen aufgenommen wird, die Ergebnisse aber nur in einem einzigen Bild dargestellt werden sollen. Lexikon der industriellen Bildverarbeitung Deutscher Kalibrierdienst Zusammenschluss von Kalibrierlabors, technischen Behörden, Instituten. Von ihnen werden ➚Eichungen von Messgeräten und ➚Maßverkörperungen vorgenommen. Der Deutsche Kalibrierdienst wird von der ➚Physikalisch Technischen Bundesanstalt (PTB) akkreditiert und überwacht. www.dkd.ptb.de Deutsche Gesellschaft für Qualität Gesellschaft und Bildungsanbieter für Qualitätsmanagement. www.dgq.de DGQ ➚Deutsche Gesellschaft für Qualität. Dielektrische Schichten Zur Verstärkung oder Verminderung (➚Vergütung) von ➚Reflexionen auf optische Bauteile aufgebrachte Schichten aus elektrisch nicht leitenden Materialien. Diffuse Auflichtbeleuchtung ➚Beleuchtungstechnik, die die ➚Beleuchtungsrichtung Auflicht mit ➚diffuser Beleuchtung kombiniert. Diffuse Auflichtbeleuchtung soll Oberflächeneigenschaften unterdrücken; ebene glänzende Teile gleichmäßig beleuchten; strukturierte Flächen gleichmäßig (kontrastarm) beleuchten; Störstrukturen (z.B. Bearbeitungsspuren), verrundete Kanten, Kratzer, Knitter unterdrücken. Besonders schwierig ist die gleichmäßige Beleuchtung gewölbter, gewinkelter, geknitterter Oberflächen mit diffuser Auflichtbeleuchtung. Komponenten zur Erzeugung diffuser Auflichtbeleuchtung und deren Einsatzfelder: diffuse ➚Ringlichter, großflächige diffuse ➚Flächenbeleuchtungen für Teile mit geringen Unebenheiten, schwach geformte Teile; ➚Beleuchtung mit Kameradurchblick für Teile mit größeren Unebenheiten, mäßig geformte Teile; ➚schattenfreie Beleuchtung für Teile mit großen Unebenheiten, räumlich stark geformte Teile. Diffuse Beleuchtung Beleuchtung, die idealerweise keine Vorzugsrichtung besitzt, also in alle Richtungen des Halbraumes (➚Raumwinkel) die gleiche ➚Leuchtdichte hat. Ein idealer diffuser Strahler ist der ➚Lambertstrahler. Diffuse Beleuchtungen sollen örtlich homogen sein bzw. homogen beleuchten. Die erreichte ➚Bestrahlungsstärke auf dem Objekt ist im ➚Auflicht abhängig vom Abstand und von der Größe des Leuchtfeldes. Abweichungen der Einbaulage machen sich nur gering in der Ausleuchtung der Abbildung bemerkbar (➚fotometrisches Entfernungsgesetz). Anwendung: gleichmäßige ➚Durchlichtbeleuchtung für undurchsichtige Teile; gleichmäßige ➚Auflichtbeleuchtung für glänzende, geschliffene, sandgestrahlte Teile; kontrastmäßige Unterdrückung flacher Oberflächenstrukturen. Möglichkeiten der Erzeugung diffuser Beleuchtung: Kaltlichtquelle mit ➚Querschnittswandler; Leuchtstofflampe mit Mattscheibe; LED-Array mit Diffusor. 21 D Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 22 Diffuse Durchlichtbeleuchtung D Wird sowohl im ➚Auflicht (➚diffuse Auflichtbeleuchtung) als auch im ➚Durchlicht (➚diffuse Durchlichtbeleuchtung) verwendet. Diffuse Durchlichtbeleuchtung ➚Beleuchtungstechnik, die die ➚Beleuchtungsrichtung Durchlicht mit diffuser Beleuchtung kombiniert. Besonders gut lassen sich damit Objektkonturen kontrastreich darstellen, besonders bei flachen Teilen. Durch diffuse Durchlichtbeleuchtung wird nahezu ein ➚Binärbild erreichbar. Details auf der Oberfläche der Teile sind nicht sichtbar, nur die ➚Kontur. Bei durchscheinenden Teilen sind Ober- und Unterseite nicht mehr zu trennen. Problematisch kann die diffuse Durchlichtbeleuchtung bei hohen parallelwandigen Teilen mit reflektierenden Seitenflächen und ➚Verkippung werden. Dabei verändert sich der ➚Kantenort nicht reproduzierbar. Qualitätsmerkmal für diffuse Durchlichtbeleuchtungen ist die Homogenität. Gute Beleuchtungen erreichen Schwankungen über die Leuchtfläche von < 5%. Komponenten: diffuse ➚Flächenbeleuchtungen (s. auch Hellfeld-Durchlichtbeleuchtung) Diffuse Reflexion, auch gestreute Reflexion. Entsteht durch ➚Streuung (Verteilung) des Lichtes bei ➚Reflexion an Oberflächen mit Rauhtiefen > λ/4. Gegenteil der ➚gerichteten Reflexion. Diffuse Reflexion verringert die Intensität des einfallenden Lichtes durch Verteilung der Lichtenergie in den Raum. (s. auch Reflexionsgrad) Diffusor „Streuscheibe“. Verteilt Licht durch ➚Streuung in (Volumenstreuung) oder an der Oberfläche (Oberflächenstreuung) von optischen Bauelementen. Meist sind Diffusoren ➚planparallele Platten. Diffusoren werden zur Homogenisierung von Lichtverteilungen verwendet. Digital Analog Umsetzer, DAU. Setzt ➚Digitalsignale in einer elektronischen Schaltung in ➚Analogsignale um. Wird häufig zur Signalwandlung der digitalen ➚Videosignale am Ausgang eines ➚Framegrabbers zum Anschluss eines analogen Monitors genutzt. Digital Signal Processor Prozessortyp, der auf die schnelle Abarbeitung mathematischer Algorithmen, zum Beispiel ➚Bildfilter spezialisiert ist. Häufig als zentraler Prozessor in ➚Smart Cameras genutzt. Digitale Ein-/Ausgänge Digitale Ein- und Ausgänge sind die einfachste Prozessschnittstelle eines Bildverarbeitungssystems zur Automatisierungstechnik oder zum Maschinenbau. Sie sind die Standardschnittstelle zur SPS-Welt und werden mit den dort üblichen Signalpegeln betrieben. Bei ausreichender elektrischer Leistung können die digitalen Ausgänge des Bildverarbeitungssystems direkt Aktoren (Sortierklappen, Pneumatikventile, Auswerfer, ...) ansteuern, so dass für eine Reihe von Anwendungen das Bildverarbeitungssystem bereits Aufgaben der SPS übernimmt. Das gleiche gilt für digitale Eingänge, die bei geeigneten elektrischen Daten direkt Ini- 22 tiatoren, Lichtschranken, Näherungssensoren etc. abfragen können. Zur Erhöhung der Störsicherheit gegen Überlastung sind digitale Ein- und Ausgänge in der Regel mit Optokopplern ausgestattet. Die Funktionalität der abgefragten Eingänge kann dabei umfassen: Warten auf Sollzustände (low oder high) mit ➚Timeout-Zeit-Abfragen von Zuständen; Entprellen der Eingangssignale (wichtig bei der Abfrage mechanischer Schalter, ➚Entprellzeit). Die Funktionalität der steuernden Ausgänge kann dabei umfassen: Ausgänge statisch setzen; Impulse (low oder high) für eine vorzugebende Zeitdauer ausgeben. (s. auch Portkontrolle) digitale Filter ➚Bildfilter Digitale Fotografie Digitale Fotografie nutzt elektronische ➚Bildaufnehmer in der ➚Bildebene der Kamera als Ersatz für den Fotofilm. Digitales Bild Im Unterschied zu einem analogen ➚Bild, bei dem das Bild aus einer Vielzahl kleiner unregelmäßiger lichtempfindlicher Kristalle eines Salzes bestehent, oder gegenüber einem Bild, das mit einem Elektronenstrahl abgetastet wird (➚Vidikon) liegen digitale Bilder in Form von ➚Pixeln, die in einer Matrixstruktur (➚Bildaufnehmer) angeordnet sind, vor. Jedes Pixel ist mit einem Helligkeitswert in digitaler Form entsprechend der ➚Digitalisierungstiefe versehen. Im einfachsten Fall ist das ein ➚Binärbild, meistens ein ➚Grauwertbild und im komplexesten Fall ein ➚Farbbild. Digitalisierung Vorgang der Umwandlung von ➚Analogsignalen in ➚Digitalsignale. Für die Bildverarbeitung müssen große Datenmengen innerhalb kurzer Zeit digitalisiert werden. So fallen z.B. für einen 1k · 1k CMOSBildaufnehmer bei einer ➚Bildfrequenz von 1000 Hz pro Sekunde 1 Gbyte digitalisierte Bilddaten an. Die Digitalisierung von ➚Videosignalen erfolgt mit ➚Analog Digital Umsetzern, die entweder bereits in einer ➚Digitalkamera oder ➚Smart Camera enthalten sind oder bei ➚Analogkameras im ➚Framegrabber. Nach der Digitalisierung liegen die Bilddaten in einer dem Rechner zugreifbaren Form vor. Digitalisierungstiefe ist von der Hardware (➚Analog Digital Umsetzer, ➚Framegrabber) vorgegeben und bestimmt den maximal darstellbaren digitalen Helligkeitswert in einem Bild. Bei einer Digitalisierungstiefe von 8 bit sind 256 verschiedene Helligkeitswerte (Grauwertstufen) möglich, bei 10 bit 1024. Digitalkamera besitzt als Ausgang für das ➚Videosignal ➚Digitalsignale. Auch wenn sie einen analogen ➚Bildaufnehmer (z.B. CCD) nutzt, wird bei einer digitalen Kamera die analoge Bildinformation im Innern der Kamera durch einen ➚Analog Digital Umsetzer digitalisiert. Typische Schnittstellen digitaler Kameras zur Bilddatenübertragung sind ➚USB, ➚Fire Wire mit ➚Camera Link. Lexikon der industriellen Bildverarbeitung Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 23 Drift Digitale Kameras bieten gegenüber ➚Analogkameras einige Vorteile: Unanfälligkeit gegenüber Einkopplung von Störungen bei der Signalübertragung über Kabel; ein besseres ➚Signal-Rausch-Verhältnis, pixelsynchroner ➚Bildeinzug, ➚Bildvorverarbeitung (Kontraststeigerung, Rauschminderung) kann schon in der Kamera, noch vor der eigentlichen Bildverarbeitung in Echtzeit durchgeführt werden. Es müssen keine Fernsehnormen beachtet werden, wodurch eine höhere ➚Pixelzahl und ➚Bildfrequenz möglich ist. (s. auch Digitalisierung, Digitalisierungstiefe, siehe Fire Wire, Matrixkamera) Digitalsignal Kann zeitlich nacheinander oder zeitlich parallel dargestellt werden. Besitzt je nach ➚Digitalisierungstiefe 2n (n=Anzahl der Informationsparameter) Möglichkeiten für verschiedene Zustände, die meist als Binärzahl/Dualzahl beschrieben werden. Vorteile von Digitalsignalen sind die hohe Darstellungsgenauigkeit (nur abhängig von n), die problemlose Langzeitspeicherung und die Möglichkeit von komplexen Verknüpfungen in mikroelektronischen Schaltungen. Dilatation, auch expand. ➚Morphologisches Verfahren zum Verdicken/Ausdehnen von ➚Konturen. Gegenspieler der ➚Erosion. (s. auch opening, closing) Dimensionelles Messen ➚Messen geometrischer Größen wie ➚Abstände, ➚Winkel, ➚Konturen, Flächen. (s. auch Fotometrie) DIN-Normen Normen des Deutschen Instituts für Normung. DIN-Normen empfehlen Maße, Toleranzen und Zeichnungsangaben. Sie ersparen aufwendige Spezifikationen einzelner Bauteile oder Geräte, wenn angegeben wird, welche DIN-Norm bei der Fertigung zugrunde gelegt wurde. www.din.de Diodenlaser Die in der Bildverarbeitung benötigten Lichtleistungen sind hinreichend gering, dass sie fast in allen Fällen durch Diodenlaser abgedeckt werden, die sich durch ihre kompakte Bauweise gut eignen. Diodenlaser sind Halbleiterlaser, deren Lichtemission einem pn-Übergang (vor allem Gallium- und Indiumverbindungen) entstammt. Diodenlaser werden durch Anlegen einer Kleinspannung in Durchlassrichtung der Diode gepumpt, wodurch Elektronen und Löcher zum pn-Übergang getrieben werden (Ladungsträgerinjektion). Bei ihrer Rekombination kommt es zur Aussendung der Strahlung. Diodenlaser können bis in den MHz-Bereich hinein einfach moduliert werden. So lassen sie sich gut als gepulste Lichtquellen nutzen und einfach schalten. Sie sind gegen Verpolung, Überspannung und elektrostatische Entladungen sehr empfindlich, weshalb sie immer zusammen mit dem Betriebsgerät betrieben werden müssen. Wie alle Laser zeichnen sich Diodenlaser durch ihre hohe Energiedichte, ausgesendetes ➚kohärentes und nahezu ➚monochromatisches Licht aus. Laserlicht besitzt Lexikon der industriellen Bildverarbeitung durch seine Kohärenz ein charakteristisches Intensitätsprofil mit ➚Speckles. Zur Formung des Laserlichtes werden ➚Strahlformungsoptiken verwendet. In der Bildverarbeitung werden Diodenlaser bevorzugt zur ➚Triangulation, für das ➚Lichtschnittverfahren oder zur ➚strukturierten Beleuchtung angewendet. Diodenlaser gibt es mit einer Lichtleistung von 1 mW bis zu einigen Watt. (s. auch Laserklasse) Dispersion Abhängigkeit der Größe der ➚Brechzahl von der ➚Wellenlänge. Kurzwelliges Licht (blau) wird stärker gebrochen als langwelliges Licht. Damit hat die Dispersion über die ➚Beleuchtungswellenlänge Auswirkungen auf den ➚Arbeitsabstand von Objektiven. Bei ➚Abbildungsmaßstäben um 0,2 können durch Dispersion Differenzen im Arbeitsabstand von bis zu 5 mm auftreten, je nachdem, ob ➚infrarotes Licht (890nm) oder blaues Licht (400nm) verwendet wird. Die Dispersion ist Ursache für ➚Farbfehler von optischen Systemen. Divergenz Auseinanderlaufen von ➚Lichtstrahlen DKD, Deutscher Kalibrierdienst DLL ➚Dynamic Link Library Dotcode ➚Datamatrix-Code Drehlageermittlung Ist eine typische Bildverarbeitungsfunktion, die aus den Erfordernissen der Robotik entwickelt wurde. Bestimmt wird die Drehlage eines Objektes (➚Muster) als Parameter für die Orientierung von Robotergreifern und Positioniersystemen. Bei der Drehlageermittlung wird ein eingelerntes Helligkeitsmuster in einem vorgegebenen Bereich mit einem aktuellen Bild verglichen und so lange verschoben und gedreht (➚Korrelation), bis eine maximale Übereinstimmung erreicht wird. Danach wird der Drehwinkel zwischen beiden Mustern ermittelt. (s. auch Konturdrehlage) Drehlagenachführung Verfahren zur drehlageunabhängigen Erkennung und ➚Antasten von ➚Prüfobjekten. Drehlagenachführung wird angewendet, um ein gegenüber dem Einlernzeitpunkt in x- und y-Richtung verdrehtes Prüfobjekt sicher mit ➚Antaststrahlen oder ➚Prüffenstern versehen zu können. Dazu werden die Koordinaten der Antaststrahlen/Prüffenster entsprechend der aktuellen Drehlage des Prüfobjektes einem gedrehten Koordinatensystem zugeordnet. Wird oft in Kombination mit ➚Lagenachführung angewendet. Drehlagenachführung ist ein wirkungsvolles Mittel, um Teile, die durch Positionierungenauigkeit, Synchronisierung, unterschiedliche Zykluszeit der Maschine an verschiedenen Positionen im Gesichtsfeld erscheinen, sicher zu erfassen. Drift Als Driftvorgänge bezeichnet man die Änderung von Kenngrößen über eine längeren Zeitraum (vgl. ➚flimmerfeie Beleuchtung). Drift spielt für die Bildverarbeitung eine Rolle, da von ihr über die eingestellten Para- 23 D Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 33 Druckbildkontrolle D meter (u.a. ➚Antastparameter) in den ➚Prüfprogrammen das Messergebnis beeinflusst wird. Thermische Drift: Betrifft besonders elektronische Bauelemente in Kameras, ➚Framegrabbern und ➚LED-Beleuchtungen. Thermische Drift kann Synchronisationsprobleme, ➚Dunkelstromrauschen, Helligkeitsunterschiede bis hin zum Funktionsausfall verursachen. In mechanischen Aufbauten verursacht thermische Drift eine Änderung der Längenausdehnung (wichtig bei Präzisionsmessungen). Helligkeitsdrift in Beleuchtungen: Kann durch thermische Drift, Alterung oder durch Verschmutzung verursacht werden. Daher sollte vorbeugend ➚Helligkeitsnachführung eingesetzt werden. Druckbildkontrolle Anwendung industrieller Bildverarbeitung zur Qualitätskontrolle von Druckware (Etiketten, Bedienelemente, Logos etc.) Im Gegensatz zu ➚OCR/OCV wird die Abweichung von einem Idealzustand bestimmt. Wird meist durch ➚Mustererkennung reduziert und ist durch ➚Korrelation lage- und drehlageunempfindlich. An die Verarbeitungsgeschwindigkeiten werden durch die in der Druckindustrie herrschenden Geschwindigkeiten hohe Anforderungen gestellt. DSP ➚Digital Signal Processor Dünne Schichten ➚Vergütung Dunkel-Hell-Übergang In ➚Kantenrichtung Übergang von einem geringeren zu einem größerem Helligkeitswert. Dunkelfeld-Auflichtbeleuchtung ➚Beleuchtungstechnik mit unter flachem Winkel über der ➚Objektebene einfallende Beleuchtungsstrahlenbündeln. ➚DunkelfeldAuflichtbeleuchtung kann nicht durch direkte ➚Reflexion an ➚Prüfobjekten in das beobachtende Objektiv einfallen (Feld ist dunkel). Nur an Oberflächenstrukturen diffus gestreute Lichtanteile gelangen in das Objektiv: Fehler erscheinen hell. Durch im Vergleich zur Reflexion nur schwache ➚Streuung sind Dunkelfeld-Auflichtbeleuchtungen häufig lichtschwach, was durch lange ➚Integrationszeiten (➚Shutter) ausgeglichen werden kann. Der Lichteinfall unter flachem Winkel über dem Objekt kann durch ➚Dunkelfeldringlichter oder ➚gerichtete Beleuchtung (Streiflichtbeleuchtung) erzeugt werden. (s. auch Dunkelfeldbeleuchtung) Anwendung: Hervorheben von Konturen, Kratzern, Rissen etc. (sowohl graviert als auch erhaben) an undurchsichtigen/durchsichtigen Teilen. So ist optische ➚Bildvorverarbeitung für Konturen möglich. Besonders geeignet zur ➚Oberflächenkontrolle, auch an stark reflektierenden Teilen. Die Grenzen der Dunkelfeld-Auflichtbeleuchtung sind immer dann gegeben, wenn sich Staub, Schmutz, Fusseln auf dem Prüfobjekt befinden. Für die Bildverarbeitung lässt sich dabei nicht trennen, ob es sich um Schmutz oder Oberflächenstrukturen handelt. 24 Dunkelfeldbeleuchtung Beschreibt die Richtung der einfallenden Beleuchtungsstrahlenbündel in das optische System. Bei der Dunkelfeld-Beleuchtung gehen die Beleuchtungsstrahlenbündel in jedem Fall am optischen System vorbei (das Feld ist dunkel), allein die Streuung an Oberflächenstrukturen führt dazu, dass ein geringer Teil des Lichtes diffus in Richtung der Optik gestreut wird (Fehler erscheinen hell). Kombiniert mit den ➚Lichtrichtungen ergeben sich: ➚Dunkelfeld-Auflichtbeleuchtung und ➚Durchlicht-Dunkelfeldbeleuchtung. Dunkelfeld-Durchlichtbeleuchtung Die unter flachem Winkel unter der ➚Objektebene einfallenden Beleuchtungsstrahlenbündel der ➚Durchlichtbeleuchtung können nicht durch direkte ➚Reflexion an ➚Prüfobjekten in das beobachtende Objektiv einfallen (Feld ist dunkel). Nur an Oberflächenstrukturen diffus gestreute Lichtanteile gelangen bei der ➚Dunkelfeldbeleuchtung in das Objektiv: Fehler erscheinen hell. Somit ist die Dunkelfeld-Durchlichtbeleuchtung für ihre Funktion auf durchsichtige oder zumindest durchscheinende Prüfobjekte angewiesen und begrenzt und wird dadurch recht selten angewendet. (s. auch Dunkelfeld-Auflichtbeleuchtung) Dunkelfeldringlicht Spezielle Form einer ➚Ringlichtbeleuchtung, das ➚Dunkelfeldbeleuchtung erzeugt. Besonderheit ist die radiale Anordnung der Lichtquelle(n), die das Licht schwerpunktmäßig in Richtung des Ringmittelpunktes oder leicht darunter aussenden. Je nach ➚Beleuchtungsabstand lassen sich durch den flachen Abstrahlwinkel in der ➚Objektebene verschiedene ➚Beleuchtungsstärkeverteilungen realisieren. Aus Funktionsgründen muss die Positionierung der Dunkelfeldringlichter dicht über/unter dem ➚Prüfobjekt erfolgen, bishin zum direkten Aufsetzen (Beleuchtungsabstand 0). Das macht den Einsatz von Dunkelfeldringlichtern bei industriellen Inspektionsaufgaben zum Teil schwierig. Dunkelstrom Strom, der in den ➚Pixeln eines ➚Bildaufnehmers auch ohne Einfall von Licht generiert wird. Dieses Hintergrundsignal erzeugt Rauschen durch thermisch generierte Elektronen in verschiedenen Schichten eines ➚CCDs. Die Höhe des Dunkelstroms ist abhängig von der Architektur des Bildaufnehmers, der Betriebsart und der Umgebungstempereratur und für jedes Pixel verschieden groß. Kann durch ➚Schwarzreferenzpixel kompensiert werden. Der Dunkelstrom eines Bildaufnehmers verdoppelt sich jeweils bei einer Temperatursteigerung um 9K. Duplex Datenübertragung in beiden Richtungen. Vollduplex: Datenübertragung in beiden Richtungen gleichzeitig. Halbduplex: jeweils nur ein Gerät kann senden und das andere empfangen. Lexikon der industriellen Bildverarbeitung Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 34 Eingriffsgrenzen Durchlichtbeleuchtung Beleuchtungsrichtung, bei dem die Beleuchtung im Halbraum hinter der ➚Objektebene liegt. Anwendungen immer dann, wenn es bei kontrastreicher Abbildung (Schattenbilder) um hohe Genauigkeiten geht, z.B. bei der Vermessung von ➚Prüfobjekten. Durchlichtbeleuchtungen benötigen i.A. Objekte, die nicht sehr durchscheinend sind. Diffuse Leuchtflächen sorgen bei Durchlichtbeleuchtung für gleichmäßige Helligkeit. Die Grenzen der Durchlichtbeleuchtung werden meist von der Anlage vorgegeben, in die die Beleuchtung eingebaut wird. Grundsätzlich ist die Durchlichtbeleuchtung die ideale Beleuchtung für die Bildverarbeitung, da sie die Abbildung weitgehend unabhängig von den optischen Eigenschaften der Prüfobjekte macht. Für Durchlichtbeleuchtungen ist die ➚Leuchtdichte eine entfernungsunabhängige Größe und konstant, d.h. unabhängig vom ➚Beleuchtungsabstand. Typische Beipiele für Durchlichtbeleuchtungskomponenten sind: ➚telezentrische Beleuchtungen, diffuse Flächenbeleuchtungen. Dynamic Link Library Sammlung von spezifischen Programmen unter Windows®, die bestimmte Dienste für andere Programme realisieren, z.B. Treiber. Bei Bedarf werden sie von einem Anwenderprogramm aufgerufen. Sie werden nicht zusammen mit dem Anwenderprogramm in den Arbeitsspeicher geladen und sparen damit Speicherplatz. Dynamikumfang Verhältnis zwischen Sättigungsspannung und Dunkelstromrauschen eines ➚Bildaufnahmers. Dynamikumfang = 20 log (Usätt./Urausch). Typische Dynamikumfänge von ➚CCDs liegen zwischen 50 und 80 dB. Der Dyna-mikumfang der ➚Digitalisierungstiefe ist geringer als der des Bildaufnehmers. Das ist verständlich, da ja das Dunkelstromrauschen weit im niedrigwertigsten digitalisierten bit untergehen sollte: Dynamikumfang der Digitalisierung: 8 bit 255 Grauwertstufen > 48 db 10 bit 1024 Grauwertstufen > 60 db 12 bit 4096 Grauwertstufen > 72 db 14 bit 16384 Grauwertstufen > 84 db Zum Vergleich: Das menschliches Auge hat einen Dynamikumfang von 120 db (dynamische Anpassung mit Iris, vergleichbar mit 106 Grauwertstufen). Hohe Dynamik bedeutet letztendlich besseren ➚Kontrast im Bild. Dynamische Schwelle, auch lokales ➚Schwellwertverfahren. Verfahren, bei dem der ➚Schwellwert entsprechend lokaler oder globaler Parameter des Bildes (meist Helligkeit) nachgeführt wird. Wird u.a. für das ➚Antasten genutzt. Die dynamische Schwelle wird angewendet, um Änderungen in der Helligkeit (Alterung, Helligkeitsdrift) auszugleichen. Lexikon der industriellen Bildverarbeitung E ECC200 Code Häufig genutzter ➚Data Matrix Code. Echtzeit Zeitverhalten von Systemen, auf ein äußeres Ereignis in einer definierten Zeit (der Reaktionszeit) zu antworten. Die Reaktionszeit für Echtzeitsysteme kann je nach Aufgabe sehr verschieden sein (Beispiele: Antiblockiersystem – Mikrosekunden, Temperaturregelung – Minuten). Bei industriellen Prüfaufgaben hängen die Anforderungen an die Echtzeitfähigkeit direkt mit der Taktzeit des unverzögerten Teileflusses zusammen. In der industriellen Bildverarbeitung ist es die Fähigkeit eines Systems, eine vollständige Analyse und Auswertung eines ➚Prüfobjektes vor dem Eintreffen des Nächsten auszuführen. Im Extremfall kann das eine Verarbeitung der Informationen im Takt der ➚Bildfrequenz, in VideoEchtzeit, bedeuten. Echtzeitfähigkeit wird besonders von Bildverarbeitungssystemen mit mehreren Kameras gefordert, damit diese gleichzeitig den ➚Bildeinzug realisieren können. (s. auch Zykluszeit) Effektive Pixel ➚Lichtempfindliche Fläche EIA ➚Electronic Industries Association Eichung ist eine von der staatlichen Eichbehörde nach gesetzlichen Vorschriften vorgenommene Prüfung für den rechtsgeschäftlichen Verkehr. (s. auch Kalibrierung) Eigensicherheit Eigenschaft eines Systems, auch bei Ausfall bestimmter Funktionen sicher zu funktionieren. Die zu gewährende Sicherheit kann sich beziehen auf: Leben und Gesundheit, Qualität u.ä. Eigensicherheit von Anlagen mit Bildverarbeitung, bezogen auf die Qualität bedeutet: Bei Funktionsausfall einzelner Systemfunktionen werden alle durchgelaufenen Teile der Klasse „Schlechtteile“ zugeordnet. Bei der Programmgestaltung von Bildverarbeitungsprogrammen ist der Eigensicherheit Rechnung zu tragen. Eindimensioneller Code ➚Bar-Code Einfallswinkel Winkel zwischen dem einfallenden Strahl auf eine Oberfläche und deren Flächennormale. Eingespiegelte Beleuchtung ➚Koaxial eingespiegelte Beleuchtung Eingriffsgrenzen bezeichnen Warnwerte, die kleiner/ größer als der ➚obere/➚untere Grenzwert sind. Die Festlegung von Eingriffsgrenzen erfolgt gemäß der Annahme, dass sich ein Prozess ideal verhält (konstantes Prozessniveau und konstante Streuung). Eingriffsgrenzen werden so festgelegt, dass sie von der Prüfgröße nur mit einer kleinen Wahrscheinlichkeit erreicht, unteroder überschritten werden. Das Einrichten der Eingriffsgrenzen muss sorfältig geschehen, da bei kleinen Eingriffsgrenzen häufiger in den Prozess eingegriffen werden muss („blinder Alarm“). Ist der Abstand der Ein- 25 D E Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 35 Einschraubtiefe E griffsgrenzen zu groß, kommt es dazu, dass ein erwünschtes Eingreifen in den Prozess ausbleibt („unterlassener Alarm“). Einschraubtiefe ➚Eintauchtiefe Einstellbare Blende Möglichkeit am ➚Objektiv über einen Blendring den ➚Lichtstrom, der durch das Objektiv fließt, zu beeinflussen. Einstellbare Blenden können manuell oder motorisch (s. auch Auto-Iris) gesteuert sein und funktionieren meist als Iris-Blenden mit Blendenlamellen. Je mehr Lamellen, desto besser das symmetrische Beschneiden des Lichtstromes (geringere ➚Abbildungsfehler). Für industrielle Anwendungen sollten einstellbare Blenden über eine Feststellmöglichkeit verfügen, um die Selbstverstellung durch Vibrationen oder die Verstellung durch Bedienpersonal zu vermeiden. Einstellentfernung Auf dem Entfernungseinstellring eines Objektivs angezeigter ➚Arbeitsabstand bei Scharfeinstellung. Die kürzeste Einstellentfernung, auch MOD (minimal object distance) genannt, ist der kürzeste am Entfernungseinstellring des Objektivs einstellbare ➚Arbeitsabstand. Die kürzeste Einstellentfernung ist bei langbrennweitigen Objektiven größer als bei kurzbrennweitigen Objektiven. Verkürzt werden kann die kürzeste Einstellentfernung durch die Verwendung von ➚Zwischenringen oder ➚Nahlinsen. Eintauchtiefe, auch Einschraubtiefe. Linsen und Fassungsteile von ➚Objektiven ragen in den Bauraum zwischen ➚Objektivauflagefläche und ➚Bildaufnehmer in die Kamera hinein. Die Herstellerangaben über Eintauchtiefe sind zu beachten, da bei zu großer Eintauchtiefe (z.B. bei Nutzung von artfremden Objektiven). Schäden am ➚Deckglas des ➚Bildaufnehmers auftreten. Eintrittspupille Bild der ➚Öffnungsblende, das von der Frontseite des Objektivs aus sichtbar ist. Electronic Industries Association EIA. Nordamerikanische Industrievereinigung der elektronischen Industrie. EIA steht in Zusammenhang mit ➚CCD-Kameras für die amerikanische und japanische Video-Norm von Schwarz/ weiß-Bildern mit einer ➚Bildfrequenz von 60 Halbbildern pro Sekunde und 525 Zeilen. www.eia.org Elektrolumineszenz Art kalter Lichterzeugung durch nichtthermische Umwandlung elektrischer Energie in ➚Licht in Flüssigkeiten oder festen Stoffen. An p-n-Übergängen von ➚Leuchtdioden tritt Elektrolumineszenz auf. Elektromagnetische Verträglichkeit ist die Fähigkeit von elektrischen Geräten in einer elektromagnetischen Umgebung in vorgegebener Weise zu arbeiten sowie die Umgebung freizuhalten von unzulässig hohen elektromagnetischen Wirkungen. Durch die rauen Gegebenheiten im industriellen Umfeld (Übersprechen, Störfelder, Transienten, ...) wirkt die elektromagnetische Verträglichkeit direkt auf das Bildverar- 26 beitungssystem ein. Diese Störgrößen haben direkten Einfluss auf die Genauigkeit und Zuverlässigkeit eines Bildverarbeitungssystems. Elektronischer Shutter ➚Shutter Elliptische Polarisation ➚Polarisation EMC Electromagnetic Capability ➚Elektromagnetische Verträglichkeit Empfindlichkeit beschreibt den Zusammenhang zwischen der auf einen ➚Bildaufnehmer einfallenden Beleuchtung und das am Ausgang erzeugte Spannungssignal. EMV ➚Elektromagnetische Verträglichkeit EMVA European Machine Vision Organization. Europäische Machine Vision Vereinigung. 2003 gegründet. www.emva.org Endoskop Optisches Gerät zur Inspektion schwer zu erreichender Hohlräume, Kammern, Motoreninnenräume. Häufig zur medizinischen Diagnostik genutzt. Benutzt getrennten Abbildungs- und Beleuchtungsstrahlengang. Die ➚Lichtquelle befindet sich außerhalb des Endoskops. Starre Endoskope sind schlanke, gerade Röhren. Flexible Endoskope (Glasfaserendoskope) nutzen ➚Bildleitkabel zur Übertragung der optischen Abbildung und ➚Lichtwellenleiter zur Beleuchtung. Vorteil ist die Biegsamkeit, so dass mit Glasfaserendoskopen auch in Hohlräume (Maschinen, aber auch bei der menschlichen Diagnostik) vorgedrungen werden kann, die mit starren Endoskopen nicht erreichbar sind. Mit Vorsatzspiegeln und -optiken kann nicht nur in Richtung der Röhrenachse sondern auch seitwärts abgebildet werden (Bohrungswandungen, Venen, etc.). Dünnste Endoskope haben ca. 1 mm Außendurchmesser. Endoskope werden fast immer in Verbindung mit einer Kamera (hauptsächlich zur Dokumentation) genutzt. Anwendungsfälle mit Bildverarbeitung sind selten. Entfernungsgesetz ➚quadratisches Entfernungsgesetz Entozentrische Perspektive ➚Perspektive Entozentrisches Objektiv Objektiv, das die entozentrische ➚Perspektive nutzt. Bildet entsprechend der Sehgewohnheit des menschlichen Auges ab: nah liegende Objekte erscheinen größer als entfernter liegende. Meistverwendetes Objektiv in der Bildverarbeitung. Sehr kleine Baugrößen sind möglich und verschiedenste Qualitäten (➚Abbildungsfehler). Bei schräger Draufsicht kommt es zu Perspektivfehlern. Anwendung: Für Beobachtungsaufgaben, ➚Anwesenheitskontrolle, ➚attributive Prüfung, ➚Druckbildkontrolle, Farbkontrolle. Die Möglichkeiten zum Messen sind stark eingeschränkt (Ausnahmen: flache, ebene Teile, aber nur bei konstantem ➚Arbeitsabstand). Entprellzeit Bei der Abfrage von digitalen Eingängen einzustellende Zeit, damit das Eingangssignal stabil anliegt. Lexikon der industriellen Bildverarbeitung Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 36 Farberkennung Entspiegelung ➚Vergütung Erosion, auch shrink. ➚Morphologisches Verfahren zum Verdünnen von ➚Konturen. Gegenspieler der ➚Dilatation. (s. auch opening, closing) Erschütterungsfestigkeit ➚Industrietauglichkeit Ethernet ist die zur Zeit bei lokalen Netzen (LAN) am häufigsten angewandte Technologie. Es gibt drei verschiedene Ethernet Topologien: 10Base2, 10Base5 und 10BaseT. Die Übertragungsrate beträgt 10 Mbit/s. Eine Weiterentwicklung ist das Fast-Ethernet mit 100 Mbit/s. Übertragung über Koaxialleitungen, spezielle Vierdrahtleitungen oder Glasfasern. Aus der Bürotechnik entwickelt, dringt das Ethernet nach Möglichmachen von ➚Echtzeit auch in den Feldbereich der Automatisierungstechnik vor. Eine Reihe von Bildverarbeitungssystemen besitzen Ethernetanschluss. (s. auch ISO 8802-3) Expand ➚Dilatation F F-Theta-Objektiv Gruppe von ➚Objektiven, die gewöhnlich in Scannern zur Abtastung großer ➚Gesichtsfelder genutzt wird. F-Theta-Objektive besitzen eine F-ThetaKorrektion, um die Bildhöhe proportional zum Scanwinkel zu machen: „Normale“ Objektive bilden proportional zum Tangens dieses Winkels ab. Falschfarben Zuordnung fremder Farbwerte zu einem Bild. Falschfarben werden zur Visualisierung von Schwarz/ weiß-Bildern genutzt, um geringe ➚Grauwertdifferenzen sichtbar zu machen. Praktische Realisierung u.a. über ➚Look up Tabellen. Faltung bedeutet in der Bildverarbeitung die Verrechnung von Matrizen z.B. bei ➚Bildfiltern. Dabei wird das als Matrix von Helligkeitswerten vorliegende Bild mit der Matrix des Filter-Operators verrechnet. Faltungsverfahren ➚Antastalgorithmus Faltungsverfahren mit maximalem Koeffizienten ➚Antastalgorithmus Farb-Bild-Austast-Synchron-Signal ➚Videosignal Farbabstand ➚Farbdifferenz Farbauflösung Fähigkeit, die ➚Farbvalenzen von Farben auf dem ➚Prüfobjekt zu differenzieren. Das Farbauflösungsvermögen ist damit sehr stark an die Fähigkeiten des ➚Bildaufnehmers gebunden. Ähnlich wie die ➚Grauwertauflösung hängt die Farbauflösung direkt mit der ➚Digitalisierungstiefe zusammen. Weiterhin haben das ➚Signal-Rausch-Verhältnis, der ➚Dynamikumfang, die Verstärkung der einzelnen Farbkanäle des Videosignals, der ➚Weißabgleich, die Homgenität der Beleuchtung sowie Wechselwirkungen mit dem Prüfobjekt Lexikon der industriellen Bildverarbeitung Einfluss. Die Farb-Ortsauflösung auf dem Objekt ist eng mit dem ➚Abbildungsmaßstab verbunden, über den mit der ➚Pixelgröße im Bild festgelegt ist, wie groß das kleinste aufzulösende Farbfeld auf dem Objekt ist. Hier sind Einchip-Farbkameras, auf Grund der Farbaufteilung und Fertigungstoleranz der farbempfindlichen Pixel auf 3 benachbarte Pixel, unempfindlicher als 3-Chip-Farbkameras (➚Farbkamera). Farbbild Digitales Bild im ➚Bildspeicher, bei dem drei zusammengehörige ➚Bildpunkte je eine rote, eine grüne und eine blaue ➚Farbkomponente zugeordnet ist. Dieses Farbtripel wird zur Farbdarstellung genutzt. Mit 3 · 8 bit RGB-Farbkomponenten lassen sich im Farbbild 16 Millionen verschiedene Farben darstellen (➚Farbtiefe). Farbbildverarbeitung Abgeleitet aus den Verfahren und Algorithmen der ➚Binär- und ➚Grauwertbildverarbeitung nutzt die Farbbildverarbeitung noch komplexere Informationen. Die Betrachtungen müssen auf die Verknüpfung aller drei ➚Grundfarben ausgeweitet werden, was die zu verarbeitende Datenmenge erhöht und Farbbildverarbeitung sehr viel rechenzeitaufwendiger macht. Eine Reihe von Anwendungen werden durch Farbbildverarbeitung überhaupt erst möglich, nämlich die Inspektion farbiger Objekte, die bei Grauwertbildverarbeitung denselben Grauwert hervorrufen, so zum Beispiel in der Lebensmittelkontrolle, Qualitätsbewertung von Naturprodukten (Holz) oder die Oberflächenkontrolle an galvanisierten Teilen. Farbdifferenz, auch Farbabstand. Differenz der Werte der ➚Farbkoordinaten. Für jede Farbkomponente ist die Farbdifferenz der Koordinaten gesondert zu betrachten. Farbe Sinneseindruck, der durch das Auge vermittelt wird bei Reizung der Netzhaut durch ➚Licht verschiedener ➚Wellenlängen. (s. auch Farbeindruck, Farbvalenz, Farbmetrik) Farbeindruck Subjektive Bewertung von Farben durch den Menschen. Ungeeignet als Bezugsgröße für die Farbbildverarbeitung. (s. auch Farbvalenz, Farbmetrik) Farbempfindlichkeit ➚Spektrale Empfindlichkeit. Farberkennung Die Nutzung des Merkmals Farbe kann visuelle Inspektionsaufgaben vereinfachen, durch Verbessern des ➚Kontrasts oder Trennen von Objekten vom Hintergrund. Farberkennung schließt drei Bereiche ein: ➚Farbtest, Farbe finden und Farb-➚Mustererkennung. Dazu wird quantisiert, welche Farben und in welchen Anteilen (➚Farbvalenz) in einem ➚Prüffenster vorkommen. Farberkennung kann unter bestimmten Bedingungen (geringe Anzahl von verschiedenen Farben, Bekanntheit, welche Farben vorkommen) auch von Schwarz/weißBildverarbeitungssystemen durchgeführt werden (Nutzung von ➚Lichtfiltern, ➚Komplementärfarbe). (s. auch spektrale Empfindlichkeit, Beleuchtungswellenlänge) 27 E F Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 37 Farbfehler F Farbfehler ➚Abbildungsfehler, der nur bei Beleuchtung mit polychromatischem Licht auftritt. Er wird durch ➚Disperion der optischen Gläser hervorgerufen. Man unterscheidet zwischen Farblängsfehlern, die zu unterschiedlichen ➚Brennpunktlagen für verschiedene ➚Wellenlängen führen und Farbquerfehler, die zu unterschiedlichen ➚Abbildungsmaßstäben für verschiedene Wellenlängen führen (wellenlängenabhängige ➚Verzeichnung). Hochwertige Objekte sind für den ganzen Wellenlängenbereich des sichtbaren Lichtes sowie des nahen Infrarotlichtes farbkorrigiert. Der Einfluss von Farbfehlern in der Schwarz/weiß-Bildverarbeitung lässt sich einfach durch die Nutzung von ➚monochromatischem (einfarbigen) Licht verhindern. (s. auch Weißlicht) Farbfilter Schichten farbiger Stoffe (Glas, Gelatine, Kunststoffe), die Wellenlängenbereiche eines ➚Spektrums dämpfen. Werden als ➚Absorptionsfilter oder ➚Interferenzfilter ausgeführt. Farbfilter lassen besonders den Wellenlängenbereich des Lichtes durch, in dem sie selbst erscheinen. Die ➚Komplementärfarbe wird i.A. besonders gut gedämpft. Eingefärbte Kunststoffe weisen durch Trübung und Ausbleichen keine genügende Langzeitstabilität auf. Über die Verlängerung der ➚Integrationszeit bei der Anwendung von Farbfiltern gibt der ➚Filterfaktor Auskunft. Durch den Einsatz von Farbfiltern in der Schwarz/weiss-Bildverarbeitung lässt sich eine gezielte optische ➚Bildvorverarbeitung zur Kontraststeigerung erreichen. So können durch das bewusste Vorsetzen von Farbfiltern im Schwarz/weiß-Bild auch Farben nachgewiesen werden. Farbfilter-Matrix, auch Mosaikfilter. Flächige Anordnung von kleinen ➚Farbfiltern nach einem festgelegten Muster. Werden für die spektrale Aufbereitung der Helligkeitsinformationen in Farb-Bildaufnehmern (➚Farbkamera) genutzt. Für Einchip-Farbkameras werden immer 3 benachbarte Pixel zur Erfassung der Farbinformation eines Farbpunktes zusammengefasst. So können die drei benachbarten Pixel je ein rotes, grünes, blaues Filter tragen (additive ➚Farbmischung/Transmissionsfilter) oder je ein gelbes, ein zyan und ein magenta (subtraktive ➚Farbmischung/Absorptionsfilter). Farbkamera ➚Bildaufnehmer besitzen für sich keine natürliche Fähigkeit, ➚Farben zu unterscheiden. Gemäß der ➚spektralen Empfindlichkeit des Halbleitermaterials der ➚Pixel unterscheiden sie nur zwischen hell oder dunkel und Zwischenwerten. Um das Silizium des Sensorsubstrats farbfähig zu machen, sind ➚Farbfilter notwendig. Dadurch gibt es zwei Arten von Farb-Kameras: 3-Chip-Farbkamera: Das einfallende Licht wird über spektral und geometrisch teilende ➚Strahlteiler (meist Prismen) in drei Farbauszüge (rot, grün, blau) aufgeteilt 28 und auf drei separate ➚Bildaufnehmer (i.A. ➚CCD) gelenkt, die ihrerseits den jeweiligen Farbauszug als Helligkeit („Grauwert“) registrieren. Dieser Aufbau ist optomechanisch sehr aufwendig, da die drei Bildaufnehmer pixelgenau justiert sein müssen. Vorteil ist die große örtliche Farbauflösung in Höhe der Pixelzahl des Bildaufnehmers sowie die hohe Farbtreue durch großflächig homogene ➚Farbfilter. 3-Chip-Kameras liefern als Videosignal die drei Farbauszüge RGB immer getrennt. Sie sind teuer und verlangen nach hochwertigen Objektiven. Einchip-Farbkamera: Nutzt einen Bildaufnehmer, der durch Aufbringen einer ➚Farbfiltermatrix auf die Pixel farbempfindlich gemacht wurde. Dadurch sind diese Kameras in ihrem Aufbau einfacher, besitzen aber nicht eine so hohe Farbtreue durch die Streuung der Daten der einzelnen mikrooptisch hergestellten Filter auf den Pixeln. Auch beträgt ihre Farb-Ortsauflösung (➚Farbauflösung) nur 1/3 der Pixelzahl des Bildaufnehmers, da immer 3 benachbarte Pixel durch ihre Farbauszüge einen gemeinsamen Farbpunkt charakterisieren. Einchip-Farbkameras sind kostengünstiger als 3-Chip-Farbkameras und liefern meist ein Y/C ➚Videosignal, selten auch RGB. Farbkomponente Einzelner Bestandteil/Farbe (rot, grün, oder blau) des ➚RGB-Farbraumes. Die Farbkomponenten werden im ➚Farbbild in jeweils einem byte oder Wort separat abgespeichert. (s. auch Grundfarben) Farbkontrast beschreibt die Eigenschaft von verschiedenen ➚Farben, trotz gleicher Helligkeit (➚Farbraum), unterscheidbar zu sein. Das setzt einen Mindestabstand ihrer ➚Farbkoordinaten, eine notwendige ➚Farbdifferenz voraus, deren Erkennbarkeit empfängerabhängig ist. Farbkoordinate Kennzeichnet eine Farbe durch ein Zahlentripel gemäß dem verwendeten ➚Farbraum. Die Farbkoordinaten kennzeichnen die ➚Farbvalenz. Farblängsfehler ➚Farbfehler Farbmetrik Quantitative Erfassung des Phänomens ➚Farbe. Drückt den ➚Farbeindruck durch Zahlenwerte aus (➚Farbraum). (s. auch DIN5033) Farbmischung Additive Farbmischung entsteht bei der Mischung von Licht der drei Grundfarben rot, grün, blau in einer Beleuchtungsebene (z.B. mit farbigen LED-Beleuchtungen). Beim Mischen ist die entstehende Farbe heller als die Ausgangsfarben. Dabei ergeben sich folgende Mischfarben: Additive Mischfarben/Mischverhältnisse der Intensitäten: Blau [%] Grün [%] Rot [%] Mischfarbe 100 100 100 Weiß 100 100 – Cyan 100 – 100 Magenta – 100 100 Gelb 100 50 50 Ungesättigtes Blau Lexikon der industriellen Bildverarbeitung Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 38 Farbtiefe – 50 100 Orange 50 100 – Blaugrün 100 50 – Grünblau 100 – 50 Violett 50 50 50 Mittleres Grau 50 50 – dunkles Blaugrün 25 25 25 dunkles Grau – – – Schwarz Subtraktive Farbmischung entsteht bei der Mischung von Farbstoffen (Farbpigmente) oder mehrerer hintereinander angeordneten Farbfiltern der drei Grundfarben rot, grün, blau (z.B. Druckfarben). Beim Mischen ist die entstehende Farbe dunkler als die Ausgangsfarben. Dabei ergeben sich folgende Mischfarben: Subtraktive Mischfarben/Mischverhältnisse der Intensitäten: Blau [%] Grün [%] Rot [%] Mischfarbe 100 100 100 Schwarz 100 100 – Rot 100 – 100 Grün – 100 100 Blau 50 50 – helles Rot 100 25 100 dunkles Grün 100 25 25 dunkles Gelb 50 – 100 Blaugrün 50 50 50 mittleres Grau 25 25 25 helles Grau 25 25 – Rosa 100 100 25 Braun – – – Weiß (s. auch Komplementärfarbe) Farbmodell ➚Farbraum Farbquerfehler ➚Farbfehler Farbraum Objektive Beschreibung von Farben durch 3 Komponenten, den ➚Farbvalenzen, unabhängig von der menschlichen Wahrnehmung. Verschiedene Farbräume können ineinander umgerechnet werden. RGB-Farbraum: (Rot-Grün-Blau-Farbraum). Zugeordnete Farbvalenzen sind für Rot (700 nm), Grün (546 nm), für Blau (436 nm) (➚CIE-Standard). Die Darstellung eines Farbwertes aus den Komponenten Rot, Grün und Blau (additive Farbmischung) kann direkt aus dem ➚Videosignal einer ➚Farbkamera erfolgen. Die grafische Darstellung erfolgt im RGB-Farbdreieck oder RGB-Würfel (0, 0, 0 ist Schwarz und 1, 1, 1 ist Weiß). Die RGB-Komponenten werden zum Beispiel beim ➚Farbtest genutzt. HSI-Farbraum (wahrnehmungsorientiert): Hue-Saturation-Intensity (Farbton, Farbsättigung, Helligkeit). Abgeleitet aus dem RGB-Farbraum (Kamerawerte). Darstellung in Zylinderkoordinaten: H beschreibt den Winkel über den Umfang, S den Radius, I die Höhe im Zylinder. Oft für Machine Vision genutzt. Der HSI-Far- Lexikon der industriellen Bildverarbeitung braum wird genutzt, weil sich nicht alle Farbtöne durch Spektralfarben darstellen lassen (z.B. Körperfarben bei Wechselwirkung mit dem einfallenden Licht). Farbton H: Wert zur Farbunterscheidung. Farbtöne sind in einem Farbkreis angelegt. Der Farbton legt die Position einer Farbe entlang des Umfangs des Kreises fest. 0/360 Grad ist Rot, 120 Grad ist Blau, 180 Grad ist Cyan, 240 Grad ist Grün. Zwischenwerte entsprechen der additiven ➚Farbmischung aneinandergrenzender Farben. Unbunte Farben wie Weiß, Grau und Schwarz besitzen keine H-Komponente. Farbsättigung S: Beschreibt die spektrale Reinheit einer Farbe, d.h. je enger der Wellenlängenbereich ist, der zur Farbe beiträgt, desto reiner ist die Farbe. Der Grad der Sättigung wird in Prozent ausgedrückt, von 0% (keine Farbintensität – auf der Zylinderachse) bis 100% (volle Farbintensität – Außenrand des Zylinders). Bei abnehmender Farbsättigung wird die Farbe grauer. Auf der Zylinderachse sind alle Farben unbunt. So z.B. hat ein Schwarz/weiß-Bild einen Farbsättigungswert von 0%. Helligkeit I: Beschreibt die Helligkeit des Lichtes und ist damit mit dem Energiebegriff verbunden. Die Helligkeit bezieht sich auf die Weiß- und Schwarzanteile in einer Farbe (Höhe innerhalb des Zylinders). Sie wird in Prozent ausgedrückt, von 100% (nur Weiß) bis 0% (nur Schwarz). Bei 50% Helligkeit erhält man den reinsten Farbton. CIE-Farbraum: Nutzt andere (beliebige) Grundfarben (X, Y, Z) zur Farbbeschreibung als der RGB-Farbraum. CMY-Farbraum: Findet keine Verwendung in der Bildverarbeitung. Wird bei der subtraktiven ➚Farbmischung (besonders für Druckfarben) genutzt. Weiterhin LAB-Farbraum. Farbsättigung ➚HSI-Farbraum Farbtemperatur Temperatur, die ein schwarzer Körper haben müsste, um in einer bestimmten Farbe zu erscheinen. Dient zur Charakterisierung von Lichtquellen. Norm-Farbtemperatur für Tageslicht: 5500 K; Klarer Sonnenhimmel: 10000 K; Abendrot: 3000 K; Kerze: 1900 K; ➚Halogenglühlampe: 2850 K ➚Gasentladungslampe: 6250 K. Die Farbtemperatur hat Einfluss auf die Farbwiedergabe. (s. auch Weißabgleich) Farbtest Funktion zur Farbprüfung. Um Farb-Oberflächendefekte zu erkennen, wird eine Farbkontrolle innerhalb des ➚Prüffensters durchgeführt. Dabei werden die Werte der ➚Farbkomponenten Rot, Grün und Blau jeweils einzeln getestet, toleriert und mit einer Referenzfarbe verglichen. (s. auch Farbraum) Farbtiefe ist der auf drei Farbkomponenten erweiterte Begriff der ➚Digitalisierungstiefe. Die Farbtiefe ist ein Maß für die Anzahl darstellbarer Farben. Wird jede Farbe mit 29 F Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 39 Farbton F einer Digitalisierungstiefe von n bit digitalisiert, so lassen sich durch die Beschreibung von Farben aus drei ➚Farbkoordinaten 2n · 2n · 2n Farben darstellen. Damit herrscht eine Farbtiefe von 3 · 2n bit. Beipiel: Bei 8 bit Digitalisierungstiefe für jede der drei Farbkomponenen bedeutet das: 256 · 256 · 256 = 16,7 Millionen verschiedener darstellbarer Farben, d.h. 24 bit Farbtiefe. Wie gut die ➚Farbauflösung ist, hängt nicht nur von der Farbtiefe ab, sondern einer Reihe weiterer Faktoren (➚Farbsensor, ➚Farbkamera) Farbton ➚HSI-Farbraum Farbübergang ➚Kantenübergang Farbvalenz Maß für die Farbempfindung. Dreidimensionale Größe (Vektor) im ➚Farbraum. Faserbündel Zusammenfassung vieler ➚Lichtwellenleiter zur Vergrößerung des lichtleitenden Querschnitts für möglichst hohen Lichtstrom. Faserbündel werden häufig zur Lichtleitung von Licht aus ➚Kaltlichtquellen genutzt. Dazu werden sie an einem Ende mit einem herstellerspezifischen Anschlussstück an der Kaltlichtquelle versehen. Das andere Ende kann zu einem ➚Querschnittswandler geführt werden. (s. auch Bildleiter) Faserlichtquelle ➚Kaltlichtquelle FBAS-Signal Farb-Bild-Austast-Synchron-Signal. ➚Videosignal Fehlerbild bezeichnet das Bild eines Schlecht-Teiles im ➚Bildspeicher. Fehlerbilder werden meist zur Dokumentation und für Rückschlüsse auf die Fehlerentstehung gespeichert. Fehlerbilder bilden die Grundlage für die ➚Fernwartung. Fehlerfortpflanzung Die ➚systematischen Fehlereinflüsse (vorzeichenbehaftete Einzelfehler, durch partielle Ableitung berechnet) jeder einzelnen Komponente der Bildverarbeitungsanlage werden zum maximal möglichen Gesamtfehler addiert (lineares Fehlerfortpflanzungsgesetz). Treten zufälltige Fehler oder unerfasste systematische Fehler auf, so wird das quadratische Fehlerfortpflanzungsgesetz angewendet. Der Gesamtfehler bestimmt die erreichbare Messgenauigkeit. (s auch Genauigkeit einer Bildverarbeitungsanlage) Feldbus Bussystem, im prozessnahen Bereich, das häufig einfache Informationen überträgt, an das jedoch hohe Anforderungen an die Zuverlässigkeit (vielfältige mögliche Störeinflüsse) gestellt werden. Lange Übertragungsstrecken und verschiedenste Endgeräte mit eigener Intelligenz (Sensoren, Aktoren) sind typisch. Die Datenübetragung muss möglichst in ➚Echtzeit erfolgen. Durch die Busstruktur sind Feldbusse hinsichtlich Planungs- und Installationsaufwand gegenüber koventioneller Verdrahtung sehr effektiv. ➚CAN-Bus, ASI sind für einfache Ein-/Ausgabe-Einheiten geeignet; ➚Interbus-S, ➚Profibus sind anspruchsvoller und unterstützen die 30 Kommunikationsfunktionen zwischen Rechnern und Funktionsmodulen. Feldbus-Master Steuert den Datenverkehr eines Feldbussystems. Der Datenaustausch zwischen dem Master und den Slaveteilnehmern erfolgt grundsätzlich nur nach Anfrage vom Master. Fernsehnormen ➚NTSC, ➚PAL, ➚RS-170, ➚SECAM Fernsteuerschnittstelle Leistungsfähige Bildverarbeitungssysteme zeichnet die Möglichkeit aus, von außen ferngesteuert zu werden, was vielfältige Möglichkeiten der Einbindung in Automatisierungsanlagen zulässt. So kann das Bildverarbeitungssystem als programmierbarer Sensor genutzt werden, der immer auf Anforderung reagiert, das System kann in spezielle Bedienoberflächen eingebunden werden oder als Slave im Bussystem agieren. Auch ermöglicht dieses Feature das einfache Umprogrammieren vieler Systeme von einem Leitrechner aus. Schnittstellen dazu sind ➚RS-232, ➚CAN-Bus, ➚Ethernet. Basis für die Kommunikation mit dem Bildverarbeitungssystem ist meist ein blockorientiertes Protokoll. Nachdem die Blocklänge an das Bildverarbeitungssystem mitgeteilt wurde, wird die Befehlskennung des auszuführenden Bildverarbeitungsbefehls gesendet, gefolgt von den dazugehörigen Parametern sowie zur Datensicherheit gefolgt von einer Checksumme. Danach wird der Befehl im Bildverarbeitungssystem ausgeführt, das Ergbebnis zurückgegeben zusammen mit einem Quittierungssignal für einen erfolgreichen oder fehlgeschlagenen Befehl. In dieser Weise werden alle weiteren Befehle des ferngesteuerten ➚Prüfprogramms abgearbeitet. Fernwartung Bedienung und eigentliche Bildverarbeitung rücken immer mehr auseinander. Dezentralisierte Systeme verlangen nach Möglichkeiten, aus der Ferne in die Fertigungsumgebung einzugreifen. Das gilt auch für Bildverarbeitungssysteme, auf die über Modem, ISDN oder Ehernet/Internet aus der Ferne zugegriffen werden kann. Per Fernwartung können durchgeführt werden: Versionsprüfung von Software und Betriebssystem, Software-update, neu einspielen von Prüfprogrammen, herunterladen von (Fehler-)Bildern. Vielfach ist mit dem Zugriff auf die Daten des Bildverarbeitungssystems auch der Zugriff auf Produktionsdaten möglich, was meistens ungewollt ist. Daher schützen sich viele Unternehmen durch eine ➚Firewall vor Angriffen und ungewünschtem Datenzugriff und verschließen damit auch die Möglichkeit zur Fernwartung. Festblende, auch Fixblende. Nicht einstellbare Blende. Festblenden werden häufig in qualitativ hochwertigen Objektiven verwendet, da durch die Festblende der Einflussparameter ➚einstellbare Blende auf die Abbildungsfehler entfällt. Für Anwendungen der industriellen Lexikon der industriellen Bildverarbeitung Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 40 Flächenbeleuchtung Bildverarbeitung unter besonders extremen Umweltbedingungen (Vibrationen, Schmutz, Feuchtigkeit) werden oft Objektive mit Festblende verwendet, da diese weniger bewegliche Teile beinhalten und so weniger störanfällig sind. Auch entfällt der Blendenmechanismus der Irisblende, der nur schwer gegen das Eindringen von Staub und Feuchtigkeit zu schützen ist. Festbrennweite Die meisten in der Bildverarbeitung verwendeten Objektive nutzen nicht veränderliche Brennweiten. Das Gegenteil zur Festbrennweite bieten ➚Zoom-Objektive. Festmusterrauschen ➚Bildaufnehmer mit Zeilen-Spalten-Struktur besitzen auf Grund von Fertigungstoleranzen im Halbleiterherstellungsprozess Unterschiede in der ➚Empfindlichkeit der einzelnen ➚Pixel. Das macht sich durch das Festmusterrauschen bemerkbar, einem individuellen Grauwertmuster des Bildaufnehmers, wenn er unbeleuchtet oder gleichmäßig beleuchtet ausgelesen wird. Das Festmusterrauschen lässt sich durch Vergleich mehrfachen Bildauslesens über Korrekturwerte in ➚Look up Tabellen kompensieren. Feststellmöglichkeit zeichnet Bildverarbeitungkomponenten für den industriellen Einsatz aus. Alle Einstellelemente sollen fixierbar sein, um sich durch Schwingungen nicht zu verstellen bzw. um nicht von Bedienpersonal verstellt zu werden. Fiberscope ➚Glasfaserendoskop Fiducial Bezeichnung für Referenz-Passmarken für die optische Inspektion, besonders in der Elektroniktechnologie. Filter Vorrichtung um die Intensität, die spektrale Zusammensetzung oder den Polarisationszustand elektromagnetischer Wellen oder deren gespeicherte Information zu ändern. Optische Filter, ➚Lichtfilter, Softwarefilter, digitale Filter (➚Bildfilter) werden verwendet, um Merkmale eines Bildes oder Bildausschnittes (➚Prüffenster) hervorzuheben, zu unterdrücken, oder die Bildqualität zu verbessern. Filterfaktor beschreibt den Verlängerungsfaktor für die ➚Belichtungszeit (➚Integrationszeit) beim Vorsatz von ➚Lichtfiltern vor das Objektiv. Durch das Blocken von Lichtbestandteilen durch Filter gelangt weniger Licht auf den ➚Bildaufnehmer. Der Helligkeitsausgleich erfolgt durch eine längere Belichtungszeit, die sich wie folgt berechnet: Belichtungszeit mit Filter = Belichtungszeit ohne Filter · Filterfaktor. Bei Nutzung mehrerer aufeinander geschraubter Filter müssen die Filterfaktoren zu einem Gesamtfilterfaktor addiert werden. Filtergewinde Standardisierte metrische Feingewinde für ➚Lichtfilter. Weitere Informationen zu Größen unter: www.heliopan.de; www.schneiderkreuznach.com Filterparameter bestimmen die Wirksamkeit von ➚Bildfil- Lexikon der industriellen Bildverarbeitung tern. Filterparameter sind: Filtertyp, Filtergröße (n · m Pixel), Filtergröße (Rechteck, Kreis, n-Eck), Filtersymmetrie, Filterordnungsgrad. Die Filterparameter werden mit den Filterkoeffizienten versehen, Fire Wire auch IEEE 1394. Genormtes serielles Digitalbussystem. Es dient als Verbindung zwischen PC's und PC-Peripherien (z.B. Kameras). Das Bussystem wird über ein einziges Kabel (6-adrig) betrieben, worüber sowohl die Netzspannungsversorgung als auch die Datenübertragung stattfindet. Der IEEE 1394 verfügt über „plug and play“ und „hot plugging“. Die Bustopologie unterstützt die Daisy Chain- und die Peer-toPeer-Kommunikation. Pro Kabelsegment können theoretisch bis zu 63 Geräte angeschlossen werden. Jedes Gerät kann bis zu 4,50 m weit vom nächsten entfernt sein, wobei sich bei Einsatz von Repeatern Längen von bis zu 25 m erreichen lassen. Die Segmente selbst sind mit Brücken erweiterbar, so dass sich ein Verbund von bis zu 1000 Segmenten aufbauen lässt. Seine Leistungsstärke resultiert aus der Nutzung vieler Kanäle zur gleichzeitigen isochronen und asynchronen Datenübertragung. www.1394ta.org Fire Wire Kamera ➚Digitale Kamera, die den ➚Fire Wire als Bussystem nutzt. Fire Wire Kameras benötigen für die Zusammenarbeit mit ➚Framegrabbern spezielle Treiber. Firewall Elektronisch, per Hardware oder Software realisiertes Sicherheitssystem zwischen Netzen, z.B. zwischen einem internen Netzwerk (Intranet) und einem öffentlichen Netzwerk (Internet). Hierbei lassen sich die Zugriffe ins jeweils andere Netz abhängig von der Zugriffsrichtung, dem benutzten Dienst sowie der Authentifizierung und Identifikation des Netzteilnehmers begrenzen oder komplett sperren. Ein weiteres Leistungsmerkmal kann die Verschlüsselung von Daten sein, wenn z.B. das öffentliche Netz nur als Transitweg zwischen zwei räumlich getrennten Teilen eines Intranet genutzt wird. Firewalls stellen häufig für die ➚Fernwartung von Bildverarbeitungssystemen ein Hindernis dar. Fisheye-Objektiv ➚Weitwinkelobjektiv Fix-Fokus-Objektiv Objektiv mit fest eingestelltem ➚Arbeitsabstand. Für Anwendungen der industriellen Bildverarbeitung unter besonders extremen Umweltbedingungen (Vibrationen, Schmutz, Feuchtigkeit) werden oft Objektive mit festem Fokus verwendet, da diese weniger bewegliche Teile beinhalten. Auch entfällt der Schneckengang zur Entfernungseinstellung, der nur schwer gegen das Eindringen von Staub und Feuchtigkeit zu schützen ist. Fixblende ➚Festblende Flächenbeleuchtung Allgemeine Bezeichnung für eine Beleuchtungskomponente, die ein flächenförmiges Helligkeitsprofil erzeugt, unabhängig von der ➚Beleuch- 31 F Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 41 Flächenschwerpunkt F tungsrichtung und den Eigenschaften des verwendeten Lichtes (➚Beleuchtungseigenschaften). Das Gegenteil von Flächenbeleuchtungen sind ➚strukturierte Beleuchtungen. Die Möglichkeiten der Ausführung von Flächenbeleuchtungen sind vielfältig: ➚Leuchstofflampenbeleuchtung ➚CCFL-Beleuchtungen ➚LED-Beleuchtungen ➚Kaltlichtquelle mit ➚Querschnittswandler ➚Laser mit Kollimator. Flächenbeleuchtungen sind die am meisten in der Bildverarbeitung eingesetzten Beleuchtungen. (s. auch Linienbeleuchtung) Flächenschwerpunkt Punkt, an dem sich eine ebene Fläche im statischen Gleichgewicht befindet. Flächenschwerpunkte werden zur Beschreibung (Lage x,y) und Analyse von ➚Konturen oder bei der ➚Blobanalyse verwendet. Flankentriggerung Auslösen eines Ereignisses durch Auftreten einer Flanke (low-high, high-low) in einem digitalen Signal. (s. auch Zustandstriggerung) Flash-EPROM Elektrisch löschbarer und beschreibbarer ROM (read only memory). Flash-EPROMs werden in Bildverarbeitungssystemen genutzt, um Systemdaten, ➚Kalibrierfaktoren, ➚Referenzgeometrien und ➚Prüfprogramme zu speichern, so dass nach Abschalten des Bildverarbeitungssystems oder nach Stromausfall sofort wieder alle systemrelevanten Daten zum Selbststart des Systems vorliegen. Flicker Erscheinung bei ➚Halbbild-Sensoren, bei der die Intensität zwischen beiden Halbbildern (➚Zeilensprungverfahren) verschieden ist. Flimmerfreie Beleuchtung Zeitliche Inhomogenität der ➚Beleuchtungsstärke führt zu Schwankungen im ➚Grauwert des ➚Kamerabildes. Neben langfristiger ➚Drift treten dabei Helligkeitsschwankungen von Bild zu Bild durch zeitlich schwankende Beleuchtungsstärken auf. Flimmerfreie Beleuchtungen tragen dem Rechnung und sorgen durch Ansteuerschaltungen dafür, dass die Periodendauer der Ansteuerfrequenz der Beleuchtung wesentlich kleiner ist als die ➚Belichtungszeit der Kamera. Beleuchtungen, bei denen die Frequenz der Betriebsspannung in Form von Helligkeitsschwankungen „durchgereicht“ werden, können sein: ➚LED-Beleuchtungen, ➚Leuchtstofflampenbeleuchtungen, ➚Kaltlichtquellen. Fluoreszenz Anregung (Induktion) der Strahlungsaussendung durch induzierendes Licht, z.B. ultraviolettes Licht. Die induzierende Wellenlänge ist immer kleiner als die fluoreszierende. Beispiel: Anregung mit ultraviolettem Licht („Schwarzlicht“, Wellenlänge < 380 nm) führt zur Lichtaussendung (Fluoreszenz) im sichbaren Licht. Förderliche Blende Bedingt durch ➚Beugung an Blendenbauteilen sinkt die ➚Bildschärfe mit zunehmender ➚Blendenzahl (➚beugungsbegrenztes Objektiv). Die 32 förderliche Blende stellt hierbei ein Optimum her zwischen möglichst großer Schärfe im Bild und möglichst großer ➚Schärfentiefe. Ausgehend von der getrennten Erkennbarkeit zweier Punkte mit einem Mindestkontrast von 37% ergibt sich für die förderliche Blende k = u’ / (1,22 λ · [ß’ + 1]) mit u’– zulässige Unschärfe im Bild λ – mittlere Beleuchtungswellenlänge ß’– Abbildungsmaßstab (ß’ > 0). Für u’ = 11 µm (Pixelgröße bei 2/3"-Bildaufnehmer) und λ = 550 nm ergibt sich: Abbildungsmaßstab förderliche Blende <1 16 1 8 5 5,6 10 2 Fokussierung a) die Einstellung eines optischen Systems auf eine optimale Bildgüte (➚Abbildungsgüte). Die Einstellung kann fix sein (➚Fix-Fokus-Objektiv), manuell (manuelles Objektiv) oder automatisch (➚Auto-FokusObjektiv) vorgenommen werden. Die Scharfeinstellung eines ➚Objektives sollte nach folgenden Schritten erfolgen: Blende völlig öffnen, Lichtquelle so dämpfen, dass ein nicht übersteuertes Bild entsteht, Fokussieren, Blende/Lichtquelle auf notwendige Einstellung (Blendenzahl/Helligkeit) bringen, dementsprechend Lichtquelle/Blende nachführen. Nach diesem Verfahren ist gewährleistet, dass sich die eingestellte Entfernung etwa in der Mitte des ➚Schärfentiefenbereiches befindet. Fokussierung ist b) die Bündelung paralleler ➚Lichtstrahlen auf einen Punkt (➚Brennpunkt). (s. auch Fokustest) Fokustest Bildverarbeitungsfunktion, die den Fokuswert einer ➚Szene liefert. Der Fokuswert gibt Auskunft über die Qualität der ➚Fokussierung des Objektives an der Kamera. Das schärfstmögliche Bild (bestmögliche Fokussierung) ist dann eingestellt, wenn der Fokuswert ein Maximum aufweist. Die Funktion Fokustest reagiert auf Kontrast. Als Schärfenkriterium können ➚Kanten oder strukturierte Oberflächen herangezogen werden. Anwendung: Die Funktion Fokustest lässt sich zum Aufbau von Regelschleifen zur nachgeführten Scharfeinstellung von Objektiven nutzen. Das ist dann notwendig, wenn der Abstand der Prüfobjekte oder deren Höhe variiert und nicht durch optische Maßnahmen (Abblendung des Objektives, ➚telezentrisches Objektiv) ausgeglichen werden kann. Fotogrammetrie, auch Bildmessung. Verfahren, das Informationen über die dreidimensionale Geometrie und das Vorhandensein von Objekten liefert. Die Fernbereichsfotogrammetrie beschäftigt sich mit der Vermessung der Erde von der Erde und aus der Luft hauptsächlich für die Geodäsie. Lexikon der industriellen Bildverarbeitung Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 42 Freiheitsgrad Die Nahbereichsfotogrammetrie findet Anwendung für die Vermessung von Gebäuden, industrieller Objekte oder in der Mikroskopie. Fotometrie Die Messung von ➚sichtbarem Licht. Im Allgemeinen sind damit gemeint: ➚Leuchtdichte, ➚Beleuchtungsstärke, ➚Lichtstrom, ➚Beleuchtungsstärke. Fotometrische Messungen mit Bildverarbeitung werden auf Intensitätsmessungen zurückgeführt und beinhalten die Messung von: Minimalintensität, Mittelwert der Intensität, Standardabweichung der Intensitätswerte. (s. auch Luxwerttest, dimensionelles Messen) Fotometrische Mitte Integrales ➚Kantenortskriterium, das den Flächenvergleich über bzw. unter dem ➚Grauwertverlauf zur Beschreibung des ➚Kantenortes nutzt. Innerhalb der ➚Kantenbreite wird der Kantenort an der Symmetrielinie definiert, an der die Flächen oberhalb und unterhalb des Grauwertverlaufes gleich groß sind. Fotometrisches Entfernungsgesetz Grundlage für das Verständnis der Helligkeitsverhältnisse beim Beleuchtungsdesign für eine ➚Auflichtbeleuchtung. Aussage ist: Beleuchtungsstärke E ~ 1/Beleuchtungsabstand2. Die ➚Beleuchtungsstärke (auf das ➚Prüfobjekt einfallendes Licht) nimmt mit Quadrat der Entfernung ab. Je weiter die Beleuchtung entfernt ist, desto geringer ist die Beleuchtungsstärke am Objekt. Beispiel: Von 1000 lux Beleuchtungsstärke einer Lichtquelle in 500 mm Entfernung verbleiben bei Vergrößerung des ➚Beleuchtungsabstandes auf 1000 mm noch 250 lux. Bei einem Prüfobjekt aus Stahl (➚Reflexionsgrad ca. 55%) stehen nach der ➚Reflexion der einfallenden Beleuchtung nur noch ca. 138 lx ➚Leuchtdichte für die Kamera zur Verfügung. Bemerkung: Der Abstand Objekt – Objektiv spielt keine Rolle; die ➚Leuchtdichte bleibt konstant. Schlussfolgerung für den praktischen Einsatz: Beleuchtung möglichst nahe am Prüfobjekt positionieren. (s. auch Lichtdurchgang durch Objektive) Fourier-Transformation Mathematische Methode für die Bildverarbeitung zur Bearbeitung der in den Bildinformationen enthaltenen Signale. Die Fourier-Transformation vermittelt Zusammenhänge, die bei der Abtastung und Filterung von Bildern auftreten. Sie ist ein ➚globaler Operator, der die Bildinformation des ganzen Bildes benötigt. Sie wird bei der Bildcodierung, Auswertung periodischer Vorgänge und zur Bestimmung von Formmerkmalen verwendet. FOV field of view ➚Gesichtsfeld Frame svw. vollständiges Bild. Kann als ➚Vollbild oder als 2 ➚Halbbilder auftreten. Frame Transfer Sensor Ein Funktionsprinzip von ➚CCDs. Dabei wird das während der ➚Integrationszeit im lichtempfindlichen Teil des ➚Bildaufnehmers entstandene Lexikon der industriellen Bildverarbeitung ➚Ladungsbild als Ganzes schnell in einen parallelen lichtgeschützten Bereich des Bildaufnehmers verschoben. Während der Integrationszeit für das nächste Bild wird während der ➚Bildaufnahme im lichtempfindlichen Teil des Bildaufnehmers die Bildinformation aus dem lichtgeschützten Teil ausgelesen. Bei zu hellen Regionen im Bild tritt bei Frame Transfer Bildaufnehmern ➚Smear auf. (s. auch Interline Transfer Sensor) Framegrabber setzt die von der Kamera gelieferten ➚Videosignale in ein für den Rechner zugreifbares Format um und legt Bilder im ➚Bildspeicher ab. Die bedienten Kameras können durch externen Takt vom Framegrabber gesteuert sein (➚Genlock). Verschiedene Anzahlen (1, 4, 16) und Möglichkeiten für Videosignaleingänge (schwarz/weiss, Farbe, analog, digital (USB, Fire Wire)) sind möglich. In der ersten Stufe des Framegrabbers erfolgt die Pegelanpassung sowie die Abtrennung der Synchronisationssignale vom ➚Videosignal. Danach wird vom ➚Analog Digital Umsetzer die ➚Digitalisierung des Videosignals vorgenommen. Bei pixelsynchronem ➚Bildeinzug dient der ➚Pixelclock als Abtastsignal. Die Digitalisierung wird mit der ➚Digitalisierungstiefe durchgeführt. Das so entstandene ➚digitale Bild wird über ➚Look up Tabellen in seinem Bildinhalt gezielt verändert und in einem Zwischenspeicher abgelegt. Je nach Ausbaugrad des Framegrabbers kann hier schon eine ➚Bildvorverarbeitung in Hardware mit einem ➚Digitalen Signalprozessor durchgeführt werden. Danach wird das Bild über den Datenbus des PC (häufig ➚PCI-Bus) in den PC-Speicher transferiert. Framegrabber gibt es für verschiedene Bussysteme (➚VME-Bus), jedoch werden sie besonders häufig von PC-basierten Systemen genutzt. Multiprozessorsysteme, die videoechtzeitfähig sind und hochgradig ➚Parallelverarbeitung ermöglichen, sind Stand der Technik. Framerate ➚Bildfrequenz Framework Bedienoberfläche für Smart Cameras. Freiheitsgrad Begriff der technischen Mechanik, der die Bewegungsmöglichkeiten zwischen zwei Teilen beschreibt. Bei freier Beweglichkeit liegen drei mögliche Verschiebungsrichtungen (translatorisch) in x-, y-, z-Richtung sowie drei mögliche Verdrehungen (rotatorisch) (Winkel um die x-, y-, z-Achse) vor. Für Paarungen von Teilen, die nicht beweglich sein sollen, müssen alle 6 Freiheitsgrade verhindert werden. Für zueinander bewegliche Teile werden einzelne Freiheitsgrade freigegeben. Um Bildverarbeitungsanlagen funktionsfähig und zuverlässig zu machen, müssen die Freiheitsgrade gezielt beherrscht werden. Zur gezielten Beeinflussung der Freiheitsgrade zwischen den Komponenten der Bildverarbeitung wird die ➚Justierung verwendet. 33 F Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 43 Fremdlicht F G Fremdlicht Bezeichnung für einfallendes Licht, das ungewollte und nicht kontrollierbare Effekte hervorruft. Fremdlicht ist häufig Licht von der Hallenbeleuchtung oder Sonnenlicht, das nur zu bestimmten Zeiten stört. Maßnahmen zum Ausschalten von Störlicht können sein: Wahl einer kurzen Belichtungszeit (➚Integrationszeit) Einsatz einer lichtstärkeren Beleuchtung, Einsatz einer ➚Blitzbeleuchtung, starke Abblendung des Objektives, Einsatz von ➚Lichtfiltern, besonders ➚Bandpassfilter zusammen mit ➚monochromatischer Beleuchtung, auch Polarisationsfilter (➚Polarisation), Umhausen der Prüfeinrichtung. Fresnellinse ➚Linsenform Frontlinse Kostenfaktor, besonders an ➚telezentrischen Objektiven. Empfindliches Bauteil an vorderster Stelle des Bildverarbeitungssystems. Daher ist der Schutz durch ein ➚Schutzglas oder ein Gehäuse zu empfehlen. Frontlinsendurchmesser ➚telezentrisches Objektiv Füllfaktor Verhältnis der lichtempfindlichen Sensorfläche zur gesamten Sensorfläche, Die Verbesserung des Füllfaktors ist eine vorrangige Aufgabe für Schaltungsdesigner, um die ➚Bildaufnehmer lichtempfindlicher zu machen. Frame Transfer CCD-Sensoren besitzen die größten Füllfaktoren, gefolgt von Interline Transfer CCD-Sensoren. CMOS-Sensoren weisen einen weitaus geringeren Füllfaktor auf. Fullframe-Sensor ➚Vollbild-Sensor G Gammakorrektur Die Gammakorrektur bietet die Möglichkeit, das Videoausgangssignal einer Kamera entsprechend der nichtlinearen Kennlinie (Zusammenhang zwischen Eingangssignal und Lichtstärke) eines Kathodenstrahlröhren-Monitors korrigiert auszugeben. Auch Tonwertkorrektur, das Anpassen von Helligkeitsunterschieden in der Farbwiedergabe sind damit möglich. Gasentladungslampe erzeugt Strahlung durch Gasentladung bei hoher Lichtausbeute (bis zum 20-fachen ➚Strahlungsfluss einer ➚Halogenglühlampe). ➚Leuchtstofflampen, Bogenlampen, ➚Xenonkurzbogenlampen sind Gasentladungslampen. Druck und Art der Lampenfüllung mit Gasen bestimmen wesentlich die Eigenschaften. Als Gase werden Xe, Ar und Metalldämpfe (Hg, Na) verwendet. Da da Gas zum Erzielen seiner Betriebseigenschaften heiß sein muss, benötigen Gasentladungslampen eine Anlaufzeit. Alle Gasentladungslampen müssen mit Strombegrenzung betrieben werden und benötigen daher ein Vorschaltgerät. Auf Grund ihrer zum Teil schwierigen Betriebsbedingungen (Hitze, 34 Hochspannung, Größe und festgelegte Form) werden Gasentladungslampen nur begrenzt in der Bildverarbeitung eingesetzt. Gateway Gerät, das die verschiedene Netze mit jeweils verschiedenen ➚Protokollen miteinander verbindet. Dabei werden die ➚Kommunikationsprotokolle übersetzt. Im Unterschied zu „Bridge“ und „Router“, die die physikalische Art des Netzes umsetzen (z.B. Ethernet/ ISDN), das eigentliche Protokoll (z.B. TCP/ IP) aber unberührt lassen, schaffen Gateways den Zugang zu protokollfremden Netzen (z.B. TCP/IP auf Profibus, RS-232 auf Profibus etc.). Gaußsche Optik ➚Geometrische Optik Gegenfarbe ➚Komplementärfarbe Gegenlicht ➚Durchlicht Gegenlichtbeleuchtung ➚Durchlichtbeleuchtung Gegenstandsgröße ➚Objektgröße Gelb entsteht bei additiver ➚Farbmischung aus Rot und Grün. Farbe, die resultiert, wenn der blaue Farbanteil aus weißem Licht entfernt wird. (s. auch Komplementärfarbe) Genauigkeit ist die systembedingte Abweichung des beobachteten Mittelwertes vom tatsächlichen Mittelwert des untersuchten Merkmals am selben ➚Prüfobjekt. Auch Differenz zwischen Istwert und Sollwert. Im Messwesen wird als Genauigkeit die Differenz zwischen Messwert und dem tatsächlichem Wert verstanden. (s. auch Genauigkeit einer Bildverarbeitungsanlage, messtechnische Grundsätze) Genauigkeit einer Bildverarbeitungsanlage ist eine der am häufigsten gestellten und am schwersten zu beantwortenden Fragen von Bildverarbeitungsanwendern. Oft wird die ➚Genauigkeit einer Bildverarbeitungsanlage zum Kriterium der Machbarkeit. Dabei spielt nicht nur die Frage nach der Anzahl der ➚Pixel eine Rolle, sondern weitere Einflüsse wie: der konstruktive Gesamtaufbau; Zusammenwirken der einzelnen Systemkomponenten; die Temperaturverhältnisse; die Güte der Abbildungs- und Beleuchtungsoptik; die ➚Beleuchtungswellenlänge; die Art und Weise der Signalabtastung; Prinzip und Anwendung von Algorithmen; Art und Qualität der ➚Kalibrierung. Grundsätzlich sind eine hohe ➚Pixelanzahl des ➚Bildaufnehmers, pixelidentischer ➚Bildeinzug, Verwendung ➚telezentrischer Objektive und Beleuchtungen, kurze Beleuchtungswellenlängen, helligkeitsinvariante ➚Antastalgorithmen gute Voraussetzungen für eine hohe Genauigkeit. Die mit Bildverarbeitung erreichbaren Genauigkeiten unterliegen vielfältigen Einflüssen. Je nach Systemkonzeption und Applikation können sie zwischen 0,01 mm (sehr anspruchsvoll, selbst bei kleinem ➚Gesichtsfeld von 2 · 2 mm2 und günstigen Umweltbedingungen), ty- Lexikon der industriellen Bildverarbeitung Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 44 Gerichtete Auflichtbeleuchtung pisch zwischen 0,05 ... 0,1 mm unter Industriebedingungen, bis hinauf in den mm-Bereich bei großen Gesichtsfeldern gehen. Einfluss auf die Genauigkeit einer Bildverarbeitungslösung hat die gesamte Kette des Informationsflusses/vereinte Technikdisziplinen. Nachgewiesen ist, dass die Qualität der Maßverkörperung (➚CCD) ➚Auflösungen von 1/100 Pixel zulässt. Einige Einflussfaktoren auf die Genauigkeit sind: Beleuchtung: ➚Beleuchtungstechnik, örtliche/zeitliche Homogenität, ➚Beleuchtungswellenlänge, ➚Kohärenzgrad der Beleuchtung; ➚Prüfobjekt (stärkster Einfluss!): Objektgeometrie, optische Eigenschaften, ➚Beugung am Objekt; Optik: Gesichtsfeldgröße (➚Abbildungsmaßstab)/➚Bildpunktauflösung, ➚Abbildungsfehler, ➚Kontrast (➚Modulationsübertragungsfunktion), Schärfe der Abbildung, ➚Schärfentiefe der Abbildung, ➚Aliasing, Beugung an Objektivteilen; Kamera: Bildpunktauflösung (CCD-Format), ➚Sättigung, ➚Dynamikumfang, ➚Blooming, ➚Shading, ➚Rauschen, Temperatur, Linearität der Verstärkung, Kameramechanik (Abstände, Winkel); Framegrabber: Art der Synchronisierung, Qualität der ➚Look up Tabellen, Quantisierungsfehler ➚ADU, Linaerität der Digitalisierung, Übersprechen; Software: verwendeter Algorithmus, Auflösung /➚Subpixel-Antastung, Kantensymmetrie und -form, ➚Kantenbreite, Helligkeitsverlauf an der ➚Kante; Mechanik: ➚Positioniergenauigkeit, Auflösung von Aktoren; Der Vergleich zu tastenden Messverfahren wird gern hinsichtlich der erreichbaren Genauigkeiten der industriellen Bildverarbeitung herangezogen. Dabei wird meistens unterschlagen, in welchen Eigenschaften die Bildverarbeitung den tastenden Verfahren überlegen ist (Berührungslosigkeit, Schnelligkeit, Dokumentierbarkeit). (s. auch messtechnische Grundsätze, Mikrometer) Genlock Externe Synchronisationsmöglichkeit für Kameras, die eine frei laufende Kamera (➚Bildeinzug) mit einem externen Master (➚Framegrabber) synchronisiert (➚horizontales/➚vertikales Synchronsignal). Beim Einsatz von Kameras in industriellen Applikationen lässt sich der Zustand permanenter Synchronisation meist nicht herstellen, da die ➚Bildaufnahme durch externe Signale (Lichtschranke, SPS, ...) asynchron getriggert wird (➚asynchrone Bildaufnahme). Geometrieelemente, auch Beschreibungsgeometrie. Geometrieelemente sind geometrische Primitive, mit denen sich die Geometrie eines ➚Prüfobjektes beschreiben lässt. Die beschriebene Geometrie wird im ➚Prüfprogramm als Abbild des Prüfobjektes zur Ermittlung der Ergebnisse genutzt. Geometrieelemente sind: Punkte, Lexikon der industriellen Bildverarbeitung Geraden, Kreise, Ellipsen, Konturen, Ergebnisse. Durch Verknüpfung von Geometrieelementen lassen sich in ➚Prüfprogrammen komplexe Prüfaufgaben lösen. Geometrische Optik, auch Strahlenoptik. Modelliert wird das Phänomen Licht mit Lichtstrahlen. Lichtstrahlen breiten sich im homogenen Medium geradlinig aus. An Grenzflächen zweier Nichtleiter wird das Licht reflektiert oder gebrochen. Die Lichtrichtung (der Strahlengang) ist umkehrbar. Gegenüber der Wellenoptik werden nicht Wellenflächen, sondern deren Normalen in Ausbreitungsrichtung zur Beschreibung genutzt. Diese werden Lichtstrahlen genannt. Da an der optischen Abbildung nicht nur einzelne Lichtstrahlen beteiligt sind, werden Strahlenbündel zur Erklärung herangezogen. Die Strahlenbündel können sich dabei durchkreuzen, ohne sich gegenseitig zu beeinflussen. Die geometrische Optik berücksichtigt nicht die ➚Beugung, ist aber als Sonderfall in der Wellenoptik enthalten. Gepulste Beleuchtung Im Unterschied zur ➚Blitzbeleuchtung ist die Leuchtdauer der gepulsten Beleuchtung länger. Die Leuchtdauer kann im Bereich der Belichtungszeit, aber auch darüber liegen. Gepulste Beleuchtungen werden bei normalem Betriebsstrom der ➚Lichtquellen für kurze Zeiten ein- und ausgeschaltet. Die Aus-Zeit kann gegenüber der Ein-Zeit sehr groß werden. (s. auch statische Beleuchtung) Gerade antasten Funktion, die das ➚Antasten mehrerer Punkte sowie die Bildung der ➚Bestgerade zusammenfasst. Als Ergebnis werden abgelegt: Lage der Gerade, Geradheit. Zur Erhöhung der statistischen Sicherheit werden beim Gerade antasten mehrere parallel liegende Antastungen genutzt, die ihrerseits aus mehreren parallelen ➚Antaststrahlen bestehen können (➚Antastbreite). Die Nutzung dieses Verfahrens empfiehlt sich, wenn Kanten erkannt werden sollen, die verschmutzt sind, ausgefranst sind, Bearbeitungsspuren aufweisen oder anders strukturiert sind. Gerade definieren Die Nutzung von ➚Geometrieelementen lässt es zu, Geometrieelemente neu zu kombinieren und dadurch neue Geraden zu definieren durch: Gerade aus zwei Punkten; Gerade aus n Punkten; Lotgerade auf Gerade; Parallele durch Punkt; Gerade durch Schnittpunkte zweier Kreise; Tangente an Kreis; Symmetriegerade; Verschiebung von Geraden. Geradheit ➚Bestgerade Gerichtete Auflichtbeleuchtung ➚Beleuchtungstechnik, die ➚Auflichtbeleuchtung mit der „gerichteten“ Beleuchtungseigenschaft kombiniert. Einflussfaktoren für die Wirksamkeit gerichteter Auflichtbeleuchtungen sind: ➚Lichtrichtung; ➚Lichteinfallswinkel; ➚Beleuchtungsabstand. 35 G Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 45 Gerichtete Beleuchtungen G Anwendung: gleichmäßiges Beleuchten von diffus reflektierenden flachen (ebenen) Flächen; bewusstes Hervorheben gerichteter Störstrukturen (z.B. Kratzer, Kanten) durch ➚Streuung (➚Dunkelfeld-Auflichtbeleuchtung); Oberflächenkontrolle (zufällige Richtung der Fehler); Ausleuchten von Spalten. Telezentrisches Auflicht ist nur selten sinnvoll, da die Oberflächenstruktur des ➚Prüfobjektes durch Streuung die Telezentrie zerstört (➚koaxial eingespiegelte Beleuchtung). Komponenten zur Erzeugung: gerichtete ➚Flächenbeleuchtungen, gerichtete ➚Ringlichter, ➚telezentrische Beleuchtungen Gerichtete Beleuchtungen haben einen Schwerpunkt in ihrer Abstrahlcharakteristik, wobei die Abstrahlchrakteristiken sehr verschieden sein können (kugel- bis keulenförmig). Auch können sie mit Einzellichtquellen (Halogenglühlampenspot) oder mehreren Lichtquellen (LED-Array) ausgestattet sein. Letzteres führt durch die Überlagerung mehrerer gerichteter Einzellichtquellen zu einer besseren ➚Lichtstärke und einer homogeneren Helligkeitsverteilung innerhalb der beleuchteten Fläche. Die erreichte ➚Bestrahlungsstärke auf dem Objekt ist abhängig vom Beleuchtungsabstand (➚fotometrisches Entfernungsgesetz). Schon geringe Abweichungen der Einbaulage (➚Lichteinfallsrichtung, ➚Lichteinfallswinkel) machen sich durch das Vorhandensein einer Vorzugsrichtung stark in der Abbildung (➚Helligkeit, ➚Kontrast) bemerkbar. Anwendung: gezieltes Hervorheben von Kanten, Oberflächenstrukturen durch Schattenbildung, gezielte Übersteuerung zur lichttechnischen Bildvorverarbeitung. Möglichkeiten der Erzeugung: alle bildverarbeitungstypischen ➚Lichtquellen. Leuchtstofflampen nur eingeschränkt. Werden bis auf wenige Ausnahmen (➚gerichtete Durchlichtbeleuchtung) meist im ➚Auflicht (➚gerichtete Auflichtbeleuchtung) verwendet. Gerichtete Durchlichtbeleuchtung kombiniert die ➚Beleuchtungsrichtung ➚Durchlicht mit ➚gerichteter Beleuchtung. ➚Beleuchtungstechnik, die selten zur Anwendung kommt. Kann nur für die gezielte Beleuchtung von Spalten, Lücken, geneigte Flächen oder für durchscheinende, selbst diffus machende Prüfobjekte (➚Diffusor) genutzt werden. Erreichbar durch gerichtete ➚Flächenbeleuchtungen, gerichtete ➚Ringlichter. Eine Sonderform ist die ➚telezentrische Durchlichtbeleuchtung. Gesamtvergrößerung ➚Monitorvergrößerung Geschlossene Kontur ➚Kontur Gesichtsfeld Bild- oder objektseitige Begrenzung des vom Bildaufnehmer gesehenen Objektfeldes. Für die meisten Anwendungen der industriellen Bildverarbeitung wählt man das Gesichtsfeld ca. 10% größer als die ➚Objektgröße, um die ➚Positioniergenauigkeit von Handha- 36 bungssystemen auszugleichen. Je nach Anwendung (z.B. bei einer Übersichtsdarstellung) kann das Gesichtsfeld auch viel größer sein als die Objektgröße. Gesichtsfeldwinkel Der Gesichtsfeldwinkel hängt von der ➚Bildaufnehmergröße und der genutzten ➚Brennweite des ➚Objektives ab. Er ergibt sich, gemessen im ➚Perspektivitätszentrum des ➚Objektives, durch die Begrenzung des Gesichtsfeldes durch den Bildaufnehmer. Je kürzer die Brennweite, desto größer der Gesichtsfeldwinkel. Da ➚Bildaufnehmer in vielen Fällen ein Breiten-/Höhenverhältnis besitzen (➚Seitenverhältnis), das ungleich 1 ist, ergeben sich in vertikaler und horizontaler Richtung verschiedene Gesichtsfeldwinkel im gleichen Verhältnis wie das Breiten-/Höhenverhältnis des Bildaufnehmers. Typische horizontale Gesichtsfeldwinkel in Grad sind: BW 2/3"-BA 1/2"-BA 1/3"-BA Brennweite (BW) 3,5 104 77 Bildaufnehmer (BA) 4,5 79 60 6 57 44 8 60 45 34 10 46 34 25 12 31 23 16 31 23 17 25 20 15 11 35 14 11 8 50 10 7,5 5,6 75 6,7 5 3,7 100 5 3,8 2,8 (s. auch Weitwinkelobjektiv, Teleobjektiv) Gestreute Reflexion ➚Diffuse Reflexion Gitterprojektionsverfahren Zusammenfassende Bezeichnung verschiedener Verfahren zur dreidimensionalen makroskopischen Vermessung von Oberflächen (vgl. ➚Interferometrie und Bildverarbeitung), die auf der Projektion von Streifenmustern auf das ➚Prüfobjekt beruhen. (s. auch codierten Lichtansatz, Moiré-Verfahren, Phasenshiftverfahren) Glasfaser ➚Lichtwellenleiter Glasfaserendoskop ➚Endoskop Globaler Operator mathematische Funktion, bei dem der Grauwert des neu zu berechnenden Pixels von der Gesamtheit der anderen Pixel des Bildes abhängt. Beispiel: ➚Fourier-Transformation. Glühlampe ➚Halogenglühlampe Golden Piece ➚Kalibrierkörper Gradient Vektor (Richtung und Betrag) des größten Anstieges (1. Ableitung) einer Größe in einem Feld. Auf die Bildverarbeitung bezogen: Richtung des größen Helligkeitanstieges. Viele Verfahren der Bildverarbeitung beruhen auf der Auswertung von Helligkeitsgradienten im Bildfeld zum Finden von ➚Kanten, zur ➚Segmentierung oder zur ➚Texturanalyse. (s. auch Antastalgorithmus) Lexikon der industriellen Bildverarbeitung Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 46 Halbbild-Sensor Gradientenalgorithmus ➚Antastalgorithmus Gradientenverfahren ➚Antastalgorithmus Graufilter ➚Neutralfilter Grauwert Bezeichnung des Helligkeitswertes eines ➚Pixels. Der minimale Grauwert 0 ist bei völliger Dunkelheit erreicht und der maximale Grauwert bei der ➚Sättigungsbeleuchtungsstärke. Die Größe des maximalen Grauwerts hängt von der ➚Digitalisierungstiefe ab. (s. auch mittlerer Grauwert) Grauwertalgorithmus ➚Antastalgorithmus Grauwertantastung ➚Antastalgorithmus Grauwertauflösung ist die Anzahl der von einem ➚Bildaufnehmer auflösbaren ➚Grauwerte und hängt direkt mit der ➚Digitalisierungstiefe zusammen. Die Grauwertauflösung eines Bildverarbeitungssystems bestimmt neben dem geometrischen ➚Auflösungsvermögen die mit dem Bildverarbeitungssystem erreichbare ➚Genauigkeit von ➚Antastalgorithmen. Weiteren Einfluss auf die Grauwertauflösung haben das ➚SignalRausch-Verhältnis sowie der ➚Dynamikumfang. Grauwertbereich Beschreibt den minimal und maximal möglichen/tolerierten Wert des ➚Grauwertes. Die Angabe eines Grauwertbereiches wird von einigen Bildverarbeitungsfunktionen wie das ➚Pixel zählen genutzt. Grauwertbild Digitales Bild im ➚Bildspeicher, bei dem jedem ➚Pixel ein ➚Grauwert zugeordnet ist. Grauwertbildverarbeitung nutzt im Unterschied zur ➚Binärbildverarbeitung und ➚Farbbildverarbeitung ➚Grauwerte zur Gewinnung der Bildinformationen. Grauwertdarstellung 1.) Darstellungsweise am Monitor des Bildverarbeitungssystem, bei dem ➚Grauwerte und keine ➚Binärwerte oder ➚Farben zur Darstellung herangezogen werden. 2.) Darstellung des ➚digitalen Bildes im ➚Bildspeicher in ➚Grauwerten. Grauwertdifferenz Unterschied zwischen den ➚Grauwerten verglichener ➚Pixel. Die erreichte Grauwertdifferenz ist eine direkte Auswirkung des ➚Kontrastes. Grauwertkorrelation Im Unterschied zu binären Verfahren, die nur Schwarz/Weiß-Informationen nutzen, werden bei der Grauwertkorrelation (➚Korrelation) die ➚Grauwerte bei der Korrelation eines ➚Objektes mit einem Bild herangezogen. Grauwertprofil ➚Kantenübergang Grauwertschwelle ➚Schwellwert Grauwertsprung Änderung des ➚Grauwertes auf dem ➚Bildaufnehmer von einem ➚Pixel zu nächsten mit großer ➚Grauwertdifferenz. Das Gegenteil vom Grauwertsprung ist der Grauwertverlauf (➚Kantenübergang). Grauwertsprünge treten beispielsweise an Kantenübergängen bei ➚Sättigung auf und sind für ➚Antastalgorithmen problematisch, da keine mathematisch de- Lexikon der industriellen Bildverarbeitung finierten Verhältnisse vorliegen (Funktionen an unstetigen Stellen nicht definiert). Grauwertstufen ➚Digitalisierungstiefe Grauwerttest Einfacher und schneller Befehl zur Ermittlung des ➚mittleren Grauwertes innerhalb einer definierten Fläche (➚Prüffenster). Der Grauwerttest kann sehr vielfältig eingesetzt werden, zum Beispiel für: Online-Test der Beleuchtung des Bildverarbeitungssystem bei jedem Prüfzyklus; zur Helligkeitsnachführung der Beleuchtung in Bildverarbeitungssystemen; zur ➚Anwesenheitskontrolle einfacher Objekte (➚Grauwertdifferenz zwischen Hintergrund und Objekt); zur ➚attributiven Prüfung (helles, graues, dunkles Teil) Grauwertübergang ➚Kantenübergang Grauwertunterschied ➚Grauwertdifferenz Grauwertverfahren ➚Antastalgorithmus Grauwertverfahren mit Subpixeling ➚Antastalgorithmus Grauwertverlauf ➚Kantenübergang Grenzen der Bildverarbeitung Für die sichere Funktion einer Bildverarbeitungslösung in der industriellen Fertigung müssen Prüfbedingungen standardisiert und Prüfmerkmale eindeutig beschrieben sein. Eine ständige Veränderung der ➚Umgebungsbedingungen erhöht den Aufwand und kann letztendlich den Einsatz eines Bildverarbeitungssystem unwirtschaftlich machen. Bei der Planung und Realisierung einer Bildverarbeitungsanlage sollten deshalb genau betrachtet werden: erreichbare ➚Genauigkeit einer Bildverarbeitungsanlage; Einflussfaktoren, Limitierung durch Natur des Lichtes (Grenze: >1 µm); Umgebungsbedingungen (Schmutz, Nebel, Aerosole, Temperatur, Erschütterungen ...); Teileeigenschaften (ungünstige und stark variierende optische Eigenschaften, Farbabweichungen); vollständige dreidimensionale Teilevermessung (3D) ist mit optischen Verfahren nicht immer möglich (Hinterschneidungen); unrealistische Erwartungen der Kunden (teilweiser Vergleich mit bisherigen Messverfahren) (s. auch Bildverarbeitung) Grundfarben sind die Farben Rot, Grün und Blau (RGB). (s. auch additive Farbmischung, subtraktive Farbmischung) H H-SYNC ➚Horizontales Synchronsignal HAD ➚Hole Accumulated Diode Halbbild ➚Zeilensprungverfahren, ➚Halbbild-Sensor Halbbild-Sensor halfframe sensor. ➚Bildaufnehmer, der zum Bildaufbau zwei nacheinander aufgenommene Halbbilder nutzt (➚Zeilensprungverfahren). Zuerst wird das erste Halbbild (geradzahlige Zeilen) belichtet und 37 G H Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 47 Halbbild-Shutter H ausgelesen, danach das zweite Halbbild (ungeradzahlige Zeilen). Der zeitliche Versatz zwischen der Aufnahme des ersten und des zweiten Bildes führt dazu, dass es bei der Nutzung von Halbbildsensoren zur Abbildung schneller Prozesse zu einem ➚Halbbildversatz kommt. Halbbild-Sensoren wurden aus den Anforderungen der klassischen Fernsehtechnik heraus entwickelt, werden heute aber in der Bildverarbeitung nicht mehr genutzt. (s. auch interlaced, Vollbild-Sensor, Progressive Scan) Halbbild-Shutter ➚Shutter Halbbildversatz Erscheinung bei ➚Bildaufnehmern, die zeitlich nacheinander zwei Halbbilder (➚Halbbild-Sensor) aufnehmen. Halbbildversatz tritt dann auf, wenn sich während der ➚Bildaufnahme das Objekt bewegt. Halbraum ➚Raumwinkel Halbwertsbreite Filterkennwert für ➚Bandpassfilter. Differenz aus oberer und unterer Wellenlänge, bei denen die Durchlässigkeit eines optischen Filters auf 50% der maximalen Durchlässigkeit abgefallen ist. Halfframe-Sensor ➚Halbbild-Sensor Halogenglühlampe Traditionelle Lichtquelle, die vor allem in ➚Kaltlichtquellen genutzt wird. Sonstige Anwendung in der Bildverarbeitung selten, da kaum eine Strahlformung zur gezielten Beleuchtung möglich ist. Die Wärmeentwicklung (ca. 93% der Leistung) ist sehr stark und der Licht-Wirkungsgrad (ca. 7%) ist gering. Der Kolben der Halogenglühlampe ist mit einem Halogengas (F, Br, J) gefüllt, mit dem Zweck, das Abdampfen der Glühwendel und Niederschlagen (Schwärzung) auf dem Lampenkolben zu verhindern. Damit wird auch die ➚Farbtemperatur (typisch 2850 K) erhöht, es entsteht weißeres Licht. Die Lebensdauer von Halogenglühlampen ist begrenzt und variiert je nach Leistung zwischen 100 und 1.000 Stunden. Geringere Betriebsspannungen (Dimmen) verlängern die Lebensdauer, ändern aber die Farbtemperatur, und bewirken, dass der Halogen-Kreisprozess nicht mehr funktioniert (schnelleres Schwärzen des Lampenkolbens). Halogenglühlampen sind sehr hell und liefern ein weißes Licht mit einem kontinuerlichen ➚Spektrum. Sie sind träge beim Schalten (Nachleuchten, Einschaltverzögerung), sehr erschütterungsempfindlich im Betrieb (Reißen der Glühwendel) und Betriebsspannungsschwankungen schlagen sich direkt in Schwankungen des ➚Lichtstromes wieder (ripple). Handshake Verschiedene Status- und Quittiersignale, die wechselweise von kommunizierenden Geräten zur Koordination und zum Sichermachen des Datenflusses genutzt werden. Handshake ist eine Zwangslaufsteuerung, bei der Folgeaktivitäten erst nach Bestätigung der richtigen Auswertung vorheriger Abläufe vorgenommen 38 werden können. Sie sind zeitaufwendig und deshalb oft nur bedingt einsetzbar. Sie benötigen einen Rückkanal. Beim Software-Handshake werden zwischen den Teilnehmern definierte Steuerzeichen ausgetauscht. Ein Befehl wird durch ein entsprechendes Codewort quittiert. Verbreitete Methode ist das XON/XOFF. Hardware-Handshake vollzieht die Kontrolle der Kommunikationsprozesse durch den elektrischen Zustand an separaten Handshake-Leitungen. Hardware-Handshake ist aufwendig und zeitintensiv. Allgemein bekannte Variante des Hardware-Handshakes ist das RTS/CTS (Request to Send/Clear to Send). Hauptebenen zur optischen Achse: senkrechte Ebenen, die die Hauptpunkte (objektseitige, bildseitige) enthalten. Hauptpunkte sind in einem optischen System die Punkte, die von der Objektseite zur Bildseite mit dem ➚Abbildungsmaßstab 1 abbilden und stellen die Kardinalpunkte dar, von denen aus die ➚Brennweite, ➚Objektweite und Bildweite gemessen (gerechnet) werden. Die Angabe der Hauptebenen ist nur für den ➚achsnahen Bereich gültig. Hauptstrahl Lichtstrahl in einem optischen System, der von einem beliebigen Objektpunkt ausgehend, durch die Mitte der ➚Öffnungsblende verläuft. Parallele Haupstrahlen rufen die telezentrische ➚Perspektive hervor. (s. auch paralleler Hauptstrahlengang) HDTV High Definition Television. Hochaufgelöstes Fernsehen (analog oder digital), das mit mehr als 1000 Zeilen arbeitet (Verdopplung der Zeilenzahl der konventionellen Fernsehnorm). Verbunden damit ist ein ➚Seitenverhältnis von 16:9. Keine Verwendung in der Bildverarbeitung, da diese eigene ➚Bildaufnehmergrößen und ➚Pixelzahlen nutzt. Hell-Dunkel-Übergang in Antastrichtung: Helligkeitsübergang von einem größerem zu einem geringeren Grauwert. Hellanteil Funktion, die die Anzahl an ➚Pixeln innerhalb eines ➚Prüffensters ermittelt, die in ihrem ➚Grauwert über einer eingestellten ➚Grauwertschwelle liegen. Hellfeld-Auflichtbeleuchtung ist eine ➚Hellfeldbeleuchtung, bei der die ➚Auflichtbeleuchtung aus Richtung der Kamera kommt und vom ➚Prüfobjekt zurück in die Beobachtungsrichtung reflektiert wird. Es ergibt sich ein gleichmäßiges helles, gut kontrastiertes Bild. Geeignet für undurchsichtige/durchsichtige Teile mit gut reflektierenden Oberflächen; Glas, Metall, Kunststoffe, ... Realisierung durch ➚koaxial eingespiegelte Beleuchtung. Hellfeld-Durchlichtbeleuchtung ist eine ➚Hellfeldbeleuchtung, bei der die ➚Durchlichtbeleuchtung gegenüber dem optischen System angeordnet ist und direkt abgebildet wird. Durch ➚Absorption am ➚Prüfobjekt ergibt sich ein gleichmäßiges helles, kontrastscharfes Bild mit nahezu binären Eigenschaften (➚Binärbild). Lexikon der industriellen Bildverarbeitung Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 48 Hochpass-Filter Geeignet je nach verwendeter Beleuchtungsart: für undurchsichtige (durchsichtige) flache Teile (➚diffuse Beleuchtung); für undurchsichtige/durchsichtige räumliche Teile (➚telezentrische Beleuchtung). Damit Hellfeld-Durchlichtbeleuchtungen möglichst unabhängig von Verschmutzungen arbeiten können (➚Staub), empfiehlt sich die Montage in einem Abstand vom Prüfobjekt von mehr als dem dreifachen ➚Schärfentiefe-bereich. Dadurch ist sichergestellt, dass auch größere Schmutzpartikel auf der Lichtaustrittsfläche der Beleuchtung in der ➚Unschärfe untergehen. Hellfeldbeleuchtung Beschreibt die Richtung der einfallenden Beleuchtungsstrahlenbündel in das optische System. Das Gesichtsfeld der Hellfeldbeleuchtung wird durch die Beleuchtung direkt (➚Hellfeld-Durchlichtbeleuchtung) oder durch direkte Reflexion am ➚Prüfobjekt (➚Hellfeld-Auflichtbeleuchtung) beleuchtet und ist in diesen Zonen hell, Fehler sind dunkel. Helligkeit ist die physiologische Reaktion eines Betrachters (Stärke der Lichtempfindung) auf die ➚Leuchtdichte. Dementsprechend kann die Helligkeit nicht durch ein Gerät gemessen werden, sondern nur die Leuchtdichte. Flächen gleicher Leuchtdichte können allerdings bei unterschiedlicher Umgebungshelligkeit subjektiv unterschiedliches Helligkeitsempfinden hervorrufen. Die Maßzahl für die Helligkeit bezieht sich auf Schwarz- und Weißanteile einer Farbe in Prozent: 100% (nur Weiß) bis 0% (nur Schwarz). Bei 50% Helligkeit erhält man den reinsten Farbton (➚HSI-Farbraum). Helligkeitsabfall a) Räumliche Erscheinung der nachlassenden Helligkeit im Bild. Bei sich vergrößerndem ➚Beleuchtungsabstand wird durch das ➚fotometrische Entfernungsgesetz die ➚Beleuchtungsstärke geringer. b) Zeitliches Nachlassen der ➚Lichtstärke von Beleuchtungen. Durch ➚Beleuchtungsregelung lässt sich der Effekt minimieren. c) natürliche ➚Vignettierung. Helligkeitsabfall hat wesentlichen Einfluss auf die einzustellenden ➚Antastparameter. Bildverarbeitungslösungen mit großem Helligkeitsabfall arbeiten i.A. nicht so zuverlässig wie solche mit gleichförmiger Beleuchtung. (s. auch Drift, Helligkeitsnachführung) Helligkeitsauflösung ➚Grauwertauflösung (s. auch Dynamikumfang) Helligkeitsnachführung ist das automatische Hinzufügen bzw. Entfernen von Grauwertanteilen (z.B. ermittelt mit ➚Helligkeitsoffset) in Abhängigkeit von der Grundhelligkeit des ➚Prüffensters. Mit Helligkeitsnachführungen können Befehle, die ➚Binärschwellen verwenden, automatisch an Helligkeitsänderungen angepasst werden. Die Helligkeit sollte nachgeführt werden, wenn: im ➚Prüfprogramm ➚Binäralgorithmen verwendet wer- Lexikon der industriellen Bildverarbeitung den; die Helligkeit des ➚Prüfobjektes stark variiert (z.B. durch Fremdlicht, Oberflächenbeschaffenheit) Helligkeitsnachführung kann in Hardware auch durch eine Helligkeitsregelung an ➚LED-Beleuchtungen realisiert werden. Helligkeitsoffset Funktion zur Erkennung von ➚Grauwertdifferenzen. Helligkeitsoffset ermittelt die mittlere Grauwertdifferenz innerhalb eines ➚Prüffensters zu einem Vergleichsgrauwert und wird zur ➚Helligkeitsnachführung benutzt. Helligkeitsübergang ➚Kantenübergang Helligkeitsverlust ➚Drift HF-Beleuchtung ➚Leuchtstofflampenbeleuchtung High-end-Systeme High-end-Systeme werden in Maschinen mit hohen Verarbeitungsgeschwindigkeiten (OCR in Briefsortieranlagen, Verpackungsmaschinen) oder bei sehr komplexen Anwendungen (dreidimensionale Messungen großer Flächen mit sehr dichten Messpunkten) genutzt. Sie zeichnen sich aus durch: Bedienung von 16 Kameras und mehr; Aufbau häufig auf VME-Bus-Basis; hochgradige ➚Parallelverarbeitung (synchroner ➚Bildeinzug vieler Kameras); Asynchronbetrieb (➚Progressive Scan oder CMOS-Kameras); Multiprozessorsysteme; ➚Blitzlichtbeleuchtungen mit mehreren kW Lichtleistung; extrem kurze Verarbeitungszeiten (Bildeinzug incl. Verarbeitung 20 ms); interne Bilddatenbusse von 128 bit Breite. Hintergrund Bereiche in Bildern, die keine zu analysierenden ➚Objekte darstellen, werden unabhängig vom Bildinhalt mit dem Begriff „Hintergrund“ zusammengefasst. Hintergrundbeleuchtung ➚Durchlichtbeleuchtung Histogramm Graphische Darstellung der Häufigkeitsverteilung von Helligkeitswerten im Bild. Bei Grauwertbildverarbeitung gilt: Über die ➚Grauwerte 0-255 wird die Häufigkeit (Anzahl der ➚Pixel mit entsprechendem Grauwert) aufgetragen. Das Histogramm ist häufiges Hilfsmittel, um den Vordergrund (hohe Grauwerte) vom ➚Hintergrund (niedrige Grauwerte) im Bild durch ➚Segmentierung zu trennen. Zur Segmentierung wird ein Schwellwert zwischen die Grauwerte des Vordergrundes und die des Hintergrundes gelegt. HL-Flanke High-Low-Flanke Hochauflösend Unter hochauflösend im Sinne der Bildverarbeitung versteht man a) das ➚Auslösungsvermögen eines ➚Objektives mehr als 100 ➚Linienpaare/mm auflösen zu können. Das liegt weit über dem Standard üblicher ➚CCTV-Objektive mit 40 Linienpaaren/mm; b) Matrix-Bildaufnehmer mit mehr als 1000 Pixeln pro Zeile oder Spalte. Hochpass-Filter unterdrücken im Ortsfrequenzbereich niedere Frequenzen. Im gefiltertem Bild bedeutet das, dass starke ➚Kontraste über wenige Pixel hervorgehoben werden. Schleichende Wechsel der Grauwerte (geringer 39 H Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 49 Höhenvertauschtes Bild H I Grauwertunterschied) hingegen werden unterdrückt. Durch Hochpass-Filter werden Kantenkontraste verstärkt; das Bild erscheint schärfer. (s. auch ➚Bildfilter) Höhenvertauschtes Bild beschreibt die Tatsache, dass bei der optischen Abbildung das Bild gegenüber dem Objekt auf dem Kopf steht. Bei der einstufigen Abbildung ohne zusätzliche Strahlablenkung durch Prismen oder Spiegel ist auch die Seite vertauscht. Viele Kameras kompensieren diese Höhen- und Seitenvertauschung. Hole Accumulation Diode Von Sony entwickelte Halbleiterstruktur in CCDs, die den Dunkelstrom sehr reduziert und den Bildaufnehmer empfindlicher macht. Weiterentwicklung ist ➚lens on the chip, d.h. vor jedes Pixel wird eine mikrooptisch kleine Sammellinse aufgebracht. Horizontales Synchronsignal Bestandteil des ➚Videosignals. Das horizontale Synchronsignal gibt den Beginn einer neuen Zeile im ➚Videosignal an. Auch als H-SYNC bezeichnet. HSB-Farbraum Hue-Saturation-Brightness-Farbraum, svw. HSI-➚Farbraum HSI-Farbraum Hue-Saturation-Intensity-Farbraum ➚Farbraum HSL-Farbraum Hue-Saturation-Lightness-Farbraum, svw. ➚HSI-Farbraum Hperfokale Distanz ➚Naheinstellung auf Unendlich Hyperzentrische Perspektive ➚Perspektive Hyperzentrisches Objektiv Objektiv, das die hyperzentrische ➚Perspektive nutzt. Bildet wie bei einer Lupenabbildung ab: vorn liegende Objekte erscheinen kleiner als hinten liegende. Selten gebautes und genutztes Objektiv, das auf Grund seiner Art der Perspektive sehr kurze ➚Arbeitsabstände und eine sehr viel größere Frontlinse als das ➚Prüfobjekt aufweisen muss. Daher gestaltet sich das Thema Beleuchtung beim praktischen Einsatz hyperzentrischer Objektive als sehr schwierig: viel Licht aus allen Richtungen bei nicht vorhandenem Platz. Eingesetzt werden hyperzentrische Objektive u.a. für die Bedruckungskontrolle auf Mantelflächen von Zylindern, realisiert in Draufsicht: Die Mantelfläche erscheint als Kreisring. I IEEE 1394 ➚Fire Wire Impulsanstiegszeit Zeitdifferenz zwischen dem Auftreten von 10% und 90% der maximalen Impulsamplitude. Impulsbreite Zeitdifferenz zwischen 50% der maximalen Impulsamplitude an der ansteigenden und abfallenden Impulsflanke. Indizierte Programmverzweigung erlaubt mit einem 40 Befehl den Sprung zu verschiedenen Marken oder Unterprogrammen in ➚Prüfprogrammen. Der Befehl springt dabei zu einer Marke, deren Name – bei der Abfrage – aus einem festen Teil, der Stammmarke und einem variablen Teil, dem Index, zusammengesetzt wird. Der Vorteil diese Verfahrens besteht darin, dass mit einunddemselben Befehl in Abhängigkeit vom Index verschiedene Unterprogramme oder Marken aufgerufen werden können. Beispiele für derartige Indizes sind die Nummerierung von Werkstückhaltern an Rundtakttischen oder die Codierung von Werkstückträgern durch Transponder. Mit dieser Funktion kann im Prüfprogramm, abhängig von der Nummer des Werkstückhalters/-trägers, zu individuell zugehörigen Unterprogrammen gesprungen werden, die u.a. auf den Werkstückhalter abgestimmte ➚Kalibrierfaktoren, Justieroffsets oder ➚Korrekturfaktoren enthalten können. Industrielle Bildverarbeitung ➚Bildverarbeitung Industrietauglichkeit Der industrielle Einsatz von Bildverarbeitungskomponenten verlangt nach einem möglichst geringen Einfluss der industrietypischen ➚Umgebungsbedingungen. Industrietauglichkeit bedeutet für Optiken, Beleuchtungen und Systeme: Große Zuverlässigkeit auch für zerbrechliche Komponenten, elektronische Ansteuerbarkeit, Industriesteckverbinder, Verpolsicherheit, digitale Ein-/Ausgänge mit Optokopplern, weiter Eingangsspannungsbereich, ausfallsichere Lichtquellen (LED), Kurzschlussfestigkeit, hohe ➚IP-Schutzklasse, zugentlastete Kabel mit großer Biegewechselfestigkeit, Trennung von Bedienung und Bildverarbeitung, robuste Algorithmen, Feststellmöglichkeit, Erschütterungsfestigkeit, Staub- bis Lösungsmitteldichtheit, definierte Befestigungs-/Montagemöglichkeiten, mechanische Robustheit. Infrarotbeleuchtung Beleuchtungen, die besonders in der Sicherheitstechnik und Bildverarbeitung eingesetzt werden. Als ➚Lichtquellen werden thermische Strahler und Infrarot-LEDs eingesetzt. Infrarot-LED-Beleuchtungen werden besonders dann angewendet, wenn eine hohe Unabhängigkeit von ➚Fremdlicht zu erreichen ist oder im sichtbaren ➚Licht Objektdetails nicht erkennbar sind. Infrarotbeleuchtungen sind aufgrund der ➚spektralen Empfindlichkeit für das menschliche Auge nicht sichtbar, werden aber von ➚Bildaufnehmern wahrgenommen. Als LED-Beleuchtung sind Infrarotbeleuchtungen besonders gut blitzbar (➚Blitzbeleuchtung), erzeugen aber auf dem Bildaufnehmer ein kontrastärmeres Bild (➚Pixel-Übersprechen). Sinnvollerweise arbeiten Infrarotbeleuchtungen mit ➚Tageslichtsperrfiltern oder ➚Bandpassfiltern zusammen, um das Spektrum des sichbaren Lichtes zu unterdrücken. Ein möglicherweise in der Ka- Lexikon der industriellen Bildverarbeitung Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 50 Interline Transfer Sensor mera eingebautes ➚Infrarotsperrfilter ist in diesem Zusammenhang aus der Kamera zu entfernen. Bei Anwendung der Infrarotbeleuchtung gibt es besondere Effekte: Die Farbwiedergabe ist unberechenbar (Versuche machen!). Viele Stoffe, u.a. Druckpigmente, sind für infrarotes Licht durchsichtig. Bei starken Vergrößerungen treten stärkere Beugungseffekte an Kanten auf. Bei starken Infrarotbeleuchtungen sind Arbeitsschutzmaßnahmen zu beachten (➚Augenschutz). Der ➚Reflexionsgrad für infrarotes Licht ist zum Teil sehr abweichend vom sichtbaren Licht. Es kommt zur Vergrößerung des ➚Arbeitsabstandes (➚Dispersion), die ➚Fokussierung muss nachgeführt werden. Infrarotes Licht Elektromagnetische Strahlung mit ➚Wellenlängen über 780 nm. ➚Bildaufnehmer der Bildverarbeitung sind für infrarotes Licht (➚spektrale Empfindlichkeit) nur für Wellenlängen bis etwa 1100 nm empfindlich, meist aber ohnehin mit einem ➚Infrarotsperrfilter versehen. Weitere Unterteilung in IR-A-Licht: 780 nm ... 1,4 µm (auch NIR - near infrared ), IR-B-Licht: 1,4 ... 3 µm, IR-CLicht: 3 ... 800 µm. Langwelliges infrarotes Licht wird als Wärmestrahlung wahrgenommen. Infrarotes Licht kann in hoher Stärke für das menschliche Augen schädlich sein (➚Augenschutz) und kann aus dem ➚Spektrum von Lichtquellen ➚durch Infrarotsperrfilter herausgefiltert werden. Infrarotkamera Kamera, die für ➚infrarotes Licht empfindlich ist. Meistens handelt es sich dabei nicht um Kameras, die im ➚NIR arbeiten sondern Kameras, die Wärmebilder ortsauflösend darstellen. Mit solchen Wärmebildkameras können z.B. Gebäude auf Wärmebrücken analysiert, Reibung an mechanisch stark belasteten Baugruppen nachgewiesen und elektronische Schaltungen auf Überhitzung untersucht werden. Die Algorithmen der Bildverarbeitung sind vielfach die gleichen, die für die Auswertung von Bildern sichtbaren Lichts genutzt werden. Infrarotsperrfilter Kurzpassfilter. Sperrt Licht mit ➚Wellenlängen > 780 nm. Infrarotsperrfilter sind im sichtbaren Bereich des ➚Spektrums zu mehr als 90% durchlässig. Da ➚Bildaufnehmer der Bildverarbeitung für infrarotes Licht (➚spektrale Empfindlichkeit) empfindlich sind, werden sie zum Schutz gegen das tief in das Silizium des ➚CCDs eindringende Licht meist mit einem Infrarotsperrfilter versehen. In manchen Fällen ist das Infrarotsperrfilter auf das Deckglas des ➚Bildaufnehmers direkt aufgedampft. Hinweis: Das Entfernen des eingebauten Infrarotsperrfilters aus der Kamera verändert die ➚Abbildungsfehler, den ➚Arbeitsabstand sowie die ➚optische Weglänge. (s. auch Filtergewinde, planparallele Platte, ➚PixelÜbersprechen) Lexikon der industriellen Bildverarbeitung Inkohärentes Licht ➚Licht mit statistisch verteilten Phasendifferenzen der einzelnen Lichtwellen. ➚Interferenz ist nicht möglich, da die Kohärenzlänge zu klein ist. Gegenteil von ➚kohärentem Licht. Die meisten ➚Lichtquellen senden inkohärentes Licht aus. Integrationszeit Belichtungszeit bei CCDs, in der auf den lichtempfindlichen Elementen des ➚Bildaufnehmers Licht (Photonen) gesammelt (integriert) werden. Die Integrationszeit kann durch ➚Shutter verkürzt oder verlängert werden. Intelligente Kamera ➚Smart Camera Interbus ➚Feldbus, der für industrielle Sensoren/Aktoren mit einer durchgängigen Vernetzung von der Steuerungsebene bis hin zu primitiven Schaltelementen entwickelt wurde. www.interbusclub.com Interface ➚Schnittstelle Interferenz Wechselwirkungen bei der Überlagerung von ausreichend ➚kohärenten Wellen. Interferenz führt zu typischen amplituden- und phasenabhängigen Intensitätsverteilungen, den Interferogrammen. Messtechnische Anwendung in der ➚Interferometrie. Interferenzfilter sind optische Filter, die durch ➚Interferenz bestimmte ➚Wellenlängen/-bereiche aus einem ➚Spektrum auslöschen. Können als ➚Bandpass sowie als Lang- und Kurzpassfilter ausgeführt sein. Interferogramm ➚Interferometrie und Bildverarbeitung Interferometrie und Bildverarbeitung basieren auf der ➚Interferenz des Lichtes. Sie gehört nach dem heutigen Stand der Technik zu den genauesten und empfindlichsten Messmethoden. Mit Interferometern lassen sich optisch Weglängen bis herab zu 10 nm genau vermessen. Die mikroskopische Vermessung (vgl. ➚Gitterprojektionsverfahren) beruht vor allem auf der Auswertung von Streifenmustern in Interferogrammen (Bilder von Interferenzmustern). Interferogramme lassen Rückschlüsse auf die sie erzeugenden Oberflächen zu, hinsichtlich Ebenheit, Planparallelität, Oberflächenrauhigkeit. Bildverarbeitung übernimmt dabei vielfach die Analyse der Streifenmuster. Von Streifen zu Streifen herrscht ein Höhenunterschied in Größe der beleuchtenden Wellenlänge/2. Durch geeignete ➚Interpolationsverfahren können sehr fein Zwischenwerte gemessen werden. Wegen ihrer extrem hohen Auflösung sind interferometrische Messverfahrern sehr empfindlich und werden meist nicht im industriellen Einsatz genutzt sondern nur im Messraum. Interlace ➚Zeilensprungverfahren Interline Transfer Sensor Ein Funktionsprinzip von ➚CCDs. Das während der ➚Integrationszeit entstandene ➚Ladungsbild wird spaltenweise in parallel zu den lichtempfindlichen Spalten des ➚Bildaufnehmers liegende vertikale Shift-Register verschoben, die lichtge- 41 I Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 51 Interpolation I schützt sind. In Folge wird das gesamte Ladungsbild nacheinander zeilenweise durch die vertikalen Shift-Register in ein horizontales Shift-Register verschoben. Das horizontale Shift-Register wird ausgelesen und das analoge ➚Videosignal wird zeilenweise aneinandergesetzt, bis der gesamte Bildinhalt ausgelesen ist. Interline Transfer Sensoren neigen zu geringen ➚Smear-Erscheinungen. (s. auch Frame Transfer Sensor) Interpolation ➚Subpixel-Antastung Interpolationsfaktor Maß für die Feinheit der erreichbaren Subpixel-Auflösung bei der ➚Subpixel-Antastung. Der Interpolationsfaktor ist ein rein mathematisches Maß, das von den genutzten Algorithmen vorgegeben wird und hat nichts mit der praktisch erreichbaren Subpixel-Auflösung einer Anlage mit Bildverarbeitung zu tun, die von einer Vielzahl von Einflussfaktoren abhängt (➚Genauigkeit einer Bildverarbeitungsanlage). Ein Interpolationsfaktor von 10 besagt, dass die Position innerhalb eines Pixels auf 0,1 Pixel angegeben werden kann. Statistisch begründete Messreihen haben ergeben, dass größere Interpolationsfaktoren als 15 praktisch nicht erreichbar sind (auch unter den perfekten Bedingungen eines Feinmessraumes nicht). Als Richtwerte für den praktischen Einsatz können gelten: Ideales Umfeld: Labor mit schwingungsgedämpfter Messanordnung, telezentrische Beleuchtung und Objektiv, Messobjekte sauber mit sauber ausgeformten Körperkanten ohne Bearbeitungsspuren: Interpolationsfaktor besser als 10, Kantenort besser als 1,5 µm aufgelöst. Reale Industrieumgebung: Schwingungen, Schmutz, jedes Prüfobjekt weist andere Bearbeitungsspuren auf, ... Interpolationsfaktoren von 3 ... 5 Invertieren kehrt die ➚Grauwerte, Helligkeitswerte eines Bildes in einem vorgegebenen Bereich um: schwarz wird weiß und umgekehrt. Pixel für Pixel werden die Grauwerte umgerechnet: maximal möglicher Grauwert – ursprünglicher Grauwert = neuer Grauwert. (s. auch Look up Tabelle) IP-Adresse Jeder Netzteilnehmer bekommt unter ➚TCP/IP eine einmalige Internetadresse, auch IP-Nummer genannt. Das ist ein 32-bit-Wert (4 · 8 bit), durch 4 Punkte getrennt. Die IP-Adresse unterteilt sich in Net-ID (zur Adressierung des Netzes) und Host-ID (zur Adressierung des Netzteilnehmers innerhalb des Netzes). IP-Schutzklasse nach DIN 40050. Schutz eines Gerätes gegen den Zugang zu gefährlichen Teilen, sowie gegen das Eindringen von festen Körpern oder Flüssigkeiten. Wird durch den IP-Code (International Protection) festgelegt. Die Angabe einer Kennziffer gibt die Höhe des Schutzgrades an und schließt alle niedrigeren Schutzgrade ein. 42 1. Ziffer: Schutzgrad gegen den Zugang zu gefährlichen Teilen und gegen feste Fremdkörper: Schutz gegen gefährliche Teile: 0 Nicht geschützt. 1 Geschützt gegen den Zugang mit großen Kör perflächen 2 Geschützt gegen Zugang mit dem Finger 3 Geschützt gegen Zugang mit einem Werkzeug 4 Geschützt gegen Zugang mit einem Draht 5+6 Vollständiger Berührungsschutz Schutz gegen feste Fremdkörper: 0 Nicht geschützt 1 Geschützt gegen Fremdkörper <= 50mm Durchmesser 2 Geschützt gegen Fremdkörper <= 12,5mm Durchmesser 3 Geschützt gegen Fremdkörper <= 2,5mm Durchmesser 4 Geschützt gegen Fremdkörper <= 1,0mm Durchmesser 5+6 5 Staubgeschützt; 6 Staubdicht 2. Ziffer: Schutzgrad gegen das Eindringen von Wasser: 0 Nicht geschützt. 1 Geschützt gegen Tropfwasser 2 Geschützt gegen Tropfwasser bei einer Gehäuse neigung von bis zu 15 Grad. 3 Geschützt gegen Schwallwasser. 4 Geschützt gegen Spritzwasser. 5 Geschützt gegen Strahlwasser. 6 Geschützt gegen starkes Strahlwasser. 7 Geschützt gegen die Wirkung bei zeitweiligem Untertauchen. 8 Geschützt gegen die Wirkung bei dauerndem Untertauchen. Der Schutzgrad spielt in industriellen Bildverarbeitungsanlagen eine Rolle, da zum Teil mit Netz- und Hochspannungen (Leuchtstofflampen, Blitzbeleuchtungen) sowie unter widrigen Umweltbdingungen gearbeitet wird. So werden zum Beispiel auch unter Niederspannung arbeitende LED-Beleuchtungen mit einer IPSchutzklasse versehen. IPC Industrial PC. Personal Computer, der für die rauen Einsatzbedingungen in der Industrie hinsichtlich Zuverlässigkeit und Funktionsfähigkeit robuster gemacht wurde. PC-basierte Bildverarbeitungssysteme im Produktionseinsatz nutzen IPCs. IR-Beleuchtung ➚Infrarotbeleuchtung IR-Licht ➚Infrarotes Licht IR-Sperrfilter ➚Infrarotsperrfilter Istwert ➚Messwert. I/O ➚digitale Ein-/Ausgänge Lexikon der industriellen Bildverarbeitung Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 52 Justierung von Bildverarbeitungskomponenten J JPEG-Dateiformat JPEG: Joint Photographies Expert Group. Gebräuchliches Dateiformat zum datensparenden Bilddatentransfer von Bildverarbeitungssystemen. Das Komprimierungsverfahren ist nicht verlustfrei: Farboder auch Bildinformationen aus dem Originalbild gehen bei der Komprimierung verloren. Damit für den Bilddatentransfer von Bildverarbeitungssystemen nur bedingt einsetzbar. JPEG reduziert die Anzahl der Bits im Bild, indem wiederholt vorkommende oder schwer auszumachende Bilddaten eliminiert werden. Justierhilfe Einstellhillfe für die lotrechte Ausrichtung der ➚optischen Achse zur ➚Objektebene/Messebene. Sie beruht auf der Koinzidenz zweier zueinander um 45 Grad verdrehter Fadenkreuze auf Glas, die sich in einem Abstand zueinander befinden. Der Abstand zwischen beiden Fadenkreuzen kann je nach Objektiv durch verschieden hohe Justierhilfen gewählt werden, so dass bei starker Abblendung (große ➚Schärfentiefe) beide Fadenkeuze hinreichend scharf abgebildet werden. Durch ➚Justierung ist dafür Sorge zu tragen, dass die Mittelpunkte beider Fadenkreuze zur Deckung gebracht werden, was der lotrechten Lage der optischen Achse zur Auflagefläche der Justierhilfe entspricht. Die integrierte Beleuchtung lässt die Justierhilfe sowohl im ➚Durchlicht als auch im ➚Auflicht nutzen. Justierhilfen funktionieren über das gesamte ➚Gesichtsfeld nur für ➚telezentrische Objektive. ➚Entozentrische Objektive können nur sehr begrenzt ausgerichtet werden (Funktion der Justierhilfe nur in der Bildmitte). Justierhilfen werden benötigt, da nur selten die ➚optische Achse und die ➚mechanische Achse optischer Komponenten übereinstimmen. (s. auch Justierung) Justierprogramm ➚Prüfprogramm Justierung ist das Einstellen eines Messsystems mit dem Ziel, Messabweichungen auf Werte zu bringen, die den technischen Anforderungen entsprechen. Justierung erfolgt in einem gesondertem Arbeitsgang beim Einrichten der Maschine, also außerhalb der eigentlichen Prüfung und wird mit einem ➚Prüfprogramm, dem Justierprogramm durchgeführt. Justierung benötigt besondere gerätetechnische Voraussetzungen, die bei der Konzeption der Bildverarbeitungsanlage berücksichtigt werden müssen (Verschiebe-, Dreheinheiten, unter ungünstigen Voraussetzungen um alle 6 ➚Freiheitsgrade). Was muss an einer Bildverarbeitungsanlage justiert werden? Gesichtsfeld (Lage, Größe); Schärfeeinstellung der Abbildung (➚Arbeitsabstand); Lage der Beleuchtung; Homogenität; Helligkeit der Beleuchtung; Ausrichtung der Achsen (➚Justierhilfe). Lexikon der industriellen Bildverarbeitung Weitere Justierungen können nötig sein: mechanisch: 3 translatorische und 3 rotatorische Freiheitsgrade; ...; optisch: lotrechte Justierung; perspektivfreie Justierung; ...; elektrisch: Justierungen elektrischer Signale; Verstärkungen (➚Weißabgleich); Helligkeitseinstellungen an Beleuchtungen; ...; softwaretechnisch: ➚Shadingkorrektur; ➚Gamma-Korrektur; ➚Korrekturfaktoren; ... Die Justierung erfolgt beim Einrichten häufig nach ➚Referenzbildern und ➚Referenzgeometrie, die bei der Erstjustierung der Anlage aufgenommen wurden und einen Optimalzustand aufweisen. Eine Justierung sollte nach jeder Demontage/Montage an der Bildverarbeitungsanlage (auch nur von Teilen) vorgenommen werden. Justierung telezentrischer Systeme: Eine Ausrichtung ist notwendig, um Beleuchtung, Objekt, Objektiv in eine definierte Lage/Drehlage zueinander zu bringen. Dabei muss folgende Reihenfolge eingehalten werden: 1.) ➚Arbeitabstand Objektiv einstellen 2.) Drehung des Bildes um die ➚optische Achse 3.) Rechtwinkligkeit zum Prüfobjekt herstellen (➚Justierhilfe, ➚Verkippung) 4.) ➚Gesichtsfeld in die richtige Position (x, y) bringen 5.) Abstand der Beleuchtung im Durchlicht relativ groß wählen (Staub unscharf) (s. auch Durchlichtbeleuchtung) 6.) Gleichmäßigkeit der Beleuchtung herstellen Justierung von Bildverarbeitungskomponenten Für eine bestimmungsgemäße Funktion einer Bildverarbeitungslösung müssen immer alle beteiligten Komponenten (Beleuchtung, Prüfling, Optik, Kamera) unter Einhaltung der folgenden Reihenfolge zueinander justiert werden: 1.) Justierung Prüfobjekt zum Halter 2.) Justierung Kamera/Optik zum Prüfobjekt 3.) Justierung Beleuchtung zum Prüfobjekt 4.) Justierung Beleuchtung zu Kamera/Optik Für 2.) gestaltet sich der Arbeitsablauf so: a) Justierung des Arbeitsabstandes WD (scharfe Bilder) b) Drehung um die z-Achse (Verdrehung des Bildes justieren) c) Drehung um die x- und y-Achse (lotrechte Ausrichtung justieren ➚Justierhilfe) d) Verschiebung in x- und y-Achse (Lage ➚Gesichtsfeld justieren) Gute Konstruktionen zeichnen sich durch entkoppelte Justiermöglichkeiten aus (Trennung der Justierung einzelner Komponenten). Nach der Justierung ist sicherzustellen, dass die Justierung während des Betriebes erhalten bleibt. 43 J Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 53 Kalibrierfaktor durch K Klemmung, Lacksicherung, Einhausen, Verschluss. K Kalibrierfaktor Kennzahl, die den Zusammenhang zwischen einer Eingangsgröße und einer Ausgangsgröße herstellt. Bildverarbeitungssysteme werden hauptsächlich hinsichtlich dreier Gruppen von Kalibrierfaktoren kalibriert: a) ➚Abbildungsmaßstab (metrische Kalibrierung) Der Kalibrierfaktor für den Abbildungsmaßstab legt die Verhältnisse zwischen Pixelgröße und Objektgröße fest. Der Kalibrierfaktor wird mit einem ➚Kalibrierkörper ermittelt. Je nach Sensortyp können für x- und y-Richtung verschiedene Kalibrierfaktoren vorkommen. Die bei der ➚Kalibrierung ermittelten Kalibrierfaktoren bestimmen direkt die ➚Genauigkeit eines Bildverarbeitungssystems. Nahezu jede mechanische Änderung an Maschine und Bildverarbeitungssystem ändert den Kalibrierfaktor des Abbildungsmaßstabes und verlangt nach Neukalibrierung. b) ➚Helligkeitswerte (fotometrische Kalibrierung) Fotometrische Messverfahren (➚Fotometrie) verlangen nach Herstellung eines Bezuges zur ➚Beleuchtungsstärke. Der Kalibrierfaktor bezieht sich hier nicht auf ein körperliches Maß, sondern auf eine Helligkeitsreferenz (➚Lichtquelle und/oder körperliches Helligkeitsnormal). Da beide ➚Drift unterliegen können, sollte bei der Kalibrierung von Helligkeitswerten an Ort und Stelle die Größe des Referenzmaßes ermittelt werden. c) Farbwerte (kolorimetrische Kalibrierung) Farbkalibrierfaktoren treten i.A. als Tripel auf, da alle drei ➚Grundfarben kalibriert werden müssen. Sonst wird mit ihnen wie mit Helligkeitswerten verfahren. (s. auch ➚Weißabgleich) Gewöhnlich werden Kalibrierfaktoren im Flash-EEPROM des Bildverarbeitungssystems abgelegt, so dass sie auch nach Abschalten des Systems erhalten bleiben. Kalibrierkörper, auch Normal, vermessenes Teil, das zur ➚Kalibrierung genutzt wird. Der Kalibrierkörper dient als ➚Maßverkörperung und überträgt seine maßlichen Eigenschaften auf das Bildverarbeitungssystem, z.B. zur Festlegung des ➚Abbildungsmaßstabes, der dann aus dem bekannten Maß des Kalibrierkörpers und der Messgröße berechnet wird. Der Kalibrierkörper muss bei Messungen unter Wiederholbedingungen (➚Wiederholgenauigkeit) eindeutige ➚Messwerte liefern und langzeitstabil sein. Er sollte das gleiche Merkmal wie die später mit der Messeinrichtung zu prüfenden Objekte besitzen, jedoch qualitativ höherwertig sein. Die Unsicherheit der ➚Kalibrierung sollte < 10% des ➚Toleranzbereiches sein, damit ein ➚Cgk-Wert > = 1,33 erreicht werden kann. Auch sollte die Genauigkeit der Vermessung der 44 Kalibriernormale 10 x höher sein als die geforderte Genauigkeit der Bildverarbeitungsanlage. Wenn kein Kalibrierkörper verfügbar ist, kann ersatzweise aus der Produktion ein geeignetes ➚Prüfobjekt gewählt werden, das als Kalibrierkörper zu vermessen und zu kennzeichnen ist. Typische Kalibrierkörper sind für metrische Messeinrichtungen mit sich ändernden Prüfobjekten: Prüfstifte und Chrommasken. Kalibrierkörper für fotometrische Maße (Helligkeitsnormale) und kolorimetrische Maße (Farbnormale) verlangen nach besonders sorgfältiger Überprüfung, da ihre Werte durch Alterung driften können. Zusätzlich dazu ist bei diesen Kalibrierkörpern eine kalibrierte Beleuchtung zu verwenden. Kalibriernormal ➚Kalibrierkörper Kalibrierung Feststellen des für ein Messsystem gültigen Zusammenhanges zwischen Ausgangsgröße und Eingangsgröße. Bildverarbeitungssysteme müssen für eine Reihe von Anwendungen kalibriert werden. Eingangsgröße ist dabei die Helligkeitsverteilung auf dem ➚Bildaufnehmer, Ausgangsgröße der zu ermittelnde ➚Messwert. Der Zusammenhang kann hergestellt werden hinsichtlich: metrischer Kalibrierung (➚Abbildungsmaßstab kalibrieren); fotometrischer Kalibrierung (Helligkeitswerte, ➚Luxwerttest, ➚Shading kalibrieren); kolorimetrischer Kalibrierung (Farbwerte kalibrieren). Wie auch beim späteren Messvorgang sind beim Kalibrieren alle Einflussgrößen der Bildverarbeitung (➚Genauigkeit einer Bildverarbeitungsanlage) beteiligt und haben Einfluss auf den ➚Kalibrierfaktor. Die Kalibrierung wird mit einem gesonderten ➚Prüfprogramm, dem Kalibrierprogramm durchgeführt. Typischer Ablauf einer metrischen Kalibrierung im zweidimensionalen Bereich ist: a) vorausgehende ➚Justierung; b) metrische Kalibrierung in der Bildverarbeitung wird meist nach ➚Kalibrierkörpern vorgenommen; c) die Kalibierung erfolgt für die x- und y-Richtung des ➚Bildaufnehmers getrennt, da je nach Pixelgeometrie und -abstand unterschiedliche Kalibrierfaktoren vertikal und horizontal typisch sind; d) das Ergebnis der Kalibrierung wird mit dem ➚Kalibrierfaktor gespeichert; Beim Kalibrieren sollten zum Erreichen einer möglichst guten ➚Wiederholgenauigkeit die gleichen Antastalgorithmen/➚Antastparameter genutzt werden wie im späteren ➚Prüfprogramm. Ebenso sollte ein möglichst gleich geformter Kalibrierkörper genutzt werden wie später Prüfobjekte in der Serienprüfung. Eine Kalibrierung muß nach jeder Demontage/Montage an der Bildverarbeitungsanlage (auch nur von Teilen) vorgenommen werden, zumindest aber als vorbeugende Kalibrierung in festgelegten Zeitintervallen. Lexikon der industriellen Bildverarbeitung Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 54 Kantenbreite Praktische Hinweise zur Kalibrierung von Bildverarbeitungseinrichtungen: für eine möglichst hochwertige Kalibrierung sollten Kalibrierkörper mehr als das halbe ➚Gesichtsfeld bedecken; die Verzeichnung geht in die Kalibrierung mit ein! (Wird ein immer nahezu gleichgroßes Prüfobjekt in nahezu immer gleicher Position vermessen; (relative Messung) kann die Verzeichnung vernachlässigt werden). Kalibrierkörper in möglichst rechtwinkliger Lage zum ➚Bildkoordinatensystem anordnen; für gleichmäßige Beleuchtung sorgen; Kalibrierung für den Subpixelbereich besonders sorgfältig vornehmen und mehrere Durchläufe zur Erhöhung der statistischen Sicherheit vornehmen. Die Vorgänge für die Kalibrierung im dreidimensionalen Raum sind sehr viel komplexer, zumal sie sich auf die Kombination mehrerer zweidimensionaler ➚Bildaufnehmer beziehen. So müssen durch verschiedenartige ➚Koordinatentransformationen diverse Koordinatensysteme verknüpft werden (➚Weltkoordinaten, ➚Roboterkoordinaten, ➚Kamerakoordinaten, etc.). Für den Vorgang der Kalibrierungen und der Überwachung von Messmitteln gemäß DIN ISO 10012 (Forderungen an die Qualitätssicherung für Messmittel) ist die Angabe der ➚Messun-sicherheit gefordert. (s. auch Eichung, Prüfprogramm) www.dkd.ptb.de Kaltlichtbeleuchtung ➚Kaltlichtquelle Kaltlichtfilter Ein ➚Infrarotsperrfilter zum Fernhalten des langwelligen ➚Infrarotlichts (Wärme) vom ➚Faserbündel/➚Querschnittswandler einer ➚Kaltlichtquelle. Lässt die „kälteren“ Lichtanteile (kürzere ➚Wellenlängen) passieren. Kaltlichtquelle nutzt ➚Halogenglühlampen oder ➚Metalldampflampen zur Lichterzeugung. Durch ➚Absorption (➚Infrarotsperrfilter) und/oder ➚Reflexion an ➚Kaltlichtfiltern und -spiegeln wird der langwellige Infrarotanteil des Lichtes (Wärmestrahlung) entfernt. Kaltlichtquellen werden vorranging für die Lichteinkopplung in ➚Faserbündel/ ➚Querschnittswandler genutzt. Zur Wärmeabführung (➚Lichtquellen bis 1000 W möglich) sind Lüfter integriert. Die Helligkeitseinstellung erfolgt mittels Dimmer (Änderung der ➚Farbtemperatur!), oder mit einer ➚Blende durch Begrenzung des ➚Lichtstromes. Kaltlichtquellen sind wegen der verwendeten ➚Lichtquellen erschütterungsempfindlich und können durch das Nachleuchten der Lichtquelle nur begrenzt elektrisch angesteuert werden (z.T. mit mechanischem Verschluss). Qualitativ hochwertige Kaltlichtquellen nutzen außerdem eine hochfrequente Ansteuerung der Lichtquelle, um ripple (in Lichtstärkeschwankungen umgesetzte Frequenz der Betriebsspannung) zu vermeiden (➚flimmerfreie Beleuchtung). Auf Grund der konzentrierten Einkopplung des Lichtes in Querschnittswandler Lexikon der industriellen Bildverarbeitung sind hohe Beleuchtungsstärken erreichbar, wie sie für die Beleuchtung schneller Produktionsprozesse (Inspektion von durchlaufendem Endlosmaterial, Produktionslinien mit großem Teiledurchsatz) oder stark absorbierender ➚Prüfobjekte benötigt werden. Kamerabild Das von der Kamera erfasste und auf dem ➚Bildaufnehmer aktuell vorhandene Bild. Das Kamerabild wird digitalisiert und im ➚Bildspeicher abgelegt. Kameragewinde ➚Objektivanschluss Kamerakonstante Kameraspezifisches Maß, das für Berechnungen in der dreidimensionalen metrischen Messtechnik notwendig ist. Die Kamerakonstante gibt an, wie weit die ➚Bildebene vom ➚Projektionszentrum entfernt ist. Kamerakoordinatensystem Bezugssystem, das seinen Ursprung im Unterschied zum ➚Bildkoordinatensystem im ➚Perspektivitätszentrum des ➚optischen Systems der Kamera hat. Müssen Koordinaten von mehreren Kameras miteinander verrechnet werden, muss dazu das ➚Weltkoordinatensystem verwendet werden. (s. auch Koordinatentransformation) Kante Eine Kante im Sinne der Bildverarbeitung beschreibt die Trennlinie zwischen Bereichen unterschiedlicher Helligkeit. Helligkeitsänderungen können durch Grauwertkanten (➚Grauwertdifferenz), Texturkanten (➚Textur) oder Farbkanten (➚Farbdifferenzen) benachbarter Regionen (aneinandergrenzende Pixel) im Bild beschrieben werden. Im Gegensatz zu Körperkanten mit einem abrupten Kantenübergang kann der Übergang einer abgebildeten Kante aus physikalischen Gründen nicht innerhalb eines Pixels erfolgen sondern immer mit einer ➚Kantenbreite. Gut auswertbare Kanten haben eine optimale ➚Kantenbreite von 4 ... 6 Pixel, keine ➚Überbelichtung und ausreichenden ➚Kontrast. Die Antastsicherheit von Kanten wird verbessert durch: breite Antastungen (➚Antastbreite), das macht Statistik innerhalb einer Messung möglich; Mehrfachmessung mit Mittelung (bei genügender Zeit); saubere, definiert geformte Prüfobjekte! (s. auch Subpixel-Antastung, Antastalgorithmus) Kantenbreite ist die Erscheinung, dass bei der Abbildung einer Körperkante das Bild keinen „harten“ ➚Kantenübergang innerhalb eines ➚Pixels aufweist. Die Kantenbreite wird verursacht durch Wechselwirkungen des Lichtes mit dem ➚Prüfobjekt, begrenztes ➚Auflösungsvermögen der Optik, Signalverfälschung in der Elektronik usw. Bei einer optisch sehr guten Abbildung (Hochleistungsobjektive) lassen sich steile ➚Kanten mit einer Kantenbreite von (< = 3 Pixel) erreichen. ➚Sub-PixelAntastungen benötigen für ihre optimale Funktion jedoch Kantenbreiten von 4 ... 6 Pixel. Bei großen Kantenbreiten (flache Kanten) nimmt die ➚Messunsicher- 45 K Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 55 Kantenfilter K heit der Algorithmen durch einen stärkeren Einfluss des Sensorrauschens zu. Kantenfilter ➚Filter, die einen steilen Anstieg (➚Langpassfilter) oder steilen Abfall (➚Kurzpassfilter) der Transmissions-Filterkennlinie realisieren. Wichtigste Beschreibungsgröße ist die Kantenwellenlänge, bei der 50% Durchlässigkeit (➚Transmission) besteht. (s. auch Bandpassfilter) Kantenfindungsalgorithmus ➚Antastalgorithmus Kantenform Die Kantenform wird durch den Verlauf der Helligkeitswerte (➚Grauwerte. ➚Farbwerte) auf einem ➚Bildaufnehmer entlang eines ➚Kantenübergangs bestimmt. Man unterscheidet steile und flache Kanten (➚Kantensteilheit, ➚Kantenbreite), symmetrische und unsymmetrische Kanten. Die Wirksamkeit von ➚Antastalgorithmen hängt stark von der Kantenform ab. Symmetrische Kanten lassen sich besonders sicher auswerten und ermöglichen ➚Subpixel-Antastung auch mit großen ➚Interpolationsfaktoren. Unsymmetrische Kanten hingegen ziehen größere ➚Antastunsicherheiten nach sich (➚Verkippung). Kanten realer ➚Prüfobjekte sind selten symmetrisch. Die Kantenform ist sämtlichen Einflussfaktoren auf die Bildqualität (➚Genauigkeit einer Bildverarbeitungsanlage) unterlegen. Damit lässt sich durch die bewusste Auslegung und Gestaltung der Bildverarbeitungsanlage (Auswahl der Systemkomponenten, deren Anordnung, genutzte Verfahren und Algorithmen, eingestellte Parameter) die Kantenform stark beeinflussen. (s. auch Grauwertdifferenz, Grauwertsprung) Kantenort beschreibt die Lage der ➚Kante im Bild. Die Frage „Wo liegt die Kante im Grauwertbild?“ ist eine zentrale Frage der Bildverarbeitung, die nicht eindeutig geklärt ist. Die Lage des Kantenortes wird sehr stark von der eingesetzten Optik und Bleuchtung bestimmt. Die Nutzung verschiedener ➚Kantenortskriterien stellt einen pragmatischen Ansatz dar, sich je nach Applikation möglichst gut der Realität zu nähern. (s. auch Antasten, telezentrische Beleuchtung, telezentrisches Objektiv) Kantenortskriterium stellt die mathematisch notwendige Eigenschaft eines ➚Kantenüberganges dar, die den genauen Ort des Helligkeitsüberganges als ➚Kante definiert. Die verschiedenen ➚Antastalgorithmen verwenden unterschiedliche Kantenortskriterien. Diese sind: ➚Schwellwert; differentielles Kantenortskriterium (1. und 2. Ableitung, ➚Gradientenverfahren); integrales Kantenortskriterium (➚fotometrische Mitte); Kantenortskriterium mit Korrelation (➚Faltungsverfahren). In den Kantenortskriterien liegt die Unsicherheit der Software begründet, den wahren Kantenort zu finden. (s. auch Kantenform) Kantenparameter ➚Antastparameter 46 Kantenrichtung beschreibt die geometrische Richtung einer ➚Kante im Bild. Häufig wird die Art des zu erwartenden ➚Kantenüberganges im Zusammenhang mit der Kantenrichtung genannt. Kantensteilheit beschreibt, welche Grauwertänderung (➚Grauwertdifferenz, ➚Kontrast) innerhalb einer bestimmten Anzahl von ➚Pixeln (➚Kantenbreite, ➚Schärfentiefe) auftritt. Steile ➚Kanten ändern ihren ➚Grauwert innerhalb weniger Pixel, flache Kanten ändern den Grauwert innerhalb vieler Pixel. Die Kantensteilheit bestimmt in starkem Maße das Ergebnis von ➚Antastungen. Über die ➚Antastparameter kann auf die Wirksamkeit der Antastalgorithmen Einfluss genommen werden. (s. auch Gradient, Kantenform) Kantensymmetrie ➚Kantenform Kantensuche ➚Antasten Kantenübergang beschreibt qualitativ die Art einer ➚Kante in ➚Antastrichtung entlang des ➚Antaststrahls. Es werden Hell-Dunkel- sowie Dunkel-Hell-Kantenübergänge unterschieden. Quantitativ wird der Kantenübergang durch den Grauwertverlauf (das langsame oder sprunghafte Ansteigen/Abfallen der Grauwerte) beschrieben. Die Art des Kantenüberganges ist ein ➚Antastparameter. Prinzipiell gelten alle Angaben für Kantenübergänge sowohl für Grauwertkanten als auch für Farbkanten. Bei Farbkanten müssen einzig die Betrachtungen zum Kantenübergang für alle 3 Farbkomponenten in Kombination betrachtet werden. (s. auch Kantenbreite, Kantensteilheit, Kantenort, Kantenortskriterium) Kantenverlagerung ist ein ➚systematischer Fehler. Die Lage des ➚Kantenortes ist von vielen Faktoren abhängig (➚Genauigkeit einer Bildverarbeitungsanlage). Durch die dort genannten Einflüsse kann es zur Verschiebung des ermittelten Kantenortes vom realen Kantenort kommen. Typische Fehler, die zur Kantenverlagerung führen sind u.a.: ➚Nutzung einer veränderten ➚Beleuchtungswellenlänge, zu starkes Schließen der Blende (➚Beugung). Kantenverlauf ➚Kantenform Katadioptrisches Objektiv ➚Zwei-Messstellenobjektiv Kissenförmige Verzeichnung ➚Verzeichnung Klassifikation Einordnung eines ➚Objektes mit einer Vielzahl von ➚Merkmalswerten in eine vorgegebene (geringe) Zahl von Klassen. Voraussetzung dafür ist, dass vorher eine ➚Merkmalsextraktion stattgefunden hat und signifikante Merkmale zur Klassifikation genutzt werden. Zu Klassifikation dienen Klassifikatoren. Dabei werden verschiedene Möglichkeiten genutzt: ➚wissensbasierte Systeme, ➚neuronale Netze, ➚numerische Klassifikation. Lexikon der industriellen Bildverarbeitung Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 56 Kontrast Koaxial eingespiegelte Beleuchtungen realisieren die ➚Hellfeld-Auflichtbeleuchtung und werden im ➚Auflicht mit ➚Strahlteilern zwischen Objekt und Kamera realisiert. Einige Varianten vollziehen die Beleuchtungseinkopplung innerhalb des Objektives und müssen das Problem von parasitären Reflexen mit λ/4-Platten lösen. Andere Varianten nutzen das Vorsetzen von Komponenten mit Strahlteilern vor das Objektiv und spiegeln hier die Beleuchtung ein. Wesentlicher Nachteil sind die Lichtverluste: beim ersten Lichtdurchgang (Beleuchtung auf Objekt) werden am ➚Strahlteiler nur 50% der Intensität der Beleuchtung zum Objekt abgelenkt. Beim zweiten Lichtdurchgang des vom ➚Prüfobjekt reflektierten Lichtes in das Objektiv sind wieder nur 50% möglich, so dass maximal 25% der Ausgangsintensität zur Verfügung stehen. Das allerdings gilt ohne jegliche Berücksichtigung des Prüfobjektes, dessen ➚Reflexionsgrad seinerseits zwischen < 5% und 90% liegen kann. Möglichkeiten: a) diffus koaxial eingespiegelte Lichtquelle. Sehr gleichmäßige Ausleuchtung mäßig reflektierender Oberflächen. Teile mit Oberflächenstruktur erscheinen dunkler als glatte. Anwendungsbeispiel: Lesen geätzter Schrift auf glatter Blechoberfläche. b) telezentrische eingespiegelte Lichtquelle. Sehr gleichmäßige Ausleuchtung stark reflektierender Oberflächen. Anwendungsbeispiel: Kratzererkennung auf Glasoberflächen. Koaxialkabel Zur Übertragung analoger ➚Videosignale meistgenutzte Kabelart mit Innenleiter und Außenleiter, der gleichzeitig als Schirmung dient. Eignet sich für hohe Übertragungsgeschwindigkeiten und ist wenig störempfindlich. Feldfrei. Kohärentes Licht entsteht, wenn Licht bei der Emission aus einer möglichst unendlich kleinen ➚Lichtquelle mit möglichst ➚monochromatischen Eigenschaften emittiert wird. Durch Kohärenz ist die Konstanz der Phasenbeziehungen zwischen zwei Wellenzügen gegeben. So können nur kohärente Wellen miteinander interferieren (➚Interferenz). Räumliche und zeitliche Kohärenz wird unterschieden. Zeitliche Kohärenz wird durch die Kohärenzlänge beschrieben und ist der größtmögliche Gangunterschied zwischen zwei Teilwellenzügen einer Strahlungsquelle, bei dem noch Interferenzen auftreten. Interferenzen durch kohärentes Licht treten bei ➚Speckles von Lasern auf. Der Kohärenzgrad (0...1) kennzeichnet die räumliche Kohärenz zweier Lichtwellen. Kohärentes Licht hat den Kohärenzgrad 1, inkohärentes Licht den Kohärenzgrad 0. Kohärenz ➚Kohärentes Licht Kohärenzlänge ➚Kohärentes Licht Kollimator 1.) Allgemein für die Erzeugung von parallelem Licht. Dazu wird die Lichtquellenmitte im Brennpunkt Lexikon der industriellen Bildverarbeitung des abbildenden Systems positioniert. Ist die Quelle sehr klein, entsteht nur ein achsparalleles Bündel (z. B. Laserkollimator). 2.) Optische Vorrichtung, die eine Marke (Fadenkreuz, Strichteilung, Kreise) nach Unendlich abbildet. Koma, auch Asymmetriefehler. ➚Abbildungsfehler. Tritt auf bei schief in das Objektiv eintretenden Strahlbündeln, bei seitlich der optischen Achse liegenden ➚Prüfobjekten. Dabei werden die schräg einfallenden Strahlenbündel asymmetrisch beschnitten, wodurch unsymmetrische, schwach kontrastierte Schattenbilder (Zykloiden o.ä.) entstehen. Derartige kometenschweifartige Störstrukturen können Probleme für das ➚Antasten hervorrufen. Kommunikationsprotokoll ➚Protokoll Kommunikationsschnittstelle ➚Schnittstelle Komplementärfarbe Komplementärfarben ergeben bei additiver ➚Farbmischung immer weiß und liegen im Farbkreis gegenüber: Farbe Komplementärfarbe rot cyan grün magenta blau gelb In Beleuchtungsanordnungen werden Komplementärfarben ausgenutzt, um Prüfobjekte mit gesteigertem Kontrast darzustellen, sowohl in der ➚Grauwert-Bildverarbeitung, als auch in der ➚Farbbildverarbeitung. Beleuchtung des Prüfobjektes mit Objektfarbe führt zu geringen Kontrasten. Beleuchtung mit der Komplementärfarbe des Prüfobjektes führt zu großen Kontrasten. Konjugiert Im Sinne der Optik das paarweise Auftreten optischer Größen: objekt- und bildseitig. Konjugierte Größen sind über die Abbildung miteinander verknüpft. z.B. objektseitig: ➚Schärfentiefe, bildseitig: ➚Abbildungstiefe. Kontinuierliches Spektrum ➚Spektrum Kontrast Im Sinne der Bildverarbeitung das Grauwertverhältnis zwischen hellsten und dunkelsten ➚Pixeln im gesamten Bild oder einem ➚Prüffenster. Voraussetzung für erfolgreiche Bildverarbeitung sind kontrastreiche Bilder, denn Bildverarbeitungsalgorithmen „leben“ vom Kontrast. Hochauflösende Objektive bilden kontrastreicher ab als schlechter auflösende Objektive. Die Berechnung des Kontrastes erfolgt nach: GWmax. - GWmin. Kontrast = –––––––––––– · 100% GWmax. + GWmin. GW = normierter Grauwert (0 ... 100) Ist das Bild zu dunkel, hat das geringen Kontrast zur Folge. Ein ➚überbelichtetes Bild hat ebenfalls geringen Kontrast. Der beste Kontrast wird erreicht, wenn die gesammte Spanne der möglichen ➚Grauwerte (bei 8 bit 256) zur Abbildung genutzt werden. Geringer Kontrast verlängert die Rechenzeit, reduziert die erreichbare Ge- 47 K Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 57 Kontrastübertragungsfunktion K nauigkeit sowie die Zuverlässigkeit, Details sich zu erkennen. Das Kontrastverhältnis zwischen Objekt und Bild wird durch die ➚Modulationsübertragungsfunktion beschrieben. Der Begriff Kontrast wird auch auf Farben (➚Farbkontrast) angewendet. (s. auch Kontrastverstärkung, Kontrastverlust) Kontrastübertragungsfunktion ➚Modulationsübertragungsfunktion. Kontrastumfang Bereich der in einem Bild vorkommenden ➚Kontraste, kleinstmöglichen bis zum größtmöglichen Kontrast. Kontrastverhältnis ➚Modulationsübertragungsfunktion Kontrastverlust Die Ursachen für Nachlassen des ➚Kontrastes im Bild können verschieden sein. Kontrastverlust kann durch ➚Umweltbedingungen, die Komponentenauswahl oder ➚Drift hervorgerufen werden: jedes optische System führt per se zum Kontrastverlust in der Optik ➚Modulationsübertragungsfunktion; nicht ausreichende ➚Vergütung der Optik; minderwertiges Objektiv; in die Optik einfallendes Streulicht erzeugt parasitäre Lichtreflexe (➚Fremdlicht); Verschmutzung an Optik und Beleuchtung (➚Staub, Ölfilm, Fettfinger); falsch gewählte ➚Beleuchtungswellenlänge; Alterung der Lichtquelle (➚Helligkeitsnachführung einsetzen); zu lichtschwache Beleuchtung; zu kurze ➚Integrationszeit. Kontrastverstärkung dient der Bildverbesserung (hervorheben von Kanten) für eine sicherere Auswertbarkeit. Optische Kontrastverstärrkung kann durch den Einsatz von ➚Komplementärfarben bei der Beleuchtung oder durch gezielten Einsatz von ➚Beleuchtungstechniken erzielt werden. Kontrastverstärkung per Software kann z.B durch ➚Spreizen oder die Anwendung digitaler Filtern erreicht werden. Beispiel: Die ➚Bildsubtraktion eines Bildes mit ➚Laplace-Filter und des Ursprungsbildes ergibt ein kontrastverstärktes Bild. (s. auch Look up Tabelle) Kontur ist eine Folge benachbarter Punkte, die eine Kurve bilden, die durch das ➚Gesichtsfeld begrenzt ist. Eine geschlossene Kontur ist vollständig im Gesichtsfeld zu sehen und liegt vor, wenn die Verfolgung der Kontur von einem Anfangspunkt aus nach einem Umlauf wieder am Anfangspunkt anlangt. Offene Konturen erfüllen diese Bedingung nicht. Konturen sind z.B. das Ergebnis der ➚Segmentierung. Konturen dienen der Beschreibung von Objekten, die sich nicht mit den geometrischen Variablen Punkt, Gerade, Kreis, Ellipse beschreiben lassen und sind damit ein universelles Werkzeug für die Bildverarbeitung. (s. auch Kontur antasten) Kontur antasten Beim Kontur antasten wird ausgehend von einem Startpunkt in ➚Suchrichtung eine ➚Kante gesucht. Entlang dieser gefundenen Kante wird die 48 ➚Kontur im Bildpunktraster verfolgt. Arbeitsbereich für das Verfolgen der Kante kann die gesamte Bildfläche oder nur ein definierter Ausschnitt (➚Suchfenster) sein. Wird eine Kontur gefunden, so entsteht ein Konturobjekt mit einem ➚Konturschwerpunkt, einer ➚Konturfläche, ➚Konturextrempunkten, ➚Konturkrümmung. Konturabstand Die Funktion Konturabstand beschreibt den minimalen/maximalen Abstand einer ➚Kontur zu: den Koordinatenachsen; Punkten; Geraden sowie die die Breite und Höhe der Kontur in x- und y-Koordinaten Konturdrehlageerkennung Die Funktion Konturdrehlageerkennung ermittelt die ➚Drehlage einer ➚Kontur zu: einer definierten Kontur – einer eingelernten Kontur – gegenüber den Koordinatenachsen. Ein einzustellender minimaler Übereinstimmungsgrad macht diese Funktion robust. Genutzt wird die Konturdrehlageerkennung zur Bestimmung der Drehlage von unregelmäßig geformten ➚Prüfobjekten als Greifparameter für Roboterund Positioniersysteme. Konturextrempunkte Minimale und maximale Koordinaten (x, y) des Abstandes einer ➚Kontur bezüglich eines Koordinatensystems, Punkten oder Geraden. Konturfläche Fläche, die von einer geschlossenen ➚Kontur umschlossen wird. Angabe in Pixeln. Konturschwerpunkt Punkt (x,y), an dem sich eine von einer ➚Kontur begrenzte ebene Fläche im statischen Gleichgewicht befindet. Wird als ein Beschreibungskriterium für die ➚Konturanalyse genutzt. Konvergenz Zusammenlaufen von ➚Lichtstrahlen aus verschiedenen Richtungen in einem Punkt. Koordinatentransformation Bei komplexen Bildverarbeitungsapplikationen verwenden viele der Einzelkomponenten intern eigene Koordinatensysteme (Werkstückkoordinatensystem, Kameras, Roboter etc.). Für die Datenübergabe zwischen den Komponenten ist es nötig, die Koordinatensysteme ineinander umzurechnen, was durch die ➚Koordinatentransformation geschieht. Bildverarbeitungssysteme, die in der Lage sind, mehrere Kameras zu nutzen, rechnen die ➚Kamerakoordinaten oder ➚Bildkkoordinaten in ➚Weltkoordinaten um. Ebenso werden bei der ➚Robot Vision Kamerakoordinaten in Roboterkoordinaten umgerechnet. Liegen vom Roboter Roboterkoordinaten an, rechnet das Bildverarbeitungssystem Roboterkoordinaten in Kamerakoordinaten um. Korrektion Bezeichnung für das Beheben von ➚Abbildungsfehlern an ➚optischen Systemen. Korrekturfaktor ➚Justierung und ➚Kalibrierung der Bildverarbeitungsanlage sind vor dem Produktionsbetrieb notwendige Voraussetzungen. Die Arbeit in der Praxis hat aber gezeigt, dass sich nicht alle Fehlereinflüsse dadurch korrigieren lassen. Der pragmatische Ansatz ist in Lexikon der industriellen Bildverarbeitung Lexikon S.33-64/13.10.03 16.03.2004 10:53 Uhr Seite 58 Laplace-Filter einigen Fällen das Einfügen von Korrekturfaktoren/-offsets in das Prüfprogramm. Korrekturfaktoren werden genutzt: um werkstückträgerabhängige Größen zu kompensieren (➚indizierte Programmverzweigung); um Nennmaße mit (produktionsbedingten) Offsets durch den Anlagenbediener nachzuführen; Nichtlinearitäten auszugleichen (Bildverarbeitung, Handhabung, Zuführung). Korrelation Mathematisches Verfahren zur Ähnlichkeitsanalyse, die besonders bei der ➚Mustererkennung genutzt wird. Im ersten Schritt wird ein ➚Prüfobjekt (oder Teil desselben) mit der Kamera aufgenommen und in einem ➚Muster gespeichert. Im zweiten Schritt dient die Korrelation dazu, in neu aufgenommenen Bildern nach diesem Muster zu suchen und es mit einer definierbaren Genauigkeit wiederzufinden. Als Maß der Ähnlichkeit gilt dabei der Korrelationskoeffizient. Die Korrelation wird als hochpräzises Verfahren in der Bildverarbeitung dazu eingesetzt, Bauteilpositionen zu ermitteln sowie Bauteilkontrollen und Bauteilidentifikationen durchzuführen, Muster zu erkennen bei der ➚Montagekontrolle, ➚Vollständigkeitskontrolle, zum Finden von Marken als auch in einfachen ➚Smart Camera Sensoren als „Teilefinder“. Neue Verfahren machen die rechenaufwendige Korrelation unabhängiger von Schwankungen der Helligkeit (Beleuchtung, Bauteilvarianz) bei gleichzeitiger Verkürzung der Verarbeitungsgeschwindigkeit. Kreis antasten ➚Funktion, die das Antasten mehrerer Punkte sowie die Bildung des ➚Bestkreises zusammenfasst. Als Ergebnis werden abgelegt: Koordinaten des Mittelpunktes, Radius, Rundheit. Zur Erhöhung der statistischen Sicherheit werden beim Kreis antasten mehrere radial liegende Antastungen genutzt (Minimum 3). Je mehr radiale Antastungen genutzt werden, desto präziser wird die Bestimmung des Bestkreises. Jede radiale Antastung kann aus mehreren parallelen ➚Antaststrahlen bestehen (➚Antastbreite). Die Nutzung dieses Verfahrens empfiehlt sich, wenn Kanten erkannt werden sollen, die verschmutzt, ausgefranst sind, Bearbeitungsspuren aufweisen oder anderweitig strukturiert sind. Kreis definieren Die Nutzung von ➚Geometrieelementen ermöglicht es, Geometrieelemente zu kombinieren und dadurch neue Kreise zu definieren durch: Kreis aus drei Punkten, Kreis aus n Punkten, Tangentialkreis an Gerade und Punkt Tangentialkreis an Kreis und Punkt. Krümmungstest Verfahren zur Bewertung der Krümmung von ➚Konturen entlang einer ➚Segmentlänge. Als Maß für die Krümmung können ➚Segmenthöhe und ➚Segmentfläche herangezogen werden. Krümmungstest wird genutzt zur quantitativen Bewertung von frei geformten Konturen, die sich nicht mit den geometrischen Lexikon der industriellen Bildverarbeitung Grundelementen Gerade, Kreis und Ellipse beschreiben lassen. Künstliche Vignettierung ➚Vignettierung Kürzeste Einstellentfernung ➚Einstellentfernung Kurzbrennweitig Eine kurze Brennweite besitzend. Typische Eigenschaft von ➚Weitwinkelobjektiven. Kurzzeitshutter ➚Shutter L Ladungsbild Ortsdiskretes Abbild der Menge an Photonen, die auf einen zweidimensionalen ➚Bildaufnehmer aufgetroffen sind. Die einfallenden Photonen erzeugen Ladungen. Dabei wird angestrebt, dass die Menge der erzeugten Elektronen proportional zur Intensität des eingefallenen Lichtes ist, wodurch sich auf dem Bildaufnehmer ein naturgetreues ortsaufgelöstes Helligkeitsabbild in Form eines Ladungsmusters ergibt. Die Weiterverarbeitung des Ladungsbildes erfolgt z.B. im ➚CCD. (s. auch Quanteneffizienz) Lagenachführung auch Positionskompensation, relative Positionierung. Verfahren zum lageunabhängigen Erkennen und ➚Antasten von ➚Prüfobjekten. Lagenachführung wird angewendet, um ein gegenüber dem Einlernzeitpunkt in x- und y-Richtung verschobenes Prüfobjekt sicher mit ➚Antaststrahlen oder ➚Prüffenstern (Mittelpunkt) versehen zu können. Dazu werden die Koordinaten der Antaststrahlen/Prüffenster entsprechend der aktuellen Lage des Prüfobjektes einem verschiebbaren Koordinatensystem zugeordnet. Wird oft in Kombination mit ➚Drehlagenachführung anegewendet. Lagenachführung ist ein wirkungsvolles Mittel, um Teile, die durch Positionierungenauigkeit, Synchronisierung, unterschiedliche Zykluszeit der Maschine an verschiedenen Positionen im Gesichtsfeld erscheinen, sicher zu erfassen. Lambertstrahler streut das Licht ideal; seine ➚Leuchtdichte ist in alle Richtungen gleich groß. Die ➚Lichtstärke eines Lambertstrahlers fällt von der Normale der leuchtenden Fläche bei größeren Winkeln mit dem Cosinus ab. Diffuse Beleuchtungskomponenten zeigen ein ähnliches Verhalten wie Lambertstrahler. Langbrennweitig eine lange Brennweite besitzend. Typische Eigenschaft von ➚Teleobjektiven. Langzeitbelichtung ➚Shutter/Langzeitshutter Langzeitshutter ➚Shutter Laplace-Filter Digitales Filter, beruhend auf dem LaplaceOperator. Der Laplace-Filter dient dem Hervorheben von Kanten an strukturreichen Bereichen (Hochpasseigenschaft) und dem Unterdrücken weniger strukturierter Bereiche. 49 K L Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 65 Laser L Laser ➚Diodenlaser Laserklasse Durch den Einsatz von Lasern als Lichtquelle in der industriellen Bildverarbeitung muss das Thema Schutz vor schädigender Strahlung ernst genommen werden. In den meisten Fällen wird mit ➚Laserdiodenmodulen (Halbleiterlaser) gearbeitet, die naturgemäß eine wesentlich geringere Lichtleistung besitzen als Festkörper- oder Gaslaser. Dennoch sind Schutzmaßnahmen zu beachten, die in EN60825 spezifiziert sind: Laserklassen und ihre Begriffsbestimmung: Klasse 1: ungefährlich Klasse 2: Strahlung nur im sichtbaren Bereich (400 nm bis 700 nm). Bei kurzzeitiger Bestrahldauer (bis 0,25 s) ungefährlich für das Auge (< 1 mW) Klasse 3A: Für das Auge gefährlich, wenn Strahlquerschnitt durch optische Instrumente verkleinert wird, sonst wie Klasse 2 (< 5 mW bei 400 nm bis 700 nm Wellenlänge). Klasse 3B: Laserstrahlung ist gefährlich für Auge und in besonderen Fällen auch für die Haut (1 mW bis 5 mW bei 400 nm bis 700 nm Wellenlänge, 5 mW bis 500 mW bei 315 nm bis 1 mm Wellenlänge). Klasse 4: Laserstrahlung ist sehr gefährlich für Haut und Auge. Auch diffus gestreute Strahlung kann gefährlich sein. Die Lasestrahlung kann Brand- oder Explosionsgefahr verursachen (> 500 mW bei 315 nm bis 1 mm Wellenlänge). Die auf Lasermodulen angegebene Laserschutzklasse gilt für das Modul an sich. Durch die Integration in ein System und/oder eine spezifische Anwendung kann sich die Laserklasse ändern. Aus diesem Grund muss die vollständige Anlage mit einer separaten Laserschutzklasse versehen werden. Laserlichtquelle ➚Lichtquelle auf Basis des Laser-Effektes. In der Bildverarbeitung werden fast ausschließlich ➚Diodenlaser genutzt. Laserlichtquellen sind ➚kohärent, ➚monochromatisch und weisen ➚Speckles auf. Sie werden u.a. für ➚strukturierte Beleuchtungen angewendet. Auf Grund der großen Energiedichte bedürfen Laserlichtquellen besonderer Schutzmaßnahmen (➚Laserklasse). Lastenheft Das Lastenheft beschreibt die Anforderungen an ein Produkt/Leistung aus Anwendersicht, wie sie in der Planungsphase, aus Vorfelduntersuchungen, Machbarkeitsuntersuchungen, Aufwands- und Terminabschätzungen abgesteckt wurden. Das Lastentenheft wird i.A. vom Auftraggeber erstellt und den möglichen Auftragnehmern zur Erabeitung ihres Angebotes vorgelegt. (s. auch Pflichtenheft) Lauflängenkodierung, auch Run Length Coding, RLC. Verfahren zur Kompression von Bilddaten, besonders wirksam bei Binärbildern. Es werden nicht die Hellig- 50 keitswerte aller Pixel abgespeichert, sondern nur die Koordinaten von Bildpunkten, an denen Helligkeitsänderungen auftreten. LCD-Monitor Liquid Crystal Display-Monitor ➚TFT-Monitor Lebensdauer Der Zuverlässigkeitstheorie (Wahrscheinlichkeitstheorie und Statistik mit technischem Hintergrund) entstammender Kennwert technischer Systeme, der die Zeit vom Betriebsbeginn bis zum Systemausfall kennzeichnet. (s. DIN 55350) LED ➚Luminiszenzdiode LED-Beleuchtungen nutzen die vorteilhaften robusten Eigenschaften von ➚Luminiszenzdioden (LED) als Lichtquellen. Durch die geringe Flussspannung der einzelnen LEDs besitzen industrietaugliche LED-Beleuchtungen leistungsfähige Ansteuerschaltungen, die u.a. folgende Funktionen realisieren: Anpassung an einen weiten Eingangsspannungsbereich; Hochfrequenzbetrieb/Modulation mit hohen Frequenzen (Periodendauer << Belichtungsszeit ➚flimmerfreie Beleuchtung); Stabilisierung ermöglicht Helligkeitseinstellung (manuell, über Steuerspannung oder Bus); Bereitstellung von Blitzmöglichkeiten; Speicherung von Beleuchtungsparametern (Helligkeiten, Muster); Anbindung an Bussysteme. Die Varianten der Ansteuerung von LED-Beleuchtungen ermöglichen ➚Helligkeitsnachführung (Regelschleife). Durch die Kleinheit der einzelnen LED können LED-Beleuchtungen nahezu beliebige Beleuchtungsformen annehmen. Farbige Mischbestückung sowie Blitzbeleuchtungen sind möglich. LED-Beleuchtungen arbeiten wartungsfrei. Hinweise für den praktischen Betrieb: 1 Grad Celsius Erwärmung führt zu 1% Helligkeitsverlust (reversibler Vorgang); Langzeiterwärmung verändert den LED-Chip irreversibel (Helligkeitsverlust), daher ist eine Helligkeitseinstellung auf 50% langzeitstabiler; Erzeugung von Luftströmungen (Konvektionskühlung) ist empfehlenswert; Ein- und Ausschalten (auch mit hohen Frequenzen) schadet dem LED-Chip nicht (Blitz!), verlängert aber durch geringere Erwärmung, Helligkeit und Lebensdauer. LED-Beleuchtungen sind für den Industrieeinsatz eingehaust in robuste Gehäuse und können ➚IP-Schutzklassen bis IP67 erreichen. (s. auch adaptive Beleuchtungen) Leere Vergrößerung Erscheinung bei großen ➚Abbildungsmaßstäben, dass trotz steigendem Abbildungsmaßstab nicht mehr Details, sondern nur größer, sichtbar werden. Leere Vergrößerung wird durch ➚Beugung und Überlagerung der Beugungsmuster sowie durch das begrenzte ➚Auflösungsvermögen von ➚Bildaufnehmern hervorgerufen. Für Anwendungen in der Bildverarbeitung sind vom Betrag daher Abbildungsmaßstäbe > 10 nicht zu empfehlen. Lexikon der industriellen Bildverarbeitung Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 66 Lichtdurchgang durch Objektive Lehren Vorgang des maßlichen ➚Prüfens, ob ein vorgegebener ➚Toleranzbereich eingehalten wird. Die Größe des Maßes ist dabei nicht erheblich. Lens-on-chip Bei der Lens-on-chip-Technik wird auf jedes ➚Pixel des ➚Bildaufnehmers eine Mikrolinse aufgebracht, die das Licht, bündelt und nur auf die aktive Sensorfläche lenkt. Dadurch wird eine Empfindlichkeitssteigerung von ➚Interline-Transfer-Sensoren um ca. Faktor zwei bis drei erzielt. Mit dieser Maßnahme können die Folgen eines kleinen ➚Füllfaktors ausgeglichen werden. Durch den Einsatz der Mikrolinsen kommt es im Randbereich, bedingt durch schräg einfallende Randstrahlen, zu einer geringeren Bestrahlung als in der Bildmitte. Dadurch wird ein zusätzlicher Randlichtabfall (➚Vignettierung) eingefügt. Für messtechnische Anwendungen sind daher Sensoren mit Lens-on-chip nicht geeignet. Leuchtdichte lichttechnische Größe, Formelzeichen L. Die auf die Augenempfindlichkeit (➚V-Lambda-Kurve) bewertete Strahldichte. Die Leuchtdichte ist der Lichtstrom, der in einer bestimmten Richtung in einem bestimmten ➚Raumwinkel von einer bestimmten Fläche austritt, gemessen in cd/m2 (➚Candela/m2). L = d2φ / dΩ · dA · cos ε. Die Leuchtdichte ist Maß für die vom Auge oder ➚Bildaufnehmer empfundene Helligkeit eines Strahlers oder beleuchteten Objektes. Die Leuchtdichte der Sonne beträgt 109 cd/m2, die einer Leuchtstofflampe ca. 104 cd/m2, typische ➚LED-Beleuchtungen bis 3000 cd/m2 (Jahr 2002). Die Leuchtdichte ist eine entfernungsunabhängige Größe und somit auch für ➚Durchlichtbeleuchtungen konstant, unabhängig vom ➚Beleuchtungsabstand. Der Mittelwert der Leuchtdichte kann mit einem Beleuchtungsstärkemesser (Luxmeter) mit vorgesetztem Tubus (für definierten Raumwinkel) realisiert werden. Der gemessene ➚Beleuchtungsstärkewert E steht in der Beziehung zur Leuchtdichte: L = E · r2 / (A · Ω). Näherungsformel: Ein beleuchtetes Objekt leuchtet mit einer Leuchtdichte Lob = Eob · ρ mit ρ = Reflexionsgrad des Objektes, Eob = Beleuchtungsstärke auf dem Objekt (➚fotometrisches Entfernungsgesetz E ~ 1/s ≤ beachten!) (s. auch Lichtdurchgang durch Objektive) Leuchtdichteindikatrix Abhängigkeit der Leuchtdichte von der Ausstrahlungsrichtung einer flächenhaften Lichtquelle. Für einen ➚Lambertstrahler ist die räumlich dargestellte Leuchtdichteindikatrix eine Halbkugel. (s. auch Abstrahlcharakteristik) Leuchtdiode ➚LED Leuchtfeldgröße ➚Leuchtfläche Leuchtfläche Beschreibt die lichttechnisch aktive Fläche einer Beleuchtung, aus der Lichtenergie austritt. Die Leuchtfläche muss nicht immer mit der Größe der Streu- Lexikon der industriellen Bildverarbeitung scheibe/Frontlinse übereinstimmen. Durch Blenden kann die aktiv ausstrahlende Fläche kleiner sein. Leuchtstofflampenbeleuchtung ist durch ihren geringen Preis eine in der Bildverarbeitung gern genutzte Beleuchtung mit Leuchtstofflampen als ➚Lichtquelle. Die vom hauptsächlichen Einsatz in der Gebäudebeleuchtungstechnik vorgegebenen Formen (Linie und Ring) schränken die Einsatzgebiete ein: als Low-end-Lichtquelle für ➚Durchlicht, als Lichtquelle zur großflächigen Ausleuchtung und als ➚Ringlicht. Bei Leuchtstofflampen sind verschiedene ➚Farbtemperaturen (3000 ... 6000 K) möglich, wodurch der Einfluss auf die ➚Farbbildverarbeitung groß ist. Spezielle Leuchtstoffe ermöglichen auch Ausstrahlung im UV-A-Bereich (➚ultraviolettes Licht). Die Lichtausbeute ist sehr gut. Nachteilig ist das frequenzabhängige Schwanken der Helligkeit. Die allgemein gegebene Nichtsynchronität zwischen Ansteuerfrequenz und Kamera-Bildaufnahmefrequenz führt zu Schwebungen und damit zu nicht definierten Helligkeitsverhältnissen. Für die Verwendung in der Bildverarbeitung müssen daher Leuchstofflampen mit HF-Vorschaltgeräten (f > 15 kHz) betrieben werden, damit die Helligkeit im aufgenommenen Bild konstant bleibt. Zu beachten ist, dass die Intensität des Lichtes von der Umgebungstemperatur abhängig ist, die Lichtquelle ca. 10 Minuten warmlaufen muss und Alterung zu Helligkeitsdrift führt (am Ende der Lebensdauer ca. 50%). Mittlere Lebensdauer 8.000 ... 12.000 Stunden. LH-Flanke Low-High-Flanke Licht Licht als elektromagnetische Welle belegt den Wellenlängenbereich zwischen 15 nm und 800 µm. Die darin eingeschlossenen Bereiche sind ➚ultraviolettes Licht (UV), ➚sichtbares Licht (VIS), ➚infrarotes Licht (IR). Licht breitet sich in einem homogenen Medium geradlinig aus, beeinflusst sich gegenseitig nicht (bei unterschiedlichen Lichtquellen) und folgt den Gesetzen der ➚Brechung, ➚Reflexion und ➚Beugung. (s. auch Lichtenergie) Lichtdurchgang durch Objektive gibt Auskunft darüber, wie viel Licht den ➚Bildaufnehmer der Kamera erreicht. Bei einer ➚Auflichtbeleuchtung bestimmt der ➚Beleuchtungsabstand s über das ➚fotometrische Entfernungsgesetz die ➚Beleuchtungsstärke Eob auf dem ➚Prüfobjekt: Eob ~ 1 / s. Das beleuchtete Objekt leuchtet nunmehr mit der Leuchtdichte Lob = Eob · ρ/π mit ρ = ➚Reflexionsgrad des streuenden Objektes; Eob = Beleuchtungsstärke auf dem Objekt. Bei einer ➚Durchlichtbeleuchtung leuchtet die Lichtquelle selbst mit der Leuchtdichte Lob (das Objekt erscheint dunkel). In Näherung gilt für die Beleuchtungsstärke Esensor auf dem Bildaufnehmer: Esensor= π · Lob · τ / (4 k2 · [1 - ß’2]) mit 51 L Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 67 Lichteinfallshöhe L k = Blendenzahl τ = Transmissionsgrad des Objektives (τ ~ 0,9) Eob = Beleuchtungsstärke auf dem Objekt ß’ = Abbildungsmaßstab Gilt nur auf der optischen Achse (Bildmitte). Abweichend davon muss der ➚cos4-Abfall berücksichtigt werden. Anmerkung: Der ➚Arbeitsabstand des Objektives hat keinen Einfluss auf Beleuchtungsstärke auf dem Bildaufnehmer Esensor, denn das Objekt leuchtet mit einer entfernungsunabhängigen ➚Leuchtdichte Lob. Lichteinfallshöhe Höhe des Schwerpunktes einer Lichtquelle über der ➚Objektebene mit dem ➚Prüfobjekt. Die Lichteinfallshöhe bestimmt in starkem Maße den erreichbaren ➚Kontrast im Kamerabild durch Schattenwirkung an Kanten, Strukturen und der Oberfläche des Prüfobjektes. (s. auch Lichteinfallsrichtung, Beleuchtungsabstand, Lichteinfallswinkel) Lichteinfallsrichtung ist die Richtung am ➚Prüfobjekt (N, O, S, W und Zwischenrichtungen) in der ➚Objektebene, aus der die Beleuchtung den Hauptteil ihrer Lichtenergie aussendet. Die Lichteinfallsrichtung bestimmt in starkem Maße den erreichbaren ➚Kontrast im Kamerabild durch Schattenwirkung an Kanten, Strukturen und der Oberfläche des Prüfobjektes. Da die ➚Drehlage des Prüfobjektes in vielen Fällen (z.B. bei rotationssymmetrischen Teilen) nicht konstant gehalten werden kann, muss u.U. die Lichteinfallsrichtung durch die Beleuchtung geändert werden, wie durch ein ➚Sektorenringlicht oder mehrere schaltbare Beleuchtungen um das Prüfobjekt herum. (s. auch Beleuchtungsabstand, Lichteinfallswinkel) Lichteinfallswinkel ist der Winkel zwischen der ➚Objektebene mit dem ➚Prüfobjekt und der ➚optischen Achse der Beleuchtung bzw. der Normalen der ➚Lichtaustrittsfläche der Beleuchtung. Der Lichteinfallswinkel bestimmt in starkem Maße den erreichbaren ➚Kontrast im Kamerabild durch Schattenwirkung an Kanten, Strukturen und der Oberfläche des Prüfobjektes. (s. auch Lichteinfallsrichtung, Beleuchtungsabstand) Lichtempfindliche Fläche, auch aktive Fläche. ➚Bildaufnehmer besitzen i.A. mehr ➚Pixel als zur Darstellung des Bildes im ➚Bildspeicher oder auf dem Monitor freigegeben werden. Die nicht lichtempfindlichen Pixel sind mit einer Metall-Schirmung abgedeckt und dienen der Kompensation chipinterner Erscheinungen (➚Dunkelstrom, ➚Festmusterrauschen). Außerdem wird durch sie der Referenzwert für Schwarz (➚Schwarzreferenz-Pixel) festgelegt. (s. auch Sensorgröße) Lichtenergie Licht als strahlungsphysikalische Größe ist nicht gut greifbar. Zur Darstellung der Größenverhältnisse seien hier einige Vergleichswerte genannt, um von der im Licht enthaltenen Energie eine Vorstellung zu bekommen: 52 Außerhalb der Atmosphäre strahlt die Sonne auf einen Quadratmeter mit einer Bestrahlungsstärke von 1353 W/m2. Die Atmosphäre lässt bei Stand im Zenit davon noch 1120 W/m2 übrig. Über die gesamte Zeit eines Jahres gemittelt ergeben sich etwa 100 W/m2. Aus einem Watt Leistung lässt sich (als theoretische Grenze) maximal ein ➚Lichtstrom von 683 lm gewinnen bei monochromatischem Licht von 555 nm. Bei weißem Licht sind es noch 225 lm/W. Eine Halogenglühlampe bringt es bei 2850 K ➚Farbtemperatur auf etwa 18 lm/W, eine ➚LED auf 16 lm/W und ein Halogenstahler auf 100 lm/W. Lichtfarbe ➚Wellenlänge. Weiße Lichtquellen werden hinsichtlich ihrer Lichtfarbe entsprechend ihrer ➚Farbtemperatur eingeteilt in Tageslichtweiß (>5000 K), Neutralweiß (3300 ... 5000 K), Warmweiß (<3000 K). Lichtfilter sind optische Filter, die die Lichtintensität verringern (➚Neutralfilter), die spektrale Zusammensetzung des Lichtes ändern (➚Absorptionsfilter oder ➚Interferenzfilter) oder die Polarisationseigenschaften des Lichtes (➚Polarisationsfilter) verändern. Lichtfilter können vor dem ➚Objektiv oder vor dem ➚Bildaufnehmer angebracht werden. Ein eingefügtes Lichtfilter reagiert wie ➚eine planparallele Platte, die optische Weglänge wird geändert. Näherungsweise vergrößert sich der ➚Arbeitsabstand beim Vorsetzen vor das ➚Objektiv um Glasdicke/3, beim Vorsetzen vor den Bildaufnehmer um Glasdicke/3 · ß’2 (ß’➚Abbildungsmaßstab). Ebenso bedeutet das Entfernen eines Lichtfilters (z.B. ➚Infrarotsperrfilter aus der Kamera) die Änderung der optischen Verhältnisse (➚Schnittweiten) – der ➚Arbeitsabstand muss angepasst werden. Hochwertige Lichtfilter sind vergütet (➚Vergütung). Lichtleiter ➚Lichtwellenleiter Lichtquelle ist ein Körper, der Licht aussendet. In der Bildverarbeitung werden Lichtquellen verschiedenster Funktionsprinzipien genutzt: Glühlampen mit Glühemission (➚Halogenglühlampe); ➚Leuchtdioden (LED) mit ➚Lumineszenz; ➚Leuchtstofflampen mit ➚Fluoreszenz; ➚Gasentladungslampen; ➚Laser. Lichtschnittverfahren Einfaches optisches Verfahren zur Vermessung dreidimensionaler Prüfbjekte. Entlang eines „Schnittes“ auf dem Objekt wird die Projektion einer Lichtlinie (➚Linienbeleuchtung) erzeugt und mit der Kamera aufgenommen. Unter Berücksichtigung des Winkels zwischen Kamera und Beleuchtung kann mittels trigonometrischer Zusammenhänge aus der deformierten Lichtlinie im Bild die Höhe des dreidimensionalen Objektes entlang des Lichtschnitts berechnet werden. Anwendung: Linienhafte Höhenbestimmung, Anwesenheitskontrolle/Montagekontrolle von Teilen, die in einer Richtung im Bild an verschiedenen Orten auftreten können. (s. auch strukturierte Beleuchtung) Lexikon der industriellen Bildverarbeitung Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 68 Livebild Lichtstärke 1.) lichttechnische Größe, Formelzeichen I. Die auf die ➚Augenempfindlichkeit (➚V-Lambda-Kurve) bewertete Strahlstärke. Der Lichtstärke beschreibt den ➚Lichtstrom in eine bestimmte Richtung, bezogen auf den durchfluteten ➚Raumwinkel in lm/sr (➚Lumen/ ➚Steradiant) oder ➚Candela [cd]. I = dφ / dΩ. Die Lichtstärke 1 candela [cd] entspricht ungefähr der einer Kerze. Eine 60W-Glühlampe hat eine Lichtstärke von etwa 65 cd. 2.) Maß für das Vermögen von Objektiven, Licht durchzulassen. Über die Lichtstärke lässt sich auf die Wirksamkeit von Bildverarbeitungsalgorithmen Einfluss nehmen. Je lichtstärker ein Objektiv, desto sicherer die Bildverarbeitung. Die Lichtstärke wird beschrieben durch das ➚Öffnungsverhältnis. Lichtstrahl ➚geometrische Optik Lichtstrom Lichttechnische Größe, Formelzeichen φ. Der auf die Augenempfindlichkeit (➚V-Lambda-Kurve) bewertete Strahlungsfluss. Der Lichtstrom beschreibt die gesamte von einer Lichtquelle abgestrahlte Lichtleistung in ➚Lumen [lm] oder ➚Candela · ➚Steradiant [cd ·sr]. Lichttechnische Größen Auf die Augenempfindlichkeit (➚V-Lambda-Kurve) bewertete ➚strahlungsphysikalische Größen. Dazu gehören ➚Lichtstrom, ➚Lichtstärke, ➚Leuchtdichte, ➚Beleuchtungsstärke. Lichtverteilung ➚Abstrahlcharakteristik Lichtweg ➚Optische Weglänge Lichtwellenleiter Glas- oder Kunststofffasern, die Licht über lange Strecken übertragen. Das Licht pflanzt sich durch ➚Totalreflexion an der Faserwandung mit geringen Verlusten fort. Durch die Bündelung vieler Einzelfasern (Durchmesser typisch 30 ... 100 Mikrometer) lassen sich große Datenmengen übertragen. Lichtwellenleiter werden sowohl zur Informationsübertragung als auch zur Lichtübertragung für Beleuchtungszwecke (➚Kaltlichtbeleuchtung, ➚Faserbündel) und als ➚Bildleitkabel zur Übertragung von Bildern genutzt. Lineare Polarisation ➚Polarisation Linienbeleuchtung Umschreibung einer Lichtquelle, die eine linienförmige Lichtstruktur erzeugt. Verschiedene Möglichkeiten der Erzeugung sind: Laser mit ➚Vorsatzoptik; Projektion einer ➚Kante; Projektion eines Dias/ Chromgitters; ➚Kaltlichtquelle mit ➚Querschnittswandler; Diodenzeile mit ➚Zylinderlinse. Linienlichter werden genutzt für: a) ➚Zeilenkameras zur gezielten und konzentrierten Beleuchtung b) ➚Matrixkameras mit dem ➚Lichtschnittverfahren c) Matrixkameras zur gezielten Hervorhebung von Objektdetails (s. auch Flächenbeleuchtung) Linienlaser Bezeichnung für Laserlichtquelle, die durch Vorsatz einer ➚Strahlformungsoptik eine Lichtlinie er- Lexikon der industriellen Bildverarbeitung zeugt. Linienlaser werden u.a. für das ➚Lichtschnittverfahren genutzt. Linienpaare/mm Für den Auflösungstest mit ➚Testcharts genutzte Einteilung von hellen (ideal weißen) und dunkeln (ideal schwarzen) Linien. Ein Linienpaar/mm entspricht einer 0,5mm breiten weißen und einer 0,5 mm breiten schwarzen Linie. Linienspektrum ➚Spektrum Linsenform In optischen Abbildungs- und Beleuchtungssystemen für die Bildverarbeitung treten am häufigsten auf: 1.) sphärische Linsen. Sie sind durch Ausschnitte aus 2 Kugelflächen begrenzt und werden durch 2 Radien beschrieben, womit sich die Linsenformen: Bikonkav, plankonkav, konkavkonvex, plankonvex und bikonvex ergeben. Sonderfall einer Linse ist die ➚planparallele Platte (2x Radius unendlich). Auf Grund der einfachen und lange erprobten Herstellungsweise sind sphärische Linsen preiswert. Alle sphärischen Linsen besitzen ➚Abbildungsfehler. Aus sphärischen Linsen sind die meisten Objektive der Bildverarbeitung aufgebaut. Außerdem werden sie in Beleuchtungssystemen zur Lichtformung (z. B. ➚telezentrische Beleuchtung) genutzt. 2.) asphärische Linsen. Linsen, deren rotationssymmetrische Oberflächenform durch eine komplexe mathematische Funktion (Polynom, Spline u.a.) beschrieben wird. Asphärische Linsen werden in Kombination mit sphärischen Linsen zur Korrektur von Abbildungsfehlern genutzt, sind aber kostspielig in der Herstellung, da sie auf speziellen Werkzeugmaschinen gefertigt werden. Verwendung in hochwertigen Objektiven der Bildverarbeitung bei höchsten Ansprüchen an die Bildqualität. 3.) Fresnellinsen. Sowohl sphärisch als auch asphärisch möglich. Bestehen aus Ringen gleicher Krümmung wie massive Linsen. Durch die Stufung der Zonen kann die Linse sehr flach gehalten werden. Werden meist in Kunststoff gefertigt und sind im Vergleich zu Glaslinsen konkurrenzlos billig. Eingeschränkte ➚Abbildungsgüte. Werden typischerweise für fokussierte Beleuchtungen (Spots), als Kreisringe in LED-Ringlichtern, in ➚telezentrischen Beleuchtungen, aber auch für den Einsatz in ➚telezentrischen Großfeldobjektiven genutzt. Livebild Das vom ➚Bildaufnehmer aufgenommene Bild wird direkt an einen Monitor ausgegeben. Parallel dazu wird bei einigen Systemen permanent bei Eintreffen eines neuen Bildes der ➚Bildspeicher überschrieben (typisch bei ➚Framegrabber). Gegensatz dazu ist das ➚Speicherbild, das zur Darstellung immer wieder zyklisch aus dem ➚Bildspeicher ausgelesen wird. Je nach Hardware-Architektur des Bildverarbeitungssystems kann der Betrieb im Livebildmodus den Hauptprozessor entlasten (z.B. bei einigen ➚Smart Cameras). Das ist immer dann vorteilhaft, wenn der Prozessor beim Auslesen 53 L Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 69 Lokaler Operator L M des Speicherbildes mit dem Transfer von Bilddaten beschäftigt ist. Lokaler Operator Mathematische Funktion, die auf ein Pixel wirkt unter Wechselwirkung mit den benachbarten Pixeln. Der neu berechnete Helligkeitswert eines Pixels hängt auch von seiner Umgebung ab. Wie stark diese Wirkung ist, wird durch Wichtungsfaktoren, die Koeffizienten festgelegt. Der Operator wird so Zeile für Zeile durch den gesamten Arbeitsbereich „geschoben“. Die Größe des Operators (z.B. 3 · 3 Pixel, d.h. um das bezeichnete Pixel jeweils ein Pixel herum) kann eingestellt werden und bestimmt dadurch wesentlich die Zeit, die für die Abarbeitung der Funktion benötigt wird. Mit zunehmender Operatorgröße nimmt die Verarbeitungszeit überproportional zu. (s. auch Punktoperator, globaler Operator) Look up Tabelle LUT. Transformationstabelle in Form eines schnellen digitalen Speichers, der digitalen Eingangssignalen (Helligkeitswerte aus Bilddaten) neue Ausgangswerte (veränderte Helligkeitswerte) zuweist. Abhängig vom Helligkeitswert wird für jedes ➚Pixel auf eine Speicheradresse zugegriffen, in der der neue Helligkeitswert für das Pixel steht. So lässt sich in Hardware ➚Bildvorverarbeitung (➚Kontrastverstärkung, ➚Invertieren, ➚Schwellwert, ➚Binarisierung, ➚Falschfarbendarstellung, ➚Shadingkorrektur, Helligkeitsänderung) in Video- ➚Echtzeit durchführen. Mit Look up Tabellen lassen sich Bilddatentransformationen realisieren, die mathematisch nicht beschreibbar sind. Look up Tabellen werden von ➚Framegrabbern oder ➚Smart Cameras verwaltet. Lotrechte Justierung ➚Justierung Lumen Abkürzung lm. SI-Einheit des ➚Lichtstroms. Lichtstrom pro ➚Raumwinkeleinheit einer punktförmigen Lichtquelle, die eine ➚Lichtstärke von einer ➚Candela hat. Fotometrisches Äquivalent zur Lichtleistung [Watt]: Ein Lumen ist 1/683 W bei einer Wellenlänge von 555 nm. Luminanz-Signal ➚Videosignal Lumineszenz Kalte Form der Lichtaussendung. Kann elektrisch (Elektrolumineszenz), chemisch (Chemolumineszenz), biologisch (Biolumineszenz) oder durch Licht (Fotolumineszenz) ausgelöst werden. Lumineszenzdiode Abkürzung LED (light emitting diode). Halbleiterbauelement zur kalten Lichterzeugung. Bei Stromfluss durch den pn-Übergang rekombinieren im Sperrschichtbereich Elektronen und Löcher unter Abstrahlung von Lichtenergie. Verschiedene ➚Wellenlängen sind möglich: vom ultravioletten Licht, sichtbaren Licht bis infraroten Licht, abhängig vom Substrat. Typische Materialien sind GaAs- und In-Verbindungen. LEDs besitzen einen großen Wirkungsgrad und viele Eigenschaften, die sie für die Anwendung in Beleuchtungen 54 für die industrielle Bildverarbeitung (➚LED-Beleuchtungen) geeignet machen: hohe Lebensdauer (100.000 h MTBF), erschütterungsunempfindlich, nahezu monochrom, geringe Helligkeitsdrift, ideale elektrische Ansteuerbarkeit (modulierbar, blitzbar), geringe Leistungsaufnahme. Weitere Anwendungen: Kontrollleuchten, Lichtquellen für Scheinwerfer (Automotive), Datenübertragung über ➚Lichtwellenleiter. LUT ➚Look up Tabelle Lux Abkürzung lx. SI-Einheit der ➚Beleuchtungsstärke. 1 ➚Lumen pro Quadratmeter = 1 Lux. Luxmeter Beleuchtungsstärkemesser mit Fotoelement im Messkopf, einer ➚V-Lambda-Korrektur und einem ➚Diffusor, damit aus allen Winkeln einfallendes Licht mit bewertet wird. (s. auch Beleuchtungsstärke, Leuchtdichte) Luxwerttest ➚Beleuchtungsstärketest M Machine Vision, auch Maschinelles Sehen. Machine Vision ist die Beschreibung des Verstehens und der Interpretation von technisch gewonnenen Bildern zur Steuerung technischer Prozesse. Dazu bedient sich Machine Vision der ➚Bildverarbeitung. Magenta entsteht bei additiver ➚Farbmischung aus Rot und Blau. Tiefrote/purpurrote Farbe, die resultiert, wenn der grüne Farbanteil aus weißem Licht entfernt wird. (s. auch Komplementärfarbe) Makro-Objektiv Objektiv mit einer besonders geringen kürzesten ➚Einstellentfernung. Makro-Objektive werden so gerechnet, dass sie bei kurzen Arbeitsabständen ihre besten Abbildungsleistungen liefern. Da sie vor allem für messtechnische Anwendungen genutzt werden, verfügen sie meist nur über eine Festblende und einen fest eingestellten Arbeitsabstand (➚Fix-Fokus-Objektiv). Typische ➚Abbildungsmaßstäbe liegen zwischen -0,1 und -10. Der Einsatz von Makro-Objektiven ist dem Einsatz von ➚Zwischenringen und ➚Nahlinsen vorzuziehen. Maschinelles Sehen ➚Machine Vision Maßverkörperung Messmittel, das zur Darstellung einer Größe mit vorgegebenem Wert dient. Die Maßverkörperung ist Bezugsgröße für die ➚Kalibrierung. Für die Bildverarbeitung ist die Matrixstruktur des ➚Bildaufnehmers die Maßverkörperung. In der Maßverkörperung liegt die Messgenauigkeit eines Messsystems begründet (Pixelabstand, Pixelgröße). Nachgewiesen ist, dass die Maßverkörperung eines ➚CCDs Auflösungen von 1/100 Pixel zulässt. Lexikon der industriellen Bildverarbeitung Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 70 Messtechnische Grundsätze Matrixkamera, auch Flächenkamera. Meist mit ➚CCD (➚CCD-Kamera) oder ➚CMOS-Bildaufnehmer ausgeführt. Bezeichnet die Anordnung der ➚Pixel in einer zeilen- und spaltenförmigen Struktur. CCD-Matrixkameras müssen, bedingt durch das Prinzip des CCD, immer die gesamte Bildinformation aus dem Bildaufnehmer auslesen und sind damit in ihrer ➚Bildfrequenz begrenzt. Abhilfe schafft hier das ➚Binning, das mehrere Pixel, auf Kosten der ➚Auflösung, zusammenfasst. Kameras mit CMOS-Bildaufnehmer sind hinsichtlich der Bildfrequenz Kameras mit CCD-Bildaufnehmer überlegen. Matrixkameras können hardwareseitig mit einer Reihe von Features ausgerüstet sein wie: Einstellung von Kameraparametern (➚CCD-Iris, Weißabgleich, Verstärkungen, Kennlinieneinstellungen) über eine ➚Schnittstelle, Bedienung verschiedener Schnittstellen (➚Fire Wire, ➚serielle Schnittstelle, ➚Ethernet, ➚USB). Eine eigene Klasse von Matrixkameras mit eingebauter Intelligenz sind die ➚Smart-Cameras. Matrixkameras können als Schwarz/weiß- oder als ➚Farbkameras ausgeführt sein. Als ➚Objektiv-anschluss hat sich für industriell eingesetzte Matrixkameras die ➚C-Mount-Spezifikation durchgesetzt. (s. auch Sensorgröße, Pixelzahl) Maximum-Filter Digitaler Filter (➚Bildfilter), beruhend auf dem Maximum-Operator. Beseitigt einzelne dunkle Pixel aus hellen Regionen. Glättet die Bildinformation bei gleichzeitiger Beibehaltung der ➚Kantensteilheit. Mechanische Achse Die mechanische Achse eines Objektives wird von der Rotationsachse des mechanischen Tubusses gebildet. Im Idealfall soll die mechanische Achse mit der optischen Achse übereinstimmen. In der Praxis tritt dieser Fall durch fertigungsbedingte Abweichungen kaum auf. Daher reicht es nicht aus, das Objektiv mechanisch auszurichten – es muss eine Ausrichtung der ➚optischen Achse erfolgen. (s. auch Justierung, Justierhilfe) Median-Filter Digitaler nichtlinearer Filter (➚Bildfilter). Sortiert zuerst die im ➚Prüffenster enthaltenen Helligkeitswerte. Entfernt danach die höchsten und niedrigsten Helligkeitswerte. Der implementierte Sortier-Algorithmus macht den Median-Fillter rechenzeitintensiv. Wirkung: beseitigt ➚Rauschen. Glättungswirkung bei Erhalt der ➚Kantensteilheit. Arbeitet effektiver als der Mittelwertfilter bei geringerer Unschärfe. Mehrkamerasystem Bildverarbeitungssystem, das die Bildinformation von mehreren Kameras nutzt. Mehrkamerasysteme können verschieden aufgebaut werden: a) Nutzung eines ➚Framegrabbers mit mehreren Eingängen für Kameras = zentrale Lösung. Je nach ➚Echtzeitfähigkeit und -erfordernissen kann ein teures Multiprozessorsystem notwendig sein, das den synchronen Bildeinzug mehrerer Kameras gleichzeitig realisiert; Vernetzung mehrerer ➚Smart Cameras an einem Bussys- Lexikon der industriellen Bildverarbeitung tem (➚Ethernet, ➚Profibus) = dezentrale Lösung, die durch die autonome Smart Camera echtzeitfähig ist. b) Nutzung mehrerer ferngesteuerter ➚Smart Camera Sensoren als Slaves an einem Leitrechner = dezentrale Lösung, die durch die autonome Smart Camera echtzeitfähig ist. Merkmal ist eine Eigenschaft eines betrachteten ➚Pixels oder Bildgebietes. Merkmale können z.B. ➚Grauwerte, ➚Gradienten, ➚Kanten, ➚Konturen, Flächen oder ➚Texturen sein und werden durch Bildverarbeitungssoftware interpretiert. Merkmalsextraktion ist der entscheidende Schritt der Datenreduktion, um Eigenschaften von ➚Objekten zu extrahieren und in einem Merkmalsvektor (Liste signifikanter Merkmale mit Wichtungsfaktoren) abzulegen. Setzt ➚Segmentierung der Objekte voraus. Die gewonnenen ➚Merkmale werden anschließend zur ➚Klassifikation genutzt. Schwierigster Schritt der Bildverarbeitung, da „scharfe“ Kriterien für die Merkmale angewendet werden im Vergleich zur menschlichen Merkmalsextraktion, die „weiche“ Kriterien nutzt. (s. auch neuronale Netze) Merkmalsvektor fasst die ein Objekt beschreibenden Merkmale (Merkmalswerte) in einem Vektor zusammen. Messen Das Feststellen der Qualität und Quantität einer Größe durch Vergleich mit einer bekannten Vergleichsgröße. (s. auch Prüfen, dimensionelles Messen, Fotometrie) Messfehler Da alle Messverfahren, auch die Bildverarbeitung, unvollkommen sind, besitzen sie Messfehler. Die Größe des Messfehlers ist meist nicht genau zu bestimmen (➚zufällige Fehler, ➚systematische Fehler), d.h. der fehlerfreie Wert (➚Sollwert) ist vom Messfehler überlagert. Der Messfehler ist Istwert (➚Messwert) minus Sollwert. Die Analyse der Messfehler für individuelle Bildverarbeitungslösungen gestaltet sich schwierig, da die Bestimmung der Messfehler zeitaufwendig ist. Daher nutzt man häufig pragmatische Ansätze unter Ausnutzung statistischer Methoden zur Genauigkeitssteigerung. (s. auch Prüfmittelfähigkeit, Cg-/Cgk-Werte, Korrekturfaktor, DIN 1319) Messobjektiv Objektiv mit besonders geringen ➚Abbildungsfehlern. (s. auch telezentrisches Objektiv) Messtechnische Grundsätze Grundregeln, die bei der Auslegung von Bildverarbeitungsanlagen zu beachten sind, damit ➚systematische Fehler minimiert werden und die ➚Prüfmittelfähigkeit erreicht werden kann: a) Das ➚Auflösungsvermögen des ➚Bildaufnehmers sollte 1/10 des geforderten ➚Toleranzbereiches betragen. Abweichungen von diesem Wert sind möglich, müssen dann aber im konkreten Systemzusammenhang diskutiert werden. 55 M Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 71 Messunsicherheit M b) Die Genauigkeit der Vermessung von ➚Kalibrierkörpern sollte 10x größer sein als die geforderte Genauigkeit der Bildverarbeitungsanlage. c) Messeinrichtungen für die Vermessung von räumlichen Teilen sollen so justiert sein (➚Justierung), dass die Abweichung der Rechtwinkligkeit der ➚optischen Achse (➚Verkippung) zur ➚Objektebene/Messebene minimal gehalten wird. d) Als Faustregel für die ➚Anwesenheitskontrolle gilt: das ➚Prüfobjekt sollte 1% der Fläche (in Pixeln) des ➚Gesichtsfeldes ausmachen (bei schwachem ➚Kontrast), bei gutem Kontrast kann das herab zu einer Fläche von nur 10 Pixel sein. e) Bei ➚OCR/OCV sollte die Fläche eines einzelnen Zeichens 200 ... 400 Pixel betragen. (s. auch Cg-/Cgk-Wert) Messunsicherheit Beschreibt die Streuung von Messergebnissen. (s. auch Antastunsicherheit) Messwert Fehlerbehafteter Ist-Wert eines Messsystems. Metalldampflampe ➚Lichtquelle und spezielle Form der ➚Gasentladungslampe, bei der die Farbwiedergabe durch Zusatz von Halogeniden verbessert wurde. Metalldampflampen sind sehr hell, haben eine hohe ➚Farbtemperatur, eine längere Lebensdauer als Halogenglühlampen, besitzen aber kein kontinuierliches ➚Spektrum und benötigen eine Warmlaufzeit. Mikrometer Tausendster Teil eines Millimeters. Am Maß „ein Mikrometer“ verdeutlichen sich die häufig übersteigerten Erwartungen an das, was industrielle Bildverarbeitung fähig ist, zu messen. Zur Verdeutlichung: das menschliche Auge kann in 25 cm Entfernung noch Details von 70 µm trennen; ein menschliches Haar ist 30 .. 50 µm dick; das Klopfen auf eine Tischplatte erzeugt Amplituden von 5 ... 10 µm (Schwingungsamplituden in Maschinen sind wesentlich größer); der Tastsinn des Fingers erfasst Oberflächenrauhheiten bis >1 µm; die Wellenlänge des sichtbaren Lichtes beträgt 0,38 ... 0,78 µm; die Fotolithografie zur Herstellung integrierter Schaltungen nutzt Licht <0,13 µm (Jahr 2002); in 1 µm lassen sich 10 000 Schichten Atome unterbringen. Messen auf 1 Mikrometer genau ist mit industrieller Bildverarbeitung nicht möglich (außer interferometrische Messverfahren). Messen auf 10 Mikrometer genau gehört bereits zu den ambitionierten Vorhaben der Bildverarbeitung. Mikroobjektiv ➚Mikroskopobjektiv Mikroskopobjektiv Sammelndes ➚optisches System zur vergrößernden Abbildung (➚Abbildungsmaßstab). Typischerweise verringert sich der Arbeitsabstand mit dem Betrag des Abbildungsmaßstabes, dabei erfordern große Arbeitsabstände einen erheblichen optischen Aufwand. Long-distance Mikroskopobjektive realisieren dabei große Arbeitsabstände. Beispiel: 56 Abbildungsmaßstab: 1 3 5 10 Arbeitsabstand [mm]: 79 75 64 50 Die Kennzeichnung von Mikroskopobjektiven erfolgt i.A. durch Angabe des Abbildungsmaßstabes und der ➚numerischen Apertur (z.B. 10/0,25) sowie weiterer mikroskopspezifischer Daten. Große numerische Aperturen führen zu Objektiven mit großer ➚Lichtstärke. Mikroskopobjektive werden in der Bildverarbeitung zur Abbildung sehr kleiner ➚Prüfobjekte zusammen mit Mikroskopköpfen verwendet, die die notwendige Tubuslänge realisieren. So entsteht für den ➚Bildaufnehmer ein vergrößertes höhenvertauschtes Bild. Minimum-Filter Digitales Filter (➚Bildfilter), beruhend auf dem Minimum-Operator. Beseitigt einzelne helle Pixel aus dunklen Regionen. Glättet die Bildinformation bei gleichzeitiger Beibehaltung der ➚Kantensteilheit. Mittelwert-Filter Digitales Filter, beruhend auf dem Mittelwert-Operator. Ersetzt den Helligkeitswert eines ➚Pixels durch den mittleren Helligkeitswert des für die Filtermaske vorgegebenen Wertes. Beseitigt Rauschen und kleine Störungen im Bild, macht das Bild aber unschärfer. MOD minimal object distance. Kürzeste ➚Einstellenfernung Modulation ➚Kontrast Modulation Transfer Function MTF. ➚Modulationsübertragungsfunktion Modulationsübertragungsfunktion, engl. modulation transfer function, MTF, auch Kontrastübertragung. Beschreibt die Güte (das optische ➚Auflösungsvermögen, nicht das der Kamera!) eines optischen Systems und fasst in Kurverscharen alle ➚Abbildungsfehler, ausgeschlossen die ➚Verzeichnung, zusammen. Die Modulationsübertragungsfunktion beschreibt die Übertragung eines ➚Kontrastes K auf dem Objekt (➚Linienpaare/mm) zu einem Kontrast K´ im Bild: T = K´ / K. Dieser Kontrast ist in verschiedenen Richtungen (tagential, sagittal) unterschiedlich groß. Daher gehören die tangentiale und sagittale Kurve immer zusammen. Zur Ermittlung der MTF wird ein Liniengitter von der Bildmitte zum Bildrand verschoben und an verschiedenen Orten im Bild die Kontrastübertragung ermittelt. Dieses Verfahren wird für verschiedene Ortsfrequenzen (Anzahl von Linienpaare/mm) durchgeführt. Im Ergebnis ensteht eine Kurvenschar der MT. (x-Achse: Bildort von Bildmitte 0% bis Bildrand 100%, y-Achse: Kontrastübertragung 0 bis 100%). Einflussfaktoren auf die MTF (außerhalb des optischen Systems) sind: Ortsfrequenz, ➚Abbildungsmaßstab, ➚Blendenzahl, ➚Beleuchtungswellenlänge, Bildort (h/hmax). Allgemeine Erkenntnisse: a) Im Bild ist immer ein schlechterer Kontrast als auf dem Objekt: Kontrastübertragung < 100%; Lexikon der industriellen Bildverarbeitung Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 72 Mustererkennung b) Bei zunehmender Detailfeinheit (Ortsfrequenz) nimmt der Kontrast im Bild ab; c) Es gibt eine optimale Blendeneinstellung, bei der die MTF Maximum erreicht; d) Sagittale und tangentiale Strukturen werden unterschiedlich gut aufgelöst (Beachten bei strukturierten Teilen!); e) Am Bildrand wird die Kontrastübertragung signifikant schlechter. Darum möglichst nur 80% des Gesichtsfeldes nutzen; Die aus den Konstruktionsdaten eines gerechneten optischen Systems berechnete MTF wird als geometrische MTF bezeichnet. Auch in Zusammenhang mit ➚Bildaufnehmern wird der Begriff MTF genutzt. Dabei wird die MTF durch die ➚Pixelgröße bestimmt. (s. auch DIN 58185) Moiré-Effekt entsteht bei der Überlagerung zweier nicht transparenter Gitter/Raster auf transparentem Untergrund. Je nach Verdrehung/Verschiebung der beiden Gitter zueinander verdecken die Linien des einen Gitters die Spalten des anderen. So entstehen scheinbar neue Linien größeren Abstandes, ebenso wie die zusammentreffenden Spalten neue Spalten scheinbar größeren Abstandes erzeugen. Die Zeilenstruktur des ➚Bildaufnehmers kann zusammen mit einem abbildenden Monitor ebenfalls Moiré-Effekte hervorrufen. Verwendet wird der MoiréEffekt messtechnisch beim ➚Moiré-Verfahren. Moiré-Verfahren ➚Gitterprojektionsverfahren unter Ausnutzung des ➚Moiré-Effektes zur dreidimensionalen Oberflächenvermessung großer Objekte. Dazu wird ein Strichgitter schräg auf das ➚Prüfobjekt projiziert (vgl. ➚codierter Lichtansatz). Unter einem abweichenden Betrachtungswinkel wird die Szene durch ein zweites Gitter betrachtet. Dabei kommt es zu Streifenerscheinungen der Höhenschichtlinien. Meist wird nur ein Beleuchtungsgitter benötigt, da der ➚Bildaufnehmer von sich aus durch seine Zeilenstruktur Moiré hervorruft. Verschiedene Möglichkeiten bestehen: a) Bei den In-plane-Verfahren befinden sich beide Gitter in einer Ebene (Verdrehungs- und Verschienungs-Moiré). b) Die Out-of-plane-Verfahren unterteilen sich in Schatten-Moiré und Projektions-Moiré (➚Phasenshiftverfahren). Die minimal auflösbare Höhendifferenz hängt beim Moiré-Verfahren von der Größe des ➚Gesichtsfeldes und damit vom lateralen ➚Auflösungsvermögen ab. Ohne genauigkeitssteigernde rechnerische Verfahren (Phasenshiftverfahren) lassen sich mit dem Moiré-Verfahren Höhenauflösungen von etwa 1/1.000 der Gesichtsfeldgröße erreichen. Monitorvergrößerung Verhältnis zwischen der Größe des ➚Gesichtsfeldes und der Größe eines Monitors. Die Monitorvergrößerung ist ein rein visueller Wert und hat Lexikon der industriellen Bildverarbeitung nichts mit dem ➚Abbildungsmaßstab gemein. Allein der Einsatz eines größeren Monitors täuscht ein besseres ➚Orts-Auflösungsvermögen vor, bringt aber hinsichtlich der besseren Auflösung von Details keine Vorteile (vgl. ➚leere Vergrößerung). Beispiel: Ein Objekt von 3,6mm Höhe wird mit einem ➚Bildaufnehmer 1/3" (3,6mm hoch) auf einem 15"Monitor (Höhe 230 mm) dargestellt. Die Monitorvergrößerung beträgt 64-fach und steigert sich bei Verwendung eines 17"-Monitors auf 72-fach. Der für die Bildpunktauflösung verantwortliche Abbildungsmaßstab ist in beiden Fällen gleich: -1. Monochromatisches Licht Einfarbiges Licht. Monochromatisches Licht besitzt kein ➚Spektum, sondern als Grenzfall nur eine ausgesendete ➚Wellenlänge. Laser erfüllen die Bedingung der Monochromasie nahezu ideal durch ihr sehr schmalbandig emittiertes Spektrum. Ideal monochromatisches Licht besäße eine unendliche ➚Kohärenzlänge. Morphologische Bildverarbeitung Morphologie: Lehre von der Gestalt. Die morphologische Bildverarbeitung manipuliert und erkennt Fomen unter Nutzung der beiden grundlegenden lokalen Operatoren ➚Erosion und ➚Dilatation und wendet sie auf Strukturelemente an. Zur morphologischen Bildverarbeitung gehören ➚Skelettierung, ➚Opening, ➚Closing. Morphologische Bildverarbeitung lässt sich für ➚Binär-, ➚Grauwert- und ➚Farbbilder einsetzen. Angewendet wird morphologische Bildverarbeitung zur Rauschfilterung, Hintergrundunterdrückung sowie zur Vorverarbeitung für die ➚Blobanalyse. Morphologische Bildverarbeitung ist sehr gut zu parallelisieren und wird durch die Nutzung Boolscher Algebra sehr gut von der Hardware unterstützt. Mosaikfilter ➚Farbfiltermatrix MTF modulation transfer function ➚Modulationsübertragungsfunktion Multimedia Verknüpfung verschiedener elektronischer Informationsträger (Text, Grafik, Animation, Ton, Film) zu komplexen Informationen mit Möglichkeit der Interaktion für den Anwender. Muster beschreibt die ➚Merkmale (➚Kanten, Linien, Flächen, Ecken, ➚Konturen) eines ➚Objektes. Muster sind Grundelemente für die inhaltliche Interpretation des Bildes. (s. auch Mustererkennung) Muster suchen ➚Mustererkennung Mustererkennung, auch Pattern Recognition, Pattern Matching. Mustererkennung dient der Einordnung von ➚Objekten in einer beliebig gearteten Umgebung. Dazu müssen zuerst charakteristische ➚Merkmale extrahiert werden (➚Merkmalsextraktion) bevor verglichen und klassifiziert werden kann. Die Objekte werden als digi- 57 M Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 73 Musterkatalog M N tales ➚Muster abgelegt. Die enthaltenen Merkmale werden von einem Suchverfahren (➚Korrelation) verglichen. Mustererkennung ermöglicht es, sowohl Positionen zuvor eingelernter Referenzobjekte in einem Suchfenster zu ermitteln als auch anhand des Übereinstimmungsgrads Aussagen über die Qualität oder das Vorhandensein von Mustern zu treffen. Bei modernen Algorithmen der Mustererkennung wird der Übereinstimmungsgrad von der Helligkeit im Prüffenster nicht beeinflusst. 100% Übereinstimmungsgrad bedeuten genaue Übereinstimmung, 0% bedeutet keine Übereinstimmung. Praktisch im Industrialltag erprobte und robuste Einstellungen sind 60 ... 80%. Die Suche erfolgt nach einem Suchraster. Ein feines Suchraster wird z.B. für Schriften und Gravuren, ein grobes für Bohrungen und Löcher verwendet. Je feiner das Suchraster, desto rechenintensiver ist das Verfahren, findet aber auch feinere Muster. Im Ergebnis der Mustererkennung entsteht eine Tabelle mit den Schwerpunktkoordinaten, Drehlagen und Graden der Übereinstimmung der gefundenen Muster. Die Anwendungen der Mustererkennung sind vielfältig: Lage- und ➚Drehlageermittlung in der Robotik; Vollständigkeitskontrolle an unübersichtlichen Baugruppen; ➚OCR/OCV (s. auch Template Matching) Musterkatalog Systematische Sammlung von typischen ➚Prüfobjekten (Musterteilen) zur: Beschreibung/Eingrenzung der Aufgabestellung; Beschreibung der zu unterscheidenden Klassen; Angabe der Beschaffenheit des Prüfobjektes (Variation der mechanischen, optischen, Materialeigenschaften, Herstellungsprozess); lückenlosen Darstellung aller zu erkennenden Abweichungen und Fehlerklassen (Gut-, Schlecht-, Grenz-, Referenzmuster) (s. auch VDI/VDE Richtlinie 2632) Musterteile ➚Musterkatalog N Naheinstellung auf Unendlich Einstellung der ➚Objektweite/des ➚Arbeitsabstandes und der ➚Blende so, dass die hintere Schärfentiefengrenze (➚Schärfentiefe, ➚Schärfentiefebereich) nach Unendlich fällt. Der damit eingestellte Schärfentiefebereich ist der größtmögliche bei gegebenem ➚Abbildungsmaßstab und Blende. In der Fotografie verwendet, um bei Landschaftsaufnahmen möglichst viel Bildinhalt scharf dazustellen. Nahes Infrarot ➚Infrarotes Licht Nahlinse Sammellinse, die durch das Vorschrauben vor ein Objektiv die Verkürzung der mechanisch vorgegeben ➚kürzesten Einstellentfernung ermöglicht. Wird durch 58 ihre ➚Brechkraft und die Größe des Einschraubgewindes (➚Filtergewinde) charakterisiert. Die ➚Arbeitsabstände ändern sich beim Einsatz von Nahlinsen wie folgt: Einstellentfernung Arbeitsabstand am Objektiv 3m 1m 0,5 m keine Nahlinse 3m 1m 0,5 m Nahline 1 dpt 0,7 m 0,5 m 0,33 m Nahlinse 2 dpt 0,43 m 0,33 m 0,25 m Nahlinse 3 dpt 0,3 m 0,25 m 0,2 m Nahlinse 5 dpt 0,19 m 0,16 m 0,14 m Nahlinse 10 dpt 0,1 m 0,09 m 0,08 m ➚Zwischenringe sollten Nahlinsen vorgezogen werden, da Nahlinsen i.A. stärkere Abbildungsfehler in das optische System einfügen als Zwischenringe. Werden Nahlinsen eingesetzt, sollte ihre Brechkraft deshalb 20% der Brechkraft des verwendeten Objektives nicht übersteigen. Die beste Lösung für kurze ➚Arbeitsabstände sind ➚Makroobjektive. Natürliche Vignettierung ➚Vignettierung NC-Steuerung Numeric Control-Steuerung ➚Computerized Numerical Control Nennmaß ➚Sollwert Neuronales Netz Rechenmodell zur Verarbeitung komplexer Informationen der Struktur des Gehirns nachempfunden. Merkmale neuronaler Netze sind Lernfähigkeit, Parallelität der Verarbeitung (Schaltelemente arbeiten parallel), Robustheit (reagieren auf Fehler nicht abrupt, sondern passen sich schrittweise an), Adaptivität (Anpassung das Lösungsweges durch Training und nicht durch Vorschrift). Netzstruktur mit einer hohen Anzahl von Schaltelementen und Knoten. Vorbild sind biologische Systeme. Neuronale Netze sind lernfähig, schnell und fehlertolerant, wenn es um unscharfe Kriterien geht. Mit neuronalen Netzen lassen sich so gut wie beliebige Beziehungen zwischen Ein- und Ausgangssignalen herstellen. In der Bildverarbeitung besonders zur ➚Mustererkennung und ➚Klassifikation genutzt. Neutralfilter auch Graufilter. Aselektives Filter, d.h. die Dämpfung des ➚Lichtstromes ist nahezu wellenlängenunabhängig (VIS, IR) innerhalb eines Spektralbereiches. Einsatz bei zu heller Beleuchtung, fehlender Abblendmöglichkeit am Objektiv, festgelegter ➚Belichtungszeit der Kamera. In verschiedenen typischen ➚Filterfaktoren lieferbar. Faktor Blendenoptische stufen Dichte 4x 2 0,6 16x 4 1,2 1000x 10 3 Bei Stapelung mehrer Neutralfilter müssen die ➚Filterfaktoren addiert werden. (s. auch Filtergewinde, planparallele Platte) Lexikon der industriellen Bildverarbeitung Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 74 Oberer Grenzwert Newtonsche Ringe ➚Interferenzerscheinung beim Drücken einer gewölbten Glasfläche gegen eine Planfläche. Entlang der Streifen herrschen gleiche Abstände zwischen den Glasplatten. n.i.O. Abkürzung für „nicht in Ordnung“. Kennzeichnung fehlerhafter Teile in der Fertigung NIR near infrared light ➚Infrarotes Licht Non interlaced Vollbildverfahren, ohne ➚Zeilensprung. Bei der Bildaufnahme wird die volle Bildinformation (gesamte Auflösung) auf einmal erfasst, dadurch wird ➚Halbbildversatz vermieden. Beim Bildaufbau wird das Bild Zeile für Zeile nacheinander aufgebaut im Gegensatz zum ➚Interlace-Verfahren. Bei gleicher Bildwiederholfrequenz ist dies für den Betrachter wesentlich angenehmer. ➚Progressive Scan-Sensoren arbeiten bei der Bildaufnahme ebenfalls non-interlaced, also im Vollbildmodus. Normal ➚Kalibrierkörper Normalbrennweite ➚Brennweite eines Objektives, die bei der Abbildung den Sehgewohnheiten des menschlichen Auges am Nahesten kommt. Der Betrag der Normalbrennweite beträgt etwa der Diagonale des ➚Bildaufnehmers. Normalobjektiv Objektiv, das durch die ➚Normalbrennweite gekennzeichnet ist. Normen in der Bildverarbeitung Die Normung in der industriellen Bildverarbeitung ist, abgesehen von einigen Schnittstellen, noch nicht sehr fortgeschritten. Das hängt auch mit den ständig wechselnden und neu hinzukommenden Anwendungsfeldern der Bildverarbeitung zusammen. An dieser Stelle seien einige für die industrielle Bildverarbeitung relevante Normen genannt: VDI/VDE 2519 VDI/VDE 2617, Bl. 6.1 Koordinaten-Messgeräte mit optischer Antastung; Sensoren zur 2D-Messung VDI/VDE 2628, Bl. 1 Automatisierte Sichtprüfung; Beschreibung der Prüfaufgabe VDI/VDE 2632, Bl. 1 Industrielle Bildverarbeitung; Definition von Anforderungen an Bildverarbeitungssysteme VDI/VDE 2634-2 Optische 3D-Messsysteme. Bildgebende Systeme mit flächenhafter Antastung. Weitere Informationen und Übersichten unter: www.din.de; www.vdi.de Normlichtart wird von einer standardisierten Lichtquelle ausgesendet und entspricht einer festgelegten ➚Farbtemperatur. Normlichtart A entspricht einer Farbtemperatur von 2865 K (Glühlampenlicht), D65 einer Farbtemperatur von 6500 K (dem Tageslicht am ähnlichsten). Normlichtarten werden als Referenz für Farbmessungen benötigt und als Normal für die fotometrische ➚Kalibrierung genutzt. NTSC National Television Standards Committee. In den USA, Südamerika und Japan üblicher Standard zur Codierung von Farb-Videosignalen. NTSC arbeitet mit 60 Lexikon der industriellen Bildverarbeitung Halbbildern pro Sekunde bei 484 sichtbaren Zeilen. Der NTSC-Standard liefert eine schlechtere Bildqualität als die europäische Norm ➚PAL. Numerische Apertur Maß für die Öffnung eines optischen Systems und damit seine ➚Lichtstärke. Je größer die numerische Apertur, desto heller das Objekt. Die numerische Apertur wird für Systeme mit endlichem Arbeitsabstand angegeben (z.B. ➚telezentrische Objektive, ➚Mikroskopobjektive). Die Angabe der ➚Blendenzahl ist dann sinnvoll, wenn der Arbeitsabstand groß im Vergleich zur ➚Brennweite ist. Bei Mikroobjektiven und hohen Abbildungsmaßstäben ergeben sich bildseitig sehr kleine Bündeldurchmesser, die zu einer beugungsbedingten Unschärfe führen können. In diesen Fällen verbessert sich das ➚Auflösungsvermögen durch eine höhere numerische Apertur. Definition der numerischen Apertur NA: NA = n · sin u. n – Brechzahl des Mediums, in dem das Objekt eingebettet ist (in der Regel Luft mit n = 1) u – maximaler Winkel des durch Öffnungsblende begrenzten objektseitigen Strahlenbündels. Anschaulich ist die numerische Apertur der größte Winkel, der begrenzt durch die ➚Öffnungsblende, vom Objekt (objektseitige numerische Apertur NA)/vom Bildaufnehmer (bildseitige numerische Apertur NA') aus gesehen werden kann. Die Numerische Apertur ist eine ➚konjugierte Größe, die durch den Abbildungsmaßstab miteinander verknüpft ist: NA = |ß'| · NA' . Als Vergleichswert zur Blendenzahl kann k = 1 / (2 NA) gesetzt werden. Berechnungen der ➚Schärfentiefe können mit der numerischer Apertur vorgenommen werden. Numerische Klassifikation Klassisches Verfahren der ➚Klassifikation, besonders für die ➚Mustererkennung. Verwendet geometrische Abstandsmaße und Statistik zur Klassifikation: a) Schwellwertklassifikatoren: Merkmalswert unter/über einem Schwellwert b) Abstandsklassifikatoren: Abstand (quadratische Abweichung) zu einem für jede Klasse vorliegenden Muster (Prototyp) Nyquist-Frequenz ➚Abtasttheorem O Obere Eingriffsgrenze, auch OEG ➚Eingriffsgrenzen Oberer Grenzwert, auch OGW, oberes Abmaß, „+“- Toleranz. Größte (positive) noch zulässige Abweichung vom ➚Nennmaß/➚Sollwert, die ein ➚Prüfobjekt noch als gut charakterisiert. 59 N O Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 75 Oberes Abmaß O Oberes Abmaß ➚Oberer Grenzwert Oberflächeninspektion ➚Oberflächenkontrolle Oberflächenkontrolle Durchführung geziehlter Kantensuche innerhalb eines ➚Prüffensters. Typisch ist die Nutzung verschiedener Rasterrichtungen und Rasterweiten. Entlang des Rasters wird durch ➚Antastung nach Oberflächendefekten gesucht. Je feiner das Raster ist, desto kleinere Fehler können erkannt werden. Die Anzahl der gefundenen Kanten entlang des Rasters gilt als Kriterium für die Oberflächengüte. Verwendet werden zum Finden der Oberflächenfehler die üblichen ➚Antastalgorithmen. Wie alle optischen Verfahren zur Oberflächenprüfung ist die Oberflächenkontrolle durch ihre Empfindlichkeit gegenüber Staub und Schmutz begrenzt. Die Software kann im zweidimensionalen Bild nicht unterscheiden, ob es sich um einen vertieften Kratzer oder einen erhabenen Schmutzpartikel handelt. Daher sind die gewonnnenen Ergebnisse sorgfältig zu interpretieren. Mit dem Autokontrast-Verfahren können Helligkeitsänderungen beim Kantensuchen berücksichtigt werden. Dabei wird der mittlere Grauwert auf der zu untersuchenden Fläche ermittelt und als Bezugsgröße genutzt. Anwendung: bei sehr schwachem Kontrast mit starken Helligkeitsschwankungen. Oberflächenprüfung ➚Oberflächenkontrolle Oberflächentest ➚Oberflächenkontrolle Objekt 1.) optisch/materiell ➚Prüfobjekt 2.) Software: eine topologisch zusammenhängende Punktmenge von ➚Pixeln, die bestimmten Kriterien entprechen. In der Bildverarbeitung sind die Kriterien für das Zusammenhängen i.A. ➚Grauwerte. Objektabstand Objektweite, Gegenstandsweite. Abstand des Objektes von der ➚Hauptebene. Objektweiten sind körperlich nicht fassbar, da sie Bezug auf die abstahierte ➚Hauptebene nehmen. Daher ist in praktischer Verwendung bei der Bildverarbeitung der ➚Arbeitsabstand. Der Objektabstand ist abhängig von: ➚Abbildungsmaßstab; ➚Brennweite; Objektivtyp, bei➚telezentrischen Objektiven ist der Objektabstand meist fix; der verwendeten ➚Beleuchtungswellenlänge (➚Dispersion); Einfügen optischer Bauelemente (➚Planplatten etc.); diese verlängern die ➚optische Weglänge; Einhaltung des ➚Auflagenmaßes der verwendeten Kamera. Die Beziehungen zu ➚Brennweite f’ und ➚Abbildungsmaßstab ß’ sind näherungsweise: a = f’ · (1 - ß’)/ß’ mit (f’ > 0, ß’ < 0) Objekte suchen Sonderfall der ➚Mustererkennung mit verschiedenen Mustern. Gemäß einer Liste von verschiedenartigen ➚Objekten, die eingelernt wurden, wird im ➚Suchfenster nach den eingelernten Objekten gesucht. Die Anzahl der verschiedenen gefundenden 60 Objekte, deren Drehwinkel sowie die Koordinaten der ➚Flächenschwerpunkte werden in einer Ergebnistabelle abgelegt. Objektebene Zur ➚optischen Achse rechwinklige Ebene, in dem sich das ➚Prüfobjekt befindet. Ein sich in der Objektebene befindliches Prüfobjekt wird scharf in die ➚Bildebene abgebildet. Objekterkennung ➚Mustererkennung. Objektgröße, auch Gegenstandsgröße. Gibt die maximale Ausdehnung des Prüfobjektes an und hat u.a. Einfluss auf ➚Abbildungsmaßstab, ➚Perspektive, Größe des ➚Gesichtsfeldes. Objektiv Kombination mehrerer abbildender optischer Bauelemente (sphärische/Asphärische Linsen) mit sammelnden Eigenschaften in einem gemeinsamen Gehäuse. Objektive bilden reell ab. Zu einem Objektiv gehören der ➚Objektivanschluss und das Objektivgehäuse, gegebenenfalls Entfernungs- und Blendeneinstellring. Meistens besitzen Objektive ein Einschraubgewinde für Lichtfilter (➚Filtergewinde). Objektive gleicher ➚Brennweite lassen sich durch verschiedene Anordnungen erzielen, die ➚Abbildungsgüte ist aber sehr verschieden, im einfachsten Fall kann auch eine Einzellinse verwendet werden, komplexe Anordnungen können jedoch ➚Abbildungsfehler kompensieren. Die Objektivauswahl sollte nach dem Einsatzzweck erfolgen: So preiswert wie möglich, so genau wie nötig. Hinsichtlich der Einsatzklassen und Bildqualität lassen sich unterscheiden: a) Low-cost-Objektive: Geringe Abbildungsleistung, Kunststoffgehäuse, keine Feststellmöglichkeiten, nicht gesicherte Schraubverbindungen, einfache Blendenkonstruktion, kein Filtergewinde, Taumeln des Bildmittelpunktes bei Verstellung, häufig CCTV-Objektive aus der Sicherheitstechnik. b) Standard-Objektive: Gute Abbildungsleistung, Metallfassung mit Feststellmöglichkeiten, gesicherte Schraubverbindungen, vielgliedrige Blende, Filtergewinde. c) Industrie-Objektive: Gute Abbildungsleistung, Metallfassung mit Feststellmöglichkeiten, wenige bewegliche Mechanikteile, Gewinde verklebt, erschütterungsgeprüft, Filtergewinde. d) Präzisions-Objektive: Exzellente Abbildungsleistung, komplexer Aufbau, für wenige Spezialanwendungen benötigt, teuer. Objektivanschluss Mechanische Schnittstelle zwischen ➚Objektiv und Kamera. Für industrielle Kameras sind Gewinde üblich, auch Bajonett-Anschluss. Mit dem Objektivanschluss ist das ➚Auflagenmaß verbunden. Der Objektivanschluss sollte mit dem Kameraanschluss korrespondieren, wenn nicht, sind auch Adapter möglich. Lexikon der industriellen Bildverarbeitung Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 76 Operator Objektivanschlüsse sind weitgehend standardisiert, wie z.B.: ➚C-/CS-Mount (Gewinde): 1-32UN2A für Matrixkamera; Standard der industriellen Bildverarbeitung; NF-Mount (Gewinde): M17x0,5 für Matrixkameras; L-Mount (Gewinde): M39x1/26"; Leica-Gewinde für Zeilenkameras; F-Mount (Nikon-Bajonett) für Zeilenkameras; U-Mount (M42x1-Practica-Gewinde) für Zeilenkameras; 35 mm Bajonett; Pentax; M12x0,5 für Kleinstoptiken u.a. Objektivauflagefläche Anlagefläche des Objektives an die Kamera. Von der Objektivanlagefläche bis zur lichtempfindlichen Schicht des ➚Bildaufnehmers wird das ➚Auflagemaß gemessen. Die Objektivauflagefläche soll parallel zur ➚Bildebene/Sensorebene verlaufen, um ➚Abbildungsfehler zu vermeiden. Objektivgewinde ➚Objektivanschluss Objektweite ➚Objektabstand OCI optical character inspection. Vergleich von Zeichen mit einer hinterlegten Referenz. Wird zur Anwesenheitskontrolle von Zeichen genutzt. OCP optical character presence. Anwesenheitsnachweis für Zeichen durch ➚Pixel zählen. Verschiedene Zeichen mit gleicher Pixelzahl werden gleich interpretiert. Daher nur möglich bei Zeichen festen Inhalts. OCR/OCV OCR – optical character recognition: Lesen von Zeichen. OCV – optical character verification: Vergleichen von Zeichen bekannten Inhalts auf Vollständigkeit und Qualität. OCR/OCV sind Spezialfälle der ➚Mustererkennung. Bei OCR/OCV werden die Daten der zu erkennenden Zeichen wie beim ➚Zeichen einlernen durch ➚Merkmalsextraktion ermittelt und mit den Zeichen im aktuellen ➚Zeichensatz verglichen. Typisches Verfahren dafür ist die ➚Korrelation. Das Zeichen wird erkannt (➚Klassifikation), wenn der Übereinstimmungsgrad größer oder gleich einem vorgegebenen Mindestwert [%] ist. Einfachste Variante für OCV ist das ➚Pixel Zählen. Auf die Zuverlässigkeit von OCR/OCV haben verschiedenste Faktoren Einfluss: der gesamte optische Kanal des Bildverarbeitungssystems; Art des Druckes, Druckqualität, -kontrast (Nadel, Thermotransfer, Laser); Eigenschaft der Zeichen (Position, Abstand, Größe, Länge der Zeile, wie viele Zeilen); verwendeter Algorithmus; erforderliche Leserate; Verfahren bei Lesefehlern/Anzahl erlaubter Lesefehler. Als Faustregeln für OCR/OCV gelten: 3 Pixel Freiraum zwischen 2 Zeichen sind notwendig; gute lesbare Größe der Zeichen ist 25 · 25 Pixel (Fläche eines einzelnen Zeichens 200 ... 400 Pixel); ein gutes OCR-System (Stand 2002) hat eine Erfolgsquote von 99,9% (eine Fehllesung aus Tausend); Grauwertniveau der Zeichen sollte möglichst ähnlich sein (für Druck, Beleuchtung beachten). OCV wird z.B. genutzt, um die Druckqualität von Zei- Lexikon der industriellen Bildverarbeitung chen zu prüfen, damit ihre spätere Lesbarkeit mit OCR gewährleistet ist. OCR findet Anwendung zur Identifikation von Produkten anhand Klarschrift, für Lesegeräte bei Post und Distributoren, Plausibilitätsprüfung in der Medizintechnik, in OCR-Software zum Lesen gescannter Dokumente u.v.m. OEM ➚Original Equipment Manufacturer OEW ➚oberer Frequenzwert Öffnung, auch Apertur ➚numerische Apertur Öffnungsblende, auch Aperturblende. Körperliche ➚Blende in einem optischen System, die den ➚Lichtstrom begrenzt. Mit ihr können: die ➚Bildhelligkeit, ➚Beleuchtungsstärke auf dem Bildaufnehmer; die ➚Schärfentiefe; das ➚Auflösungsvermögen des Objektives beeinflusst werden. Begrenzt das an der Abbildung beteiligte Strahlenbündel und bestimmt damit die ➚Blendenzahl und ➚Numerische Apertur. Öffnungsfehler, auch sphärische Abberation. ➚Abbildungsfehler. Entsteht durch die sphärische Form von Linsen beim Einfall von weit von der ➚optischen Achse entfernten Lichtstrahlen. Parallel einfallende Strahlen werden nicht mehr in einem Punkt (➚Brennpunkt) vereint, sondern in einem Brennfleck. Tritt vor allem bei Objektiven mit großer Öffnung auf. Folge: Objekte am Rand des ➚Gesichtsfeldes werden unscharf abgebildet. Gemindert werden kann der Öffnungsfehler durch Abblenden oder wenn es die Konstruktion zulässt, durch den Einsatz asphärischer Linsen. Öffnungsverhältnis Die Größe der freien Öffnung (Eintrittspupille) am Objektiv bestimmt Menge des durchgehenden Lichtstromes (Durchgangsfläche ~ Lichtstrom). Je größer die Eintrittspupille, desto lichtstärker ist das Objektiv und desto kleiner das Öffnungsverhältnis. Begrenzend wirken ➚Öffnungsblenden. Das Öffnungsverhältnis K ist der Kehrwert der ➚Blendenzahl k. K = 1/k = øEP/f’ mit øEP = Durchmesser der ➚Eintrittspupille bei völlig geöffneter Blende, f’ = Brennweite des Objektives Offene Kontur ➚Kontur OLED ➚organische Leuchtdiode Opening ➚Morphologische Operation, bei der nacheinander ➚Erosion und danach ➚Dilatation durchgeführt wird. Die Zahl der Erosionsschritte muss genau so groß sein wie die der Dilatationsschritte. Durch Opening verschwinden kleine Objekte (einzelne Pixel); das Bild wird „gereinigt“. Schließt Unterbrechungen in dunklen Strukturen. Operator bestimmt das Wirken eines ➚Bildfilters. Im Operator ist festgelegt, welche ➚Pixel aus der Nachbarschaft mit in die Berechnungen einbezogen werden und welche Wichtungsfaktoren dabei berücksichtigt werden. Je nach Aufbau des Operators können Strukturen, 61 O Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 77 Optical Character Inspection O P Kanten, Objekte im Bild hervorgehoben oder unterdrückt werden. Optical Character Inspection ➚OCI Optical Character Presence ➚OCP Optical Character Recognition Optische Zeichenerkennung ➚OCR/OCV Optical Character Verification Optische Zeichenverifizierung ➚OCR/OCV Optische Abbildung ist die Projektion einer dreidimensionalen Szene auf einen ➚Bildaufnehmer. Übertragung der Lichtinformation von der Objektseite zur Bildseite. Einfachste Beschreibung der optischen Abbildung mit ➚Strahlenbündeln (➚geometrische Optik) Optische Achse Gedachte Symmetrieachse der optischen Abbildung und Verbindungslinie aller Linsenscheitel (Kugelmittelpunkte) eines optischen Systems. Die optische Achse stimmt (durch fertigungsbedingte Abweichungen) nicht exakt mit der mechanischen Achse eines Objektives überein. Für Kombinationen aus ➚telezentrischem Objektiv und ➚telezentrischer Beleuchtung müssen die optischen Achsen beider Systeme fluchtend eingestellt werden (s. auch Justierung). Optische Bildvorverarbeitung ➚Bildvorverarbeitung Optische Grenzfläche Fläche des unmittelbaren Aneinandergrenzens zweier optischer Medien mit unterschiedlicher ➚Brechzahl. Grenzflächen bilden die Grundlage für ➚Brechung und ➚Reflexion. Optische Übertragungsfunktion beschreibt die gesamte Übertragungsfunktion eines optischen Systems. Zusätzlich zur ➚Modulationsübertragung beinhaltet sie auch die Phasenmodulation. Meistens beschränkt man sich bei der Darstellung der optischen Übertragungsfunktion auf die Modulationsübertragungsfunktion. Optische Vergrößerung ➚Abbildungsmaßstab Optische Wegdifferenz ➚Optische Weglänge Optische Weglänge Produkt aus dem vom Licht zurückgelegten geometrischen Weg d und der Brechzahl n des durchquerten Mediums. Gleiche optische Weglängen werden vom Licht in gleicher Zeit durchquert, auch wenn die geometrischen Wege verschieden sind. Geringere ➚Ausbreitungsgeschwindigkeit in optischen Gläsern als in Luft führt zu einer optischen Wegdifferenz beim nachträglichen Einfügen optischer Bauelemente in den Strahlengang (Schnittweitenänderung). Es muss um den Betrag der optischen Wegdifferenz nachfokussiert oder der ➚Arbeitsabstand geändert werden. Zu beachten beim Einfügen von Schutzgläsern, Prismenvorsätzen, ➚Lichtfiltern u.ä. (s. auch Lichtfilter) Optisches Glas Ein strahlungsdurchlässiger, amorpher, fester und weitgehend homogener Stoff, der durch ➚Brechzahl, ➚Dispersion und ➚Transmission gekennzeichnet ist. 62 Optokoppler Bauteil, das zur galvanischen Entkopplung von Stromkreisen genutzt wird. Das eingehende elektrische Signal wird über eine ➚Leuchtdiode in ein Lichtsignal umgesetzt und von einem Fototransistor und Verstärker wieder in eine entkoppelte elektrische Information rückgewandelt. Dadurch kann die Störsicherheit (Schutz vor Beschädigung, Kurzschluss usw.) drastisch erhöht werden. Typischer Einsatz in Ein-/Ausgabeschaltungen der Bildverarbeitungsperipherie. (s. auch digitale Ein-/Ausgänge) Organische Leuchtdiode Besteht im Unterschied zur herkömmlichen ➚Luminiszenzdiode aus Oligomeren oder Polymeren und findet hauptsächlich in der Kommunikationstechnik Anwendung. Für ➚LED-Beleuchtungen ungebräuchlich. Original Equipment Manufacturer, auch OEM. OEMs in der Bildverarbeitungsbranche bauen Maschinen mit integrierter Bildverarbeitung als Option. Die Maschine funktioniert auch ohne Bildverarbeitung, hat aber für den Kunden durch Einsatz der Bildverarbeitung einen Zusatznutzen. (s. auch Systemintegrator) Ortsauflösung Fähigkeit eines Bildverarbeitungssystems, Details das ➚Prüfobjektes im ➚Speicherbild hinreichend genau aufzulösen. Die Ortsauflösung hängt von einer Vielzahl von Faktoren ab (➚Genauigkeit einer Bildverarbeitungsanlage). Ortsfrequenz Bezeichnung für die Dichte regelmäßiger Strukturen, angegeben häufig in ➚Linienpaare/mm (z.B. Optisches Gitter). P PAL Phase Alternating Lines. In Westeuropa üblicher Standard zur Codierung von analogen Farbfernseh- ➚Videosignalen. Mit guten Korrekturmöglichkeiten für die Farbinformation. Dabei liegt ein Bild mit 625 Zeilen und einer Halbbildfrequenz von 50 Hz zugrunde. Parallele Bildaufnahme Parallele Bildaufnahme ist in Systemen mit ➚Progressive Scan-Sensoren möglich und beschleunigt die Prüfung. Der ➚Bildeinzug wird gestartet und sofort automatisch auf die ➚Bearbeitungsseite umgeschaltet. So kann parallel zum Bildeinzug schon auf einer anderen ➚Bildspeicherseite die Bildverarbeitung stattfinden. Paralleler Bildeinzug kann für Multiprozessorsysteme (➚Framegrabber) auch bedeuten, dass mehrere Kameras zeitgleich Bilder auf verschiedene Bildspeicherseiten übertragen. Parallele Bildaufnahme wird durch ➚Framegrabber als auch ➚Smart Cameras unterstützt, so dass je nach Umfang der Prüfaufgabe die Prüfung in Video- ➚Echtzeit vorgenommen werden kann. Lexikon der industriellen Bildverarbeitung Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 78 Pflichtenheft Parallele Schnittstelle ➚Schnittstelle zur parallelen Datenübertragung. Im PC-Bereich als LPT bezeichnet. Paralleler Hauptstrahlengang Besonderheit der telezentrischen Abbildung. Dadurch, dass die ➚Eintrittspupille im Unendlichen liegt (objektseitig telezentrisch), wird ein achsparalleler Hauptstrahlengang erzeugt, so dass die Besonderheiten der ➚telezentrischen Perspektive entstehen. ➚Telezentrische Objektive nutzen u.a. den parallelen Hauptstrahlengang. Parallelverarbeitung Methode zu Steigerung der ➚Verarbeitungsgeschwindigkeit von Bildverarbeitungssystemen durch zeitgleiches Bearbeiten von mehreren Prozessen. Systeme mit nur einem Prozessor können keine echte Parallelverarbeitung durchführen, die Rechenzeit wird auf verschiedene Tasks aufgeteilt. Somit können ➚Framegrabber mit nur einem Prozessor keinen gleichzeitigen ➚Bildeinzug von mehreren Kameras durchführen. Der Bildeinzug wird zeitlich versetzt durchgeführt, was bei schnellen Prozessen durch Fehlen der Echtzeitfähigkeit zum Scheitern führen kann. Multiprozessorsysteme realisieren dies durch den Aufbau mit mehreren parallel arbeitenden Prozessoren. Parallelversatz entsteht bei der Verkippung einer vor das ➚Objektiv vorgesetzten ➚planparallelen Platte, z.B. eines Filters. Dabei ist der austretende Strahl parallel zum eintretenden Strahl versetzt. Die Stärke des Parallelversatzes hängt von der Dicke der Glasplatte d, der Glasart (➚Brechzahl n) sowie dem Kippwinkel ε ab und berechnet näherungsweise sich für kleine Winkel nach: Versatz a = (n-1) · d · ε / n (kleine Winkel) Gezielt genutzt wird der Effekt des Parallelversatzes für optische Winkelmessgeräte. Parametrieren Übergeben von Einstell- und Konfigurationswerten, die gespeichert und bei Bedarf geladen und selten geändert werden. Beim Parametrieren von Bildverarbeitungssystemen werden an Bildverarbeitungsfunktionen und Operatoren Parameter übergeben, die durch ihre Werte die Wirkung der Funktion bestimmen. Durch das Parametrieren werden Bildverarbeitungssysteme bedienfreundlich. Der Nutzer muss nicht programmieren, sondern wählt aus dem Bildverabeitungs-Funktionsumfang aus und teilt der Funktion durch das Parametrieren mit, mit welcher Größe der Einflussfaktoren die Funktion arbeiten soll. Paraxialgebiet ➚achsnaher Bereich Passwortschutz Die Komplexität der Thematik Bildverarbeitung gebietet es, Veränderungen an der Konfiguration des Bildverarbeitungssystems zu schützen. Passwortschutz für Bildverarbeitungssysteme umfasst immer verschiedene Stufen: 1. Stufe (für alle zugängig): Anwenderoberfläche (Visualisierung, Verfolgen des Prozessverlaufs); Lexikon der industriellen Bildverarbeitung 2. Stufe (Einrichter): Änderung von Toleranzen, Setzen von Startprogrammen, Statistiken speichern, rücksetzen; 3. Stufe (Programmierer): Änderungen an Prüfprogrammen, Veränderung von Systemvariablen. Pattern ➚Muster Pattern matching ➚Mustererkennung Pattern Recognition ➚Mustererkennung PC-basiertes System PC-basierte Systeme erfreuen sich auch in der industriellen Bildverarbeitung großer Beliebtheit, obwohl sie für einen anderen Einsatzzweck (Bürotechnik) konzipiert wurden. Robuste Varianten nutzen Industrie-PCs (IPC) oder Panel-PCs. In konventioneller Form wird ein ➚Framegrabber im PC-Slot zur Bildverarbeitung genutzt. Dabei müssen die eingezogenen Bilder vom Framegrabber zum PC übertragen werden, wobei sich die eigentliche Funktion des PCs nur auf die Nutzung des PC-Speicher als Bildspeicher beschränkt. Die Bildverarbeitung findet auf dem Framegrabber statt. Das PC-System suggeriert wegen der bekannten Bedienoberfläche Windows® eine besonders problemlose Bildverarbeitung. Allen PC-basierten Systemen gemein ist die Kurzlebigkeit von PC-Hardware, das Problem des identischen Nachkaufs sowie Probleme für die Ersatzteilhaltung, sowie Kompatibilitätsprobleme. PCI ➚Peripherical Component Interface Peripherical Component Interface PC-Bussystem, über das auch ➚Framegrabber mit dem PC kommunizieren; prozessorunabhängig mit 32 bit Busbreite; unterstützt Mehrprozessorsysteme. Perspektive ist die geometrische Projektion des Objektraumes auf eine Bildebene. Die ➚optische Abbildung kann die Perspektive ändern. Möglich sind: a) Entozentrische Perspektive: Das ➚Perspektivitätszentrum liegt in Betrachtungsrichtung vor dem Objekt. Die Folge: Gleichgroße Objekte erscheinen in großer Entfernung kleiner als in kurzer Entfernung. ➚Entozentrische Objektive realisieren entozentrische Perspektive. b) Hyperzentrische Perspektive: Das Perspektivitätszentrum liegt in Betrachtungsrichtung hinter dem Objekt. Die Folge: Gleichgroße Objekte erscheinen in großen Entfernungen größer als in kurzer Entfernung. ➚Hyperzentrische Objektive realisieren hyperzentrische Perspektive. c) Telezentrische Perspektive: Das Perspektivitätszentrum liegt in Betrachtungsrichtung im Unendlichen. Die Folge: Gleichgroße Objekte erscheinen sowohl in großer Entfernungen als auch in kurzer Entfernung gleich groß. ➚Telezentrische Objektive realisieren telezentrische Perspektive. Perspektivitätszentrum ➚Projektionszentrum Pflichtenheft Das Pflichtenheft enthält alle Anforderungen an ein zu schaffendes Produkt/Leistung und andere ein- 63 P Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 79 Phasenshiftverfahren P zuhaltende Rand- und Umgebungsbedingungen. Es wird aus dem ➚Lastenheft in Kooperation mit dem Auftraggeber entwickelt. Das Pflichtenheft gilt für den Auftraggeber und den Auftragnehmer als vertragsrechtlich verbindliche Arbeitsgrundlage, die das zu entwickelnde Produkt aus der Sicht des Auftraggebers erfüllen muss. Es ist die verbindliche Grundlage für die spätere Abnahme. Phasenshiftverfahren Verfahren zur Genauigkeitssteigerung des ➚codierten Lichtansatzes/➚Moirè-Verfahrens durch Einsatz von Sinusgittern anstelle von Stufengittern mit nachgeschalteter ➚Subpixel-Antastung. Geringe Höhenänderungen verschieben Hell-Dunkel-Kanten im Kamerabild nur Bruchteile eines ➚Pixels. Weist das Projektionsgitter eine sinusförmige Helligkeitsmodulation auf, so registriert das Pixel der Kamera eine sinusförmige Helligkeitsänderung. Verschiebt man das Projektionsgitter im Projektor um eine Viertelperiode, so gibt das Pixel eine cosinusförmige Abhängigkeit von der Objekthöhe aus. Über trigonometrische Zusammenhänge wird die Winkel- bzw. Phaseninformation der Verschiebung in Bruchteilen der Gitterperiode dargestellt. Im Vergleich zum klassischen ➚Moiré-Verfahren lässt sich die Höhenauflösung beim Phasenshiftverfahren auf das 10- bis 25-fache steigern, also auf 1/10.000 bis 1/25.000 der ➚Gesichtsfeldgröße. Photo Response Non Uniformity PRNU. Beschreibt die Eigenschaft eines ➚Bildaufnehmers, bei gleichmäßiger Beleuchtung je ➚Pixel unterschiedliche Helligkeitssignale zu liefern. Für Schwarz/weiß-Bildaufnehmer sehr gering, da die einzigen Einflussfaktoren die ➚Quanteneffizienz und der ➚Dunkelstrom sind. ➚Farbsensoren haben eine größere PRNU, da die auf dem Bildaufnehmer aufgebrachten mikrooptischen Farbfilter (➚Farbfiltermatrix) technologisch nicht völlig gleichmäßig aufgebracht werden können. Die PNRU ist die Ursache für das ➚Shading. Sensoren werden je nach Abweichung ihrer PRNU in verschiedenen sortierten Qualitätsklassen geliefert. Physikalisch Technische Bundesanstalt Institut und messtechnische Oberbehörde für das Messwesen in Deutschland. Sitz in Braunschweig und Berlin. www.ptb.de Pick and Place Greifen und Positionieren. Zentrale Aufgabe in Robot Vision Systemen. Nach der Identifikation von Objekten an Hand ihrer Geometrie wird die Position bestimmt, der Greifpunkt ermittelt und präzise positioniert. Lageabweichungen von der Sollposition werden erkannt und kompensiert. (s. auch Roboterführung, Robot Vision) Pipeline-Verarbeitung Methode zur Steigerung der ➚Verarbeitungsgeschwindigkeit in Bildverarbeitungssystemen. Die Pipeline ist eine spezielle Befehlsaus- 64 führungseinheit im Prozessor, die für stufenweises Laden, Verarbeiten und Zurückschreiben von Daten optimiert ist. Eine CPU ohne Pipeline kann mit der Ausführung des folgenden Befehls erst beginnen, nachdem der vorige vollständig abgearbeitet ist. Die Pipeline-Architektur ermöglicht ein mehrstufiges Vorgehen: Ein Bild wird aufgeteilt und in verschiedene parallel arbeitende Module übertragen. Die Verarbeitung in den einzelnen Modulen startet zeitlich versetzt. Je mehr Module zeitlich parallel arbeiten (➚Parallelverarbeitung), desto größer ist die Verarbeitungsgeschwindigkeit. Am Ende liegen die Ergebnisse aller Module vor und werden als Gesamtergebnis zusammengefasst. Pixel Kunstwort, aus „picture“ und „element“. Bezeichnet einen Bildpunkt auf dem ➚Bildaufnehmer, auch auf einem Monitor u.a. Jedes Pixel ist mit Zeilen- und Spaltenkoordinaten x, y versehen. (s. auch Pixelgröße, Pixelzahl) Pixel-Übersprechen Die Absorptionstiefe, mit der Photonen in das Siliziumsubstrat eines ➚Bildaufnehmers eindringen ist wellenlängenabhängig. Je größer die ➚Wellenlänge, desto tiefer das Eindringen. Das führt zum Generieren von Ladungen auch in benachbarten Pixeln, dem Pixel-Übersprechen. Dieses ist bei Beleuchtung mit infrarotem Licht am größten, weshalb zur Vermeidung in Kameras meist ein ➚Infrarotsperrfilter eingebaut ist. Bei ausgebautem Infrarotsperrfilter und ➚Infrarotbeleuchtung kommt es durch das Pixel-Übersprechen zu flaueren und verwascheneren Bildern (Verschlechterung der ➚Modulationsübertragungsfunktion) als bei Wellenlängen des ➚sichtbaren Lichts. Beispiel: 90% aller Photonen grünen Lichts (520 nm) erzeugen Ladungen im beleuchteten Pixel und nur 42% aller Photonen roten Lichts (670 nm). Die verbleibenden 58% der Photonen erzeugen Pixel-Übersprechen. Schlussfolgerung: Hinsichtlich des Pixel-Übersprechens erzeugt blaues Licht die kontrastreichsten Bilder. Pixelauflösung ➚Bildpunktauflösung Pixelclock Signal am Ausgang von qualitativ hochwertigen analogen CCD-Kameras, das den pixelsynchronen Takt beim Pixelauslesen des ➚Bildaufnehmers liefert. Der Pixelclock dient als Synchronisierungssignal am ➚Framegrabber und als Abtastsignal bei der ➚Digitalisierung für den pixelsynchronen ➚Bildeinzug. Pixelgröße Fortschreitende Entwicklungen in der Halbleitertechnologie lassen die ➚Sensoren immer kleiner werden. Dementsprechend wird die Pixelgröße auch immer kleiner. Auf der Fläche eines ➚Pixels eines 2/3"-Bildaufnehmers mit 768 · 582 Bildpunkten lassen sich ca. 20 Pixel eines 1/10"-Bildaufnehmers mit gleicher ➚Pixelzahl unterbringen. Die Abmessungen der Pixel können in x- und y-Richtung verschieden sein, heutzutage sind je- Lexikon der industriellen Bildverarbeitung Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 80 Polarisationsfilter doch quadratische Pixel üblich. Die Pixelgröße, für die sich als Quasi-Standard der industriellen Bildverarbeitung durchgesetzte ➚Sensorgröße 1/2", beträgt zwischen 5 µm · 5 µm und 7 µm · 7 µm, je nach Pixelzahl des ➚Bildaufnehmers. (s. auch Sensorgröße, Pixelzahl) Pixeljitter Zeitliche Schwankung in der Lage der Pixel bei der analogen Übertragung durch ein analoges ➚Videosignal. Pixeljitter entsteht bei frei laufendem oder unsynchronen ➚Bildeinzug im Videosignal zwischen Kamera und ➚Framegrabber durch die nicht eindeutig mögliche Zuordnung des Pixelortes im Videosignal. Bei einer konstanten ➚Szene sind von Bild zu Bild variierende Messwerte die Folge. Pixeljitter lässt sich durch pixelsynchronen oder pixelidentischen ➚Bildeinzug vermeiden. Pixelsynchroner Bildeinzug ➚Bildeinzug Pixeltakt ➚Pixelclock Pixelzahl Qualitätskriterium von ➚Bildaufnehmern, das direkt das ➚Auflösungsvermögen bestimmt. Parallel zur Verkleinerung der ➚Sensorgröße vergrößert sich mit jedem Technologieschub die Anzahl der auf dem Bildaufnehmer verfügbaren ➚Pixel. Zeilensensoren werden derzeitig mit bis über 12.000 Pixel gefertigt. MatrixSensoren werden vielfach noch mit der aus der anlogen Fernsehtechnik (➚PAL, ➚NTSC) stammenden Pixelzahl von 440.000 bzw. 380.000 benutzt. Langsam setzten sich durch den Siegeszug der ➚digitalen Kameras für industrielle Anwendungen 1k · 1k (1Mega-Pixel) als Standard durch, die frei von den Begrenzungen der analogen Fernsehtechnik sind. In der Digitalfotografie sind 3 Mega-Pixel Standard und für astronomische Anwendungen werden sogar Sensoren mit 8k · 8k genutzt. Die dabei möglichen großen Auflösungen dürfen nicht über die großen Datenmengen hinwegtäuschen, die dabei zu bearbeiten und zu transportieren sind und vielfach den Flaschenhals bilden. Ein Vergleich: das menschliche Auge besitzt 100 Mio. Stäbchen („Schwarz/weiß Pixel“) sowie 6 Millionen Zapfen („Farb-Pixel“). Pixel zählen Einfache und sehr schnelle Funktion in Bildverarbeitungssystemen, die eine Auswertung der Statistik (➚Histogramm) über die ➚Grauwerte der ➚Pixel im ➚Prüffenster durchführt. Innerhalb eines definierten Bereiches wird die Anzahl der Pixel festgestellt, die in einem vorher definierten ➚Grauwertbereich liegen. Für eine Reihe einfacher Anwendungen (➚Anwesenheitskontrolle, ➚attributive Prüfung, aber auch optische Zeichenanwesenheitskontrolle (➚OCP)) lässt sich das Pixel-zählen sehr effektiv einsetzen. Einfache Bildverarbeitungssysteme, die nach dem Prinzip des Pixelzählens arbeiten, sind eine kostengünstige Alternative, versagen aber sehr schnell, sobald die Eigenschaften der ➚Prüfobjekte oder die Beleuchtungsverhältnisse wechseln. Lexikon der industriellen Bildverarbeitung Planglasplatte ➚planparallele Platte Planparallele Platte Optisches Bauelement mit zwei planparallelen Funktionsflächen. Lichtfilter und Schutzgläser sind planparallele Platten. Bei Schrägdurchgang von Licht kommt es zu ➚Parallelversatz der durchgehenden Strahlung. Das Einfügen einer planparallelen Platte in einen Strahlengang ändert die ➚optische Weglänge. Beim Einfügen vor das Objektiv vergrößert sich der ➚Arbeitsabstand näherungsweise um Glasdicke/3, beim Einfügen vor den ➚Bildaufnehmer um Glasdicke/(3 · ß’2) mit (ß’ ➚Abbildungsmaßstab). Beim Einfügen in den Strahlengang wird künstlich ➚Astigmatismus erzeugt. PLC Programmable logic controller ➚Speicherprogrammierbare Steuerung Polarisation Licht als elektromagnetische Welle ist quer zu seiner Ausbreitungsrichtung polarisierbar, d.h. die Schwingungsrichtung der elektrischen Feldstärke kann bestimmte Richtungen einnehmen. Die meisten ➚Lichtquellen erzeugen unpolarisiertes Licht (zufällige Polarisation), also statistisch verteilte Schwingungen in alle Richtungen, so auch ➚LED-Beleuchtungen. Durch einen Polarisator (z.B. ➚Polarisationsfilter) findet eine Änderung der Schwingungsrichtung statt. Idealerweise ist das Licht dann linear polarisiert (real nicht vollständig erreichbar). Andere Schwingungszustände, wie zirkular (Schwingungsrichtung rotiert permanent) oder elliptisch polarisiertes Licht (zusätzlich zur Rotation ändert sich die Amplitude der Schwingung) können aus linear polarisiertem Licht durch Einsatz von Verzögerungsplatten gewonnen werden. Meist liegen jedoch Mischformen vor. Polarisation kann erzeugt werden durch: a) ➚Streuung bei Lichtdurchgang (Glas, Kunststoff, ...) wenn die Streupartikel klein gegenüber der Wellenlänge des Lichtes sind (➚Polarisationsfilter). b) ➚Reflexion (Glas, Metall, Kunststoff, ...) Bei der Reflexion dreht sich die Schwingungsrichtung des Lichtes um 90 Grad, d.h. Polarisator und Analysator sind um 90 Grad zueinander verdreht. c) Erscheinungen bei Wechselwirkungen mit dem ➚Prüfobjekt. Der Grad der Polarisation ist winkelabhängig, was generelle Aussagen über die Nutzung zur optischen ➚Bildvorverarbeitung sehr schwierig macht. Versuche sind für die Ausnutzung von Polarisationseffekten der richtige Weg. Beste Ergebnisse ergeben sich, wenn ein möglichst großer ➚Reflexionsgrad erreicht wird. Durch Ausnutzung der Polarisation lässt sich ➚Fremdlicht unterdrücken. Polarisationsfilter Filter, das ➚Polarisation hervorruft. Polarisationsfilter arbeiten im Bereich des ➚sichtbaren Lichts nahezu wellenlängenunbhängig, wirken aber im ➚NIR nicht. Meistgebräuchlich sind linear polarisieren- 65 P Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 81 Polarisator P de Filter (Polarisator vor der Beleuchtung, Analysator vor dem Objektiv). Der ➚Filterfaktor beträgt etwa 2. Polarisationsfilter können zur Unterdrückung von Reflexen verwendet werden (vor allem bei Nutzung von ➚Ringlichtbeleuchtungen und ➚Flächenbeleuchtungen) und zur Sichtbarmachung von Strukturen in transparenten Objekten. Allgemeingültige Aussagen zur Ausrichtung von Beleuchtung, Prüfobjekt, Objektiv und Polarisationsfiltern können nicht gemacht werden, da die Ergebnisse von vielen Faktoren abhängig sind. Versuche sind hier die beste Methode, sich einer optimalen Lösung zu nähern. (s. auch Filtergewinde) Polarisator erzeugt linear polarisiertes Licht. ➚Polarisation. Polarisierte Beleuchtung, häufig als ➚LED-Beleuchtungen (Flächenbeleuchtung) oder als ➚Ringlicht mit Filtervorsatz (➚Polarisationsfilter) ausgeführt. Das der Lichtquelle enstammende unpolariserte Licht wird durch einen ➚Polarisator vor der Beleuchtung i. A. in linear polarisiertes Licht gefiltert (Helligkeitsverlust!). Zur Einstellung der Polarisationsrichtung muss der Polarisationsfilter drehbar und klemmber sein. Polarisierte Beleuchtungen arbeiten immer mit einem ➚Analysator vor dem Objektiv des Beobachtungssystems zusammen. (s. auch Polarisation) Polfilter ➚Polarisationsfilter Polling Zyklische Abfrage angeschlossener Geräte nach dem Zustand auf den Signalleitungen. Polling wird u.a. an ➚digitalen Eingängen von Bildverarbeitungssystemen genutzt, um den Zustand von Sensoren (z.B. Startimpuls), die die Abarbeitung des ➚Prüfprogramms beeinflussen, abzufragen. Portkontrolle An der Schnittstelle vom Bildverarbeitungssystem zur automatisierungstechnischen Umgebung werden Ports genutzt. Ports sind mehrere zusammengefasste ➚digitale Eingänge. Mit der Funktion Portkontrolle werden die Hardwareeingänge zyklisch abgefragt (➚Polling) und abhängig von den Eingangssignalen an den Ports zu Marken oder Unterprogrammen gesprungen. Dabei können mehrere Sprungbedinungen in einer Verzweigungsliste angeordnet werden. Die Verzweigung erfolgt für die erste erfüllte Bedingung in der Liste. Die Sollwert, bei dem gesprungen wird, wird durch eine Bitmaske festgelegt. Ebenso können maskiert mehrere digitale Ausgänge gleichzeitig gesetzt werden. Die Maskierung mit einer Bitmaske bedeutet, dass bestimmte, durch die Bitmaske festgelegte, Kombinationen der digitalen Ein-/Ausgänge ausgeschlossen werden. Position ➚Lage Positioniergenauigkeit bestimmt die Lage des ➚Prüfobjektes im ➚Gesichtsfeld der Kamera. Alle Handhabungsund Transportsysteme besitzen nur eine begrenzte Positioniergenauigkeit. Positioniergenauigkeiten bei konti- 66 nuierlich laufenden Prozessen unterliegen zusätzlich den Einwirkungen der Synchronsation. Über die gewählte Größe des Gesichtsfeldes lassen sich einerseits Ungenauigkeiten der Positionierung ausgleichen, andererseits hat die Gesichtsfeldgröße Einfluss auf andere anlagenbestimmende Paramter: ➚Abbildungsmaßstab, ➚Arbeitsabstand, ➚Auflösungsvermögen, ➚Beleuchtungsabstand, ➚Beleuchtungstechnik. Als praxistauglicher Richtwert hat sich zum Ausgleich von Positionierungenauigkeiten eine Gesichtsfeldgröße von ca. 110% der Größe des Prüfobjektes bewährt. Positionskorrektur ➚Lagenachführung/➚Drehagenachführung Positionsnachführung auch Positionskompensation, relative Positionierung. ➚Lagenachführung Primärfarben ➚Grundfarben Prisma Optisches Bauelement mit zwei oder mehr planen Flächen zur Lichtablenkung durch Reflexion (verspiegelte Flächen oder ➚Totalreflexion) und/oder Brechung. Lenken das Licht um den ➚Ablenkwinkel ab. Zusätzlich erfolgt ein Bildortversatz. Stehen Ein- und Austrittsfläche nicht senkrecht zur optischen Achse, entsteht ➚Astigmatismus. Prismen werden u.a. zur Strahlumlenkung in ➚Prismenvorsätzen genutzt. (s. auch Planplatte) Prismenvorsatz Vorsatz eines mechanisch gefassten optischen ➚Prismas vor ein ➚Objektiv oder eine Beleuchtung mit dem Ziel, die Blickrichtung einer optischen Anordnung zu verändern. Der ➚Ablenkwinkel beträgt oft 90 Grad. Prismenvorsätze übernehmen die mechanische Fassung des Prismas und erlauben zur ➚Justierung eine Drehung um die ➚optische Achse des Objektives sowie die Klemmung auf dem Objektivzylinder. Prismenvorsätze werden hauptsächlich zum Knicken des Strahlenganges von ➚telezentrischen Objektiven und ➚telezentrischen Beleuchtungen verwendet. Bei Nutzung eines Prismenvorsatzes vergrößert sich die ➚optische Weglänge, was bei dem resultierenden ➚Arbeitsabstand des ➚Objektives beachtet werden muss. Prismenvorsätze vor ➚entozentrischen Objektiven kommen nur selten zum Einsatz, da bei zunehmendem ➚Gesichtsfeldwinkel der Strahlengang durch das Prisma beschnitten wird. Für Machine Vision übliche ➚Bildaufnehmer und ➚Brennweiten empfiehlt sich der Einsatz von Prismenvorsätzen nur für Brennweiten größer 25 mm. In der Machine Vision werden Prismenvorsätze häufig bei beengten Platzverhältnissen in Maschinen verwendet. PRNU ➚Pixel Response Non Uniformity Profibus Process Field Bus. Serieller asynchroner Bus zur Verbindung digitaler Feldautomatisierungsgeräte (Stellglieder, SPS, Messwandler etc.). Linienstruktur mit Stichleitungen, Verzweigungen oder Ring. Übertragung über Zweidraht-Leitung oder Lichtwellenleiter. Bis 1200 m Lexikon der industriellen Bildverarbeitung Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 82 Prüfmittelfähigkeit Länge je Linie mit maximal 32 Teilnehmern. Durch Einsatz von Repeatern kann die Übertragungslänge gesteigert werden. Übertragungsgeschwindigkeit 9,6 kbit/s bis 12 Mbit/s. www.profibus.com Profibus-DP ➚Profibus für Dezentrale Peripherie (DP). Einfache analoge und digitale Ein-/Ausgabebaugruppen und intelligente Baugruppen können in die Feldebene verlagert werden, womit der Verkabelungsaufwand sinkt. Besonders für zeitkritische Applikationen in der Fertigungsautomatisierung. Programmverzweigungen Durch Programmverzweigungen werden Bildverarbeitungsprüfprogramme übersichtlicher, kürzer und vermeiden redundante Abschnitte. Die nach Verzweigungen erscheinenden Unterprogramme können leicht ausgetauscht werden. Das verringert den Änderungsaufwand. (s. auch bedingter Sprung, Unterprogrammtechnik, Bedingungsblock) Progressive Scan Konventionelle CCD-Bildaufnehmer arbeiten nach einem festen zeitlichen Taktregime, das den Beginn einer ➚Bildaufnahme vorgibt. Wird innerhalb einer Bildaufnahme der Start einer neuen Bildaufnahme angefordert, muss bis zur Beendigung der Bildaufnahme gewartet werden, bis das angeforderte Bild eingezogen werden kann. Für viele Anwendungen aus dem industriellen Bereich dauert dies zu lange, maximal zwischen 33 und 40 ms zu warten. Progressive Scan Bildaufnehmer lassen den Start der Bildaufnahme zu jedem beliebigen Zeitpunkt zu (Start/Restart-Fähigkeit) und arbeiten außerdem als ➚Vollbild-Bildaufnehmer. Weiterer Vorteil gegenüber konventionellen CCD-Bildaufnehmer ist die Möglichkeit, die ➚Integrationszeit auf einfache Weise steuern zu können. So kann die ➚Shutterzeit variabel eingestellt werden. Für die kontinuierliche Darstellung des Kamerabildes auf einem Monitor ist jedoch eine Zwischenspeicherung der Bilddaten notwendig. Kameras mit Progressive Scan-CCD-Bildaufnehmer sind deshalb nur mit digitalem Signalausgang (z.B. SVGA) ausgestattet und liefern kein analoges ➚Videosignal. Das flexible Bildraster von Progressive Scan-Bildaufnehmer macht sie perfekt geeignet für die ➚Synchronsation mit schnellen Prozesse sowie die Anwendung von ➚Blitzbeleuchtungen. Projektionszentrum Schnittpunkt aller Strahlen der optischen Abbildung bei der Zentralprojektion. (s. auch entozentrisches Objektiv, hyperzentrisches Objektiv, Kamerakonstante Protokoll Gibt zeitliche und syntaktische Regeln für die Datenkommunikation vor, wie Daten zu senden und zu empfangen sind, wie die Übertragung begonnen und beendet wird oder wie bei Wartezeiten zu verfahren ist. Prozessabbild Abbild der Signalzustände (Ein- und Ausgänge) an einem Automatisierungsgerät. Für ein Lexikon der industriellen Bildverarbeitung ➚Gateway können dies z.B. sein: Prozessabbild der Ausgänge: ➚Statuswort, ➚Statusmerker, Ergebnisse Prozessabbild der Eingänge: ➚Steuerwort, ➚Steuermerker, Parameter. Prozessfähigkeit Ein Prozess wird bezüglich eines Merkmals als fähig bezeichnet, wenn das Merkmal eines Teils mit einer Wahrscheinlichkeit von 99,63 % (+/-3-fache Standardabweichung s = 6 σ) innerhalb eines vorgegebenen ➚Toleranzbereiches liegt. Zur Bestimmung der Prozessfähigkeit ist die Berechnung der ➚Cp/Cpk-Werte notwendig. Ein als prozessfähig eingestufter Prozess weist Cpk > 1,33 auf. Dann bezeichnet man diesen Prozess auch als „6-Sigma-Prozess“. Prüfaufgabe Die von industrieller Bildverarbeitung lösbaren Prüfaufgaben sind sehr vielfältig, es kommen durch die technologische Weiterentwicklung ständig neue hinzu. Von den möglichen Prüfaufgaben sind weltweit erst etwa 20% gelöst. Von 100 gelösten Prüfaufgaben der industriellen Bildverarbeitung sind: 9 Lage- Drehlageerkennung; 3 Code lesen; 6 Klarschrift lesen; 4 Werkstückkidentifikation; 14 2D-Messungen; 2 3D-Messungen; 12 Vollständigkeitskontrolle; 11 Oberflächeninspektion endlos; 13 Oberflächeninspektion Teile; 3 Druckbildkontrolle; 23 sonstige Prüfaufgaben (Quelle: VDMA). Prüfen nach DIN EN ISO 8402: Feststellen, ob ein ➚Prüfobjekt vorgeschriebene Eigenschaften besitzt. Unterteilung in nichtmaßliches/maßliches Prüfen. Maßliches Prüfen unterteilt sich widerum in ➚Messen und ➚Lehren. Maßliches Prüfen: Längen, Breiten, Höhen; Winkel, Orientierung; Größen; Flächeninhalte, Schwerpunkte; Gerad-, Rundheiten; Formen, Konturen; Farben; lichttechnische Größen; ... Nichtmaßliches Prüfen: Attribute; Abstände, Position; Vollständigkeit; Farben; Grad der Ausprägung; Zeichenerkennung; Code-Erkennung; Objekterkennung; Strukturen, Texturen; Lageerkennung (Robot Vision); ... Prüffenster, auch Arbeitsbereich, Area of Interest, AOI, Region of interest, ROI. Wirkungsbereich von Algorithmen oder Prüffunktionen. Prüffenster sind i. A. nur Teilbereiche des im ➚Bildspeicher abgelegten ➚Kamerabildes. Sie werden gezielt gewählt, um die Bearbeitungszeit zu verkürzen. Prüffenster können sein: Rechteck, n-Eck, Kreis, Kreisring, Ellipse, Ellipsenring, Kontur. Prüfling ➚Prüfobjekt Prüfmittelfähigkeit Neue oder vorhandene Prüfmittel sind geeignet, dem festgelegten Anwendungszweck entsprechend, genau zu messen. Der Nachweis der Prüfmittelfähigkeit dient dazu, dass das Prüfmittel für den Einsatz in der Fertigung genehmigt wird, ein fortlaufendes Prozessregelungssystem für Messmittel geschaffen wird, Messmittel miteinander vergleichbar zu machen 67 P Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 83 Prüfobjekt P sowie dazu, dass Messergebnisse unter gleichen Bedingungen eine zeitliche Stabilität aufweisen. Messungen erfolgen an Hand von kalibrierten (vermessenen) Normalen (➚Kalibrierkörper) und Serienteilen zur Ermittlung von: Genauigkeit und ➚Wiederholgenauigkeit des Prüfmittels, Streubereich des Prüfmittels mit, ohne Bedienereinfluss, zeitlicher Stabilität. (s. auch Cg-/Cgk-Werte) Prüfobjekt Träger der Prüfgröße (siehe DIN 1319-1). Teil oder Werkstück, das zu untersuchen ist. Größter Unsicherheitsfaktor beim Prüfen mit Bildverarbeitung durch meist nicht vorauszusehende variierende Eigenschaften des Prüfobjektes hinsichtlich: a) Form: Wechselwirkungen mit der ➚Beleuchtung (flach, parallelwandig, zylindrisch, Freiformflächen, ...) b) Kantenform: Wechselwirkungen mit der ➚Beleuchtung (geschnitten, gefräst, gedreht, gerissen, schmutzig, ...) c) Oberflächengeometrie: ➚Reflexionseigenschaften (poliert, geschliffen, sandgestrahlt, korrodiert, ...) d) Oberflächenbehandlung: Öl, Wachs, Galvanisierung, ... e) Farbe: Wechselwirkungen mit der Beleuchtung (unterschiedliche ➚Absorption führt zu verschiedenem ➚Kontrast, ...) Prüfprogramm Prüfprogramme dienen der Abarbeitung der vom Programmierer festgelegten Funktionalität eines Bildverarbeitungssystems. Darin ist die Lösung der ➚Prüfaufgabe ausgeführt. Prüfprogramme bestehen aus mehreren Prüfschritten (z.B. Konturerkennung, Zeichen lesen, Blobanalyse). Am Ende eines Prüfprogramms steht i. A. eine Ergebnisausgabe (auf Monitor, digitaler Ausgang, i.O./n.i.O., String, Datei, ...). Das Gesamtergebnis eines Prüfprogramms, (Ermittlung, ob das ➚Prüfobjekt den Vorgaben entspricht oder nicht) ergibt sich aus den Ergebnissen der Prüfschritte. Einzelergebnisse können logisch miteinander verknüpft werden. Verschiedene Arten Prüfprogramme werden für eine Bildverarbeitungsanlage benötigt: a) Kalibrierprogramme: zur Herstellung der ➚Messgenauigkeit bei der Inbetriebnahme nach Demontage oder zur erneuten ➚Kalibrierung bei vorbeugender Instandhaltung. b) Justierprogramme: Herstellung eines funktionsfähigen Aufbaus bei Montage und nach Demontage hinsichtlich Lage und Größe des ➚Gesichtsfeldes, Lage der Beleuchtung, Homogenität der Beleuchtung, Ausrichtung der optischen/mechanischen Achsen (➚Justierhilfe), ➚Arbeitsabstand. c) Prüfprogramm zur Prüfung des Prüfobjektes: Maßnahmen zur Beschleunigung von Prüfprogrammen können sein: Bildqualität verbessern (➚Kontrast, Schärfe), Anzahl der Befehle reduzieren, gleiche Befehle nacheinander nutzen, so kleine ➚Prüffenster/➚AIO wie mög- 68 lich, relative Positionierung nutzen, Unterprogrammtechnik für häufig wiederholte Programmteile nutzen, Grafiken einblenden minimieren. Prüfprogramme können optimiert werden durch: Kurze ➚Antastungen/kleine ➚Prüffenster. Sie sind weniger störanfällig. Parameter der Prüfbefehle in der Mitte der Streuweite der Prüfteile ansetzen (setzt Bestimmung der Streuweite voraus). Zeitsicherheit herbeiführen durch zeitminimierte Programme. Varianten von Verfahren/ Befehlen testen (Es gibt viele Wege...) und deren Störsicherheit untersuchen. Sichere Kommunikation erreichen (undefinierte Zustände vermeiden, ➚Handshake nutzen). Prüfstift ➚Kalibrierkörper Prüfsumme Sicherheitsvorkehrung bei der Datenübertragung. Durch den Vergleich der vom Sender mitgesendeten Prüfsumme mit der beim Empfänger ermittelten Prüfsumme werden Fehler bei der Datenübertragung festgestellt. Genutzt u.a. bei der ➚Fernsteuerung und beim Bilddatentransfer von Bildverarbeitungssystemen. Prüfzeit ➚Zykluszeit PTB ➚Physikalisch Technische Bundesanstalt Punkt antasten Liefert die Koordinaten (x, y) eines Punktes auf einer ➚Kante innerhalb eines Bildes im ➚Bildspeicher. Zur Erhöhung der statistischen Sicherheit können zum Punkt antasten auch mehrere parallele ➚Antaststrahlen genutzt werden (➚Antastbreite). Die Nutzung dieses Verfahrens empfiehlt sich, wenn Kanten erkannt werden sollen, die verschmutzt sind, Bearbeitungsspuren aufweisen oder anderweitig strukturiert sind. (s. auch Antasten) Punkt definieren Die Nutzung von ➚Geometrieelementen lässt es zu, Geometrieelemente zu kombinieren und dadurch neue Punkte zu definieren durch: Schnittpunkt zweier Geraden, Lotpunkt auf Gerade, Lot auf Kreis, Mittelpunkt zwischen zwei Punkten, Schnittpunkte Gerade-Kreis, Schnittpunkte Kreis-Kreis, Verschiebung von Punkten. Punktoperator Mathematische Funktion, die punktweise auf ein Pixel wirkt, ohne Wechselwirkung mit den benachbarten Bildpunkten. Der neue berechnete Wert des ➚Pixels hängt nur vom ursprünglichen Helligkeitswert desselben Pixels ab. Punktoperatoren können in Software und in Hardware ausgeführt werden. Zu letzterem eignen sich besonders ➚Look up Tabellen (LUT), die sehr schnell arbeiten. Beispiele: ➚Invertieren, ➚Schwell-wert neu festlegen, ➚Shading-Korrektur. Punktsteuerung Point to Point Control, Steuerungsart von ➚Computerized Numerical Control. Die Bewegung erfolgt durch Positionieren auf vorprogrammierte Punkte. Häufiger Einsatz in Bohr-, Niet-, Stanz-, Punktschweißmaschinen. Vgl. Bahnsteuerung. Lexikon der industriellen Bildverarbeitung Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 84 Reflexionsmindernde Schichten Q Quadratisches Entfernungsgesetz ➚Fotometrisches Entfernungsgesetz Quanteneffizienz Kennziffer, die den Wirkungsgrad eines ➚Bildaufnehmers angibt (immer < 100%). Beschreibt das Verhältnis erzeugter Elektronen je Pixel zur Anzahl der eingefallenen Photonen. Eine Steigerung der Quanteneffizienz bedeutet, dass die Empfindlichkeit des Bildaufnehmers steigt. Die Quanteneffizienz wird wellenlängenspezifisch bestimmt. Für Strahlungsquellen bedeutet die Quanteneffizienz das Verhältnis aus der Anzahl emittierter Photonen zur Anzahl geflossener Elektronen. Quantisierung ➚Digitalisierung. Querschnittswandler bringen den runden Bündelquerschnitt eines ➚Faserbündels aus ➚Lichtwellenleitern für den Lichtaustritt in eine andere geometrische Form. Mögliche Querschnittsformen sind u.a.: Bündel in 2 kleinere Bündel; Bündel in 4 kleinere Bündel; Bündel in ➚Linienlicht; Bündel in ➚Ringlicht; Bündel in Flächenlicht (➚Flächenbeleuchtung). Auch andere kundenspezifische Formen können konfektioniert werden. R Randlichtabfall ➚Vignettierung Raumfilter ➚Bildfilter Raumwinkel, auch Ω. Wird zur Beschreibung ➚lichttechnischer Größen genutzt. Berechnet sich aus der Oberfläche eines Kugelausschnitts einer Kugel mit dem Radius r. Ist die Fläche eine Kugelkappe, kann deren Fläche über A = 2 · π · r · h (h = Höhe der Kugelkappe) berechnet werden. Der Raumwinkel ist dabei Ω = A Ω0 / r2 = 2 · π · (1 - cos α) Ω0 mit α – halber Kegelwinkel, der von der Kugelkappe ausgeschnitten wird. Ω0 ist die Raumwinkeleinheit 1 sr (sprich 1 Steradiant). Für kleine α (α = sin α) gilt mit cos α = 1 - α2 / 2. Ω = π · α2 Ω0. Ein Winkel α = 60 Grad hat den Raumwinkel 3,14 sr, der Halbraum hat einen Raumwinkel von 2π sr, der Vollraum hat einen Raumwinkel von 4π sr. Referenzbild Ist ein im justierten Zustand an der Maschine aufgenommenes und abgespeichertes Bild, das im Fall einer nötigen Neujustierung als Referenz für den Soll-Zustand genutzt wird. (s. auch Justierung, Referenzgeometrie) Referenzgeometrie ist ein Satz von ➚Geometrieelementen, der aus dem Prüfprogramm heraus in eine separate Datei Lexikon der industriellen Bildverarbeitung gespeichert wird und zu späterem Zeitpunkt wieder genutzt (ins Prüfprogramm zurückgeladen) werden kann. Referenzgeometrien werden oft zur ➚Justierung von Bildverarbeitungskomponenten (besonders Optik und Beleuchtung) genutzt. Dazu werden im justierten (Gut-)Zustand die Geometrieelemente von markanten Körperkanten bestimmt und in einer Referenzgeometrie abgespeichert. Wurde eine Maschine demontiert und wieder aufgebaut oder umgerüstet und muss erneut justiert werden, enthält die Referenzgeometrie die lagegenauen Daten des vorherigen Zustandes, anhand dessen die Justierung durchgeführt werden kann. Reflexion Ablenkung des Lichtes an Oberflächen von Stoffen. Reflexion ist Grundlage der Abbildung an Spiegeln und Prismen. Reflexionen an Linsen schwächen den ➚Kontrast und können durch ➚Vergütung verringert werden. Grad und Art der Reflexion an Prüflingen bestimmen Kontrast/Helligkeit im Bild. Formen der Reflexion: a) gerichtete Reflexion (➚Reflexionsgesetz); b) ➚diffuse Reflexion/➚Streuung; Verteilung des Lichtes bei der Reflexion (tritt bei Rauhtiefen > λ/4 auf); c) Mischform: diffuse Reflexion mit gerichtetem Schwerpunkt. Die Reflexionseigenschaften eines ➚Prüfobjektes in Zusammenhang mit der ➚Beleuchtungstechnik bestimmen in starkem Maße die Qualität der Abbildung auf dem ➚Bildaufnehmer. Ein reales ➚Prüfobjekt ist meist eine unbekannte Mischung aus Reflexion, ➚Absorption, ➚Transmission. (s. auch Reflexionsgrad) Reflexionsgesetz Beschreibt die Ausbreitung des Lichtes bei gerichteter ➚Reflexion: Einfallswinkel = Ausfallswinkel. Winkelbezug ist dabei das Lot auf die reflektierende Fläche. Reflexionsgrad Kurzzeichen ρ. Verhältnis von reflektiertem zu einfallendem ➚Strahlungsfluss bei ➚Reflexion an Oberflächen. Der Reflexionsgrad hat bei ➚Auflichtbeleuchtung einen starken Einfluss auf das Licht, das den ➚Bildaufnehmer erreicht. Es gilt der Energieerhaltungssatz: ➚Reflexionsgrad + ➚Absorptionsgrad + ➚Transmissionsgrad = 100% Der Reflexionsgrad ist material-, wellenlängen- und winkelabhängig. Typische Werte für den Reflexionsgrad ρ im➚VIS sind: Ag, poliert 90% Papier 75% Al, poliert 65% Cu/Stahl, poliert 55% Holz typ. 20 ... 30% Ziegel 20% Schwarzer Samt < 5% Reflexionsmindernde Schichten ➚Vergütung 69 Q R Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 85 Refraktion R Refraktion ➚Brechung Regelkreis In Regelkreisen nehmen Bildverarbeitungssysteme meist die zentrale Rolle des Messgliedes sowie des Reglers ein. Die Führungsgröße wird von der Bildverarbeitung erfasst und unter Berücksichtigung von Störgrößen wird vom Bildverarbeitungssystem das Steuersignal gebildet. Das Steuersignal beeinflusst die Stellglieder, die auf den Prozess rückwirken. Region of Interest ➚Prüffenster Relative Positionierung ➚Lagenachführung Restart Fähigkeit von ➚Progressive Scan Bildaufnehmern auf ein externes Ereignis hin (Trigger-Impuls) das laufende Taktregime zu unterbrechen und nach sehr kurzer Zeitverzögerung eine neue Bildaufnahme zu starten. Retroreflexion Retroreflektierende Materialien reflektieren das Licht in Richtung des einfallenden Lichts zurück. Makroskopisch gesehen gilt damit nicht mehr das ➚Reflexionsgesetz. Mikroskopisch gibt es mehrere Möglichkeiten der Erzeugung: Mikroprismen oder statistisch verteilte in durchsichtigen Kunststoff eingebettete winzige Glaskugeln. Makroskopisch tritt Retroreflexion am Tripelprisma auf. Materialspezifische Kennziffer ist der Rüchstrahlwert (winkelabhängig). Retroreflexive Folien werden zum Teil bei ➚koaxialer eingespiegelter Beleuchtung durch das Objektiv genutzt, wenn aus Platzgründen keine ➚Durchlichtbeleuchtung unterzubringen ist. Alltäglich bekanntes Beipiel für die Anwendung retroreflektiver Folien sind Verkehrszeichen. RGB Abkürzung für die Farben Rot, Grün, Blau. RGB-Farbraum Rot, Grün, Blau-Farbraum ➚Farbraum RGB-Signal ➚Videosignal, das die 3 Farbkanäle Rot, Grün, Blau getrennt überträgt, wodurch sich eine bessere Farbwiedergabe ergibt als beim ➚FBAS oder ➚Y/CComposite-Signal. Wird von hochwertigen ➚Farbkameras als Videosignal geliefert. Richtcharakteristik ➚Abstrahlcharakteristik Ringblitz ➚Ringlichtbeleuchtung Ringlichtbeleuchtung Universalbeleuchtung im ➚Auflicht für ➚Prüfobjekte, die aus anlagentechnischen Gründen nicht mit ➚Durchlichtbeleuchtung beleuchtet werden können. Sie sind zur gleichmäßigen Ausleuchtung von flachen, diffus reflektierenden Oberflächen geeignet. An strukturierten Prüfobjekten ergeben sich lageabhängige Schatten und an glänzenden Oberflächen, wird die Lichtquelle abgebildet. Die Lichterzeugung erfolgt durch ringförmige ➚Leuchtstofflampen, ➚Kaltlichtquellen mit ➚Querschnittswandlern oder ➚LED-Beleuchtungen, selten ➚Diodenlaser mit ➚Strahlformungsoptik. Ringlichtbeleuchtungen sind einfach zu handhaben und können am ➚Filtergewinde des Objektives oder separat ange- 70 bracht werden. Modelle mit eingebauter ➚Fresnellinse bündeln durch die Richtwirkung das Licht auf einen begrenzten Leuchtfleck. Damit verbunden ist die Einhaltung eines durch die Fresnellinse vorgegebenen ➚Beleuchtungsabstandes. Außerhalb dieses Abstandes lässt sich durch Herstellung eines ungleichen Helligkeitsprofiles (innen dunkler als außen) eine beleuchtungstechnische Kompensation der natürlichen ➚Vignettierung erreichen. (s. auch Sektorenringlicht, polarisierte Beleuchtung) RLC Run length coding ➚Lauflängencodierung RLE Run Length Encoding ➚Lauflängencodierung Robot Guidance ➚Roboterführung Robot Vision Synthesewort aus Robot und Machine Vision. Kennzeichnet das Zusammenwachsen der beiden Technologien. Beinhaltet die Identifikation von Objekten anhand ihrer Geometrie, Positionsbestimmung, Ermittlung des Greifpunktes und präzises Positionieren. Das Vision System arbeitet mit dem Roboter in einer Regelschleife. Auf Grund der vom Bildverarbeitungssystem gelieferten Daten werden Teile erkannt, ➚Lagen und ➚Drehlagen nachgeführt und Korrekturen in der Positionierung des Roboters vorgenommen. International Federation of Robotics: www.ifr.org (s. auch Roboterführung) Roboterführung durch Bildverarbeitungssysteme wird bei vollautomatischen Montage- und Bearbeitungsvorgängen mit Industrierobotern eingesetzt. Dadurch werden hohe Passgenauigkeiten erreicht und Unterschiede zwischen einzelnen Bauteilen können kompensiert werden wie auch Abweichungen bei der Bauteil-Positionierung in Arbeitsstationen. Das Bildverarbeitungssystem erfasst die tatsächliche Lage und Ausrichtung des Bauteils und seiner Umgebung. Aus diesen Daten wird die NullpunktKorrektur des Roboterkoordinatensystems berechnet und vor dem Montagevorgang an die Robotersteuerung übertragen. Beispiele für robotergeführte Arbeitsvorgänge sind: Einbau von Türen in der Automobilindustrie, Nahtabdichtung, Positionsoptimiertes Lochstanzen, Bolzenschweißen usw. Roboterkommunikation Zur Kommunikation zwischen Bildverarbeitungssystem und Industrieroboter werden standardisierte und auch herstellerspezifische Kommunikationsprotokolle genutzt, die vielfach über die ➚serielle Schnittstelle abgewickelt werden. Kommunikationsprotokolle sind u.a.: ➚3964-R zur Übertragung von HEX-Werten (standardisiert und herstellerneutral). Kuka, EPSON, Kawasaki, Yamaha. In den Kommunikationsprotokollen werden Listen von Punkten und Ergebnissen übertragen. Vorkehrungen zum wiederholten Verbindungsaufbau oder zur wiederholten Übertragung machen die Protokolle störsicher. Lexikon der industriellen Bildverarbeitung Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 86 Schärfentiefe Roboterkoordinatensystem Je beweglicher Achse des Roboters wird ein eigenes Koordinatensystem verwendet. Durch ➚Koordinatentransformation werden die Koordinatensysteme ineinander umgerechnet. Daher müssen Bildverarbeitungssysteme für die ➚Robot Vision zur Koordinatentransformation fähig sein, um ➚Kamerakoordinaten in Roboterkoordinaten zu transformieren. Das gemeinsame Bezugssystem zwischen Roboter- und Kamerakoordinaten bildet das ➚Weltkoordinatensystem. (s. auch Bildkoordinatensystem, Weltkoordinatensystem, Koordinatentransformation) ROI region of interest ➚Prüffenster RS-170 In den USA üblicher ➚EIA-Standard zur Codierung von Schwarz/weiß-Videosignalen. RS-170 arbeitet mit 30 Vollbildern pro Sekunde bei 484 sichtbaren Zeilen. Maximalamplitude 1,4 V. Bildformat 640 · 480 Pixel. RS-232, auch V24. Serielle Schnittstelle, die in der Industrie als Direktverbindung zwischen zwei Geräten weit verbreitet ist. Besitzt zwei getrennte Leitungen zum Senden und Empfangen. Arbeitet asynchron ggf. mit Handshakesignalen. Maximale Leitungslänge zur sicheren Datenübertragung: 15 m. RS-422 Serielle Schnittstelle. Nutzt Differenzsignale, dadurch sehr störunempfindlich. Datenübertragungsrate bis 10 Mbit/s. Geeignet für Übertragung über größere Entfernungen bis 1200 m. Bis zu 10 Empfänger können an einen Sender angeschlossen werden. RS-485 Serielle Schnittstelle. Weiterentwicklung von RS422. Nutzt Differenzsignale. Dadurch sehr störunempfindlich. Datenübertragungsraten bis 10Mbit/s. Geeignet für Übertragung bis 1200 m. Mehrpunktverbindungen sind möglich mit Anschluss von bis zu 32 Teilnehmern. Rückführbarkeit ➚Rückverfolgbarkeit Rückverfolgbarkeit Tracebility DIN EN ISO 8402, Möglichkeit, den Werdegang eines Produktes/einer ➚Kalibrierung anhand dokumentierter Daten verfolgen zu können. Für die Kalibrierung bedeutet die Rückverfolgbarkeit die Herstellung einer lückenlosen Verbindung zu einem national oder international gültigen Standard. Run Length Coding ➚Lauflängencodierung Run Length Encoding ➚Lauflängencodierung Rundheit ➚Bestkreis S Sättigung 1.) Merkmal eines ➚CCDs, bei ➚Überbelichtung von ➚Pixeln Ladungen in benachbarte Pixel überlaufen zu lassen. Entsteht durch die endliche Speicherkapazität der Pixel für durch Lichteinfall erzeugte Elektronen. Lexikon der industriellen Bildverarbeitung Beim Auftreten von Sättigung gehen Informationen über den ➚Kantenübergang verloren, die ➚Kante wird unsymmetrisch. Um Sättigung zu vermeiden, sollte der maximal im Bild auftretende ➚Grauwert 10% unter dem maximal möglichen Grauwert (➚Digitalisierungstiefe) liegen. 2.) Farbsättigung (➚Farbraum) (s. auch Blooming) Sättigungsbeleuchtungsstärke Diejenige ➚Beleuchtungsstärke, die auf einem ➚Bildaufnehmer zur ➚Sättigung führt. Durch Dotierung der Sensormaterialien werden die Bildaufnehmer immer lichtempfindlicher, d.h. die Sättigungsbeleuchtungsstärke sinkt mit fortschreitender Sensorentwicklung. Kleinere Sättigungsbeleuchtungsstärken erlauben kürzere ➚Belichtungszeiten. Schärfenebene Ebene, bei der die ➚Objektebene die schärfestmögliche Abbildung erreicht. Diese Ebene kann mit guter Näherung durch die Beziehungen der ➚paraxialen Optik bestimmt werden. Schärfentiefe, auch Tiefenschärfe. Verschiebebereich eines ➚Prüfobjektes entlang der ➚optischen Achse, ohne dass sich die ➚Bildschärfe „merklich ändert“ (Herkunft der Definition aus der Fototechnik). Begrenzt wird die Schärfentiefe durch die vordere und hintere Schärfentiefengrenze, den Schärfentiefenbereich. Der Schärfentiefebereich ist zur ➚Objektebene, unsymmetrisch vom optischen System weg, verschoben. Die begrenzte ➚Auflösung des ➚Bildaufnehmers verursacht die Erscheinung 'Schärfentiefe'. Zur Berechnung muss bekannt sein, wie unscharf das Bild sein darf. Näherungsweise gilt: S = u’ · 2k · (ß’-1) / ß’2 mit S = Schärfentiefebereich, u’ = zulässige Unschärfe im Bild, k = ➚Blendenzahl, ß’ = ➚Abbildungsmaßstab (< 0). oder: S = u’ · (ß’-1) / (A’ · ß’2) mit A’ – bildseitige ➚numerische Apertur Variable Parameter sind: a) Abbildungsmaßstab ß’: i. A. nicht, denn ß’ legt die Größe des ➚Gesichtsfeldes fest. Ein kleinerer Abbildungsmaßstab, hat einen größerer Schärfentiefebereich. Hinweis: Mikroskopische Aufnahmen bei großem Abbildungsmaßstab haben nur wenige µm Schärfentiefebereich. b) Blendenzahl k: bei genügend Licht. Große Blendenzahl – großer Schärfentiefebereich. Dabei sind die Grenzen der ➚förderlichen Blende zu beachten. c) Zulässige Unschärfe im Bild u`: Großer zulässiger Unschärfe folgt ein großer Schärfentiefebereich. Größte Einflussmöglichkeit bei Kenntnis der Funktion der ➚Antastalgorithmen. Tolerante Algorithmen lassen kantenformunabhängige ➚Antastungen auch bei unscharfen ➚Kanten zu, was zu einer softwaretechnischen Vergrößerung des Schärfentiefebereiches führt. 71 R S Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 87 Schärfentiefebereich S Schärfentiefebereich ➚Schärfentiefe Scharfeinstellung ➚Fokussierung Schattenbild ➚Durchlichtbeleuchtung Schattenfreie Beleuchtung auch Cloudy day-Beleuchtung. Sonderform einer räumlich ➚diffusen Auflicht-Beleuchtung, ausschließlich als ➚LED-Beleuchtung ausgeführt. Emittiert sehr gleichmäßiges Licht in fast den ganzen Halbraum (➚Raumwinkel) über der ➚Objektebene. Schattenfreie Beleuchtungen unterdrücken dreidimensionale Strukturen/➚Texturen an glänzenden, rauen und geknitterten Oberflächen. Selbst Teile mit großen Unebenheiten und räumlich stark geformte Teile (Kugeln) können sehr gleichmäßig ausgeleuchtet werden. Anwendung z.B. zur Risserkennung an Schmiedeteilen, ➚OCR/OCV an geknitterten Folienverpackungen, Oberflächenkontrolle an Tiefziehteilen. Funktionsbedingt muss die schattenfreie Beleuchtung sehr nah bzw. über den Prüfobjekten angeordnet sein, was deren Handhabung erschweren kann. Verschiedene Prinzipien zur Erzeugung schattenfreier Beleuchtung werden genutzt. Auf Grund der Notwendigkeit eines leuchtenden Hohlraumes für die homogene Beleuchtung sammeln schattenfreie Beleuchtungen Schmutz im Inneren. So zeichnen sich industrietaugliche schattenfreie Beleuchtungen durch eine einfache reinigungsfreundliche Innengeometrie sowie geschlossene Beleuchtungskörper und Freiheit von Lüftern aus. Schlieren Schlieren sind Inhomogenitäten der ➚Brechzahl. Schlieren in den Linsen eines Objektives können die Abbildungsleistung von Objektiven merklich beeinflussen. Bei extremen Einsatzfällen der Bildverarbeitung können Schlieren in Luft die Aufgabenlösung unmöglich machen, z. B. durch Hitzeflimmern an heißen Luftströmungen. Der Zusammenhang zur Brechzahl ist wie folgt: n = (n0 - 1) · p · T0 / (p0 · T) + 1 mit n0 = Brechzahl bei der Bezugstemperatur, p0 = Druck bei der Bezugstemperatur, T0= Bezugstemperatur. Schnittstelle Interface. Verbindungsstelle zwischen Geräten. Über Schnittstellen werden Daten-, Adress- und Steuersignale ausgetauscht. Zur Definition von Schnittstellen gehören das verwendete ➚Protokoll, die elektrischen Pegel sowie die mechanischen Bedingungen (Steckerbelegung, -art). Je nach Art der Übertragung gibt es ➚serielle Schnittstellen und ➚parallele Schnittstellen. Genormte Schnittstellen machen es möglich, verschiedenste Systeme ohne Anpassungsarbeiten miteinander zu verbinden. Schnittweite Die bildseitige oder hintere Schnittweite bezeichnet den Abstand zwischen dem Scheitel der letzen optischen Fläche Richtung ➚Bildaufnehmer und dem 72 projizierten Bild. Die objektseitige Schnittweite dementsprechend den Abstand zwischen Linsenscheitel und ➚Prüfobjekt. (s. auch Arbeitsabstand) Schnittweitenänderung ➚Optische Weglänge Schrifterkennung ➚OCR/OCV, ➚OCP, ➚OCI Schutzart ➚IP-Schutzklasse Schutzgehäuse dienen der Umhausung empfindlicher Kameraelektronik/-sensorik, Optik und Beleuchtung für den Einsatz von Bildverarbeitung unter widrigen ➚Umgebungsbedingungen in der Produktion. Schutzgehäuse werden in verschiedenen ➚IP-Schutzklassen angeboten. Extremste Ausführungen für Umgebungstemperaturen bis 450° Celsius mit Wasserkühlung und Schutzklasse IP68 sind möglich. Schutzglas Vor das ➚Objektiv, in das ➚Filtergewinde geschraubte, gefasste ➚planparallele Platte. Zum Schutz gegen Staub, Ölnebel und mechanische Beschädigungen des Objektives werden in der Machine Vision meist ➚UV-Sperrfilter eingesetzt. Bei schrägem Vorsatz von Schutzgläsern vor das Objektiv kommt es zu ➚Parallelversatz. Das Vorsetzen von Schutzgläsern ändert die ➚optische Weglänge. Schutzgrad ➚IP-Schutzklasse Schwarzreferenz-Pixel Pixelgruppen in ➚Bildaufnehmern, die nicht zur ➚lichtempfindlichen Fläche (➚Bildaufnehmergröße) gehören. Die Schwarzreferenz-Pixel sind mit einer Metallschicht bedeckt. Die in ihnen erzeugten Ladungen rühren nur vom ➚Dunkelstrom her und werden als Referenz für die Größe des Dunkelstroms genutzt. So kann zur Dunkelstromkompensation für jedes lichtempfindliche ➚Pixel der mittlere Wert des Dunkelstroms abgezogen werden. Schwarzreferenz Pixel dienen als Bezugswert für Schwarz, also ➚Grauwert 0. Schwelle ➚Schwellwert Schwellwert Der Schwellwert gibt das Kriterium für das Trennen eines Wertebereich (➚Grauwerte, ➚Farbwerte) in zwei Teilmengen an. Schwellwerte werden u.a. zur ➚Binarisierung von Bildern genutzt (Binärschwelle). Dabei wird eine ➚Histogramm-Analyse genutzt, um den optimalen Schwellwert zu berechnen. Schwellwerte können fest vorgegeben sein, variabel (➚dynamische Schwelle), sich auf das gesamte Bild beziehen (globaler Schwellwert) oder nur auf Bildausschnitte beziehen (lokaler Schwellwert). (s. auch Schwellwertverfahren, Look up Tabelle) Schwellwertverfahren Das Schwellwertverfahren trennt Bereiche von Pixeln großer Helligkeit (➚Grauwerte, ➚Farben) von Bereichen geringer Helligkeit gemäß einem vereinbarten ➚Schwellwert. So ist eine einfache Trennung von Objekten vom Hintergrund möglich. Das Schwellwertverfahren wandelt durch ➚Binarisierung ein ➚Farbbild oder ➚Grauwertbild in ein ➚Binärbild Lexikon der industriellen Bildverarbeitung Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 88 Shutter um. Das Schwellwertverfahren kann in Software oder in Hardware (➚Look up Tabelle) ausgeführt werden. (s. auch dynamische Schwelle, Histogramm) Sechs, Sigma. ➚Prozessfähigkeit Segmentfläche Quantitätskriterium für den ➚Krümmungstest an ➚Konturen. Die Segmentfläche wird gebildet aus dem zu betrachtenden Konturausschnitt sowie der Verbindungsgeraden aus Konturstart- und -endpunkt. Segmenthöhe Quantitätskriterium für den ➚Krümmungstest an ➚Konturen. Die Segmenthöhe wird gebildet aus dem maximalen Lotabstand über der Verbindungsgeraden zwischen Konturstart- und -endpunkt sowie dem Konturausschnitt. Segmentierung trennt nach erfolgter ➚Bildvorverarbeitung Bilder in Vordergrund/Hintergrund bzw. in ➚Objekt und Umgebung. Sich berührende Objekte werden getrennt und vereinzelt. Grundlage sind ➚Grauwertdifferenzen. Eine einfache und effektive Segmentierung wird durch die Anwendung einer Grauwertschwelle (➚Schwellwert) erreicht. Der Segmentierung folgt i.A. die ➚Merkmalsextraktion. Segmentierung ist die Grundlage für Schrifterkennung (➚OCR/OCV) die Auswertung von biologischen Zellen oder Luftbildern usw. Zur Segmentierung von ➚Konturen eignet sich besonders die Hough-Transformation. Segmentlänge Quantitätskriterium für den ➚Krümmungstest an ➚Konturen. Die Segmentlänge gibt an, wie lang (in Pixeln) ein Konturausschnitt zwischen Konturstart- und Konturendpunkt ist. Seitenverhältnis, auch aspect ratio. Verhältnis von Höhe zu Breite. Tritt sowohl bei der ➚Sensorgröße als auch bei Monitoren auf. Aus der klassischen Videotechnik kommend, herrscht heute noch ein Seitenverhältnis von 4:3 (Breite zu Höhe) vor. Hochaufgelöstes Fernsehen (➚HDTV) hat ein Seitenverhältnis von 16:9. Durch die Nutzung digitaler Bildübertragung haben moderne hochauflösende ➚Sensoren (z.B. Größe 1k · 1k) meist ein Seitenverhältnis von 1:1. Sektorenringlicht Sonderform einer ➚Ringlichtbeleuchtung mit LEDs. Sektorenringlichter ermöglichen das in Helligkeit und Dauer unabhängige Ein-/Ausschalten einzelner Sektoren des Ringlichtes, daher wird es fast ausschließlich als ➚LED-Beleuchtung ausgeführt. Üblich sind 4 oder 8 Sektoren. Mit Sektorenringlichtern ist es mit einer einzigen Beleuchtungskomponente möglich, die ➚Lichteinfallsrichtung zu verändern. Sie werden dazu genutzt, richtungsabhängige, aber in ihrer Drehlage nicht bekannte Merkmale am feststehenden ➚Prüfobjekt zu beleuchten. Zu jedem leuchtenden Sektor muss ein gesondertes Bild aufgenommen werden. Sensor ➚Bildaufnehmer Lexikon der industriellen Bildverarbeitung Sensorebene ➚Bildebene Sensorempfindlichkeit ➚Spektrale Empfindlichkeit Sensorformat ➚Bildaufnehmergröße Sensorgröße ➚Bildaufnehmergröße Sensorraster ist die durch die Zeilen-/Spaltenstruktur des ➚Bildaufnehmers aufgespannte Matrix. (s. auch Pixelzahl, Sensorgröße, Pixelgröße) Serielle Schnittstelle ➚Schnittstelle, zur seriellen Datenübertragung. Ein Byte wird somit bitweise (bitseriell) übertragen. Im PC-Bereich sind die als COM bezeichneten Schnittstellen ➚RS-232-Schnittstellen. (s. auch RS422, RS-485, Ethernet, USB) Shading Inhomogenes Hintergrundsignal, das der Bildinformation überlagert ist. Verursacht wird Shading durch die ungleiche Helligkeitsempfindlichkeit (➚Photo Response Non Uniformity) der Pixel eines ➚Bildaufnehmers oder durch ungleichmäßige Beleuchtung. Shadingkorrektur behebt Shading dadurch, dass jedem ➚Pixel ein individueller Korrekturfaktor zugeteilt wird. Realisierung mittels ➚Look-up-Tabelle. Mittels Shadingkorrektur können Inhomogenitäten der Beleuchtung oder natürliche ➚Vignettierung kompensiert werden. Shadingkorrektur ➚Shading Shrink ➚Erosion Shutter Elektronischer Verschluss, der die ➚Belichtungszeit einer Halbleiter-Kamera regelt. Im Normalmodus wird die Belichtungszeit (➚Integrationszeit) in Halbleiter-Kameras nach einem festen Raster über einen internen Taktgenerator (interne Synchronisierung) gesteuert. Viele Kameras bieten auch die Möglichkeit der asynchronen Shutterfunktion (➚Progressive Scan). Damit verbunden ist die Möglichkeit von Kurzzeit-Belichtung (Kurzzeitshutter) und Langzeit-Belichtung (Langzeitshutter). Langzeitshutter (slow scan): Spezieller Modus des elektronischen Kameraverschlusses bei ➚CCDs. Erlaubt das Aufsummieren von Bildinformationen über mehrere ➚Integrationszeiten. Damit wird der ➚Bildaufnehmer sehr lichtempfindlich und liefert auch noch unter extrem ungünstigen Beleuchtungsbedingungen gute Bilder. ➚Bildrauschen kann dadurch gemittelt werden. Während der Belichtungszeit des Langzeitshutters darf sich das Objekt allerdings nicht bewegen, sonst kommt es zur ➚Bewegungsunschärfe. Kurzzeitshutter: Der Kurzzeitshutter realisiert Verschlusszeiten, die unterhalb ➚Integrationszeit liegen bis herab zu 1/100.000s. Die Belichtung erfolgt nur für einen Teil der Standard-Integrationszeit. Der Kurzzeitshutter wird zum „Einfrieren“ der Bewegung schnell bewegter Prüfobjekte genutzt. Gewöhnlicherweise arbeiten alle modernen Halbleiter-Sensoren (➚Progressive Scan) mit einem Vollbildshutter. Ältere Sensoren 73 S Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 89 Shutterspeed S (➚interlaced) haben einen Halbbildshutter, so dass bei Shutterbetrieb in vertikaler Bildrichtung nur die Hälfte der Bildpunktauflösung zur Verfügung steht. Der Einsatz von Kurzzeit-Shuttern zieht die Verwendung leistungsstarker Beleuchtungen nach sich, um im Bild noch ausreichenden ➚Kontrast zu erreichen. Shutterspeed ➚Shutterzeit Shuttersynchronisation ➚Blitzsynchronisation, ➚Shutter, ➚Progressive Scan Shutterzeit Zeit, für die der ➚Bildaufnehmer lichtempfindlich ist (➚Shutter). Je kürzer die Shutterzeit ist, desto größer muss die Lichtleistung der Beleuchtung sein. Lange Shutterzeiten bergen durch Bewegung und Vibration die Gefahr von ➚Bewegungsunschärfe in sich. Die notwendige zu wählende Shutterzeit steht in Verbindung mit der ➚Bildpunktauflösung (über den ➚Abbildungsmaßstab), Bewegungsgeschwindigkeit des Prüfobjektes, zulässigen ➚Bewegungsunschärfe, notwendigen ➚Blendenzahl (➚Schärfentiefe), notwendigen ➚Beleuchtungsstärke. Zur Ermittlung der geeigneten Shutterzeit sind umfassende, o.g. Faktoren beachtende Betrachtungen notwendig. (s. auch Blitzzeit, Blitzsynchronisation) Sichtbares Licht Wellenlängen-Bereich des Lichtes, das durch das menschliche Auge und ➚Bildaufnehmer wahrgenommen werden kann (ca. 380 ... 780 nm). Sichtbares Licht ist nur ein Teil dessen, was als Licht bezeichnet wird (➚Wellenlänge). Verschiedene Wellenlängenbereiche des sichtbaren Licht werden mit Farbbezeichnungen versehen: Violett 380 - 460 nm Indigo 460 - 475 nm Blau 475 - 490 nm Grün 490 - 565 nm Gelb 565 - 575 nm Orange 575 - 600 nm Rot 600 - 780 nm (s. auch Weißlicht) Signal-Rausch-Verhältnis Kenngröße eines ➚Bildaufnehmers, die das Verhältnis des Nutzsignals zum Rauschsignal angibt. Das Signal-Rausch-Verhältnis hat Einfluss auf die Gleichmäßigkeit der Bildinformation. Signal/ Rauschen = Elektronenzahl (Signal)/Elektronenzahl (Rauschen) Simplex Datenübertragung in nur einer Richtung. Skalierbarer Zeichensatz ➚Zeichensatz Skelettierung Erzeugung einer ein ➚Pixel breiten Skelettlinie um ein flächenhaftes ➚Objekt. Die Skelettlinie verläuft in der Mitte der Objektumrandung. Wird durch Anwendung der ➚Erosion und anderer ➚morphologischer Operationen erreicht. Typische Anwendung in Algorithmen der Zeichenerkennung (➚OCR/OCV). 74 Slow scan ➚Shutter Slot-SPS Board für PCs, das die Funktion einer ➚speicherprogrammierbaren Steuerung übernimmt. Ein Dual-Part-RAM ermöglicht, dass das Prozessabbild sowohl von der PC-Seite als auch von der Feldebene verfügbar ist. Smart Camera Auch intelligente Kamera. Automatisierungsgerät, das in seinem (Kamera-)Gehäuse folgende Baugruppen integriert: ➚CCD-/CMOS-Kamera; ➚Framegrabber mit ➚Digitalisierung und ➚Look up Tabelle; Bildverarbeitungsrechner (i.A. ➚digitaler Signalprozessor), Schnittstellen (meist ➚digitale Ein-/Ausgänge, ➚serielle Schnittstelle, ➚Ethernet); ➚SVGA-Videoausgang. Meist sind Bedienung und Bildverarbeitung bei Smart Cameras getrennt, so dass unter einer Windows®-Bedienoberfläche das System angelernt werden kann. Smart Camera können als Stand-alone-System betrieben werden, da sie keine Bilddaten über Kabel transferieren müssen, sondern nur Ergebnisse direkt ausgeben. Durch die erreichten Rechenleistungen von bis zu 1200 MIPS (Jahr 2002), Bildfrequenzen von bis zu 120 Hz (CCD) und die vielfältige erhältliche Funktionalität stehen Smart Cameras PC-basierten Systemen kaum nach. Smart Camera Sensor komplexer optischer ➚Sensor, der als rechentechnische Basis eine ➚Smart Camera nutzt. Smart Camera Sensoren sind auf bestimmte Anwendungsfelder (Branchenlösung) hin optimierte und vorprogrammierte Sensoren für einfache Bildverarbeitungsaufgaben. Der Anwender muss sie nur durch geringe Anpassungen an seinen Anwendungsfall adaptieren. Das Anpassen erfolgt entweder über die digitalen Eingänge, eine kleine Handtastatur (key pad) oder durch Anpassungen im mitgelieferten Prüfprogramm. Smart Camera Sensoren können u.a.: sehr schnell Druckbilder kontrollieren, ➚Data Matrix Codes oder Klarschrift (➚OCR/OCV) lesen, Montagekontrolle an Kugellagern vornehmen, Bohrlöcher inspizieren, Fingerabdrücke identifizieren u.v.m. Durch die Nutzung von ➚Korrelation und ➚Mustererkennung sind diese einfachen und einfach anzulernenden Bildverarbeitungssysteme erstaunlich leistungsfähig, auch was die Erkennung komplex strukturierter ➚Prüfobjekte anbelangt. Smart Matching ➚Mustererkennung Smear Effekt im Bild von CCD-Sensoren. Das durch Smear fehlerhafte Signal macht sich durch vertikale Streifen an überbelichteten Bildregionen bemerkbar. Smear kann auftreten bei: a) ➚Frame-Transfer-Sensoren durch die Verschiebung des gesamten Bildes in einen anderen Bereich des Bildaufnehmers. Dabei wird die Überbelichtung in Verschieberichtung „kopiert“. Lexikon der industriellen Bildverarbeitung Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 90 Spreizen b) Bei ➚Interline-Transfer-Sensoren wird Smear erzeugt durch starken Lichteinfall, so dass Licht in abgedeckte Bereiche der Schieberegister eintreten kann. Smear tritt verstärkt bei größeren ➚Wellenlängen auf, da dieses Licht tiefer in das Siliziumsubstrat eindringt (➚PixelÜbersprechen). (s. auch Blooming) SNR Signal to noise ration ➚Signal-Rausch-Verhältnis Sobel-Filter Richtungsorientierter digitaler Bandpassfilter (➚Bildfilter). Bestimmt die 1. Ableitung mit Glättung parallel zur Kante. Die Wirkung ist ähnlich wie beim Prewitt-Filter. Wirkt am stärksten auf horizontale und vertikale ➚Grauwertunterschiede sowie auf in 45-Grad dazwischenliegenden Richtungen. Soft-SPS Speicherprogrammierbare Steuerung, deren Funktionalität auf einer Software- und nicht auf einer Hardwarelösung basiert. Ein ➚IPC dient in der Regel als Hardwarebasis für eine Soft-SPS. Sollwert Wert einer Größe, der als fehlerfrei gilt. Auch Nennmaß. SPC Statistical Process Control ➚Statistische Qualitätskontrolle Speckles Fleckenartige Lichtverteilung im Lichtfeld von ➚Lasern. Entsteht durch ➚Beugung des kohärenten Laserlichtes an Körperkanten. Speckles sind durch ihre ungleiche Intensitätsverteilung ein schwierig zu handhabendes Phänomen für die Bildverarbeitung. Speicherbild Das im ➚Bildspeicher abgelegte, vom ➚Bildaufnehmer erzeugte Helligkeitsabbild eines ➚Prüfobjektes. Speicherprogrammierbare Steuerung Elektronische Steuerung, die abhängig von einem Anwenderprogramm Signale und Zustände von Maschinen abfragt, diese verarbeitet und anschließend zur Steuerung der Maschine wieder ausgibt. Sie führt ständig wiederkehrend einen Zyklus aus, bestehend aus dem Einlesen der aktuellen Sensorwerte (Bedienelemente, Positionsschalter, Lichtschranken, Messfühler, Wegaufnehmer...), dem Berechnen neuer Werte gemäß der geladenen Software und dem Ausgeben dieser Werte an die Aktoren (Schalter, Relais, pneumatische und hydraulische Aggregate,...). Das Anwenderprogramm wird mit einer genormten Fachsprache (IEN1131-3 bzw. DIN EN 61131-3) entwickelt: Anweisungsliste (AWL), Kontaktplan (KOP), Funktionsbausteine (FBS). Speicherprogrammierbare Steuerungen sind die meisten in der Industrie eingesetzten Steuerungen von der einfacher Steuerung eines einzelnen Magneten bis zur Steuerung gesamter Industrieanlagen. Spektrale Empfindlichkeit Abhängigkeit der Hellempfindung eines Empfängers von der bestrahlenden Wellenlänge. Die Helligkeitswahrnehmung (spektrale Empfindlichkeit) des menschlichen Auges und von ➚Bildaufnehmern differieren. Lexikon der industriellen Bildverarbeitung 1.) Für die Empfindlichkeit des Auges (➚Wellenlängen von 380 ... 780 nm) gilt die ➚V-Lambda-Kurve. 2.) Für ➚Bildaufnehmer: Maß für die wellenlängenbezogene Energie, die zum Hervorrufen eines bestimmten Helligkeitswertes auf dem Bildaufnehmer nötig ist. ➚CCDs und ➚CMOS-Sensoren sind im Bereich zwischen ca. 350 und 1100 nm lichtempfindlich. Bei der Auswahl der ➚Beleuchtungseigenschaften und ➚Beleuchtungswellenlänge muss auf die Wirkung der von verschiedenfarbigen Beleuchtungen auf die spektrale Empfindlichkeit des Bildaufnehmers geachtet werden. Mutliplizert man die Werte der ➚spezifischen spektralen Ausstrahlung einer Lichtquelle mit denen der spektralen Empfindlichkeit des Bildaufnehmers, so erhält man Angaben zum Helligkeitseindruck auf dem Bildaufnehmer. Die spektrale Empfindlichkeit von Bildaufnehmern kann erweitert werden, wenn für Wellenlängenbereiche, für die der Bildaufnehmer nicht empfindlich ist, auf den Sensor ➚Fluoreszenzschichten aufgebracht werden. Beispiel: Fluoreszenzbeschichtung Lumogen® auf dem Deckglas eines CCD-Chips macht Licht bis herab zu Wellenlängen von 90 nm sichtbar. Schlussfolgerungen: verschiedene empfindliche Sensoren sehen eine Wellenlänge verschieden hell. Verschiedene Beleuchtungsfarben werden bei gleicher Energie unterschiedlich hell wahrgenommen. Für einen ➚CCDChip rot, weiß, blau, grün, IR (Helligkeitseindruck abnehmend). Die spektrale Empfindlichkeit (Wirksamkeit der Wellenlänge) hängt stark von der Wechselwirkung mit dem Prüfobjekt ab (Farbe ➚Komplementärfarbe). Spektrum beschreibt die Zusammensetzung einer Strahlung, welche ➚Wellenlängen mit welchen Anteilen vertreten sind. Je nach spektraler Zusammensetzung kann das Spektrum des ➚Lichtes auf ➚Sensoren (➚spektrale Empfindlichkeit) sehr verschieden wirken. Kontinuierliche Spektren (z.B. Glühlampe) besitzen Anteile aller Wellenlängen, Linienspektren (z.B. Gasentladungslampen) nur einzelne ausgewählte Wellenlängen. Spezifische spektrale Ausstrahlung charakterisiert den pro Strahlerfläche ausgesandten Strahlungsfluss bezüglich seiner Wellenlängen: Me = dφ / (dA · dλ). Die Fläche unter der Kurve der spezifischen spektralen Ausstrahlung ist ein Maß für das Strahlungsangebot unabhängig von der Empfängerwahrnehmung. (s. auch Spektrale Empfindlichkeit) Sphärische Aberration ➚Öffnungsfehler Sphärische Linse ➚Linsenform Spreadsheet Tabellenbasierte Bedienoberfläche für Bildverarbeitungssysteme. Beinhaltet alle Parameter, Ergebnisse und Einstellungen. Spreizen Beim Spreizen von Grauwerten wird ein ausgewählter Grauwertbereich auf den entsprechend der 75 S Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 91 Spritzwasserschutz S ➚Digitalisierungstiefe gesamt möglichen Umfang an Grauwerten, erweitert. Das Spreizen von Grauwerten dient der ➚Kontrastverstärkung und wird per Software oder mit ➚Look up Tabellen vorgenommen. Spritzwasserschutz ➚IP-Schutzklasse Sprung ➚bedingter Sprung SPS ➚Speicherprogrammierbare Steuerung. SPS-Kommunikation wird von Bildverarbeitungssystemen vorrangig über ➚digitale Ein-/Ausgänge sowie über die ➚serielle Schnittstelle realisiert. Über entsprechende Kommunikationsprotokolle ist auch die Verbindung über ➚Profibus oder ➚Interbus möglich. Sr ➚Steradiant Stabilität Abweichung zwischen den Mittelwerten von mindestens zwei Messwertsätzen, die bei Messung derselben Teile mit demselben Messmittel zu verschiedenen Zeitpunkten bestimmt wurden. Statische Beleuchtung Beleuchtung, die im Dauerbetrieb betrieben wird. Kann zu übermäßiger Erwärmung führen, weshalb häufig ➚gepulste - oder ➚Blitzlichtbeleuchtung vorgezogen wird. Statistische Qualitätskontrolle umgangssprachlich: statistische Prozess-Kontrolle. Prozessüberwachung und -regelung durch statistische Auswertung der von einem Prüfsystem gelieferten Daten. Das Instrument der statistischen Prozess-Kontrolle ist die Qualitätsregelkarte (QRK). Auf der Basis von Stichproben aus dem laufenden Produktionsprozess werden statistische Kenngrössen (z.B. MAX, MIN, Mittelwert, Standardabweichung, Streuung) des Prozesses ermittelt und in die QRK eingetragen. Bei der Überschreitung vorgegebener Grenzen können Warnungen an übergeordnete Systeme generiert werden. Qualitätsregelkarten werden zur Prozessbeobachtung eingesetzt; mit ihnen lässt sich nachweisen, dass sich ein Prozess unter statistischer Kontrolle befindet. (s. auch Cg/Cgk-Werte) Statuswort In der Buskommunikation (Profibus, Interbus, SPS, ...) für das ➚Prozessabbild verwendetes Datenwort (z.B. an das Gateway), das den aktuellen Zustand (externes/internes Verhalten) und Meldungen eines Automatisierungsgerätes angibt, z.B. Betriebsbereitschaft, Störung, beschäftigt, ... Staub erschwert die zuverlässige Inspektion mit Bildverarbeitung, da im Bild nicht mehr getrennt werden kann, ob die Verschmutzung Teil des ➚Prüfobjektes ist, Schmutz am Prüfobjekt ist oder aus Schmutz im optischen Kanal resultiert. a) Staub auf der Beleuchtung: Bei Bewegung der Beleuchtung bewegt sich der Schmutz mit. Vermeidung: Beleuchtung außerhalb des ➚Schärfentiefebereiches anordnen. b) Staub in/auf dem Objektiv: Staub dreht sich beim 76 Drehen des Objektives mit. Hinweis: Abbildung von Staub in/auf dem Objektiv tritt nur bei sehr starker Verschmutzung und großer ➚Blendenzahl auf. c) Staub auf dem Bildaufnehmer: Zu weit geschlossene ➚Blende führt zu bildseitiger Beugung an Staubpartikeln (➚Abbildungstiefe, ➚förderliche Blende). Beseitigung: Reinigung mit ölfreier Druckluft, Reinigungsfluid. Keine Lösungsmittel oder fusselige Tücher! Der beste Staubschutz besteht darin, Objektive möglichst sofort an die Kamera zu schrauben und nicht wieder zu entfernen. Objektseitig sollten ➚Schutzgläser verwendet werden. Steradiant Abkürzung sr. Maßeinheit zur Kennzeichnung des ➚Raumwinkels analog zur Bezeichnung Grad oder Radiant beim ebenen Winkel. Hat die physikalische Dimension 1 (Verhältnis von Kugelfläche zum Quadrat des Radius) Steuerspannung wird in ➚LED-Beleuchtungen mit Ansteuerschaltung zur Einstellung der Helligkeit genutzt. Übliche Pegel sind 0 ... 10V (aus ... maximale Helligkeit). Über die Abstimmung der Steuerspannungen mehrerer Beleuchtungen lassen sich komplexe Beleuchtungsszenarien, auch mit wechselnden Helligkeiten erzeugen. Steuerwort In der Buskommunikation (Profibus, Interbus, SPS, ...) für das ➚Prozessabbild verwendetes Datenwort (z.B. vom Gateway), das zur Steuerung eines Automatisierungsgerätes eingesetzt wird, z.B. für die Übergabe eines Gut-/Schlecht-Ergebnisses, Ansteuerung einer Sortierklappe, ... Störfilter ➚Antastparameter. Der Störfilter gibt die Anzahl der ➚Pixel entlang eines ➚Antaststrahles an, deren ➚Grauwert beim Kantensuchen oberhalb des ➚Schwellwertes liegen darf, die aber ignoriert werden, und nicht als ➚Kante interpretiert werden. Störfilter dienen dem Ausblenden kleiner Störungen im Bild wie Staub, Fusseln u.ä. beim ➚Antasten und machen so die Antastung stabiler. Zu beachten ist, dass die Größe des Störfilters nicht größer ist als die Breite der kleinsten zu findenden Strukturen. Störlicht ➚Fremdlicht Strahldichte ➚Leuchtdichte Strahlenbündel ➚Geometrische Optik Strahlenmodell ➚Geometrische Optik Strahlenoptik ➚Geometrische Optik Strahlformungsoptik wird zur Formung des räumlichen Intensitätsprofils von Laserstrahlen genutzt. Für ➚strukturierte Beleuchtung werden vor Diodenlaser optische Baugruppen (➚Zylinderlinsen, Lochblenden, ➚Beugungsgitter) angeordnet, die Lichtstrukturen erzeugen: Punkt; Punktraster; Linie; parallele Linien; Kreis; konzentrische Kreise; Quadratraster. Strahlstärke ➚Lichtstärke Lexikon der industriellen Bildverarbeitung Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 92 Synchronisationssignal Strahlteiler Optisches Bauelement zur Aufteilung von Strahlengängen. Wird als Strahlteilerfolie, -platte oder -prisma ausgeführt. Anwendung in der Bildverarbeitung für Abbildungs-/Beleuchtungskombinationen, die das koaxiale Einspiegeln eines Beleuchtungsstrahlenganges in den Beobachtungsstrahlengang (➚koaxial eingespiegelte Beleuchtung) realisieren. Nachteil ist die notwendige Aufteilung der durchgehenden Intensitäten. Meist erfolgt die Aufteilung nach 50% für die Beleuchtung und 50% für die Optik. In ➚Farbkameras werden Strahlteiler genutzt, um das Licht spektral in die Anteile rot, grün und blau aufzuteilen und den jeweiligen ➚Bildaufnehmern zuzuführen. Strahlumlenkung ➚Prismenvorsatz Strahlungsfluss ➚Lichtstrom Strahlungsleistung ist die durch den Strahlungsfluss (➚Lichtstrom) von einer Lichtquelle abgestrahlte Lichtleistung und gibt die pro Zeiteinheit abgegebene Energie (➚Lichtenergie) an. Strahlungsphysikalische Größen beschreiben das elektromagnetische Strahlungsfeld hinsichtlich seiner Energie. Sie erfassen alle Formen elektromagnetischer Strahlung. Der Bereich des sichtbaren Lichtes wird durch ➚lichttechnische Größen beschrieben. Strahlversatz ➚Parallelversatz Streiflichtbeleuchtung ➚Dunkelfeld-Auflichtbeleuchtung Streuung Diffuse ➚Reflexion von einfallendem Licht durch die Ablenkung an Oberflächenstrukturen und -teilchen. Auf die Streuung hat die Rautiefe entscheidenden Einfluss. Ab Rautiefen < λ/4 tritt keine Streuung mehr auf, sondern nur noch gerichtete ➚Reflexion. Stroboskopbeleuchtung Beleuchtung, die im Unterschied zu einer ➚Blitzbeleuchtung eine kontinuierliche Folge von Lichtblitzen erzeugt. Die ➚Blitzfrequenz (bis mehrere Tausend Blitze/s) ist einstellbar, so dass auf schnelle Vorgänge synchronisiert werden kann, wodurch scheinbar stehende Bilder entstehen. Wird zur Auflösung schneller Bewegungsfolgen (Drehbewegungen und Schwingungen) genutzt. Als Lichtquellen werden sowohl ➚Gasentladungslampen als auch ➚LEDs genutzt sowie modulierte ➚Laser(dioden). Strukturierte Auflichtbeleuchtung Nutzt die ➚Beleuchtungseigenschaft, der ➚Lichtquelle ein Helligkeitsmuster aufzuprägen. Derartige Strukturen können sein: Punkt, Linie, Linienschar, Punktraster, Gitter, konzentrische Kreise,… (➚Diodenlaser ➚Strahlformungsoptiken). Die Lichtstruktur wird auf das ➚Prüfobjekt abgebildet. Betrachtet aus einer verschiedenen Richtung erscheint die Lichtstruktur deformiert, was die Erfassung räumlicher Informationen ermöglicht. Charakteristische Fälle sind: a) 0-dimensionale Lichtstruktur (Lichtpunkt): ➚Triangulationsverfahren (punktförmige Höheninformation); Lexikon der industriellen Bildverarbeitung b) 1-dimensionale Struktur (Lichtlinie): ➚Lichtschnittverfahren (topografische Linie; „Schnitt“); c) 2-dimensionale Struktur (Lichtgitter): ➚Gitterprojektionsverfahren (dichte Rauminformation). Strukturierte Beleuchtung ➚Strukturierte Auflichtbeleuchtung Subpixel-Antastung Subpixeling. Lokalisierung von ➚Kanten, genauer als es das Bildpunktraster durch die ➚Bildpunktauflösung ermöglicht. Die Steigerung der ➚Auflösung eines Antastalgorithmus unterhalb der Pixelrastergröße wird durch Kombination verschiedener Vorverarbeitungs- und Auswerteverfahren erreicht. Subpixel-Verfahren arbeiten i. A. zweistufig. In der ersten Stufe wird die Kante pixelgenau detektiert. In der zweiten Stufe erfolgt die Feinanalyse. Dazu wird nicht nur der ➚Kantenort, sondern auch die Umgebung der Kante (in Richtung des ➚Antaststrahls, als auch parallel zum Antaststrahl (➚Antastbreite)) und die ➚Kantenform mit in die Betrachtungen einbezogen und ausgewertet. Gemäß dem ➚Kantenortskriterium sind verschiedene mathematische Ansätze dabei möglich. Im Ergebnis kann der Kantenort innerhalb von Bruchteilen eines Pixels lokalisiert werden. Maß für die Feinheit der erreichbaren Subpixel-Auflösung ist der ➚Interpolationsfaktor. Subpixeling ➚Subpixel-Antastung Subtraktive Farbmischung ➚Farbmischung Suchfenster eingeschränkter Bereich in dem bei ➚Mustererkennung/➚Konturantasten das ➚Muster/die ➚Kontur gesucht wird. Das macht a) die Verarbeitung schneller; b) können nicht zulässige Bereiche für das Suchen ausgeschlossen werden. Suchrichtung Parameter für das ➚Kontur antasten. Beschreibt, in welcher Richtung (N, O, S, W) von der Mitte des ➚Suchfensters aus mit der Suche nach einer ➚Kante der Kontur begonnen werden soll. Suchstrahl, auch Suchpfeil, ➚Antaststrahl Superweitwinkelobjektiv, auch Fisheye-Objektiv, ➚Weitwinkelobjektiv SVGA Super Video Graphics Array. Weiterentwicklung von ➚VGA. Grafikformat für Computer mit einer Bildpunktauflösung von 800 x 600 Pixeln und 16 Millionen darstellbaren Farben. Viele Kameras mit ➚Progressive Scan-Sensoren nutzen zur Darstellung der Kamerabilder auf Monitoren das SVGA-Format. SXGA Super Extended Video Graphics Array. BildschirmStandard mit einer Auflösung von 1280 x 1024 Pixeln. Wird für die Darstellung von hochaufgelösten Bildern von ➚Megapixel-Matrixkameras genutzt. Symmetrische Kantenform ➚Kantenform Synchronisationssignal Signalanteil des ➚Videosignals, das den Bildaufbau steuert. Das horizontale Synchron- 77 S Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 93 Systematische Fehler signal kennzeichnet den Beginn einer neuen Zeile im Bild, das vertikale Synchronsignal gibt den Beginn eines neuen (Halb-)Bildes an. Systematische Fehler sind Fehler, die erkennbar, quantisierbar und damit kompensierbar sind. Die Bestimmung der einzelnen Fehlereinflüsse kann sehr zeitaufwendig sein. Systematische Fehler in Anlagen mit Bildverarbeitung können u.a. sein: ungeeignete Beleuchtungswellenlänge (Beleuchtung); veränderte Teileeigenschaften (Prüfling); unpräzise Handhabungstechnik/Halterung (Mechanik); Verzeichnung des Objektives (Optik); mechanisch-elektrisch unsaubere Kamerakonstruktion (Mechanik, Elektronik); unsynchroner Bildeinzug im Framegrabber (Elektronik); Art, Programmierung, Parametrierung des Bildverarbeitungssystems (Software). Die Measurement Systems Analyse (MSA) von DaimlerChysler, Ford und GM (März 2003) besagt: „Systematische Fehler sind grundsätzlich durch Änderungen am Messsystem (z.B. ➚Justierung) zu korrigieren. Sollte dies nicht möglich sein, kann die systematische Abweichung durch Korrektion bei jedem Messergebnis berücksichtigt werden. Dazu ist allerdings die Zustimmung des Kunden erforderlich.“ (s. auch Korrekturfaktor) Systemintegrator Eine Einzelperson oder eine Firma, die eine kundenbezogene Aufgabe durch Auswahl bzw. Kombination verschiedener Hard- und Softwarekomponenten realisiert. In der Bildverarbeitung bezieht sich diese Tätigkeit vor allem auf die aufgabengerechte Zusammenstellung von Kamera, Optik, Beleuchtung und Bildverarbeitungssoftware. (s. auch Original Equipment Manufacturer) Szene Eine Szene repräsentiert einen Ausschnitt der dreidimensionalen Umwelt, die mit der digitalen Bildverarbeitung anhand von zweidimensionalen Projektionen (Abbildern) untersucht wird (Quelle: VDI/VDE). S T T Tageslicht Auf der Erde durch die Atmosphäre gefilterte Temperaturstrahlung der Sonne. Kontinuierliches ➚Spektrum mit ➚Wellenlängen von ca. 300 ... 12000 nm mit einer mittleren ➚Farbtemperatur von 5000 K. Häufiger Störeinfluss für Machine Vision. (s. auch Fremdlicht, Lichtenergie) Tageslichtsperrfilter Langpassfilter. Sperrt Licht mit ➚Wellenlängen < 780 nm (sichtbares Licht). Tageslichtsperrfilter sind im infraroten Bereich des ➚Spektrums zu mehr als 99% durchlässig. Da ➚Bildaufnehmer der Bildverarbeitung für diesen Spektralbereich empfindlich sind (➚spektrale Empfindlichkeit), werden Tageslichtsperrfilter 78 häufig zusammen mit ➚Infrarotbeleuchtungen eingesetzt, um eine gute Unterdrückung von ➚Fremdlicht zu erreichen. Eine noch bessere Tageslichtunterdrückung wird durch ➚Bandpassfilter oder die Kombination zweier gegenläufiger ➚Kantenfilter erreicht. Hinweis: Bei Verwendung eines Tageslichtsperrfilters muss das Infrarotsperrfilter aus der Kamera entfernt werden. (s. auch Filtergewinde) Taktfrequenz ➚Taktsignal Taktsignal Signal, das regelmäßig in der ➚Taktfrequenz den Beginn eines neuen Zyklus (Datenübertragung, Auslösen einer Blitzbeleuchtung, Schritt eines Rundtakttisches etc.) angibt. An den meisten Maschinen wird das Taktsignal von der Maschinensteuerung vorgegeben und die Bildverarbeitung wird vom Taktsignal gesteuert. Taktzeit ➚Zykluszeit Taumeln Erscheinung an Objektiven geringer Qualität. Beim ➚Fokussieren ändert sich nicht nur die ➚Bildschärfe, sondern auch die Lage des ➚Gesichtsfeldes. Beim Drehen am Entfernungseinstellring wandert der Bildmittelpunkt aus. TCP/IP Transport Control Protocol/Internet Protokoll. Das Internet Protokoll (IP) übernimmt die richtige Adressierung (➚IP Adresse) und Zustellung von Datenpaketen. Es fasst eine unbestimmt Anzahl von Einzelnetzwerken zu einem Gesamtnetzwerk zusammen und ermöglicht so den Datenaustausch zwischen verschiedenen Netzteilnehmern unabhängig von deren physikalischer Ausführung (Ethernet, Token Ring, ISDN, ...). Das Transport Control Protokoll (TCP) setzt auf das Internet Protokoll auf und sorgt für den Transport und die Sicherung der Daten. TDI ➚Time Delayed Integration Teileeigenschaft ➚Prüfobjekt Teileidentifikation Bestimmen der Identität eines ➚Prüfobjekts durch Lesen von Symbolen (z.B. Schrift ➚OCR/OCV, ➚Bar-Code, ➚Data Matrix Code) auf dem Objekt. Telekonverter Zerstreuendes Linsensystem, das zwischen Kamera und ➚entozentrisches Objektiv gebracht wird, um die Brennweite zu vergrößern. Üblicher Verlängerungsfaktor 2. Verbunden damit sind eine um die Hälfte reduzierte ➚Lichtstärke sowie eine nicht vergrößerte ➚Verzeichnung, weshalb sie für Machine Vision Anwendungen nicht genutzt werden sollten. Teleobjektiv Objektive mit einer Brennweite, die deutlich größer als die Diagonale des Bildaufnehmers ist. Mit Teleobjektiveen können bei großen ➚Arbeitsabständen kleine ➚Gesichtsfelder realisiert werden. Telezentrie Optisches Prinzip, bei dem sich bei abbildenden optischen Systemen der ➚Abbildungsmaßstab bei Änderung der ➚Objektweite des Arbeitsabstandes nicht Lexikon der industriellen Bildverarbeitung Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 94 Telezentrisches Objektiv ändert. Erzielt wird das durch den parallelen Haupstrahlengang vor dem optischen System. Telezentrie kann objekt- und bildseitig hergestellt werden. Einfache Systeme erzeugen Telezentrie durch Anbringen einer ➚Öffnungsblende im jeweils konjugierten Brennpunkt. Nachteile dabei sind: die Blendenöffnung hat direkt Einfluss auf den Grad der Telezentrie, die große Länge des Systems, die geringe ➚Lichtstärke, ➚Abbildungsfehler, die nur begrenzt behebbar sind. Zweiteilige Systeme arbeiten mit einem System zur Telezentrieerzeugung und einem zweiten zur Abbildung auf den ➚Bildaufnehmer. Vorteile sind: kleine Arbeitsabstände, gute Korrektionsmöglichkeit von Abbildungsfehlern, kleinere Baugröße, Telezentrie von Helligkeitseinstellung getrennt, Lichtstärke. Die Telezentrie hat keinen Einfluss auf die Größe der ➚Schärfentiefe. (s. auch Telezentrisches Objektiv, Telezentrische Beleuchtung vgl. Entozentrische Objektive) Telezentriebereich Symmetrischer Bereich entlang der ➚optischen Achse, vor und hinter dem ➚Arbeitsabstand, innerhalb dessen sich bei ➚telezentrischen Objektiven die Größe im Bild bei Verschiebung des ➚Prüfobjektes um weniger als ein Pixel ändert (einige Herstellerangaben 1/10 Pixel). Nicht zu verwechseln mit ➚Schärfentiefebereich. Ursache für das Auftreten eines Telezentriebereiches sind verbliebene nicht korrigierte Abbildungsfehler sowie Montage- und Fertigungstoleranzen, was zu einem nicht vollständig parallelen Hauptstrahlengang führt. Als Faustregel für den Telezentriebereich gilt: Für eine Größenänderung um maximal 1 Pixel entspricht der Telezentriebereich etwa der vertikalen Ausdehnung des ➚Gesichtsfeldes. Telezentrische Beleuchtung Sonderform ➚gerichteter Beleuchtungen mit starker Richtcharakteristik. Anwendung so gut wie ausschließlich im Durchlicht. In der Brennebene der Optik der Beleuchtung wird eine Lichtquelle (meist ➚LED oder ➚Lichtwellenleiter) bekannter, kleiner ➚Beleuchtungsapertur angebracht. Im Ergebnis liegt ein ➚paralleler Hauptstrahlengang vor. Telezentrische Beleuchtungen sind keine parallele Beleuchtung (festgelegte Apertur). Dadurch sind sie wesentlich unempfindlicher gegen Schwingungen und Justierfehler (➚Justierung) und weisen im Gegensatz zu parallelen Beleuchtungen mit Laserlichtquellen keine ➚Speckles auf, da sie ➚inkohärentes Licht nutzen. Telezentrische Beleuchtungen liefern eine sehr homogene und kontrastreiche Ausleuchtung des ➚Gesichtsfeldes. Sie müssen immer in Kombination mit ➚telezentrischen Objektiven angewendet werden, weil für ein ➚entozentrisches Objektiv durch den parallelen Hauptstrahlengang die Lichtquelle (LED) im Unendlichen zu stehen scheint. Lexikon der industriellen Bildverarbeitung Verschiedene Beleuchtungswellenlängen sind möglich: rot (maximale Helligkeit), blau (maximale Genauigkeit durch geringe ➚Beugung), infrarot (Fremdlichtunabhängigkeit), Infrarotblitz (sehr kurze und helle Blitze). Telezentrische Beleuchtungen weisen durch ihre starke Richtcharakterstik eine sehr gute Fremdlichtunterdrückung auf. Anwendung: Zusammen mit telezentrischen Objektiven immer dann, wenn es auf helle, kontrastreiche Beleuchtung ankommt und optisch schwierig zu handhabende Prüfobjekte (glänzende Teile, Glas, verschieden hohe Teile), die hochgenau erkannt oder vermessen werden müssen. Hinweis: Die ausgeprägte Vorzugsrichtung der Lichtausstrahlung benötigt eine exakte Ausrichtung (➚Justierung). Daher muss bei telezentrischen Beleuchtungen für eine solide und einstellbare Befestigung gesorgt werden. Die Abstimmung von ➚Beleuchtungsapertur und Abbildungsapertur bestimmt wesentlich die Lage des ➚Kantenortes bei der Anwendung telezentrischer Komponenten. Telezentrische Perspektive ➚Perspektive Telezentrisches Großfeldobjektiv Sonderbauform ➚telezentrischer Objektive mit großem ➚Gesichtsfeld. Bei telezentrischen Objektiven ist die Frontlinsenbaugruppe ein erheblicher Kostenfaktor. Ab einem Durchmesser von > 200 mm ist durch klassische Glaslinsen die ➚Industrietauglichkeit nicht mehr gewährleistet. Der mechanische Fassungsaufwand wird unverhältnismäßig groß. Die Frontlinsengruppe von Großfeldobjektiven wird deshalb als ➚Fresnel-Linse ausgeführt. Das gesamte Objektiv ist dadurch in Leichtbauweise zu realisieren. Für den industriellen Einsatz telezentrischer Objektive eröffnet das neue Einsatzmöglichkeiten. Trotz Nutzung von Fresnellinsen ergibt sich eine gute ➚Modulationsübertragung bei Nutzung einer MegapixelKamera bis in die Bildecken hinein. Eine Korrektur der prinzipbedingten ➚Farbfehler ist nicht möglich. Daher sind Großfeldobjektive immer zusammen mit ➚monochromatischen Beleuchtungen einzusetzen. Telezentrische Großfeldobjektive sind bis zu einem Gesichtsfelddurchmesser von ca. 800 mm möglich. Angewendet werden telezentrische Großfeldobjektive u.a. bei der Inspektion von Kfz-Katalysatoren, Wärmetauschern, Getränkeflaschen und bei Handhabungsaufgaben in der Halbleiterindustrie. Telezentrisches Messobjektiv ➚Telezentrisches Objektiv mit besonders geringen ➚Abbildungsfehlern, besonders ➚Verzeichnung, das durch seine Eigenschaften für den Einsatz in der optischen Messtechnik prädestiniert ist. (s. auch Justierung) Telezentrisches Objektiv Objektiv, das die telezentrische ➚Perspektive nutzt. Telezentrische Objektive besitzen 79 T Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 95 Template T einen objektseitig und/oder bildseitig parallelen Hauptstrahlengang. Das bedeutet, dass die Eintritts- bzw. Austrittspupille im Unendlichen liegen. Beim Einsatz von telezentrischen Objektiven ändert sich der ➚Abbildungsmaßstab nicht bei Änderung der Objektweite (Arbeitsabstand). Perspektive hat keinen Einfluss. Damit werden sie immer dort eingesetzt, wo Abstands- und Lageänderungen des ➚Prüfobjektes die Messgenauigkeit beeinflussen. Das führt zur Vermeidung von ➚Antastunsicherheiten (siehe VDI-Richtlinie 2617, Bl. 6.1, S. 8). Bei schräger Ansicht wird das Prüfobjekt (überall gleich) in Parallelprojektion betrachtet. In der Industriellen Bildverarbeitung werden meist objektseitig telezentrische Objektive eingesetzt. Beidseitig telezentrische Objektive sind möglich. Bildseitig telezentrische Objektive spielen nur eine untergeordnete Rolle in der industriellen Bildverarbeitung. Telezentrie hat keinen Einfluss auf die Größe des ➚Schärfentiefebereiches. Da telezentrische Objektive für einen genau definierten Abbildungsmaßstab konzipiert sind, wird ihre ➚Lichtstärke durch die ➚numerische Apertur beschrieben. Die Berechnung der ➚Schärfentiefe erfolgt dementsprechend mittels der numerischen Apertur. ➚Arbeitsabstand und ➚Abbildungsmaßstab telezentrischer Objektive sind meist fix konstruktiv vorgegeben. Es gibt Objektive mit Innenfokussierung und/oder veränderlichem Abbildungsmaßstab. Das maximale ➚Gesichtsfeld eines telezentrischen Objektives ergibt sich aus dem konzipierten Abbildungsmaßstab und dem möglichen Bildaufnehmer und ist immer kleiner als der freie Durchmesser der Frontlinse. Anwendung: Inspizieren, Messen, an beliebigen räumlichen Teilen mit Bohrungen, Nuten, Durchbrüchen, verschiedenen Höhen. Zusammen mit ➚telezentrischen Beleuchtungen sind Präzisionsmessungen möglich. Hinweise: Geringe Abweichungen des Abbildungsmaßstabes/Arbeitsabstandes können durch nicht exaktes ➚Auflagenmaß, eine nicht exakte Angabe der ➚lichtempfindlichen Fläche (➚Sensorgröße) oder durch ein aus der Kamera entferntes IR-Sperrfilter auftreten. Beim ➚Verkippen des Prüfobjektes wird auch bei telezentrischen Objektiven die Projektion des Prüfobjektes abgebildet. (s. auch telezentrisches Messobjektiv, telezentrisches Großfeldobjektiv, Verkippung) Template „Schablone“. Referenzobjekt, nach dem bei dem ➚Template matching gesucht wird. Template Matching Form der ➚Korrelation, um den Übereinstimmungsgrad zweier ➚Grauwertbilder zu ermitteln. ➚Objekte werden auf ihre Ähnlichkeit zu gespeicherten Referenzobjekten (➚Template) untersucht. Dazu wird das Template im ➚Prüffenster in eingestellten 80 Schritten von ➚Pixeln bewegt und nach jedem Schritt das Maß für die Ähnlichkeit zwischen dem Template und dem aktuellen Bild berechnet. In Bereichen hoher Ähnlichkeit wird eine Feinanalyse durchgeführt und als Ergebnis die Position der größten Ähnlichkeit zurückgegeben. Template Matching benötigt keine zusammenhängenden ➚Konturen und Objekte. (s. auch Mustererkennung) Testchart Anordnung definierter geometrischer Objekte zum Nachweis des ➚Auflösungsvermögens eines optischen Systems. Häufig werden Strichmuster (➚Linienpaare/mm) verwendet, deren Abstand nach einer bestimmten Vorschrift immer kleiner wird. Typisch zur Prüfung von Objektiven der industriellen Bildverarbeitung ist das USAF 1951 Testchart. Testcharts gibt es für Auflicht (auf weißem Kunststoff) oder für Durchlicht (als Chrommaske auf Glas). (s. auch Modulationsübertragungsfunktion) Testobjekt ➚Testchart Texel Kunstwort für Texture element, Texturelement ➚Textur. Textur Anordnung von ➚Pixeln, deren Zusammenhang gewissen geometrischen oder statistischen Gesetzmäßigkeiten folgt. Die statistisch sich wiederholenden Strukturelemente sind die ➚Texel. Die Beschreibung einer Textur ist von der ➚Auflösung abhängig. Bei hoher Auflösung unregelmäßig erscheinende Texturen können in geringer Auflösung regelmäßig erscheinen und umgekehrt (➚Moiré). Regelmäßige Texturen (Schachbrett, Ziegelsteinwand) und statistische Texturen (Sand, Laub) sind möglich. Aus Texturen können Hinweise über die Oberflächenorientierung gewonnen werden. Die Abbildung von Texturen kann durch ➚Fokussierung, ➚Beleuchtungstechniken oder ➚Bildfilter hervorgehoben oder unterdrückt werden. (s. auch Texturanalyse) Texturanalyse Untersuchung von ➚Texturen mit dem Ziel der Texturklassifikation, Textursegmentation und Textursynthese. Typisches Werkzeug der Texturanalyse ist die Cooccurrence-Matrix, mit deren Hilfe die Grauwertverhältnisse der Textur in der aktuellen Umgebung des betrachteten Pixels beschrieben werden. Die Texturanalyse nutzt statistische Methoden. (s. auch Klassifikation, Segmentierung) TFT-Monitor Thin Film Transistor-Monitor. Die digitale Ansteuerung einzelner Pixel erfolgt durch in Dünnschichttechnologie auf die Monitorscheibe aufgebrachte Transistoren. Durch seinen hohen Kontrast und die geringe Fähigkeit Graustufen (nur ca. 30) darzustellen, eignen sich TFT-Monitore nur schlecht als Kontroll- und Einrichtbildschirm bei Bildverarbeitungsaufgaben. Besser geeignet dafür sind Monitore mit Kathodenstrahlröhren. Lexikon der industriellen Bildverarbeitung Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 96 Ultraviolettsperrfilter Tiefenschärfe ➚Schärfentiefe Tiefpass-Filter Tiefpass-Filter unterdrücken im Ortsfrequenzbereich hohe Frequenzen. Im gefilterten Bild bedeutet das, dass harte Wechsel der ➚Grauwerte (großer Grauwertunterschied) innerhalb weniger Pixel unterdrückt werden. Durch Tiefpass-Filter werden Kantenkontraste abgeschwächt, das Bild erscheint unschärfer. Tiefpassfilter können als ➚Lichtfilter (OLPF – optical low pass filter) oder als ➚Bildfilter ausgeführt sein. Time Delayed Integration TDI. Spezielle Art von ➚CCDZeilensensoren, die für die Inspektion bewegter Teile genutzt werden. Dazu sind eine Reihe von CCD-Zeilen parallel angeordnet (z.B 96 Zeilen mit je 2048 ➚Pixel). Durch Synchronisation der Bewegungsgeschwindigkeit des Teiles und dem Verschieben der Ladungen im CCD von einer Zeile zur nächsten, werden die Ladungen der parallelen CCD-Zellen jeweils aufsummiert. Durch dieses Prinzip benötigen TDI-Sensoren wesentlich weniger Licht und sind wesentlich rauschärmer als normale Zeilensensoren. Time out Auszeit. Bei einer Reihe von Bildverarbeitungsfunktionen als Parameter einzustellende Zeit, während derer auf eine Reaktion von außen (Signal an einem digitalen Eingang, bestimmtes Zeichen über die ➚serielle Schnittstelle u.ä.) gewartet wird und die Prüfprogrammabarbeitung angehalten ist. Nach Verstreichen dieser Auszeit wird mit der Abarbeitung des ➚Prüfprogramms fortgefahren. Time out ist ein geeignetes Mittel, um von der Maschine abhängige bedingte Entscheidungen (➚bedingter Sprung) zu treffen. Toleranzbereich, auch Toleranzbreite. Differenz aus ➚oberem und ➚unterem Grenzwert. Toleranzbreite ➚Toleranzbereich Tonnenförmige Verzeichnung ➚Verzeichnung Totalreflexion Vollständige Reflexion von Licht an einer Grenzfläche von einem Medium mit höherer zu geringerer Brechzahl (z.B. im ➚Prisma: Glas-Luft). Totalreflexion entsteht nur dann, wenn ein Grenzwinkel EG überschritten wird. Der Grenzwinkel errechnet sich nach EG = arcsin (n'/n) mit n' = Brechzahl der Luft (= 1), n = Brechzahl des dichteren Mediums. Nach der Totalreflexion ist das Licht i.A. ➚elliptisch polarisiert. Transmission Durchgang von Strahlung durch ein Medium ohne Änderung der Frequenz der Strahlung. Ein reales ➚Prüfobjekt ist meist eine unbekannte Mischung aus ➚Reflexion, ➚Absorption, Transmission. Dabei kann ➚Polarisation auftreten. (s. auch Transmissionsgrad) Transmissionskurve Grafische Darstellung des ➚Transmissiongrades über die ➚Wellenlänge. Wird zur Beschreibung der Durchlässigkeit von ➚Filtern benutzt. Transmissionsgrad Kurzzeichen τ. Verhältnis zwischen durchgehendem und einfallendem ➚Strahlungsfluss. Transmissionsgrade zwischen 0 und 99% sind möglich. Lexikon der industriellen Bildverarbeitung Es gilt der Energieerhaltungssatz: ➚Reflexionsgrad + ➚Absorptionsgrad + ➚Transmissionsgrad = 100%. Der Transmissionsgrad ist material-, wellenlängen- und winkelabhängig. Der Transmissionsgrad hat bei ➚Durchlichtbeleuchtung einen starken Einfluss auf den ➚Kontrast, der im Bild erreicht wird. Triangulationsverfahren Einfachstes optisches Verfahren zur punktförmigen Gewinnung eines Höhendatums. Das ➚Prüfobjekt wird von einen Punktlichtprojektor (z.B. ➚Diodenlaser) beleuchtet. Eine unter abweichendem Winkel betrachtende Kamera erkennt bei Höhenänderung einen lateralen Versatz des Lichtpunktes. Über einfache trigonometrische Zusammenhänge aus Abständen und Winkeln zwischen Kamera und Beleuchtung kann so die punktförmige Höheninformation aus der Lage des Lichtpunktes im Bild abgeleitet werden. Anwendung: Das Triangulationsverfahren wird meist ergänzend bei einer 2-D-Aufgabenstellung genutzt, um punktuell Teile zur Anwesenheitskontrolle oder Montagekontrolle (höhengerechter Einbau) zu prüfen. (s. auch strukturierte Beleuchtung) Trigger, engl. „Auslöser“. Elektrisches Signal, das ein Ereignis auslöst. U Überbelichtung ➚Belichtung. (s. auch Sättigung) UGW ➚Unterer Grenzwert UKIVA United Kingdom Industrial Vision Association. Bildverarbeitungsvereinigung in Großbritannien. www. ukiva.org Ultraviolettes Licht Licht mit ➚Wellenlängen von 15 nm ... 380 nm, die kürzer sind, als die des ➚sichtbaren Lichts. ➚Bildaufnehmer der Bildverarbeitung können durch Beschichtung mit einer Fluoreszenzschicht (➚Fluoreszenz) für ultraviolettes Licht empfindlich gemacht werden. Weitere Unterteilung in UV-A-Licht: 320 ... 380 nm, UVB-Licht: 280 ... 320 nm, UV-C-Licht: 280 ... 200 nm. Ultraviolettes Licht ist durch seine energiereiche Strahlung für den Menschen (Augen und Haut) in hohen Dosen schädlich (➚Augenschutz) und kann aus dem ➚Spektrum von Lichtquellen durch ➚Ultraviolettsperrfilter herausgefiltert werden. Ultraviolettsperrfilter Langpassfilter. Sperrt Licht mit ➚Wellenlängen < 380 nm. Ultraviolettsperrfilter sind im sichtbaren Bereich des ➚Spektrums zu mehr als 99% durchlässig. Da ➚Bildaufnehmer der Bildverarbeitung kaum für ultraviolettes Licht (➚spektrale Empfindlichkeit) empfindlich sind, werden vorgesetzte Ultraviolettsperrfilter häufig als ➚Schutzgläser genutzt. 81 T U Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 97 Umgebungsbedingungen U Umgebungsbedingungen Die Bedingungen, unter denen Bildverarbeitungskomponenten funktionieren müssen, können sehr weit variieren. Dementsprechend robust müssen die Lösungen aufgebaut werden. Temperatur: üblich -40° ... +45° (60°) Celsius, in Extremfällen bis 450° Celsius. Gehäuse und Kühlung (Konvektion, gereinigte Luft, gekühlt Gehäuse, extrem Wasser) vorsehen. Anmerkung: Elektronische Komponenten halbieren ihre Lebenszeit je 7° Celsius Temperaturanstieg. Luftflimmern führt zu ungleichen Prüfergebnissen. (➚Schlieren) Kälte: Beschlagen der Optik, Schwergängigkeit Mechanik (Schmiermittel). Mechanischen Längenausdehnungskoeffizienten beachten. Berücksichtigung bei stark wechselnden Verhältnissen in der Fertigungsumgebung (evtl. Temperaturkompensation vorsehen). Material von ➚Kalbrierkörper und ➚Prüfobjekt gleich wählen. Feuchtigkeit: Beschlagen der Optik, Eindringen in die Elektronik, Ölnebel, Kühlflüssigkeit (Gehäuse vorsehen, evtl. zu öffnende Klappe), Reinigungsintervalle festlegen. Staub, Schmutz: ➚Schutzgläser, Abblasen mit gereinigter Druckluft, Reinigungsintervalle festlegen. Schwingungen: mechanischer Bruch, Dejustierung, Lösen von Teilen. Konstruktive Maßnahmen zur Schwingungsentkopplung vorsehen, Dämpfung, Lacksicherung von Verbindungen, Klemmungen. Elektrische Einflüsse: Übersprechen, Transienten, EMV, Optoentkopplung vorsehen, Komponenten mit weiten Ein-/Ausgangsdaten nutzen. (s. auch Industrietauglichkeit) Umgebungslicht ➚Fremdlicht Umlenkprisma ➚Prismenvorsatz Umrüstzeit Zeit, die ein Einrichter benötigt, um eine Maschine von der Produktion einer Teileart zur Produktion einer anderen Teileart umzustellen. Umrüstzeiten für Bildverarbeitung sind sehr gering. Vorausgesetzt, es müssen keine Änderungen an Optik und Beleuchtung vorgenommen werden, beträgt die Umrüstzeit für Bildverarbeitung nur wenige Sekunden, die zum Laden des neuen Prüfprogramms benötigt werden. Unbedingter Sprung ➚Programmverzweigungen Universal Serial Bus USB. Nachfolger für die parallele und serielle Schnittstelle. Datenübertragungsraten von bis zu 12 MB/s (Version 1.0) und 480 Mbit/s (Version 2.0) lassen sich realisieren. „Hot plugging“ ist möglich; Geräte können während des Betriebes entfernt und hinzugefügt werden. Kabellängen bis 5 m. Stromversorgung über das USB-Anschlusskabel. Der USB ist für Sterntopologie ausgelegt und kann bis zu 127 Geräte verwalten. Zunehmend werden auch Kameras für die industrielle Bildverarbeitung mit USB-Schnittstelle ausgerüstet. 82 Unschärfe 1.) optisch: Abweichung von der idealisierten punktförmigen Abbildung. Ein Punkt wird immer nur als Fleck abgebildet. Ursachen sind: Beugungsunschärfe, ➚Abbildungsfehler des optischen Systems, unscharfe Fokussierung. 2.) ➚Bewegungsunschärfe: Unschärfe im Bild, die durch die Bewegung des Objektes relativ zum Bildaufnehmer während der Bildaufnahme erzeugt wird. Kurze Belichtungszeiten (kurze Shutteröffnung oder Blitzbeleuchtung der Szene) können die Bewegungsunschärfe minimieren. 3.) Antastparameter: Beschreibt die maximal zu tolerierende ➚Kantenbreite, bei der eine ➚Grauwertdifferenz noch als ➚Kante interpretiert wird. Unsymmetrische Kante ➚Kantenform Unterabtastung engl. Aliasing. Tritt auf, wenn das ➚Abtasttheorem (Abtastfrequenz >= 2 · max. Signalfrequenz) nicht erfüllt ist. Durch Unterabtastung kommt es zu Informationsverlust. Das gilt sowohl für elektrische Signale als auch für die ortsdiskrete Abtastung von Bildsignalen auf ➚Bildaufnehmern. Unterbelichtung ➚Belichtung Untere Eingriffsgrenze, auch UEG ➚Eingriffsgrenzen Unterer Grenzwert, auch UGW, unteres Abmaß, „-“ Toleranz. Kleinste (negative) noch zulässige Abweichung vom ➚Nennmaß/➚Sollwert, die ein ➚Prüfobjekt noch als gut charakterisiert. Unteres Abmaß ➚Unterer Grenzwert Unterprogrammtechnik Element strukturierter Prüfprogrammgestaltung für Bildverarbeitungssysteme. Die Unterprogrammtechnik wird verwendet, wenn Teile eines ➚Prüfprogramms an verschiedenen Stellen im Prüfprogramm benötigt werden. Die sich wiederholenden Befehle werden in einem Block abgelegt, der bei Bedarf über seinen Namen aufgerufen wird. Verschiedene Arten von Unterprogrammen sind möglich: a) direkte Programmierung von Unterprogrammen. Diese Unterprogramme springen mit RETURN zum Einstiegspunkt im Hauptprogramm zurück; b) Aufruf von Unterprogrammen durch Sprünge zu Marken: Für Unterprogramme mit Marken wird eine zusätzliche Marke benötigt, zu der gesprungen wird, nachdem das Unterprogramm abgearbeitet wurde. Unterprogramme lassen sich bedingt und unbedingt aufrufen. Bedingte Aufrufe können durch folgende Ereignisse erfolgen: nach erfolgreichem Befehl; nach fehlgeschlagenem Befehl; nach erfolgreichem ➚Bedingungsblock; fehlgeschlagenem Bedingungsblock. Verschachtelung von Unterprogrammen sind möglich. Unterprogrammtechnik macht die zeitliche Abarbeitung von Prüfprogrammen sehr viel effektiver. USB ➚Universal Serial Bus Lexikon der industriellen Bildverarbeitung Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 98 Verkippung UV-Filter ➚Ultraviolettsperrfilter UV-Licht ➚Ultraviolettes Licht UV-Sperrfilter ➚Ultraviolettsperrfilter UXGA Ultra Extended Graphics Array. Bildschirmstandard für Rechner mit einer Auflösung von maximal 1600 x 1200 Pixeln. V V24 ➚RS-232 V-Lambda-Kurve Kurve der spektralen Hellempfindlichkeit des menschlichen Auges. Im sichtbaren Bereich werden gleiche spektrale ➚Strahldichten verschiedener ➚Wellenlängen unterschiedlich hell empfunden. Das menschliche Auge hat danach seine maximale Empfindlichkeit bei etwa 555 nm (grün). Zum Teil werden auch ➚Bildaufnehmer nach dieser Kurve bewertet, da ihre Hellempfindung der des menschlichen Auges angepasst wurde. Die V-Lambda-Kurve stellt die Verbindung zwischen ➚strahlungsphysikalischen und ➚lichttechnischen Größen her. V-SYNC ➚Vertikales Synchronsignal Vario-Objektiv ➚Zoom-Objektiv VCWin Universelle Bedienoberfläche für in ihrer Leistungsfähigkeit skalierbare Bildverarbeitungssysteme. Basiert auf dem Konzept von getrennter Bedienung (➚Bedienoberfläche) und Bildverarbeitung. Nutzt dazu eine allgemeingültige ➚Fernsteuerschnittstelle über die, systemunabhängig, von der Bedienoberfläche die Fernsteuercodes an das Bildverarbeitungssystem gesendet, dort ausgeführt werden und die Ergebnisse zurückgeliefert werden. VDMA Verein Deutscher Maschinen- und Anlagenbauer. Führende Vereinigung für Bildverarbeitung in Deutschland mit der Fachgliederung Robotik und Automation. www.vdma.org Verarbeitungsgeschwindigkeit Maß für die Zeit, die ein Bildverarbeitungssystem benötigt, um Informationen zu erfassen, analysieren, zu interpretieren, und die Entscheidungen auszugeben. Häufig in Teile/Sekunde ausgedrückt. Die Verarbeitungsgeschwindigkeit eines Bildverarbeitungssystems hängt im einzelnen ab von: a) der ➚Bildaufnahmezeit; b) der Möglichkeit von ➚Parallelverarbeitung; c) der ➚Bildeinzugszeit; d) der Zeit für die Informationsverarbeitung; e) ➚Verzögerungszeiten (Triggerimpuls-Bildaufnahme; f) Zeit, Art der Kommunikation (➚Echtzeit); g) genutzte Hardwarebasis (Rechnerplattform, Prozessor) Lexikon der industriellen Bildverarbeitung Je nach Komplexität der Aufgabenstellung, Hard- und Software-Ausstattung des Bildverarbeitungssystems (➚Smart Camera Bildaufnehmer bis hin ➚High-end-System) können die Verarbeitungsgeschwindigkeiten sehr verschieden sein. Die hochgenaue dreidimensionale Analyse von Freiformflächen mit bis zu 12 Kameras kann mehrere Minuten in Anspruch nehmen. Die Lageregelung von gelaserten Strukturen an Endlosmaterialien hingegen kann mit Verarbeitungsgeschwindigkeiten von bis zu 120 Teilen/s erfolgen. (s. auch Zykluszeit) Verfügbarkeit Kurzzeichen V. Wahrscheinlichkeit, dass sich eine Anlage zu einem bestimmten Zeitpunkt in funktionsfähigem Zustand befindet. Berechnet nach: V = 1/(1 + [MDT/MTBF]) V = Verfügbarkeit; MDT (Mean Down Time) = mittlere Störungsdauer; MTBF (Mean Time Between Failure) = mittlere fehlerfreie Betriebszeit. Hohe Verfügbarkeit wird durch die Verbesserung von Zuverlässigkeit steigernden Qualitätssicherungsmaßnahmen erreicht. Der Einsatz industrieller Bildverarbeitung steigert die Verfügbarkeit. Vergleichsgenauigkeit Differenz zwischen den mittleren Messwerten eines Merkmals an einem Teil, die mit demselben Messmittel aber von verschiedenen Personen oder an verschiedenen Orten ermittelt wurden. Vergrößerung ➚Abbildungsmaßstab. Vergütung Oberflächenbeschichtung an optischen Bauelementen zur Herabsetzung parasitärer Reflexe (Reflexminderung). Reflexe werden durch ➚Interferenz an einer oder mehreren dünnen ➚dielektrischen Schichten gemindert. Formen sind die a) Einfachbeschichtungen (z.B. mit MgF2) oder b) Mehrfachbeschichtung (multi coating) für verschiedene Wellenlängen. Vergütete optische Bauelemente liefern kontrastreichere Bilder. Beispiel: Ohne Entspiegelungsschicht werden typischerweise 4% des Lichtes an jeder Glas/Luft-Fläche eines optischen Systems reflektiert. Mit Entspiegelungsschicht kann die Reflexion auf < 0,5%/Fläche reduziert werden. Verkippung Drehlageabweichung des ➚Prüfobjektes um eine die ➚Objektebene enthaltene Achse. Verkippung führt zu projizierter Abbildung (Längenänderung), unabhängig von der ➚Perspektive des optischen Systems. Bei Verkippung flacher Teile treten Fehler 2. Ordnung auf (Teile erscheinen kleiner). Ist bei Winkeln < 3° zu vernachlässigen. Die scheinbare Längenänderung δ ist: δ = L · (1 - cos α) mit L = Länge, α = Kippwinkel. Bei der Verkippung tiefer Teile treten Fehler 1. Ordnung auf (Teile erscheinen größer). Die scheinbare Längenänderung δ ist: δ = T · sin α 83 U V Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 99 Verlängerungsfaktor V mit T = Tiefe, α = Kippwinkel. Die Verkippung tiefer Teile tritt auch bei kleinen Winkeln auf, umso mehr, je tiefer das Teil ist. Die Kanten im Bild werden dadurch unsymmetrisch (➚Kantenform). (s. auch Justierung) Verlängerungsfaktor ➚Filterfaktor Verschluss ➚Shutter Vertikale Auflösung ➚Auflösung Vertikaler Gesichtsfeldwinkel ➚Gesichtsfeldwinkel Vertikales Synchronsignal Bestandteil des ➚Videosignals. Das vertikale Synchronsignal gibt den Beginn eines neuen Halbbildes (➚Zeilensprungverfahren) im ➚Videosignal an. Auch als V-SYNC bezeichnet. Verzeichnung Abkürzung V. ➚Abbildungsfehler, der sich quantitativ nicht mit der ➚Modulationsübertragungsfunktion fassen lässt. Verzeichnung äußert sich durch einen nicht konstanten ➚Abbildungsmaßstab über die Bildebene. Die ➚Bildgröße ist durch Verzeichnung abhängig vom Bildort: Objekt und Bild sind mathematisch nicht ähnlich. V = (ß’ist - ß’soll)/ß’soll mit ß’ist = Abbildungsmaßstab ß’ im achsfernen Bereich, ß’soll = Abbildungsmaßstab ß’ auf der optischer Achse. Angabe in 0/0 oder 0/00. Positive Verzeichnungswerte bedeuten kissenförmige Verzeichnung, negative Werte bedeuten tonnenförmige Verzeichnung. Ausgangspunkt ist ein quadratisches Objekt, das bei verzeichnender Abbildung verzerrt wird. Die Verzeichnung ist bedeutsam für alle Messaufgaben. Optiken für messtechnische Anwendungen sollen perspektivfrei (➚telezentrisches Objektiv) und verzeichnungsarm/-frei sein, um Fehlervermeidung vor Fehlerkompensation (Fehlerfortpflanzung!) gehen zu lassen. Für Applikationen der ➚Anwesenheitskontrolle oder ➚attributiven Merkmalsprüfung kann die Verzeichnung meist vernachlässigt werden. Praktische Folgerungen: im achsnahen Bereich der ➚optischen Achse ist die Verzeichnung am kleinsten; bei progressivem Verlauf der Verzeichnung einen kleineren ➚Bildaufnehmer benutzen: Verzeichnung 1/3" Bildaufnehmer < 1/2" Bildaufnehmer < 2/3" Bildaufnehmer; Verzeichnung kann bei bekannter Korrektionsdarstellung oder -funktion (meist Polynom) durch Korrekturrechnung für jedes ➚Pixel des Bildaufnehmers korrigiert werden. Beispiel für +2% kissenförmige Verzeichnung: Ein Objekt von 400 Bildpunkten Größe wird mit Verzeichnung nur mit 392 Bildpunkten Größe abgebildet. Verzeichnungsfreiheit Die Herstellung völliger Verzeichnungsfreiheit ist bis auf wenige Ausnahmen so gut wie nicht herstellbar. Daher gilt der pragmatische Ansatz: Verzeichnungsfreiheit im Sinne der industriellen Bildverarbeitung bedeutet, dass die ➚Verzeichnung mit Mitteln der Bildverarbeitung nicht mehr nachweisbar ist. 84 VGA Video Graphics Array. Grafikformat für Computer mit einer Bildpunktauflösung von 640 x 480 Pixeln. Die Anzahl der darstellbaren Farben beträgt 256, es lassen sich bis zu 50 x 80 Zeichen darstellen. Weiterentwicklung sind ➚SVGA, ➚XGA, ➚UXGA. Video-Echtzeit ➚Echtzeit Videoausgang Ausgang von Kameras, über die das ➚Videosignal übertragen wird. Videonorm ➚CCIR, ➚RS-170, ➚NTSC, ➚PAL Videosignal Das Videosignal ist die elektrische Information, die von einem ➚Bildaufnehmer geliefert und in einer Kamera in ein standardisiertes Datenformat gebracht wird. Zwei hauptsächliche Arten analoger Videosignale gibt es: Schwarz/weiß-Bild-Austast-Synchron-Signal (BASSignal) und Farb-Bild-Austast-Synchron-Signal (FBASSignal). Das Schwarz/weiß-Videosignal besitzt ein Helligkeitssignal für jeden Rasterpunkt, sowie Synchronisationsimpulse zur Zeilen- und Bildsteuerung (➚vertikales, ➚horizontales Sychronsignal). Alle Bildinformationen werden i.A. über ein ➚Koaxialkabel übertragen. Farbvideosignale enthalten neben dem Y-Helligkeitssignal (Luminanz) zusätzlich ➚Farbinformationen zu den drei ➚Grundfarben Rot (R), Grün (G), Blau (B), die verschlüsselt als C-Signal (Chrominanz) vorliegen. Das CSignal enthält Y-R- und Y-B-Informationen. Die Grün-Information kann daraus berechnet werden. Berechnet wird Y nach: Y = 0,30R + 0,59G + 0,11B. Entsprechend der üblichen Fernsehnormen können diese Signale entsprechend PAL- oder NTSC-Norm codiert werden in ein Y/C-Composite- oder FBAS-Signal. Digitale Videosignale werden über verschiedene genormte Schnittstellen übertragen wie ➚USB und ➚Fire Wire über ➚Camera Link. Vidikon-Röhre Vakuumbildaufnahmeröhre mit analogem Spannungsausgang. Die Helligkeitsinformation wird von einer lichtempfindlichen Fläche mit einem Elektronenstrahl seriell abgetastet. (s. auch Sensorgröße) Vignettierung Abnahme der Beleuchtungsstärke im Bild von der Bildmitte zum Bildrand. Man unterscheidet zwei Arten: a) Künstliche Vignettierung: Beschneidung des Gesichtsfeldes. Nicht durch ➚Öffnungsblenden verursacht, sondern durch Blenden, die den Bildausschnitt zusätzlich zum ➚Bildaufnehmer begrenzen. Künstliche Vignettierung tritt zum Beispiel auf, wenn Objektive, die für eine bestimmte ➚Sensorgröße berechnet wurden, an Kameras mit größeren Sensoren verwendet werden. Dabei tritt ein Schlüssellocheffekt auf, der das Bild durch optische Fassungsteile einschränkt. Zur Vermeidung muss auf die vom Objektivhersteller angegebene maximale Bildaufnehmergröße geachtet werden. Lexikon der industriellen Bildverarbeitung Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 100 Wellenoptik b) Natürliche Vignettierung, auch cosinus4-Abfall/cosinus4-Gesetz. Abfall der Bildhelligkeit zum Bildrand hin bei zunehmender Bildhöhe nach dem cos4-Gesetz. Tritt besonders bei Weitwinkelobjektiven auf. Zusammenhang für die ➚Beleuchtungsstärke auf dem Bildaufnehmer: E(w) = E0 · cos4(w) mit E0 = Beleuchtungsstärke in Bildmitte, w = Einfallswinkel des Lichtes. Natürliche Vignettierung hat besonders auf die Wirksamkeit von Bildverarbeitungsalgorithmen starken Einfluss. Sie führt zur Ortsabhängigkeit der ➚Antastparameter im Bild. Kann durch spezielle Beleuchtungsanordnungen (z.B. ➚Dunkelfeldbeleuchtung) kompensiert werden. VIS Visible light ➚sichtbares Licht Vision Academy Weiterbildungseinrichtung für die industrielle Bildverarbeitung. Die Vision Academy sorgt für Training und ganzheitliche Wissensvermittlung für die Technologie Bildverarbeitung. Praxisbetonte Seminare für Einsteiger, Anwender, Profis. Von der Technologieübersicht, über Schulung spezieller Themenbereiche bis hin zum Technologietraining werden eintägige bis 14tägige Schulungen durchgeführt. In-House-Schulungen. www.vision-academy.org Vision System ➚Bildverarbeitungssystem VME-Bus Mikrocomputerbussystem für Anwendungen mit hohen Ansprüchen an ➚Echtzeit. Bildverarbeitungssysteme im High-end-Bereich nutzen den VME-Bus. www.vita.org Vollbild Bild, das als Ganzes aus dem ➚Bildaufnehmer ausgelesen wird und sich nicht wie beim ➚Zeilensprungverfahren aus zwei Halbbildern zusammensetzt. Kameras mit ➚Progressive Scan-Sensoren liefern Vollbilder. (s. auch Vollbild-Sensor) Vollbild-Sensor Full Frame Sensor. Ausführung eines ➚Bildaufnehmers, der nicht im Halbbildmodus arbeitet. Bei der Bildaufnahme wird die gesamte lichtempfindliche Fläche gleichzeitig belichtet. Die Bildinformation wird als Ganzes ausgelesen. Vorteil ist, dass es so nicht zum ➚Halbbildversatz durch bewegte Objekte während der Integrationszeit kommen kann. (s. auch Progressive Scan, non-interlaced, Halbbild-Sensor) Vollbild-Shutter ➚Shutter Vorsatzlinse ➚Nahlinse Vorsatzoptik ➚Strahlformungsoptik Vorschaltgerät ➚Leuchtstofflampenbeleuchtung Vorverarbeitung ➚Bildvorverarbeitung Voxel Kunstwort für Volume Element. Erweiterung des ➚Pixelbegriffs auf die 3. Dimension. Voxel werden in der 3-D-Bildverarbeitung als Beschreibungselement genutzt. Lexikon der industriellen Bildverarbeitung W Weißabgleich Kompensationsmethode für Farbkameras zur farbgetreuen Wiedergabe. Beim Weißabgleich erfolgt ein Abgleich der Verstärkungen der einzelnen Farbkanäle (➚Farbkomponenten RGB) mit dem Ziel, dass das betrachtete Weiß keinen Farbstich hat. Weißabgleich ist notwendig, wenn das verwendete ➚Weißlicht einen von der Norm-➚Farbtemperatur abweichenden Wert besitzt. Weißlicht entsteht durch ein kontinuierliches ➚Spektrum unter Beteiligung aller ➚Wellenlängen des ➚sichtbaren Lichtes. Weißlicht wird für die ➚Farbbildverarbeitung benötigt. Weißlicht in der Schwarz/weiß-Bildverarbeitung hat einige Besonderheiten: Weißlicht kann je nach ➚Korrektion des Objektives chromatische ➚Abbildungsfehler (Farbsaum) erzeugen, die bei Schwarz/weiß-➚Bildaufnehmern ➚Unschärfe erzeugen. Daher ist es günstig, in der Schwarz/weiß-Bildverarbeitung ➚monochromatisch zu beleuchten. Weißes Licht kann für ➚Auflichtbeleuchtung bei wechselnden Farben der ➚Prüfobjekte sinnvoll sein. Das vermeidet starke Helligkeitsschwankungen durch das Vorkommen von ➚Komplementärfarben. Dabei ist dann eine Steuerung der Helligkeit der Beleuchtung zum Ausgleich der verschiedenen ➚Grauwerte nötig. (s. auch Farbtemperatur) Weitwinkelobjektiv Objektive mit einer deutlich kürzeren Brennweite als die Diagonale des ➚Bildaufnehmers. Somit ist die Bezeichnung Weitwinkelobjektiv von der Sensorgröße abhängig. Als Fisheye-Objektiv bezeichnet man ein extrem weitwinkliges Objektiv mit bis zu 180°. ➚Gesichtsfeldwinkel. Je weitwinkliger ein Objektiv ist, desto größer sind tendenziell seine ➚Verzeichnung sowie die natürliche ➚Vignettierung. Mit Weitwinkelobjektiven lassen sich große ➚Gesichtsfelder bei kurzem ➚Arbeitsabstand realisieren. Weitwinkelobjektive sind fast ausschließlich nicht für Messaufgaben geeignet, lassen sich aber vielfältig beim nichtmaßlichen ➚Prüfen einsetzen. Wellenlänge Formelzeichen λ. Länge der räumlichen Periode einer elektromagnetischen Welle. ➚Licht als elektromagnetische Welle belegt den Wellenlängenbereich zwischen 15 nm und 800 µm. Die darin eingeschlossenen Bereiche sind ➚ultraviolettes Licht (UV), ➚sichtbares Licht (VIS), ➚infrarotes Licht (IR). Zusammenhang mit der Lichtgeschwindigkeit (ca. 300.000 km/s): λ = Lichtgeschwindigkeit/Frequenz. Wellenoptik Im Gegensatz zur ➚geometrischen Optik wird Licht durch Ausbreitung elektromagnetischer Wellen beschrieben (mathematisch durch die Maxwellschen Gleichungen). Erst durch die Wellenoptik lassen sich die 85 V W Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 101 Weltkoordinatensystem W X Y Z Erscheinung von ➚Interferenz, ➚Beugung und ➚Polarisation beschreiben. Weltkoordinatensystem Gemeinsames Bezugssystem, das beim Einsatz von mehreren Kameras und bei der Verbindung von Kameras und Robotern (➚Robot Vision) genutzt wird. Ursprung des Weltkoordinatensystems ist links unten. Durch ➚Koordinatentransformation werden die Koordinatensysteme ineinander umgerechnet. (s. auch Bildkoordinatensystem, Koordinatentransformation) Wendelantastung Besondere Art der ➚Gradientenantastung. Für die Vermessung von Glühlampen, speziell der Glühwendel, sind besondere Antastverfahren notwendig, die die von der Glühwendel im ➚Durchlicht gebildeten lokalen Maxima berücksichtigen. Bei entsprechender ➚Antastbreite würde das normale Gradientenverfahren ➚Antastalgorithmus) durch die statistische Mittelung ein verfälschtes Ergebnis liefern. Wiederholgenauigkeit beschreibt die Unterschiede der ermittelten Messwerte, wenn eine Person das gleiche Merkmal an ein und demselben Teil mit ein und demselben Messmittel mehrmals misst. Winkel Messung von Winkeln ist eine typische Aufgabe für Bildverarbeitungssysteme. Zur Ermittlung geometrischer Maße können Winkel zwischen ➚Geometrieelementen berechnet werden durch: Schnittwinkel zweier Geraden; Schnittwinkel zwischen der Verbindungsgeraden zwischen zwei Punkten und der x-Achse; Schnittwinkel zwischen der Verbindungsgeraden zwischen zwei Punkten und der y-Achse; Schnittwinkel zwischen zwei Geraden, die aus 3 Punkten gebildet werden; Schnittwinkel zwischen einer Geraden und der x-Achse; Schnittwinkel zwischen einer Geraden und der y-Achse; Schnittwinkel zwischen zwei Tangenten an einen Kreis. Winkelobjektiv Spezialform von ➚entozentrischen oder ➚telezentrischen Objektiven, die einen geknickten objektseitigen Strahlengang aufweisen. Die Strahlumlenkung erfolgt mit ➚Prismenvorsätzen. Winkelobjektive werden besonders bei platzkritischen Applikationen angewendet, wenn eine geradlinige Anordnung von Beleuch-tung, Prüfobjekt, Objektiv, Kamera nicht möglich ist. Wissensbasierte Systeme, auch Künstliche Intelligenz (KI), artificial intelligence (AI). Besondere Form von Datenbanksystemen, bei der die Daten nach ihrem Inhalt interpretiert und verarbeitet werden. Einsatz überall dort, wo es keine allgemein gültigen Modelle gibt. Wissensbasierte Systeme benötigen die Übertragung von Expertenwissen auf das System. Die Bearbeitung des Wissens erfolgt nach vorgegebenen Regeln. Das System kann sich auch selbst neue Regeln vorgeben (Lernfähigkeit). 86 X Xenonbogenlampe Typischer Vertreter für ➚Lichtquellen für ➚Blitzbeleuchtungen in der industriellen Bildverarbeitung. Ist sehr hell und weiß (➚Farbtemperatur: 6250 K) und blitzbar bis mehrere 100 Blitze/s. Dem stehen der Betrieb mit Hochspannung, EMV-Probleme, eine aufwendige Elektronik, ein nicht kontinuierliches Spektrum des ausgesendeten Lichtes sowie die Alterung (Helligkeitsverlust am Ende der Lebensdauer von bis zu 70%) gegenüber. (s. auch Gasentladungslampe) XGA Extended Video Graphics Array. Weiterentwicklung von ➚SVGA. Grafikformat für Computer mit einer Bildpunktauflösung von 1024 x 768 Pixeln und 16 Millionen darstellbaren Farben. Y Y-Signal Luminanz-Signal. ➚Videosignal Y/C-Composite-Signal ➚Videosignal YUV-Signal ➚Videosignal, das aus dem Luminanzsignal (➚Y-Signal), dem Farbdifferenzsignal Y-B (Luminanz minus Blau) und dem Farbdifferenzsignal Y-R (Luminanz minus Rot) besteht. Somit lässt sich ein ➚RGB-Signal in ein YUV-Signal umrechnen. Diese Umrechnung ist sinnvoll, da so die für die Helligkeit verantwortliche Komponente Y mit höherer Auflösung übertragen werden kann. Das hat Vorteile bei der visuellen Betrachtung, da das menschliche Auge für Helligkeitsunterschiede empfindlicher ist als für Farbdifferenzen. Z Zähler Funktion in Prüfprogrammen der Bildverarbeitung, um Ereignisse, Anzahlen von Attributen, Prüfdurchläufe, Gut-/Schlecht-Teile u.ä. zu zählen. Inkrementierbare und dekrementierbare Zähler sind üblich, Setzen und Rücksetzen eingeschlossen. Zeicheneinlernen Vorgang bei ➚OCR/OCV, bei dem vor dem eigentlichen Zeichenlesen dem Bildverarbeitungssystem mitgeteilt wird, nach welchen ➚Mustern (Zeichen) gesucht werden muss und wie die Bedeutung dieser Muster (Zeichen) ist. Beim Zeicheneinlernen wird eine ➚Merkmalsextraktion durchgeführt, um später beim Zeichenlesen (OCR/OCV) eine Zuordnung der Zeichen (➚Klassifikation) vornehmen zu können. Zeichenlesen ➚OCR/OCV Lexikon der industriellen Bildverarbeitung Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 102 Zulässige Unschärfe Zeichenerkennung ➚OCR/OCV Zeichensatz Vorrat aller zur Darstellung zur Verfügung stehender Zeichen. Zu einem Zeichensatz im Sinne der ➚OCR/OCV können sowohl Buchstaben, Zahlen als auch Symbole und Logos gehören. Bevor Zeichenerkennung (➚OCR/OCV) durchgeführt werden kann, muss dem Bildverarbeitungssystem mitgeteilt werden, nach welchen ➚Mustern (Zeichen) gesucht werden soll. Dazu muss der Zeichensatz eingelernt werden. Feste Zeichensätze werden zur Erkennung von Einzelzeichen gleicher Größe genutzt. Danach richtet sich die Größe des ➚Prüffensters. Ineinanderfließende und unterbrochene Zeichen werden erkannt, auch bei schlechtem Kontrast. Nachteil: Jedes Zeichen wird einzeln bearbeitet. Skalierbare Zeichensätze ermöglichen die Erkennung mehrerer Zeichen in einem Schritt, auch bei verschiedener Zeichengröße. Allerdings benötigt die Verwendung skalierbarer Zeichensätze guten Kontrast sowie eine Trennung zwischen den einzelnen Zeichen. Zeilenbeleuchtung ➚Linienlicht Zeilenkamera Industrielle Kamera mit zeilenförmiger Anordnung der lichtempfindlichen Pixel. Meist als CCDZeilenkamera ausgeführt (➚Charge Coupled Device) mit bis zu 12.000 Pixel und bis zu 80 mm Länge. Der Bildaufnehmer ist eindimensional. Das Bild, das eine Zeilenkamera erzeugt, ist ein Helligkeitsschnitt über das ➚Objekt. Um ein zweidimensionales Bild vom ➚Prüfobjekt zu erhalten, müssen die einzelnen Zeilen im ➚Bildspeicher nacheinander abgelegt werden. Problem dabei ist die Synchronisation mit dem Vorschub des Prüfobjektes (Überlappung oder Lücken) sowie die anfallenden großen Datenmengen. Häufig reicht jedoch die Auswertung der einzelnen Zeile („Schnitt“) aus. Das Auslesen der Zeile kann sehr schnell mit bis zu einigen Kilohertz erfolgen, weshalb Zeilenkameras besonders für die Abbildung von schnell laufenden Endlosmaterialien eingesetzt werden. Mit drei nebeneinander liegenden und für die Farben Rot, Grün und Blau empfindlichen CCD-Sensorzeilen gibt es auch Farb-Zeilenkameras. Zeilenkameras benötigen auf Grund der kurzen ➚Integrationszeiten sehr helle und leistungsstarke Beleuchtungen bis hinein in den Kilowatt-Bereich. Objektivseitig gibt es auf Grund der sehr verschiedenen Zeilenlänge keinen einheitlichen ➚Objektivanschluss; sowohl Gewinde als auch Bajonette kommen vor. Für besondere Anwendungen werden Zeilenkameras mit ➚Time delayed integration (TDI)-Sensoren ausgeführt. Das macht sie wesentlich empfindlicher und rauschärmer. Zeilenkameras können auch als ➚Smart Cameras ausgeführt sein. Zeilenprofil ➚Kantenverlauf Lexikon der industriellen Bildverarbeitung Zeilensprungverfahren, auch interlaced. Traditionelles Verfahren in analogen ➚Bildaufnehmern und Monitoren für das Abtasten/den Aufbau von Bildern. Zuerst werden die ungeradzahligen Zeilen gelesen/geschrieben, in einem zweiten Durchlauf die Geradzahligen. Der Vorteil liegt darin, dass zwar für jedes Halbbild nur die halbe Auflösung zur Verfügung steht, dafür aber doppelt so hohe ➚Bildfrequenz an Halbbildern. Für den menschlichen Betrachter wird auf diese Weise die Flimmergrenze des menschlichen Auges von ca. 18 Bildern pro Sekunde weit überschritten und das Auge nicht so stark ermüdet. Die nur halbe Auflösung/Halbbild wird vom Auge nicht wahrgenommen. ➚Progressive Scan-Bildaufnehmer sowie digitale Monitore arbeiten mit Vollbildern (➚non-interlaced). Zerstreuungskreis Unschärfezone um einen Punkt im Bild herum. Der Zerstreuungskreis entsteht bei der scharfen Abbildung eines Punktes durch die Bildaufnehmerstruktur und durch die nicht punktförmige Abbildung. Beide Effekte könne durch die MTF gut quantifiziert werden. (s. auch Airy-Scheibchen) Zirkulare Polarisation ➚Polarisation Zoomobjektiv, auch Vario-Objektiv. Zoomobjektive ermöglichen eine stufenlose Einstellung der Brennweite unter Beibehaltung des ➚Arbeitsabstandes. Dabei ändert sich zwangsläufig das ➚Öffnungsverhältnis. Da Zoomobjektive viele empfindliche mechanisch bewegte Teile besitzen, in ihrem ➚Abbildungsmaßstab bei Verstellung nicht reproduzierbar sind und je nach Einstellung variierende ➚Abbildungsfehler besitzen, sind sie eher für den Einsatz im Labor als für den industriellen Einsatz vorgesehen. Zufällige Fehler Nicht bestimmbare und vermeidbare Fehler. Zufällige Fehler machen das Messergebnis unsicher und können den Effekten der Beleuchtung, dem Prüfobjekt, der Mechanik, der Optik, der Elektronik, der Software entstammen. Zufällige Prüfobjekteinflüsse sind in der Bildverarbeitung erfahrungsgemäß sehr groß! Zufällige Fehler werden auf Grund statistischer Verteilung der Messwerte (Anzahl der Messungen > 50) bewertet und treten statistisch wie folgt verteilt auf: Einzelfehler im Bereich 0 +/-1s +/-2s +/-3s Anteil der Messwerte im Bereich 40% 24% 5,4% 0,4% mit s = Standardabweichung Zulässige Unschärfe 1.) im Sinne der Bildverarbeitung die Unschärfe auf dem ➚Bildaufnehmer, die hinsichtlich der sicheren und reproduzierbaren Erkennbarkeit von ➚Kanten zugelassen werden kann. Wie groß die zulässige Unschärfe sein kann (Angabe in Mikro- oder Millimetern), hängt von der Leistungsfähigkeit der bildverarbeitenden Software ab. (s. auch Schärfentiefe) 87 Z Lexikon ab S. 65/13.10.03 16.03.2004 10:53 Uhr Seite 103 Zustandstriggerung 2.) Bereich in ➚Pixeln, innerhalb dessen ein ➚Antastalgorithmus eine ➚Grauwertdifferenz noch als ➚Kante interpretiert. (s. auch Antastparameter) Zustandstriggerung Auslösen eines Ereignisses durch Auftreten eines Zustandes (low-Pegel oder high-Pegel) in einem digitalen Signal. (s. auch Flankentriggerung) Zweidimensionaler Code ➚Data Matrix Code Zweimessstellenobjektiv Sonderform eines ➚Objektives, das durch Aufteilung des Abbildungsstrahlenganges die Bilder zweier entfernter ➚Prüfobjekte/-teile auf einem ➚Bildaufnehmer zusammenführt. Um eine möglichst verlustlose Zusammenführung der beiden Einzelbilder zu erreichen, ist meist ein katadioptrischer Aufbau, d.h. mit Linsen und Spiegeln, notwendig. Die aufgeteilten ➚Gesichtsfelder führen bei großen Prüfobjekten durch Ignorieren der Fläche zwischen den Gesichtsfeldern zu einem hohen ➚Auflösungsvermögen bei großen Teilen. Der Basisabstand zwischen den beiden Gesichtsfeldern kann zum Teil eingestellt werden. Ein Vorteil gegenüber einer Zweikameralösung besteht darin, dass bereits beide Gesichtsfelder zueinander in sechs ➚Freiheitsgraden justiert sind. Anwendung finden Zweimessstellenobjektive bei der Längenmessung von großen Teilen, die nur gering in ihrer Länge differieren, oder bei parallelen Prozessen, bei denen zwei Teile miteinander verglichen werden müssen. Zwischenring Tubus, der zwischen ➚Objektiv und Kamera befestigt wird. Mit Zwischenringen lassen sich größere ➚Abbildungsmaßstäbe erreichen sowie die vom Objektiv vorgegebene kürzeste Einstellentfernung (➚MOD) unterschreiten. Dabei wird der ➚Arbeitsabstand/Objektabstand geringer. Der Einsatz von Zwischenringen verschlechtert die ➚Abbildungsgüte der Objektive, da sie dann in einem Bereich des Arbeitsabstandes/Objektabstandes betrieben werden, für den sie nicht berechnet wurden. Die Angaben zur Abbildungsgüte aus Datenblättern werden bei Einsatz von Zwischenringen nicht mehr erreicht. Eine bessere Lösung für die Realisierung kurzer Arbeitsabstände sind ➚Makroobjektive. Die notwendige Zwischenringlänge L berechnet sich näherungsweise wie folgt: L = f · Iß`I mit f = Brennweite des verwendeten Objektives, ß’ = zu realisierender Abbildungsmaßstab (s. auch Nahlinse) Zwischenringlänge ➚Zwischenring Zyan (auch Cyan) entsteht bei additiver ➚Farbmischung aus Grün und Blau. Blaugrüne Farbe, die resultiert, wenn der rote Farbanteil aus weißem Licht entfernt wird. (s. auch Komplementärfarbe) Zykluszeit Kann in verschiedenen Zusammenhängen genannt werden: 1.) Maschinenzykluszeit: Zeit vom Start der Bearbeitung eines Teils bis zum Start der Bearbeitung des nächsten Teils. Die mittlere Maschinenzykluszeit ergibt sich aus den pro Stunde gefertigten Teilen. Im Allgemeinen ist die Maschinenzykluszeit länger als die Bildverarbeitungszykluszeit. 2.) Bildverarbeitungszykluszeit: Zeit vom Startsignal der Bildverarbeitung bis zur abgeschlossenen Kommunikation der Ergebnisse an externe Geräte. Die Bildverarbeitungszykluszeit besitzt feste und variable Anteile und muss zeitlich so konzipiert sein, dass sie sich mit Reserven in die Maschinenzykluszeit einpassen lässt. Bestandteile der Bildverarbeitungszykluszeit sind: Trigger für Teil n: Verzögerungszeit durch SPS; Sensorabfrage; Prozesse in SPS; ...; Verzögerungszeit Triggereingang; Bildverarbeitungssystem bis Start Bildaufnahme; Verzögerungszeit Triggereingang – Blitz; Zeit für Bildaufnahme; Zeit für Bildverarbeitung; Zeit zur Ergebnisübermittlung (Kommunikation); Zeit für Handhabung (Sortieren, Ventile, ...) Trigger für Teil n+1 Zylinderlinse nutzt mindestens eine Zylinderflächen als optisch wirksame Fläche. Kann nur in einer Richtung abbilden. Wird in ➚Linienlichtern zur Erzeugung von Lichtbändern genutzt. Anstelle eines Brennpunktes gibt es eine „Brennlinie“. Weiterhin bei ➚anamorphotischer Abbildung genutzt. Z 88 Lexikon der industriellen Bildverarbeitung