Lexikon Industr Bildverarb

Werbung
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 1
Ingmar Jahr
LEXIKON
der industriellen Bildverarbeitung
Begriffe und Abkürzungen aus der
industriellen Bildverarbeitung
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 2
3964-R-Protokoll
0-9
0-9
3964-R-Protokoll standardisiertes, herstellerneutrales serielles Protokoll zur Übertragung von Hexadezimal-Werten. Von Siemens entwickelte Datenübertragungsprozedur für eine Punkt-zu-Punkt-Verbindung (➚Punktsteuerung). Zeichenorientiertes Protokoll. Die Steuerzeichen
für das Protokoll entsprechen DIN 66003/ISO 646 (7-BitZeichencode).
A
Abbildung ➚optische Abbildung
Abbildungsfehler Optische Abbildungsfehler werden
durch optische Elemente verursacht. Nicht alle von einem Punkt auf dem Objekt ausgehenden ➚Lichtstrahlen
treffen sich nach der ➚optischen Abbildung im gleichen
Pixel. Das führt dazu, dass das Objekt nicht originalgetreu (mathematisch ähnlich) im Bild erscheint hinsichtlich seiner Maßstabstreue, Schärfe, seines Kontrastes
und seiner Farbtreue. Fünf Abbildungsfehler sind typisch:
➚Öffnungsfehler (auch sphärische Aberration), ➚Astigmatismus, ➚Koma, ➚Bildfeldwölbung, ➚Verzeichnung.
➚Farbfehler werden aus den Abbildungsfehlern abgeleitet. Eine anschauliche Zusammenfassung und Quantifizierung aller Abbildungsfehler (außer Verzeichnung) liefert die ➚Modulationsübertragungsfunktion. Abbildungsfehler können an realen optischen Systemen nie
ganz beseitigt werden. Sie können nur auf ein für den jeweiligen Anwendungsfall akzeptables Maß reduziert
werden. Allgemeine Aussagen zu Abbildungsfehlern: Abbildungsfehler sind im achsnahen Bereich (um die optische Achse) i. A. am kleinsten und am Bildrand am größten; Abbildungsfehler sind in Zonen von konzentrischen
Kreisen gleich groß; Abbildungsfehler können durch bewusste Blendeneinstellung (mittlere Blende) verringert
werden – es gibt ein Optimum; die Spezifikationen der
Abbildungsfehler gelten nur innerhalb des festgelegten
Betriebsbereiches (z.B. durch Schneckengang vorgegebenen Entfernungsbereich), außerhalb dessen werden
die Abbildungsfehler größer; jedes sphärische optische
Bauelement hat Abbildungsfehler; Objektive gleicher
Brennweite/Öffnung können sehr verschiedene Abbildungsfehler aufweisen; die Korrektion der Abbildungsfehler erfolgt immer hinsichtlich des Anwendungszweckes; Korrektion ist ein Kompromiss zwischen Aufwand (Komplexität, Materialaufwand, Entwicklung) und
Korrektionszustand
Abbildungsgüte, auch Bildgüte, Abbildungsleistung. All-
2
gemeine Charakterisierung der Abbildungseigenschaften eines optischen Systems. Dazu gehören z.B. ➚Auflösungsvermögen, ➚Kontrast, ➚Verzeichnung. Ein gute
Aussage über die Abbildungsgüte liefern die Modulationsübertragungskurven sowie die Korrektionsdarstellung der ➚Verzeichnung.
Abbildungsleistung ➚Abbildungsgüte
Abbildungsmaßstab, ß‘, fälschlicherweise auch Vergrößerung. Vorzeichenbehaftetes Verhältnis der Bildgröße y‘ zur Objektgröße y: ß’ = y’/y. Der Abbildungsmaßstab ist die Brücke zur metrisch-maßlichen ➚Kalibrierung von Bildverarbeitungssystemen. Er gibt die
Vergrößerung/Verkleinerung von senkrecht zur optischen Achse stehenden Objekten im Bild an und besitzt bei der höhenvertauschten optischen Abbildung
einen negativen Wert. Zum Teil wird auch nur der Betrag angegeben.
|ß‘| < 1 verkleinerte Abbildung, typisch: Landschaftsaufnahme
|ß‘| = 1 Objekt- und Sensorgröße sind identisch
|ß‘| > 1 vergrößerte Abbildung, typisch: mikroskopische Aufnahme
Beispiele für synonyme Sprechweise:
ß‘ = -8,8 : 1 = -8,8 = 8,8-fach vergrößerte Abbildung
ß‘ = -3,6/60 = -0,05 = 20-fach verkleinerte Abbildung
Die Beziehungen zur ➚Brennweite f‘ und ➚Arbeitsabstand WD/ ➚Objektabstand a sind näherungsweise:
ß‘ = f‘/(a + f‘) mit (f‘ > 0, a > 0, a ≈ WD)
Abbildungstiefe Bildseitiges Pendant zur ➚Schärfentiefe.
Bereich, in dem sich der ➚Bildaufnehmer entlang der
optischen Achse verschieben darf, solange ein scharfes
Bild entsteht. Im Sinne der ➚geometrischen Optik durch
die Struktur des Bildaufnehmers hervorgerufen.
Ablenkwinkel Winkelangabe, die die geänderte Lichtaustrittrichtung gegenüber dem einfallenden Licht angibt.
Abschaltung ➚Vignettierung
Abschnittstest Direkte Testmöglichkeit für geänderte
Prüfprogrammabschnitte in modernen Benutzeroberflächen. Geänderte Programmteile können sofort aus
dem Prüfprogrammeditor heraus auf ihre Funktionsfähigkeit getestet werden. Das setzt die Möglichkeit der
direkten Funktionsausführung aus dem Prüfprogrammeditor voraus (z.B. durch ➚Fernsteuerung des Bildverarbeitungssystems). Besonders gut ist der Abschnittstest bei der Inbetriebnahme von Bildverarbeitungsanlagen sowie bei der Fehlersuche nutzbar.
Absorption Schwächung von Strahlung beim Durchgang
durch ein Medium unter Energieumwandlung. Absorption
ermöglicht das Abbilden von ➚Prüfobjekten mit
➚Durchlichtbeleuchtung. Ein reales ➚Prüfobjekt ist meist
eine unbekannte Mischung aus ➚Reflexion, Absorption,
➚Transmission. (s. auch Absorptionsgrad)
Lexikon der industriellen Bildverarbeitung
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 3
Airy-Scheibchen
Absorptionsfilter ➚Lichtfilter, das durch ➚Absorption
Licht wellenlängenabhängig durchlässt, z.B. ➚Farbfilter.
Absorptionsgrad Kurzzeichen α. Verhältnis von absorbiertem zu einfallendem ➚Strahlungsfluss. Es gilt der
Energieerhaltungssatz: ➚Reflexion + ➚Absorption +
➚Transmission = 100%. Der Absorptionsgrad hat bei
➚Durchlichtbeleuchtung und ➚Auflichtbeleuchtung einen starken Einfluss auf den ➚Kontrast, der im Bild erreicht wird. Der Absorptionsgrad ist material-, wellenlängen- und winkelabhängig. Ein großer Absorptionsgrad lässt ein Prüfobjekt dunkel erscheinen.
Abstand Messung des Abstandes ist eine typische Aufgabe für Bildverarbeitungssysteme. Zur Ermittlung geometrischer Maße können Abstände zwischen ➚Geometrieelementen berechnet werden durch: Abstand zwischen
zwei Punkten; Lotabstand Punkt auf Gerade; Lotabstand Kreismittelpunkt auf Gerade; Abstand Punkt –
Kreismittelpunkt; Abstand Kreismittelpunkt – Kreismittelpunkt
Abstrahlcharakteristik, auch Indikatrix. ➚Lichtquellen
verteilen die von ihnen ausgesendete Strahlung in einer
bestimmten charakteristischen Form, der Abstrahlcharakteristik. Solche Charakteristika für Leuchtdichte können dem ➚Lambertstrahler entsprechend halbkugelförmig, in anderen Fällen keulen- oder nierenförmig sein.
Die Form der Abstrahlung heißt für dieses Beispiel auch
Leuchtdichteindikatrix. Die Abstrahlcharakteristik wirkt
über das ➚Prüfobjekt oder einen ➚Diffusor direkt auf
die ➚Beleuchtungsstärkeverteilung auf dem ➚Bildaufnehmer. (s. auch Leuchtdichteindikatrix)
Abtastfrequenz Frequenz, mit der ein zeitliches oder örtliches Signal abgetastet wird. (s. auch Abtasttheorem)
Abtasttheorem Bei der Inspektion kleinster Strukturen
muss zur Vermeidung von Informationsverlust das Abtasttheorem beachtet werden. Bezogen auf die Bildverarbeitung bedeutet das: Ein ➚Bildaufnehmer kann maximal sicher Details auflösen (besonders bei kleinen periodisch wiederkehrenden Mustern), die mindestens 2
Pixel groß sind. Bei dieser Abtastfrequenz = Ortsfrequenz fg (Nyquistfrequenz) entsteht kein Informationsverlust. Sind die Details kleiner als 2 Pixel (Ortsfrequenz
f > fg), kommt es zu ➚Alaising (Unterabtastung)/Schwebungen, die nicht vorhandene Objektdetails vortäuschen: Informationen gehen verloren. Grenzortsfrequenz fg = 1/2p; p – Pixelabstand.
Beispiel: Ein CCD-Chip besitzt 100 Pixel/mm, also eine
Bildpunktgröße von 0,01 mm. Bei einer Abbildung mit
➚Abbildungsmaßstab 1 können nur Strukturen sicher
vom CCD-Chip aufgelöst werden, deren Abstände > =
0,02 mm sind.
Achromat Linsenart, die aus mindestens zwei verkitteten
Linsen besteht und in Bezug auf zwei Wellenlängen kor-
Lexikon der industriellen Bildverarbeitung
rigiert ist. Anwendung in vielen in der Bildverarbeitung
gebräuchlichen Objektiven.
Achsnaher Bereich, auch paraxiales Gebiet. Bereich um
die optische Achse, bei dem alle Winkelfunktionen durch
den Winkel selbst ersetzt werden (sin a = tan a = a, cos
a = 1). In einem kleinen Bereich (ca. < +/-3 Grad) können dadurch lineare Funktionen zur Beschreibung genutzt werden. Die Optik des Paraxialgebietes wird auch
Gaußsche Optik oder kollineare Abbildung genannt. Die
Nutzung des achsnahen Bereiches stellt eine Vereinfachung der optischen Beziehungen dar, so dass umkehrbar eindeutige Beziehungen zwischen Objekt und Bild
genutzt werden können. Für die Belange der industriellen Bildverarbeitung ist diese Betrachtungsweise für die
weitaus meisten Fälle ausreichend.
Active X Programmierschnittstelle, über die andere
Anwenderprogramme auf Daten von ➚PC-basierten
Bildverarbeitungssystemen unter Windows® zugreifen
können.
Adaptation Fähigkeit des menschlichen Auges, sich in seiner Empfindlichkeit an die Leuchtdichte der Objekte anzupassen. Das betrifft einen Bereich von 1012cd.
Adaptive Beleuchtung ➚Strukturierte Beleuchtung, die
ein individuell konfigurierbares Helligkeitsmuster zulässt. Als ➚Lichtquellen sind dazu ausschließlich ➚LEDs geeignet. Durch die Einstellung von Helligkeitsmustern
lassen sich adaptive Beleuchtungen intelligent an Bildverarbeitungsaufgaben anpassen. Einzelne LEDs oder
LED-Gruppen werden durch die integrierte Elektronik
separat angesteuert. Das betrifft Helligkeit und Zeitdauer. Blitz-Modus und statischer Modus werden durch ein
und dieselbe Beleuchtung realisiert (Triggerung über digitale oder serielle Schnittstelle) Der Zugriff auf adaptive Beleuchtungen kann über verschiedene ➚Schnittstellen erfolgen: ➚Digitale Ein-/Ausgänge, ➚RS-232,
➚Ethernet, ➚USB, ➚Profibus. Mit adaptiven Beleuchtungen können störende Reflexe verhindert werden oder
Bildbereiche objektspezifisch hervorgehoben werden.
Sie sind ein Teil der ➚Bildvorverarbeitung durch Licht.
ADC Analogue Digital Converter ➚Analog-Digital-Umsetzer
Additive Farbmischung ➚Farbmischung
ADU ➚Analog Digital Umsetzer
AES ➚Automatic Electronic Shutter
AF ➚Auto-Fokus-Objektiv
Afokal Optisches System mit unendlich großer Brennweite, z.B. Ferngläser, Zielfernrohre.
AGC ➚Automatic Gain Control.
AIA American Imaging Association. Bildverarbeitungsvereinigung für die Industrie in den USA. www.machinevisiononline.org
Airy-Scheibchen Zentrales Maximum der Energieverteilung bei ➚Beugung an einer kreisförmigen Öffnung.
3
A
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 4
Akkommodation
A
Das Airy-Scheibchen ist durch den ersten dunklen Ring
im Beugungsmuster begrenzt. Bedeutung hat das AiryScheibchen für die Beschreibung der maximalen ➚Auflösung eines optischen Systems.
Sein Durchmesser beträgt D = 2,44 λ − k
λ = Wellenlänge
k = Blendenzahl
Akkommodation Entfernungseinstellung des menschlichen Auges.
Aktive Fläche ➚Lichtempfindliche Fläche
Aktor, auch Stellglied, das in den Prozess eingreift. Typische Aktoren sind Magnetventile, Pneumatikzylinder,
Sortierklappen u.Ä., können aber auch komplexerer Natur sein: Handhabungssysteme, Roboter. Aktoren können über Leistungsendstufen, eine ➚speicherprogrammierbare Steuerung oder direkt von Bildverbeitungssystemen angesteuert werden.
Algorithmus ist eine Berechnungsvorschrift, die in ein
Computerprogramm umgesetzt wurde. Algorithmen bilden die Grundlage der Bildverarbeitung. So beruhen z.B.
die Filterung von Bildern und Segmentierung auf Algorithmen. Weiteres in DIN 19226.
Aliasing ➚Unterabtastung
American Society for Quality 1946 gegründete amerikanische Organisation, die sich mit der Förderung des
Qualitätsbewusstsein befasst. www.asq.org
Analog-Digital-Umsetzer, ADU. Setzt ➚Analogsignale in
einer elektronischen Schaltung in ➚Digitalsignale um.
Dieser Vorgang der ➚Digitalisierung analoger Signale
ist zentraler Bestandteil von ➚Framegrabbern für Analogkameras. Das Bildsignal der Kamera wird durch die
Digitalisierung in ein rechnerlesbares Format umgesetzt,
das im ➚Bildspeicher abgelegt wird. Die Abtastfrequenz
(➚Abtasttheorem) des ADU muss für die Bandbreite des
➚Videosignals groß genug sein. Generell gilt: je größer
die ➚Bildpunktzahl des ➚Bildaufnehmers, desto höher
die erforderliche Abtastfrequenz. Die ➚Digitalisierungstiefe des ADU bestimmt, wie viele verschiedene
Helligkeitsstufen aufgelöst werden können.
Analog-Digital-Wandler ➚Analog-Digital-Umsetzer
Analogkamera Kamera, die Bilddaten über das ➚Videosignal als ➚Analogsignal ausgibt. Zur Verarbeitung der
Bilddaten in einem Bildverarbeitungssystem muss das
Videosignal über ein Kabel übertragen und im ➚Framegrabber digitalisiert werden. (s. auch Analog-DigitalUmsetzer)
Analogsignal Signal, dessen Informationsparameter in beliebig feinen Abstufungen, im Rahmen der technischen
Grenzen, vorkommen kann. Unendliche viele Signalzustände sind möglich. Die Speicherung und Verarbeitung
von Analogsignalen ist schwierig, weshalb in der Automatisierungstechnik wie auch der Bildverarbeitung fast
4
ausschließlich digitale oder digitalisierte Analogsignale
(➚Digitalisierung) verwendet werden.
Analysator dient dem Nachweise der linearen ➚Polarisation.
Anamorphotische Abbildung, nicht rotationssymmetrische Abbildung durch verschiedene ➚Abbildungsmaßstäbe in x- und y-Richtung. Das Verfahren nutzt ➚Zylinderlinsen zum Stauchen bzw. Strecken bei Aufnahme
bzw. Wiedergabe. Die asymmetrische Abstrahlung von
Laser-Dioden wird ebenfalls so kompensiert. Oft wird
ein zentriertes optisches System mit einem anamorphotischen Vorsatz versehen (z.B. Breitwandkino mit 35
mm-Film).
American National Standards Institute, amerikanische
Organisation (Mitglied der ISO), die einheitliche Regelungen/Normen erstellt und deren Einhaltung überwacht. ANSI-Standards sind weltweit anerkannt.
www.ansi.org
Ansteuerschaltung ➚LED-Beleuchtungen
Antastalgorithmus Mathematischer Algorithmus beim
➚Antasten zur Bestimmung des ➚Kantenortes. Gemäß
dem ➚Kantenortskriterium werden für verschiedene Anwendungszwecke und verschieden geformte Kanten unterschiedliche Antastalgorithmen verwendet. Die Antastalgorithmen sind unterschiedlich empfindlich und
zeitlich aufwendig. Verschiedene typische Algorithmen
werden genutzt:
Binärverfahren: Einfachstes Verfahren. Mit dem Parameter ➚Schwellwert wird vorgegeben, welche Pixel als
dunkel (unterhalb des Schwellwertes) und welche als
hell (oberhalb des Schwellwertes) definiert werden. Mit
dem Schwellwert kann die Helligkeit im Bild angepasst
werden.
Eine robustere Version gegen Helligkeitsänderungen ist
das Binärverfahren mit ➚dynamischem Schwellwert.
➚Störfilter werden genutzt.
Vorteil: sehr schnell.
Nachteile: sehr lichtabhängig, kein definierter Kantenort,
keine 2D-Rauschunterdrückung, funktioniert nur hinreichend bei symmetrischer ➚Kantenform. Typische Kantengenauigkeit: +/- 1...2 Pixel.
Anwendung: bei gutem Kontrast (mindestens 30% Grauwertunterschied, bei homogener Ausleuchtung, relativ
sicher nur im Durchlicht, typisches Beispiel: Stanzteilerkennung im diffusen Durchlicht).
Grauwertverfahren: Bei diesem Verfahren muss in einem
festgelegt breiten ➚Kantenübergang (Parameter Unschärfe) ein bestimmter ➚Kontrast (Parameter Kontrast)
auftreten, damit eine Kante erkannt wird. ➚Störfilter
werden genutzt. Vorteile: schnell, wenig lichtempfindlich, Nachteile: kein definierter Kantenort, keine 2D-Rauschunterdrückung, breite Kanten werden ungenauer er-
Lexikon der industriellen Bildverarbeitung
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 5
Antaststrahl
kannt, typische Kantengenauigkeit: +/- 1 Pixel. Anwendung: auch im Auflicht. Typisches Beispiel: Oberflächenkontrolle.
Grauwertverfahren mit Subpixel: Enthält aufeinanderfolgende Prozesse: 1.) Grauwertverfahren (s.o.), 2.) Feinanalyse der unter 1. gefundenen Kante mittels ➚Subpixel-Antastung. Dabei werden drei Bereiche untersucht:
die dunkle Zone, der Kantenübergang, die helle Zone.
Zur Genauigkeitssteigerung und Mittelung von Kantenstörungen werden mehrere ➚Antaststrahlen nebeneinander genutzt (Parameter Breite). Vorteil: Sehr wiederholgenau: real 1/3 bis 1/10 Pixel (➚Interpolationsfaktor).
Nachteil: braucht etwas mehr Zeit als das Grauwertverfahren, Störunterdrückung nur zum Teil möglich. Anwendung: besonders für präzise Messungen im Durchlicht
und beim ➚telezentrischen Messen. Typisches Beispiel:
Präzisionsmessungen von Drehteilen. Bemerkung: Die
erreichbaren Genauigkeiten hängen stark vom Gesamtmessystem (Optik, Objekt, Beleuchtung, Kamera, Framegrabber, Algorithmus, etc.) ab.
Gradientenverfahren: das Standardverfahren in industriellen Prozessen. Sucht nach der ersten Kante, die dem
eingestellten Parameter „Gradientenschwelle“ genügt,
also dem ersten genügend steilen Grauwertanstieg. Zur
Genauigkeitssteigerung und Mittelung von Kantenstörungen werden mehrere ➚Antaststrahlen nebeneinander genutzt (Parameter Breite). Vorteil: sehr geringe
Beleuchtungsabhängigkeit, gute 2D-Störunterdrückung,
große Antastsicherheit bei guter Genauigkeit, ➚Kontrast
hat so gut wie keinen Einfluss, arbeitet schneller als Faltungsverfahren, typische Kantengenauigkeit: +/- 1 Pixel.
Nachteil: durch Nutzung der 2D-Störunterdrückung etwas langsamer als das Grauwertverfahren. Anwendung:
für scharfe Kanten, sowohl im Durchlicht als auch im
Auflicht. Typisches Beispiel: für Teile mit stark wechselnden Teileeigenschaften.
Gradientenverfahren mit maximalem Koeffizienten (Variante vom Gradientenverfahren) sucht im Gegensatz
zum Gradientenverfahren nach der Kante mit dem größten Gradienten. Typisches Beispiel: Vermessung von
Glühwendeln in Glaskolben.
Faltungsverfahren: arbeitet ähnlich wie das Gradientenverfahren (s.o.), jedoch mit zweidimensionaler Spektralanalyse. Vorteile: 2D-Rauschunterdrückung, sehr störlichtunabhängig, Kontrast hat so gut wie keinen Einfluss,
selbst unter ungünstigen Bedingungen auf +/-1 Pixel genau. Anwendung: für unscharfe Kanten, für breite, flache
Kanten, gut auch im Auflicht anzuwenden. Typisches Beispiel: Formkontrolle an Spritzgussteilen.
Faltungsverfahren mit maximalem Koeffizient. Sonderfall
des Faltungsverfahrens: Sucht nach der kontrastreichsten
Kante. Vorteile: 2D-Rauschunterdrückung, sehr störlich-
Lexikon der industriellen Bildverarbeitung
tunabhängig, selbst unter ungünstigen Bedingungen auf
+/- 0,5 Pixel genau. Typisches Beispiel: Analyse unscharfer
Bilder.
Antastbreite Zur Verbesserung der Robustheit und statistischen Sicherheit beim ➚Antasten werden mehrere
parallele ➚Antaststrahlen in ➚Antastrichtung zur Ermittlung des ➚Kantenortes genutzt. Die Anzahl der parallel liegenden Antaststrahlen ist die Antastbreite (angegeben in Pixeln).
Antasten, auch Kantenerkennung, Kantendetektion.
Übertragung eines Begriffes aus der berührenden
Messtechnik auf die berührungslose Messtechnik.
Berührungsloses Antasten ist die Suche nach einem
Strukturübergang in einem ortsaufgelösten Bild. In der
Bildverarbeitung werden Bilder mit Helligkeitsunterschieden (➚Grauwertdifferenzen, ➚Farbdifferenzen)
untersucht. Das Antasten erfolgt entlang eines oder
mehrerer ➚Antaststrahlen mittels ➚Antastalgorithmen. Der Ort, an dem die ➚Kante gemäß des ➚Kantenortkriteriums detektiert wurde, ist der ➚Kantenort.
Grundproblem: Die Übertragung des Begriffes „Antasten“ aus der berührenden auf die berührungslose
Messtechnik stellt ein Grundproblem der Bildverarbeitung hinsichtlich der Vergleichbarkeit von Ergebnissen
unterschiedlicher Messverfahren dar.
Praktische Tipps zum Antasten: kurze Antaststrahlen nutzen, so ist die Rechenzeit kürzer. Eine zweistufige Vorgehensweise nutzen: 1.) Finden der Kante mit einem robusten Algorithmus (z.B. Gradientenverfahren). 2.) Feinanalyse mit sehr kurzen Antaststrahlen, z.B. durch Grauwertverfahren mit Subpixeling.
Antastparameter Parameter für die ➚Antastalgorithmen,
die einen direkten Einfluss auf den ermittelten ➚Kantenort haben. Die Wahl und Optimierung der Antastparameter bestimmt in hohem Maße die Zuverlässigkeit
und ➚Genauigkeit der Antastung unter wechselnden
Bedingungen, wie sie im Industriealltag typisch sind.
Antastparameter sind: gewählter ➚Antastalgorithmus,
Start-/Endkoordinaten des ➚Antaststrahles, ➚Antastbreite, Art des ➚Kantenüberganges, ➚Störfilter, zulässige ➚Unschärfe, Mindestkontrast, Parameter für die abzulegenden Ergebnisse (Koordinaten, Kantenrichtung).
Durch Einstellung der Antastparameter kann sich auf
die zu erwartende ➚Kantenform eingestellt werden und
eine geringe ➚Antastunsicherheit hergestellt werden.
Antastrichtung ➚Kantenrichtung
Antaststrahl, auch Antastpfeil, Suchpfeil, Suchstrahl. Der
Antaststrahl beschreibt die Richtung, in der ein ➚Kantenübergang untersucht wird. In Richtung des Antaststrahles werden die ➚Antastalgorithmen abgearbeitet.
Die Richtung des Antaststrahles (Antastrichtung) bestimmt die einzustellenden ➚Antastparameter ➚„Kan-
5
A
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 6
Antastunsicherheit
A
tenrichtung“ und „Start- und Endkoordinaten“. (s. auch
Antastbreite)
Antastunsicherheit Die auf das ➚Antasten bezogene
➚Messunsicherheit. Antastunsicherheiten wirken sich
nicht nur hinsichtlich der Messergebnisse aus, sondern
können auch bei nichtmaßlichem ➚Prüfen die Funktion
einer gesamten Anlage in Frage stellen. Die Antastunsicherheit lässt sich durch Optimieren der ➚Antastparameter verkleinern. Diese Optimierung ist wesentlicher
Bestandteil der Inbetriebnahme von Anlagen mit Bildverarbeitung.
Antastverfahren ➚Antastalgorithmus
Antireflex-Schicht ➚reflexionsmindernde Schichten.
Anwesenheitskontrolle Vorgang des nichtmaßlichen
➚Prüfens. Typischer Anwendungsfall der Bildverarbeitung, bei dem auf Vorhandensein/Nichtvorhandensein
von Merkmalen des ➚Prüfobjektes geprüft wird.
Anzeigeseite Die auf einem Monitor dargestellte ➚Bildspeicherseite.
AOI 1.) area of interest ➚Prüffenster 2.) Automatical Optical Inspection: Automatische optische Inspektion. Aus
der Elektroniktechnologie stammende Technik zur Bestückungskontrolle von Leiterplatten in einem fertigungstechnisch frühen Stadium.
Apertur ➚Öffnung
Aperturblende ➚Öffnungsblende
AR-Beschichtung Antireflex-Beschichtung, ➚reflexionsmindernde Schichten
Arbeitsabstand Abk. WD (working distance). Abstand zwischen dem ➚Prüfobjekt und der ersten Körperkante des
optischen Systems aus Richtung des Prüfobjektes. Er
wird als praxisbezogenes Maß für ➚Objektive in der
Bildverarbeitung angegeben. Eingefügte optische Bauteile (z.B. ➚Filter und ➚Schutzgläser), ➚Prismenvorsätze
und mechanische Zubehörteile müssen mit eingerechnet
werden (Vergrößerung der ➚optischen Weglänge). Der
Arbeitsabstand ist abhängig vom: ➚Abbildungsmaßstab,
➚Brennweite, Objektivtyp. ➚Telezentrische Objektive
haben meist einen fest eingestellten Arbeitsabstand. Einfluss der ➚Beleuchtungswellenlänge: durch ➚Dispersion
kommt es zu veränderten Arbeitsabständen. Für Machine
Vision ist ein möglichst großer Arbeitsabstand der Objektive von Bedeutung, um einen freien Eingriff für
Handhabungsgeräte, Zuführeinheiten oder Roboter zu
ermöglichen. (s. auch Objektabstand, Auflagenmaß)
Arbeitsbereich ➚Prüffenster
Area of Interest ➚Prüffenster
Artefakte sind ➚Objekte im Bild, die nicht real in der aufgenommenen ➚Szene existieren, sondern erst durch
Fehler in der ➚Bildaufnahme (➚Abbildungsfehler,
➚Aliasing, begrenzte ➚Grauwertauflösung) oder -verarbeitung u.a. entstanden sind.
6
ASA American Standards Association. Vorgängervereinigung des ➚ANSI. Von der ASA wurde u.a. die Empfindlichkeit von Filmen und CCD-Sensoren definiert.
ASCII American Standard Code for Information Interchange.
Codierung von Zeichendarstellung für die Datenverarbeitung und -übertragung. Mit 7 bit können 128 Zeichen (Groß-/Kleinbuchstaben und Sonder-, Steuerzeichen) dargestellt werden. Erweiterte Version mit 8 bit
(256 Zeichen) möglich. Wird von Bildverarbeitungssystemen u.a. benutzt zur Übergabe diskreter Ergebnisse.
aspect ratio ➚Seitenverhältnis
asphärische Linse ➚Linsenform
ASQ ➚American Society for Quality
Astigmatismus auch Zweischalenfehler. ➚Abbildungsfehler, der bei der Abbildung von schief in das ➚Objektiv
eintretenden ➚Strahlenbündeln auftritt. Beispielsweise
wird ein kreuzförmiges ➚Prüfobjekt, das astigmatismusbehaftet abgebildet wird, in zwei verschieden weit
entfernte ➚Bildebenen abgebildet. Das heißt: der waagerechte „Balken“ des Kreuzes erscheint in einer, der
senkrechte „Balken“ des Kreuzes in einer anderen Ebene scharf. In einer Bildauffangebene bewirkt der Astigmatismus eine unscharfe Abbildung. Astigmatismus
entsteht auch beim Einfügen von ➚planparallelen Platten (Lichtfilter, Schutzgläser, rückverspiegelte Planspiegel, Prismen) in konvergente Strahlengänge.
Asymmetriefelder ➚Koma
Asynchron blitzen ist ein triggergesteuerter Bildaufnahmebefehl. Die ➚Bildaufnahme beginnt sofort nach der
Triggerung, wogegen das Triggersignal für die Blitzbeleuchtung erst nach einer einstellbaren Verzögerungszeit ausgegeben wird. (s. auch Blitzsynchronisation)
Asynchrone Bildaufnahme bedeutet, dass die ➚Bildaufnahme in der Kamera zu jedem beliebigen Zeitpunkt
(asynchron zum Videotakt) durch einen externen Triggerimpuls gestartet werden kann. Das setzt im Gegensatz
zur synchronen Bildaufnahme, die nach einem von der
Kamera vorgegeben festen Bildraster arbeitet und zu bekannten Zeitpunkten Bilder liefert, einerseits einen ➚Framegrabber voraus, der die asynchrone Bildaufnahme
startet, andererseits eine start/restart-fähige Kamera
(➚Progressive Scan). Wird meist zusammen mit ➚asynchron blitzen verwendet. Asynchrone Bildaufnahme wird
zur Aufnahme schnell laufender Prüfobjekte sowie bei
unregelmäßig erscheinenden Objekten genutzt, z.B. in
der Verpackungs-, Stanz- oder Lebensmittelindustrie.
Attributive Prüfung Vorgang des nichtmaßlichen ➚Prüfens. Typischer Anwendungsfall der Bildverarbeitung,
bei dem auf den Grad der Ausprägung von ➚Merkmalen des ➚Prüfobjektes geprüft wird.
Auflagemaß bezeichnet bei Kameras die Entfernung zwischen der ➚Bildebene (Lage der lichtempfindlichen
Lexikon der industriellen Bildverarbeitung
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 7
Ausbreitungsgeschwindigkeit
Schicht des ➚Bildaufnehmers) und der ➚Objektivanlagefläche. Das Auflagemaß ist eine ➚optische Weglänge,
d.h. die durch das Deckglas des Sensorchips verursachte ➚optische Wegdifferenz geht in das Auflagemaß mit
ein. Bei ➚C-Mount-Kameras beträgt das Auflagemaß
17,526 mm, bei ➚CS-Mount-Kameras 12,526 mm. Es
wird zusammen mit dem ➚Objektivanschluss angegeben. Das Auflagemaß ist ein empfindlicher optischer Parameter. Schon kleine Abweichungen haben große Wirkung auf die Änderung der ➚Objektweite/des ➚Arbeitsabstandes. Ist das Auflagenmaß zu klein, erscheint
das Objekt näher, als es die Angabe auf dem Entfernungseinstellring des Objektivs angibt, ein Ausgleich ist
möglich. Ist das Auflagenmaß zu gross kann u.U. nicht
scharf abgebildet werden (wirkt wie ein eingefügter
➚Zwischenring).
Hinweis: Das Entfernen eines ➚Infrarotsperrfilters aus
der Kamera wirkt wie eine Verkleinerung des Auflagenmaßes.
Auflichtbeleuchtung Beleuchtungsrichtung, bei dem die
Beleuchtung im Halbraum vor der Objektebene liegt, in
dem sich auch das Abbildungssystem befindet. Anwendungen u.a. in der Robotik, Verpackungsindustrie,
➚Prüfobjekte auf Transportbändern. Auflichtbeleuchtung benötigt i.A. diffus reflektierende Objekte. Große
Leuchtflächen sorgen bei Auflichtbeleuchtung für
gleichmäßige Helligkeit.
Grenzen der Auflichtbeleuchtung: Die Abbildungsqualität bei Auflichtbeleuchtung ist sehr stark von den Eigenschaften der ➚Prüfobjekte abhängig. Poröse Oberfläche, ausgerissene Objektkanten, verrundete Objektkanten, unterschiedlicher Reflexionsgrad, Verschmutzungen beeinflussen direkt die Messgenauigkeit. Die erreichbaren Messgenauigkeiten liegen im Bereich von
mehreren Pixeln (vgl. auch VDI-Richtlinie 2617, Bl. 6.1,
S. 10). Typische Beipiele für Auflichtbeleuchtungskomponenten sind: Ringlichter, Halogenstrahler, Leuchtstofflampenbeleuchtungen.
Auflösung ➚Auflösungsvermögen ➚Grauwertauflösung
Auflösungsvermögen 1.) Ortsauflösungsvermögen, vgl.
➚Grauwertauflösung. Das Auflösungsvermögen beschreibt die Unterscheidbarkeit feiner Objektstrukturen.
Begrenzt wird das Auflösungsvermögen durch die Struktur des ➚Bildaufnehmers, die ➚beugungsbegrenzte Abbildung des Objektivs und die ➚Abbildungsfehler. Beim
optischen Auflösungsvermögen müssen zwei getrennte
benachbarte Objekte einzeln abgebildet werden. Der Abstand x für zwei deutlich auflösbarer Punkte (➚Kontrast
14%) ist: für entozentrische Objektive = WD · tan (1,22
· λ · k/f); für telezentrische und Mikroskopobjektive: Y’min = 0,61 λ/NA.
λ = Beleuchtungswellenlänge, k = Blendenzahl, f =
Lexikon der industriellen Bildverarbeitung
Brennweite, NA = numerische Apertur, WD = Arbeitsabstand.
Schlussfolgerungen: Für möglichst gut auswertbare Details mit Bildverarbeitung sind ➚Abbildungsmaßstäbe >
= 5 zu nutzen. ➚Leere Vergrößerung tritt bei sichtbarem
Licht für Abbildungsmaßstäbe > 10 auf. Kurze ➚Beleuchtungswellenlänge (blaues Licht) erhöht das Auflösungsvermögen (bei mikroskopischer Abbildung). Große
numerische Apertur oder weit geöffnete Blende erhöht
das Auflösungsvermögen, steht aber einer großen
➚Schärfentiefe entgegen.
2.) Bezogen auf den ➚Bildaufnehmer bedeutet Auflösungsvermögen das durch die ➚Pixelgröße begrenzte
Vermögen, Details abzubilden (➚Abtasttheorem). Das
Auflösungsvermögen eines Bildaufnehmers kann in horizontaler und vertikaler Richtung verschieden sein,
wenn die Pixel nicht quadratisch sind. Je größer die
➚Bildpunktauflösung eines Bildaufnehmers (größere
Bildpunktzahl), desto besser ist sein Auflösungsvermögen. Das Auflösungsvermögen eines Bildaufnehmers
beträgt unter Beachtung des Abtasttheorems: ➚Bildpunktauflösung/2
In das Gesamtauflösungsvermögen einer Anlage mit
Bildverarbeitung gehen die Einzelauflösungsvermögen
ein von: Beleuchtung, Optik, Bildaufnehmer, Kameraelektronik, Framegrabber, Software, Mechanik (➚Genauigkeit einer Bildverarbeitungsanlage)
3.) Das Auflösungsvermögen eines Sensors für Helligkeiten wird durch das ➚Grauwertauflösungsvermögen,
➚Farbauflösungsvermögen beschrieben.
Augenempfindlichkeit ➚V-Lambda-Kurve
Augenschutz Sichtbare, energiereiche Strahlung (z.B.
durch Laser) schädigt das menschliche Auge (➚Laserklassen). Daher müssen Schutzmaßnahmen ergriffen
werden (siehe EN 60825). Aber auch nicht sichtbare
Strahlung (➚infrarotes Licht und ➚ultraviolettes Licht)
schädigt, wenn sie in hoher Leistung auftritt, da der
Schutzmechanismus des Schließens der Iris sowie der
Augenlider wegen der fehlenden Wahrnehmung nicht
funktioniert. In vielen Anwendungen der industriellen
Bildverarbeitung, die von störendem Tages-, Sonnenoder Hallenlicht unabhängig gemacht werden sollen,
wird mit ➚infrarotem Licht gearbeitet. Wegen der immer
leistungsfähiger werdenden ➚Lichtquellen (auch LEDs)
muss die Euronorm EN 171 beachtet werden.
Ausbreitungsgeschwindigkeit Die höchste Ausbreitungsgeschwindigkeit hat Licht im Vakuum mit
< 300.000 km/s. Ähnlich in Luft. Entsprechend der
➚Brechzahl breitet sich Licht in allen anderen Medien
langsamer aus. Auf Grund verschiedener materialspezifischer Ausbreitungsgeschwindigkeit des Lichtes kommt
es zur ➚Brechung. (s. auch optische Weglänge)
7
A
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 8
Ausgleichsgerade
A
B
Ausgleichsgerade ➚Bestgerade
Ausgleichskreis ➚Bestkreis
Ausrichtung beschreibt die Lage und Drehlage von Prüfobjekten. In vielen Fällen kann auf die Ausrichtung der
Prüfobjekte kein Einfluss genommen werden, da sie von
Handhabungs- und Transportsystemen vorgegeben ist.
In diesen Fällen muss durch entsprechende invariante
Anordnungen (Einsatz ➚telezentrischer Objektive,
kontrast- und ➚kantenformunabhängiger ➚Antastalgorithmen, ➚Lage- und ➚Drehlagenachführung u.a.)
eine möglichst große Unabhängigkeit der Prüfung von
der Teileausrichtung erreicht werden. (s. auch Justierung)
Ausrichtung telezentrischer Systeme ➚Justierung
Austrittspupille Bild der ➚Öffnungsblende, das von der
optischen Achse vom Bildaufnehmer aus sichtbar ist.
Auto-Fokus-Objektiv Objektiv, die die ➚Einstellentfernung automatisch nachregelt. Die zur Entfernungsmessung notwendige Sensorik reicht von einfachen Fototransistoren bis hin zu Bildverarbeitung (➚Fokustest).
Auto-Fokus-Objektive werden in der industriellen Bildverarbeitung nur selten genutzt, da durch die variable
Einstellentfernung keine definierten Verhältnisse bezüglich des ➚Abbildungsmaßstabes und der ➚Schärfentiefe vorliegen.
Auto-Iris-Objektiv Objektiv mit Nachführung der ➚Blende. Über einen lichtempfindlichen Sensor (im Objektiv
integriert oder Nutzung des ➚Bildaufnehmers der angeschlossenen Kamera mit Rückführung des Helligkeitssignals) wird die Blendenöffnung automatisch gesteuert. Auto-Iris-Objektive werden häufig in der Sicherheitstechnik angewendet, wo es darauf ankommt, unter verschiedensten Helligkeitsverhältnissen gleich helle Bilder
zu erhalten. Für die industrielle Bildverarbeitung sind
Auto-Iris-Objektive ungeeignet, da sich durch variierende Blende auch die ➚Schärfentiefe ändert und damit
keine konstanten Verhältnisse im Bild vorliegen.
Auto White Balance Automatischer Weißabgleich.
➚Weißabgleich
Automatic Electronic Shutter Automatische Steuerung
der ➚Integrationszeit eines CCD-Bildaufnehmers/-Kamera. AES wird bei Kameras in der Sicherheitstechnik
oft verwendet, um sie an wechselnde Helligkeiten anzupassen. In der industriellen Bildverarbeitung ist AES
nicht zu empfehlen, da sich durch die variable Integrationszeit die ➚Bewegungsunschärfe ändern kann. (s.
auch Shutter)
Automatic Gain Control AGC: Automatische Verstärkungsregelung für einen konstanten Videoausgangspegel, unabhängig vom Eingangssignal des ➚Bildaufnehmers. Bei schwankender Beleuchtung sorgt AGC für
gleichbleibende Helligkeit und regelt die Verstärkung
des Videosignales innerhalb des Regelbereiches. Aus
8
den Anforderungen der Sicherheitstechnik entstanden,
ist die automatische Verstärkungsregelung für die Bildverarbeitung nicht geeignet, da sie alle Bilder auf einen
gleichen mittleren ➚Grauwert anhebt. Für die Bildverarbeitung muss AGC ausgeschaltet und mit festen Verstärkungen gearbeitet werden.
AWB Auto White Balance. Automatischer ➚Weißabgleich
B
Bahnsteuerung Continuous Path Control, Steuerungsart
von ➚Computerized Numerical Control. Die Bewegung
wird entlang einer durch eine Funktion vorgegebenen
Kurve durchgeführt. Häufiger Einsatz in Industrierobotern, Brennschneid-, Dreh-, Fräsmaschinen. Vgl. Punktsteuerung.
Bandpassfilter Filter, das nur für eine bestimmten schmalen Wellenlängenbereich eine maximale Durchlässigkeit (➚Transmissionsgrad) aufweist. Wird wesentlich
charakterisiert durch Mittenwellenlänge (Wellenlänge
bester Durchlässigkeit) und ➚Halbwertsbreite (Abfall
auf 50% der maximalen ➚Transmission). Meist durch
➚Interferenzfilter realisiert. Bandpassfilter müssen hinsichtlich ihrer Mittenwellenlänge sehr genau auf die
eingesetzte Beleuchtung abgestimmt werden. Mit ihnen lässt sich die beste Unterdrückung von ➚Fremdlicht erreichen.
Bar-Code Eindimensionaler Code aus schmalen/breiten
Strichen und Lücken zur Darstellung alphanumerischer
Zeichen. Verschiedenste Codes werden verwendet: EAN
(EAN13: Lebensmittel, Bücher, Zeitschriften.
Besteht aus Balken und Zwischenräumen in vier verschiedenen Breiten, u.U. schwierig zu lesen; EAN8: kosmetische Produkte), CODABAR (Medizin-/Klinikbereich),
PZN (Medikamente), Code 2/5 (zwei verschiedene Breiten von Balken und Zwischenräumen, auch unter
ungünstigen Bedingungen gut zu lesen), Code 39 (geringe Informationsdichte, da auch Buchstaben darstellbar sind). Die Ablesung erfolgt meist mit Laserscannern,
da die Auflösung von CCD- oder CMOS-Kameras i.A. zu
gering ist. Das Lesen mit Bildverarbeitung ist sinnvoll,
wenn das Bar-Code-Lesen in komplexe Aufgabenstellungen integriert ist oder bei Nutzung spezieller oder speziell angeordneter Codes (ringförmige oder deformierte
Codes). www.ean.de
BAS-Signal Bild-Austast-Synchron-Signal. ➚Videosignal
Baudrate Einheit für die Schrittgeschwindigkeit der Datenübertragung. Wird pro Schritt ein bit übertragen, ist
die Baudrate gleich der Übertragungsrate in bit/s. Bei
der Datenfernübertragung können mehrere bit/Schritt
Lexikon der industriellen Bildverarbeitung
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 9
Beleuchtungsrichtung
übertragen werden, weshalb dabei Baudrate und Übertragungsrate nicht gleichzusetzen sind. Allgemein übliche Stufung: 300, 1200, 2400, 4800, 9600 etc. (jeweils
Verdopplung)
Bearbeitungsseite ➚Bildspeicherseite, auf der aktuell die
Bildverarbeitungsalgorithmen ausgeführt werden
Bedienoberfläche, auch Benutzeroberfläche. Schnittstelle
zwischen der elementaren Funktionalität eines Bildverarbeitungssystems und der Bedienung durch den Bildverarbeitungsanwender. Die Nutzerfeundlichkeit moderner Bedienoberflächen zeichnet sich durch Intuitivität,
die Möglichkeit, die Bildverarbeitungsfunktionen sofort
online zu testen, grafische Bedienerführung und Parametrierung statt Programmierung aus. Bekannte Bedienoberflächen für die industrielle Bildverarbeitung sind
u.a.: Spreadsheet, VCWin, Framework.
Bedingter Sprung Element strukturierter Prüfprogrammgestaltung. Bedingte Sprünge in Bildverarbeitungssystemen nehmen auf das Ergebnis vorhergehender Befehle
Bezug. So kann nach erfolgreichen oder fehlgeschlagenen Einzelbefehlen oder nach erfolgreichen oder fehlgeschlagenen ➚Bedingungsblöcken an andere Prüfprogrammstellen gesprungen werden. Bedingte Sprünge
sind effektive Funktionen, Bildverarbeitungsanwenderprogramme flexibel zu machen.
Bedingungsblock Bedingungsblöcke fassen die Ergebnisse der Ausführung aller im Bedingungsblock vereinigten
Befehle durch eine UND-Verknüpfung zusammen. War
die Ausführung aller Befehle im Bedingungsblock fehlerfrei, so gilt der ganze Bedingungsblock als fehlerfrei.
War nur ein Befehl im Bedingungsblock fehlerbehaftet,
so gilt der ganze Bedingungsblock als fehlgeschlagen.
Beleuchtung mit Kameradurchblick Spezielle Form einer ➚Auflichtbeleuchtung. Eine großflächige ➚Flächenbeleuchtung hat in ihrem Zentrum einen Durchbruch,
durch den das Objektiv Durchblick durch die Beleuchtung hat. Das ermöglicht eine großflächige und gleichmäßige Ausleuchtung aus Kamerarichtung, auch bei
leicht gewölbten und diffus reflektierenden Teilen. Anwendungen u.a. in der Robotik (am Greifer) sowie in der
Verpackungsindustrie.
Beleuchtungsabstand ist der Abstand zwischen dem
➚Prüfobjekt und der ➚Lichtaustrittsfläche der Beleuchtung. Bei der ➚Auflichtbeleuchtung bestimmt der Beleuchtungsabstand bestimmt in starkem Maße die Helligkeit des Kamerabildes durch das Wirken des ➚fotometrischen Entfernungsgesetzes. Aus diesem Grund
sollte die Beleuchtung so dicht wie möglich an das Prüfobjekt herangebracht werden.
Bei der ➚Durchlichtbeleuchtung spielt der Beleuchtungsabstand durch die konstante ➚Leuchtdichte eine
geringere Rolle. Dennoch sollte der Beleuchtungsab-
Lexikon der industriellen Bildverarbeitung
stand möglichst mehr als 3 mal so groß wie der ➚Schärfentiefebereich sein, damit Schmutz auf der Beleuchtung nicht abgebildet wird. (s. auch Beleuchtungsrichtung, Beleuchtungswinkel)
Beleuchtungsapertur ist ein Maß für den zur Beleuchtung genutzten Öffnungswinkel. Somit haben ➚diffuse
Beleuchtungen große Beleuchtungsaperturen, ➚gerichtete Beleuchtungen kleine und ➚telezentrische Beleuchtungen besonders kleine Beleuchtungsaperturen.
➚Dunkelfeldbeleuchtungen haben eine Beleuchtungsapertur in Form eines Hohlkegels. Hier wird hier die Beleuchtungsapertur durch die innere und äußere Apertur
angegeben.
Beleuchtungseigenschaften Neben einer Vielzahl möglicher Eigenschaften, die Beleuchtungen charakterisieren
können, sind in der Bildverarbeitung die gebräuchlichsten:
a) Eigenschaften des verwendeten Lichtes: Lichtausbreitungsrichtung (diffus, gerichtet, telezentrisch, parallel);
örtliche Homogenität (Gleichmäßigkeit, Struktur); zeitliche Homogenität (Modulation, Blitz, statisch); ➚Wellenlänge (UV, VIS, IR); ➚Kohärenzgrad; Leistung (➚Lichtenergie); ➚Polarisation;
b) Herkunftsrichtung des Lichtes: ➚Auflicht; ➚Durchlicht;
c) Eigenschaften des beleuchteten Feldes: ➚Hellfeldbeleuchtung; ➚Dunkelfeldbeleuchtung
Beleuchtungsprofil ➚Beleuchtungsstärkeverteilung
Beleuchtungsregelung Regelung von Beleuchtungsparametern (Konstanz der emittierten ➚Wellenlänge, zeitliche Konstanz der Lichtemission (➚Blitzlänge, ➚Lichtstärke)). Wird meist zum Konstanthalten der ➚Beleuchtungsstärke auf dem ➚Prüfobjekt und ➚Bildaufnehmer
angewendet. ➚LED-Beleuchtungen ermöglichen durch
ihre einfache elektrische Ansteuerbarkeit in idealer Weise die Beleuchtungsregelung. In ihren ➚Ansteuerschaltungen sind verschiedenste Möglichkeiten dazu vorgesehen. Die Motivationen für eine Regelung der Helligkeit einer Beleuchtung können verschieden sein. Es lassen sich: die Helligkeitsdrift durch Alterung der Beleuchtung kompensieren; die Helligkeitsdrift durch Erwärmung der Beleuchtung kompensieren; verschiedene
➚Prüfobjekte durch Anpassung der Beleuchtungsparameter mit ein und derselben Beleuchtung prüfen; komplexe Beleuchtungsszenarien mit mehreren in ihrer Helligkeit und Leuchtdauer (auch Blitzbetrieb) aufeinander
abgestimmten Beleuchtungen realisieren. (s. auch adaptive Beleuchtung)
Beleuchtungsrichtung lässt sich in zwei grundsätzliche
Richtungen aufteilen, die durch die ➚Objektebene voneinander getrennt sind: Beleuchtung aus Richtung der
Kamera: ➚Auflichtbeleuchtung; Beleuchtung aus Richtung hinter der Objektebene: ➚Durchlichtbeleuchtung
9
B
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 10
Beleuchtungsstärke
B
Beleuchtungsstärke Lichttechnische Größe, Formelzeichen E. Die durch die Augenempfindlichkeit (➚V-Lambda-Kurve) bewertete Bestrahlungsstärke. Die Beleuchtungsstärke beschreibt den ➚Lichtstrom, der auf eine
beliebig ausgerichtete Fläche fällt. E = dϕ/dA
Einheit in ➚Lumen [lm]/m2 = ➚Lux [lx] oder ➚Candela
[cd] · ➚Steradiant [sr]/m2.
Beleuchtungsstärke auf dem Bildaufnehmer Die
➚Leuchtdichte kann bei Abbildung durch ➚Objektive
nicht vergrößert werden. Dagegen kann die ➚Beleuchtungsstärke beeinflusst werden: Für die Beleuchtungsstärke auf dem Sensor gilt in Näherung:
E = Eob · ρ · τ/(4 · k2 · [1 - ß’2]) mit
k
= ➚Blendenzahl
τ
= ➚Transmissionsgrad beim Lichtdurchgang
durch das Objektiv (τ ≈ 0,9)
ρ
= ➚Reflexionsgrad des ➚Prüfobjektes
Eob = ➚Beleuchtungsstärke auf dem Prüfobjekt
ß’
= ➚Abbildungsmaßstab (ß’ < 0!)
Diese Angaben gelten nur in der Bildmitte, zusätzlich ist
die natürliche ➚Vignettierung zu berücksichtigen.
Die Beleuchtungsstärke auf dem Bildaufnehmer ist genaugenommen von einer Reihe weiterer Faktoren abhängig: ➚Wellenlänge (spektrale Empfindlichkeit des
Bildaufnehmers); Licht-einfallswinkel, (diffus, gerichtet,
telezentrisch, strukturiert); ➚Beleuchtungsstärke der
Lichtquelle; ➚Reflexions-, ➚Absorptions-, ➚Transmissionsgrad des Objekts; Reflexions-, Absorptions-, Transmissionsgrad des Objektivs, Verwendung von ➚Lichtfiltern
Beleuchtungsstärkediagramm ➚Beleuchtungsstärkeverteilung
Beleuchtungsstärketest, auch Luxwerttest. Komplexer
Befehl zur Ermittlung der ➚Beleuchtungsstärkeverteilung einer beleuchteten Fläche. Wird u.a. zur Bewertung
der Eigenschaften bei der Scheinwerferprüfung genutzt.
Es können mittlere, minimale oder maximale ➚Beleuchtungsstärke ermittelt und bewertet werden. Für den Beleuchtungsstärketest ist eine ➚Kalibrierung des Nennwertes der Beleuchtungsstärke mit einem ➚Lux-Meter
notwendig. Dazu werden Korrekturfaktoren zur Berücksichtigung von ➚Filtern und Kameraempfindlichkeiten
eingefügt.
Beleuchtungsstärkeverteilung, auch Beleuchtungsprofil. Gibt die Verteilung der ➚Beleuchtungsstärke über
die beleuchtete Fläche an, die von einer Beleuchtung
hervorgerufen wird. Die gewünschte Verteilung kann je
Anwendungsfall verschieden sein.
a) zeitlich konstante Beleuchtungsstärkeverteilung. Kurzzeit- und Langzeitstabilität können Kriterien sein.
b) örtlich homogene Beleuchtung, grafisch dargestellt
mit dem Beleuchtungsstärkediagramm
10
c) definierte Verteilung der Beleuchtungsstärke: ➚strukturierte Beleuchtungen, ➚adaptive Beleuchtungen.
Die praktische Beleuchtungsstärkeverteilung weicht von
den Idealzuständen ab, z.B. durch prinzipbedingten Helligkeitsabfall zur Bildmitte bei ➚Dunkelfeldringlichtern;
qualitätsbedingt durch den Einsatz von Low-cost-Objektiven und Beleuchtungen; falschen Einsatz von Beleuchtungen (➚Ringlicht bei glänzender Oberfläche).
Weitere Einflussfaktoren für die auf dem ➚Bildaufnehmer erscheinende Beleuchtungsstärkeverteilung sind:
der ➚Beleuchtungsabstand; der ➚Lichteinfallswinkel;
die ➚Lichteinfallsrichtung; die natürliche ➚Vignettierung durch das Objektiv. Die Beleuchtungsstärkeverteilung von ➚Ringlichtern kann z.B. gezielt zur Korrektur
der natürlichen Vignettierung genutzt werden.
Beleuchtungstechniken Die Kombination der ➚Beleuchtungseigenschaften (Eigenschaft des Lichtes, Herkunftsrichtung des Lichtes und Eigenschaft des beleuchteten
Feldes) ergibt eine Reihe von Kombinationsmöglichkeiten, die Beleuchtungstechniken (zu lesen v.u.n.o.):
Auflichtbeleuchtung
Durchlichtbeleuchtung
Hellfeld
Dunkelfeld Hellfeld
Dunkelfeld
diffus
diffus
diffus
diffus
gerichtet
gerichtet
gerichtet
gerichtet
(telezentrisch)
telezentrisch –
strukturiert –
–
–
Beispiel für Bezeichnung einer Beleuchtungstechnik: gerichtete Dunkelfeld-Auflichtbeleuchtung
Beleuchtungsverfahren ➚Beleuchtungstechnik
Beleuchtungswellenlänge Für die Beleuchtung eines
➚Prüfobjektes/einer ➚Szene verwendete ➚Wellenlänge
(Lichtfarbe). Je nach Teileeigenschaften des ➚Prüfobjektes treten Wechselwirkungen mit der Beleuchtungswellenlänge auf, wodurch Details des Prüfobjektes hervorgehoben oder unterdrückt werden können (➚Bildvorverarbeitung). Die Beleuchtungswellenlänge bestimmt, wie
stark am Prüfobjekt ➚Absorption, ➚Transmission und
➚Reflexion stattfinden. Der gezielte Einsatz von Beleuchtungswellenlängen führt zu maximalem Kontrast
(➚Komplementärfarbe). (s. auch Weißlicht)
Beleuchtungswinkel ➚Lichteinfallswinkel
Belichtung Belichtung (H) ist das Einwirken einer Beleuchtungsstärke (E) auf einen Bildaufnehmer über eine
gewisse Zeit (t). H = ∫ E dt. Ziel der Belichtung ist es, ein
ausreichend kontrastreiches (hell/dunkel), kein überbelichtetes und kein unterbelichtetes Bild zu erzielen. Um
eine konstante Helligkeit in verschiedenen Bildern zu erreichen, muss die Belichtung konstant gehalten werden.
Dazu gibt es zwei Möglichkeiten: a) die Zeit halbieren
und die Beleuchtungsstärke verdoppeln; b) die Zeit verdoppeln und die Beleuchtungsstärke halbieren (kann zu
➚Bewegungsunschärfe führen).
Lexikon der industriellen Bildverarbeitung
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 11
Bewegungsunschärfe
Je nach Applikation kann im Vordergrund stehen: lange/kurze Belichtungszeit (statische/schnelle Prozesse);
kleine/große Blendenzahl (kleine/große Schärfentiefe);
oder beides.
Belichtungszeit Zeit, für die der ➚Bildaufnehmer lichtempfindlich gemacht wird. Wird in industriellen Kameras elektronisch eingestellt. Für ➚CCDs auch ➚Integrationszeit.
Benutzeroberfläche ➚Bedienoberfläche
Berührungsloses Antasten Suche eines Strukturüberganges (Helligkeitsunterschiedes) entlang eines ➚Antaststrahles mit bildverarbeitenden Verfahren. Der ➚Kantenort wird dort gefunden, wo der Helligkeitsverlauf dem
➚Kantenortskriterium entspricht. (s. auch Antasten)
Berührungsschutz ➚IP-Schutzklassen
Beschreibungsgeometrie ➚Geometrieelemente
Bestgerade Bildverarbeitungsfunktion zur Erzeugung
einer bestmöglich in einen Toleranzschlauch eingepassten Gerade, die aus einer mit Bildverarbeitung gewonnenen Punktmenge oder aus ➚Konturen gebildet
wird. Typisch dient die Verwendung der Funktion Bestgerade zum statistischen Ausgleich unregelmäßiger
Körperkanten an ➚Prüfobjekten, die in ihrer Idealgeometrie gerade sind. Die Breite des gebildeten Toleranzschlauches gibt Auskunft über die Geradheit der von
den beschreibenden Punkten ermittelten Gerade. Je
mehr Punkte oder Konturen zur Ermittlung der Bestgerade genutzt werden, desto genauer die Bestgerade.
Bestkreis Bildverarbeitungsfunktion zur Erzeugung eines
bestmöglich in einen Toleranzschlauch eingepassten
Kreises, der aus einer mit Bildverarbeitung gewonnenen
Punktmenge gebildet wird. Typisch dient die Verwendung der Funktion Bestkreis zum statistischen Ausgleich
ungleichmäßiger Körperkanten an ➚Prüfobjekten, die
in ihrer Idealgeometrie rund sind. Die Breite des gebildeten Toleranzschlauches gibt Auskunft über die Rundheit des von den beschreibenden Punkten ermittelten
Kreises. Je mehr Punkte oder Konturen zur Ermittlung
des Bestkreises genutzt werden, desto genauer der
Bestkreis. Mindestanzahl ist drei.
Bestrahlungsstärke ➚Beleuchtungsstärke
Beugung Durch die Wellennatur des Lichtes erklärbare Erscheinung, dass Licht beim Auftreffen auf eine Körperkante seine Ausbreitungsrichtung um die Kante herum
in den eigentlich dunklen Bereich hinein ändert. Die
Wellenflächennormale wird um die Objektkante gebeugt. Beugung wird nicht durch Brechung, Reflexion
oder Streuung hervorgerufen, sondern durch die Wellennatur des Lichtes. An abgebildeten Objektkanten treten Beugungseffekte in Form von typischen Beugungsmustern auf. Je nach Form des Objektes können diese
sehr verschieden sein (z.B. bei einer geraden Kante: Par-
Lexikon der industriellen Bildverarbeitung
allelen abnehmender Intensität). Die Größe der Beugungserscheinungen ist abhängig von der verwendeten
➚Wellenlänge. Ein Punkt wird bei Abbildung mit Beugung vergrößert zu D = 2,44 · λ · k (Durchmesser des
sog. Airy-Scheibchens λ-Wellenlänge, k-Blendenzahl).
Die Größe der Beugungserscheinung ist proportional
zur verwendeten Wellenlänge. Beugung tritt nicht nur
an Kanten des Objektes sondern auch an Fassungsbauteilen des Objektivs sowie an der Blende auf und führt
zu Unschärfe (➚förderliche Blende, ➚beugungsbegrenztes Objektiv). Beugung begrenzt die ➚Auflösung
durch Überlagerung von Beugungserscheinungen. So
kommt es bei großen Abbildungsmaßstäben (>10) zur
➚leeren Vergrößerung. Beugungsmuster ändern die
➚Kantenform, was die Auswertbarkeit mit Bildverarbeitungsalgorithmen erschwert. Beugung wird in Beugungsgittern gezielt genutzt um Lichtstrukturen zu erzeugen, z.B. bei ➚Strahlformungsoptiken für Laser, zur
➚Triangulation oder beim ➚Lichtschnittverfahren.
Beugungsbegrenztes Objektiv Ein abbildungsfehlerfreies Objektiv, das nur durch die ➚Beugung des Lichtes in
seiner ➚Abbildungsgüte begrenzt ist (beugungsbegrenzte Abbildung). Hochwertige Objektive erreichen in
ihrem Korrektionszustand die Beugungsbegrenztheit
praktisch. Für die meisten Anwendungen der industriellen Bildverarbeitung sind durch die begrenzte ➚Bildpunktauflösung beugungsbegrenzte Objektive überdimensioniert.
Beugungseffekt ➚Beugung
Beugungserscheinung svw. Beugungseffekt, ➚Beugung
Beugungsgitter Anordnung regelmäßiger, untereinander
gleichartiger Elemente mit konstantem Abstand in der
Größenordnung der Lichtwellenlänge. Entsprechend
dem Funktionsprinzip kann das Beugungsgitter lichtdurchlässig (Transmissionsgitter), absorbierend (Absorptionsgitter) oder reflektieren (Reflexionsgitter) sein.
Beugungsgitter werden u.a. in ➚Strahlformungsoptiken
für ➚Diodenlaser genutzt.
Beugungsmuster ➚Beugung
Bewegungsunschärfe Bewegt sich das ➚Prüfobjekt
während der lichtempfindlichen Zeit (➚Integrationszeit)
der Kamera, so hinterlässt das Objekt im ➚Bild eine verwischte Struktur. Die Breite der verwischten Strukturen
stellen ein Maß für die Bewegungsunschärfe dar. Für die
sichere Funktion von Bildverarbeitungsalgorithmen sollten für die Bewegungsunschärfe im Bild weniger als 1
Pixel angestrebt werden. Durch Rückrechnung von der
minimal möglichen ➚Shutterzeit und der maximal
zulässigen Bewegungsunschärfe lässt sich die maximale Geschwindigkeit berechnen, mit der sich ein Prüfobjekt an Kamera und Objektiv vorbeibewegen darf.
Bewegungsunschärfe kann verursacht werden durch:
11
B
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 12
Bild
B
Bewegung des Prüfobjekes während der Belichtungszeit
(durch Transport, aber auch Schwingungen); zu lange
Belichtungszeit (➚Shutter), zu lange Beleuchtungszeit
(➚Blitzzeit); Schwingungen durch instabile Befestigung
der Bildverarbeitungskomponenten.
Bild Ergebnis der ➚optischen Abbildung. Ein Bild ist die
zweidimensionale Projektion einer dreidimensionalen
Szene auf einen ➚Bildaufnehmer. Bilder können unterschiedliche Datenbreite (➚Digitalisierungstiefe) besitzen: ➚Binärbild, ➚Grauwertbild, ➚Farbbild. Ihre örtliche ➚Auflösung bestimmt den Informationsgehalt eines Bildes.
Bild-Austast-Synchron-Signal ➚Videosignal
Bildaddition Pixelweise Addition der Helligkeitswerte
zweier Bilder. Dabei werden die Werte von ➚Pixeln mit
gleichen Koordinaten (Zeile, Spalte) addiert. Bildaddition kann zur Aufhellung dunkler Bilder oder mit zusätzlicher Mittelwertbildung zur Verringerung des ➚Bildrauschens genutzt werden.
Bildakquisition ➚Bildaufnahme
Bildanalyse ist die Bewertung eines Bildes nach seinen Eigenschaften. Dabei werden Methoden der Statistik und
des Messens, basierend auf Grauwertbildverarbeitung,
kombiniert. Mit Bildanaylsefunktionen kann bestimmt
werden, ob die Bildqualität gut genug für die Inspektionsaufgabe ist. Desweiteren können mit Bildanalysefunktionen auch Abbildungen auf ihren Inhalt hin analysiert werden, oder um zu entscheiden, welche Funktion zur Aufgabenlösung verwendet werden muss.
Bildarithmetik Punktoperation, bei der pixelweise (ohne
Einfluss auf Nachbarpixel) mehrere Bilder verrechnet
werden. (s. auch ➚Bildsubtraktion, ➚Bildaddition)
Bildattribute beschreiben die Eigenschaften des im
➚Bildspeicher abgelegten ➚Bildes. Das können sein:
Bildbreite [Pixel], Bildhöhe [Pixel] binär, Schwarz/weiß
oder Farbe ➚Digitalisierungstiefe, Dateigröße, minimaler enthaltener Grauwert, maximaler enthaltener Grauwert, Grauwertverteilung, Vorhandensein und Anzahl
sich wiederholender Elemente,Farben.
Bildaufnahme Vorgang von der ➚Belichtung des ➚Bildaufnehmers, der Signalwandlung im Bildaufnehmer, der
Übertragung des ➚Videosignals, Digitalisierung im
➚Framegrabber, bis zum Ablegen der digitalisierten
Bilddaten im ➚Bildspeicher. (s. auch Bildeinzug)
Bildaufnahmefrequenz ➚Bildfrequenz
Bildaufnahmeseite ➚Bildeinzugseite
Bildaufnahmezeit Zeit, die eine Kamera benötigt, um die
Bildinformation vollständig auszulesen. Typische Zeiten
für ➚CCD-Sensoren sind: 12 Hz Vollbildsensor: 83 ms;
25 Hz Vollbildsensor: 40 ms; 30 Hz Vollbildsensor: 33
ms; 54 Hz Volbildsensor: 19 ms. Die Bildaufnahmezeit ist
abhängig von der ➚Pixelzahl und der ➚Bildfrequenz.
12
Prinzipbedingt besitzen ➚CMOS-Sensoren kürzere Bildaufnahmezeiten, da bei ihnen durch direkte Adressierung der Pixel auch nur Teilbereiche des ➚Bildaufnehmers ausgelesen werden können.
Bildaufnehmer Sensorische Baugruppe, die einen physikalischen Effekt nutzt und ein Signal ausgibt. Vielfach
ist eine Signalvorverarbeitung enthalten. Sensoren dienen der Gewinnung von Informationen über Produkte
und Prozesse. Sensoren für die Bildverarbeitung werden
auch Bildaufnehmer genannt und wandeln ein einfallendes optisches Intensitätsmuster in ein elektrisches
Signal. In der industriellen Bildverarbeitung werden
meist ➚CCD/➚CMOS-Sensoren genutzt, die nach verschiedenen Funktionsprinzipien arbeiten. Die Unterteilung erfolgt entsprechend der Geometrie der lichtempfindlichen Fläche des Bildaufnehmers in Zeilensensoren
(➚Zeilenkamera) und Flächensensoren (➚Matrixkamera). Die Weiterentwicklung der Sensorchips geht in Richtung höhere ➚Auflösungen (größere ➚Pixelzahl),
schnelleres Bild Auslesen (größere ➚Bildwiederholfrequenz) sowie Integration von Intelligenz auf dem Sensorchip.
Im Sprachgebrauch kann mit Sensor auch ein komplettes Stand-alone-Bildverarbeitungssystem gemeint sein,
das eine festgelegte Aufgabe z.B. zum Zeichen lesen
wahrnimmt.
Bildaufnehmergröße Größe des Bildaufnehmers in der
Bildverarbeitung. Traditionell im Breiten-/Höhenverhältnis 4:3 (aus den Notwendigkeiten der analogen
Fernsehtechnik abgeleitet). Neuere Sensoren können
durch den Einsatz der Digitaltechnik auch in anderen
Größen vorkommen. Die Zoll-bezogene Bezeichnung
geht auf die Größe der ➚Vidikon-Vakuumaufnahmeröhre mit dem Ursprungsformat 1" zurück. Dabei
wurde mit 1" der Röhrendurchmesser beschrieben.
Daraus wurde die Sensorgröße auch von Halbleitersensoren abgeleitet:
Bezeich- Fläche
Diagonale
typisches
nung
(mm2)
(mm)
Pixelraster (µm)
1"
12,8 · 9,6
16
9
2/3"
8,8 · 6,6
11
6,7
1/2"
6,4 · 4,8
8
6,7
1/3"
4,8 · 3,6
6
6
1/4"
3,6 · 2,7
4,5
5
1/5"
2,9 · 2,2
3,6
4
1/6"
2,1 · 1,6
2,7
4
1/10"
...
1,8
3
Kleinere Sensorgrößen stellen gesteigerte Anforderungen an die Optik (höhere ➚Auflösung, Miniaturisierung)
und machen sie teurer. Daher hat sich für die industrielle Bildverarbeitung eine Sensorgröße von 1/2" als Standard eingepegelt. Das zu nutzende Objektiv muss auf
Lexikon der industriellen Bildverarbeitung
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 13
Bildfrequenz
die Bildaufnehmergröße abgestimmt werden, sonst
kommt es zu künstlicher Vignettierung.
Objektive besitzen eine Angabe der maximal zur verwendenden Sensorgröße.
Bildbearbeitung ist ein Bereich grafischer Anwendungen
am Computer. Die Bildbearbeitung ist eher künstlerisch
als technisch ausgerichtet, hat also mit Bildverarbeitung
wenig zu tun und dient zur Bearbeitung vorhandenen
Bildmaterials mit dem Ziel Bilder zu retuschieren, korrigieren (Helligkeit, Bildschärfe), verfemden. Verwendet
auch ➚Bildfilter, die die Bildverarbeitung nutzt.
Bilddatenkompression Die bei der Übertragung von Bilddaten anfallenden Datenmengen sind enorm. So liefert
eine Megapixelkamera mit 30Hz Vollbildfrequenz pro
Sekunde 30Mbyte Bilddaten. Daher werden Bilddaten,
die aus Bildverarbeitungssystemen heraus übertragen
werden (z.B. zur Übertragung von ➚Fehlerbildern bei
der ➚Fernwartung über ➚Ethernet), komprimiert. Dazu
gibt es verschiedene Verfahren. Einige arbeiten mit Verlusten an Bildinformation bei der Dekompression
(➚jpeg), andere ohne (z.B. ➚Lauflängencodierung). Für
die Übertragung von Fehlerbildern muss ein verlustfreies Verfahren gewählt werden, damit die Fehlerentstehung am Bild mit Originaldaten nachvollzogen werden
kann.
Bilddiagonale ➚Bildaufnehmergröße
Bildebene, auch Bildaufnehmerebene. Ebene, in der die
optimale optische Abbildung stattfindet. Auf die Bildebene bezogen werden die ➚Abbildungsfehler. In der
Bildebene befindet sich z.B. ➚Bildaufnehmer einer Kamera.
Bildeinzug Art und Weise, wie die Bildinformation vom
Bildaufnehmer in den Bildspeicher transferiert wird. Die
Art des Bildeinzuges bestimmt die Genauigkeit der Ortsauflösung der ➚Pixel im späteren ➚Speicherbild.
Frei laufender oder pixelunsynchroner Bildeinzug: Das
➚Videosignal wird als fortlaufendes Signal zum Framegrabber übertragen. Nur die Synchronsignale „Zeilenende“ und „Bildende“ ermöglichen die Zuordnung der Videoinformation. Wo genau das Pixel innerhalb der Zeile
liegt, ist damit nicht zu ermitteln.
Pixelsynchroner Bildeinzug mit Videosignal und Pixeltakt über Kamerakabel: Neben der Bildinformation wird
auch der Takt eines jeden Pixels (➚Pixelclock) übertragen. Diese Art des Bildeinzuges verspricht eine höhere
Genauigkeit der Bildverarbeitung. Allerdings muss eine
großer Hardware-Aufwand betrieben werden zur laufzeitsynchronen Übertragung des Pixeltaktes.
Pixelidentischer Bildeinzug direkt am Bildaufnehmer: Jedes Pixel wird in unmittelbarer Nähe des Bildsensors digitalisiert. Der hohe Aufwand der räumlich getrennten
Verarbeitung des Pixeltaktes entfällt. Das Videosignal
Lexikon der industriellen Bildverarbeitung
kann mit hoher Genauigkeit weiterverarbeitet werden.
Pixelsynchroner oder pixelidentischer Bildeinzug sind für
alle messtechnischen Anwendungen der Bildverarbeitung unabdingbar.
Bildeinzugsseite Das von der Kamera erzeugte und gewonnene ➚digitale Bild wird zur Bearbeitung durch die
Bildverarbeitungsalgorithmen in einem Speicherbereich, der ➚Bildspeicherseite, im Rechner abgelegt. Auf
die Bildeinzugsseite kann von der Bildverarbeitungssoftware zugegriffen werden.
Bildfeldwölbung Ein ➚Abbildungsfehler. Eine Abbildung
mit Bildfeldwölbung erfolgt nicht in einer ➚Bildebene,
sondern auf einer Bildschale. Dadurch ergeben sich Zonen gleicher Schärfe in Form von konzentrischen Ringen.
Hinweis auf Bildfeldwölbung gibt es dann, wenn beim
Durchfahren der Entfernungseinstellung im Bild immer
nur in kreisförmigen Zonen scharf abgebildet werden.
Bildfenster Unter Windows® arbeitende Bedienoberflächen von Bildverarbeitungsprogrammen nutzen häufig ein Fenster, in das das aktuelle Kamerabild eingeblendet wird. Es wird als Bildfenster bezeichnet.
Bildfilter, auch Raumfilter, sind digitale Filter, die verwendet werden, um Merkmale eines Bildes/Bildausschnittes
(➚Prüffenster) hervorzuheben, zu unterdrücken, oder
deren Bildqualität zu verbessern. Sie dienen der ➚Bildvorverarbeitung. Zu den Bildfiltern gehören frequenzselektive Filter (➚Hochpassfilter, ➚Tiefpassfilter, ➚Bandpassfilter, Bandsperre), sowie weitere, wie z.B.: ➚Laplacefilter, ➚Median, Prewitt, ➚Sobelfilter, ➚Min-Filter,
➚Max-Filter.
Bildfolge In zeitlich definierter Abfolge aufgenommene
Bilder. Typisch für Fernsehbilder. In der digitalen Bildverarbeitung nicht so häufig genutzt, da die Anforderungen
an die Geschwindigkeit der Datenübertragung und -speicherung sehr hoch sind. Aus Bildfolgen kann z.B. die Bewegungsrichtung eines Objektes erkannt werden. Hochgeschwindigkeitsaufnahmesysteme zeichnen Bildfolgen
auf, um mit dem Auge nicht erkennbare Vorgänge in ihrer Abfolge sichtbar zu machen („Zeitlupe“).
Bildfrequenz Die Bildfrequenz ist die vom ➚Bildaufnehmer pro Sekunde lieferbare Anzahl an Bildern. Die Anzahl der ausgelesenen Bilder ist stark abhängig von der
➚Pixelzahl. Für ➚CCD-Sensoren ist die Bildfrequenz
schaltungstechnisch im Chip vorgegeben und kann nur
unter Kompromissen (➚Binning) vergrößert werden.
CMOS-Sensoren liefern typisch bis zu 600 Hz Bildfrequenz, können aber durch das Auslesen kleiner ➚Prüffenster wesentlich in ihrer (Teil-)Bildfequenz beschleunigt werden (z.B. bei Prüffenster 32 · 128 Pixel mit
60.000 Hz). Gebräuchliche Vollbildfrequenzen sind 25
und 30 Hz für Standard-CCD-Kameras, die der Videotechnik entstammen, 120 Hz für leistungsfähige CCD-
13
B
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 14
Bildgröße
B
Kameras der industriellen Bildverarbeitung und bis zu
100.000 Hz für Hochgeschwindigkeitskameras.
Bildgröße ➚Bildaufnehmergröße
Bildgüte ➚Abbildungsgüte
Bildhelligkeit Die in der ➚Bildebene vom optischen System erzeugte Bestrahlungsstärke gewichtet mit der
Empfindlichkeit des Bildaufnehmers. Die Bildhelligkeit
hängt von vielen Faktoren ab, u.a. der Beleuchtung des
Prüfobjektes, dem Prüfobjekt, der ➚Transmission und
der ➚Lichtstärke des optischen Systems, der ➚Bildaufnehmerempfindlichkeit und der Wellenlänge.
Bildkontrast ➚Kontrast
Bildkoordinatensystem Bezugssystem, das die Lage der
➚Pixel im ➚Bildaufnehmer angibt. Bildkoordinaten ergeben sich aus der Zeilen- und Spaltenstruktur des Bildaufnehmers. Ursprung ist links oben im Bild. Das Bildkoordinatensystem liegt im Unterschied zum ➚Kamerakoordinatensystem in der ➚Bildebene der Kamera.
Müssen Koordinaten von mehreren Kameras miteinander verrechnet werden, muss dazu das ➚Weltkoordinatensystem verwendet werden. (s. auch Koordinatentransformation)
Bildleitkabel sind sortierte ➚Lichtwellenleiter, deren Zuordnung der einzelnen Fasern auf der Lichteintrittsseite
genauso ist, wie auf der Lichtaustrittsseite. Jede einzelne Faser „transportiert“ ein Pixel. Je nach Durchmesser
der Fasern kann das ➚Auflösungsvermögen verschieden hoch sein. Bildleitkabel mit bis zu 100.000 Fasern
sind möglich. Wird auf der Eintrittsfläche ein Bild eingekoppelt, so wird das Bild auf die Austrittsfläche übertragen. Je nach Packungsdichte (Zwischenräume durch die
runden aneinanderliegenden Fasern) kommt es zu Kontrastverlusten. Bildleitkabel werden vorrangig für flexible ➚Endoskope genutzt.
Bildmitte Geometrischer Ort, der den fiktiven Durchstoßpunkt der ➚optischen Achse durch die Bildebene/den
➚Bildaufnehmer kennzeichnet.
Bildpunkt ➚Pixel
Bildpunktauflösung (auch Pixelauflösung) ist das kleinste vom Bildaufnehmerraster unterscheidbare Detail.
Nicht mit dem Auflösungsvermögen der Optik (➚Modulationsübertragungsfunktion) zu verwechseln. Berechnung nach:
Bildpunktauflösung = Größe des Gesichtsfeldes/verfügbare Bildpunktzahl (Angabe in mm/Pixel). Bei sehr feinen Strukturen ist das ➚Abtasttheorem zu beachten.
Dadurch kann unter ungünstigen Umständen die Bildpunktauflösung um die Hälfte schlechter werden.
Verbesserung der Bildpunktauflösung ist möglich durch:
größere ➚Pixelzahl/hochauflösende Sensoren; maximale Ausnutzung des ➚Gesichtsfeldes (am Bildrand sind
Abbildungsfehler größer!); Bildaufnehmer mit Piezo-
14
Verschiebung; ➚Subpixel-Antastung; Objektiv-Sonderbauformen wie z.B. ➚Zweimessstellenobjektive
Bildpunktzahl ➚Pixelzahl
Bildrauschen Überlagerung der Bildinformation durch
stochastisches Rauschen. Bildrauschen entsteht durch
Rauschanteile der beteiligten Elektronik in ➚Bildaufnehmer, Framegrabber, Kamera sowie durch in den Bildaufnehmer eindringende Strahlung. Bei Bildern mit
schlechtem ➚Kontrast kann das Bildrauschen zu
schlechter Auswertbarkeit führen. Bildrauschen lässt
sich vermeiden durch Aufsummierung mehrerer Bilder
mit Langzeit-shutter oder per Software durch Mittelung
der Bildinformation einzelner Pixel.
Bildschärfe bezeichnet die Fähigkeit eines Objektivs ein
scharfes Bild zu erzeugen. Sie wird durch ➚Abbildungsfehler, ➚Fokussierung sowie durch ➚Beugung eingeschränkt.
Bildsequenz ➚Bildfolge
Bildsignal ➚Videosignal
Bildspeicher Speicherbereich, in dem die digitalisierten
Bilddaten abgelegt werden. Bildspeicher sind in ➚Bildspeicherseiten unterteilt. Jede Bildspeicherseite kann
ein digitalisiertes Bild speichern. Je nach Größe können
viele Bilder gespeichert werden. Typische Größen von
Bildspeichern sind 2 ...8 Mbyte.
Bildspeicherseite Die Bildspeicherseite nimmt die vom
➚Framegrabber digitalisierte Bildinformation aus der
Kamera auf. Bildverarbeitungssysteme besitzen i.A.
mehrere Bildspeicherseiten. Bildspeicherseiten können
verschieden genutzt werden als ➚Anzeigeseite ➚Bearbeitungsseite ➚Bildeinzugsseite ➚Demoseite. Durch die
Trennung von Bildeinzugsseite und Bearbeitungsseite
lässt sich die Abarbeitungsgeschwindigkeit von ➚Prüfprogrammen steigern. So kann bei ➚paralleler Bildaufnahme der Bildeinzug einer Bildaufnahme auf die Bildaufnahmeseite gestartet werden, während auf der Bearbeitungsseite das zuvor aufgenommene Bild parallel
verarbeitet wird. (s. auch Parallelverarbeitung)
Bildsubtraktion Bildpunktweise Subtraktion der Grauwerte zweier Bilder. Dabei werden jeweils die Grauwerte der Pixel mit gleichen Zeilen- und Spaltenkoordinaten
subtrahiert. Kann bei sehr lagegenauen übereinstimmenden Bildern mittels ➚Grauwerttest zur ➚Anwesenheitskontrolle genutzt werden.
Bildtransformation Bilddaten für ein Ausgangsbild werden aus Bilddaten eines Eingangsbildes gemäß einer
Transformationsvorschrift berechnet. Beispiele sind die
➚Fourier- und die Hough-Transformation.
Bildverarbeitung ist eine noch recht junge Technologie,
die ihren Durchbruch Anfang der 80er Jahre des letzten
Jahrhunderts geschafft hat. Sie beschäftigt sich mit Bildern, Bildfolgen mit dem Ziel der Manipulation und Aus-
Lexikon der industriellen Bildverarbeitung
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 15
Bitmaske
wertung mit Hilfe technischer Mittel, um: die Bildqualität
zu verbessern (➚Kontrast, ➚Farbe, ➚Bildschärfe); Bilder
zu restaurieren (Rauschbefreiung, geometrische Ent-zerrung, ...); Bildern zu codieren (➚Datenkompression, ...);
Bilder zu verstehen und zu interpretieren (➚Bildanalyse,
➚Mustererkennung).
Diese Merkmale lassen die Bildverarbeitung überall dort
anwenden, wo Bilder anfallen und ausgewertet werden
müssen: in der Biologie (Zellen zählen), in der Medizin
(Computertomogramme auswerten), im Bauwesen
(Auswertung von Wärmebildern), in der Sicherheitstechnik (Kontrolle biometrischer Maße).
Die industrielle Bildverarbeitung (= industrielle Anwendung der Bildverarbeitung) hat sich zu einer Leittechnologie der Automatisierungstechnik entwickelt, die in nahezu allen Branchen der verarbeitenden Industrie anzutreffen ist. Bildverarbeitung ist eine Synthesetechnologie, an der viele Fachrichtungen beteiligt sind: Lichttechnik, Optik, Elektronik, Informatik, Informationstechnik,
Automatisierungstechnik. Dadurch sind die Funktionszusammenhänge sehr komplex. (s. auch Machine Vision)
Bildverarbeitungs-Bibliothek stellt Grundfunktionen der
Bildverarbeitung als DLL- oder OCX-Datei für das Prüfprogramm zur Verfügung für immer wiederkehrende
grundlegende Funktionen (➚Bildfilter, ➚Klassifikation
etc.). Die Bildverarbeitungs-Bibliothek wird in die Applikationssoftware eingebunden.
Bildverarbeitungssensor ➚Smart Camera Sensor
Bildverarbeitungssystem Anlage zur Gewinnung, Aufbereitung (Vorverarbeitung), Verarbeitung, Analyse und Ergebnisermittlung aus visuellen Daten. Ein Bildverarbeitungssytem ist ein komplexes technisches System und
setzt sich aus einer Reihe von sehr verschiedenen Systemkomponenten zusammen: Beleuchtung, Optik, Kamera, Framegrabber, Computer, Kommunikationsschnittstellen, Prozessschnittstellen, Software
Bildverbesserung Die durch ➚optische Abbildung gewonnenen und im ➚Bildspeicher abgelegten Bilder weisen hinsichtlich Helligkeitsverteilung, geometrischer Eigenschaften, ➚Rauschen u.a. Eigenschaften auf, die
durch gezielten Einsatz von Algorithmen und ➚Bildfiltern verbessert werden können, ohne dabei die vorhandene Bildinformation zu beschädigen. (s. auch Bildvorverarbeitung, Kontrastverstärkung)
Bildvorverarbeitung dient der Informationsreduktion zur
effektiven Bildverarbeitung. Die Bildinformation wird
mit dem Zweck der ➚Bildverbesserung geändert. Bildvorverarbeitung findet statt, bevor Bildverarbeitungsalgorithmen mit der Informationsgewinnung aus dem
Bild beginnen (➚Segmentierung). Zur Bildvorverarbeitung werden häufig ➚Bildfilter verwendet.
Drei Bereiche sind für die Bildvorverarbeitung typisch:
Lexikon der industriellen Bildverarbeitung
Geometrische Entzerrung (z.B. Beheben von ➚Verzeichnung), Bildverbesserung (Homogenisieren, ➚Kontrast,
➚Bildschärfe, Beseitigung von ➚Rauschen), Bildrestaurierung (bei gestörter Bildübertragung).
In einigen Softwarepaketen zur Bildverarbeitung sind
Algorithmen zur Bildvorverarbeitung schon in den Funktionen eingebaut. Damit wird sichergestellt, dass die
Bildvorverarbeitung nur in bestimmten Bereichen
(➚Prüffenster) wirksam wird, was zur Steigerung der
Verabeitungsgeschwindigkeit beiträgt.
Optische Bildvorverarbeitung ist durch die Ausführung
in Lichtgeschwindigkeit besonders effektiv: durch gezielten und bewussten Optik- und Beleuchtungseinsatz
lassen sich Abbildungsform, Kontrast und Bildschärfe
dramatisch steigern und durch eingesparten Hard- undSoftwareaufwand Kosten sparen.
Bildwandler ➚Bildaufnehmer
Bildwiederholfrequenz, auch Bildwiederholrate. ➚Bildfrequenz
Binäralgorithmus ➚Antastalgorithmus
Binärbild Digitales Bild im ➚Bildspeicher, bei dem jedem
➚Pixel ein Wert schwarz (0) oder weiß (1) zugeordnet
ist. Sonderfall eines ➚Grauwertbildes. (s. auch ➚Schwellwert)
Binärbildverarbeitung ➚Merkmalsextraktion aus einem
➚Binärbild. Sehr schnelles Verfahren, da sehr hardwarenah gearbeitet werden kann. Empfindlich gegen
Änderungen in der Beleuchtung. (s. auch Grauwertbildverarbeitung, Farbbildverarbeitung)
Binäre Antastung ➚Antastalgorithmus
Binäre Morphologie ➚Morphologische Bildverarbeitung
Binärschwelle ➚Schwellwert
Binärverfahren ➚Antastalgorithmus
Binarisierung Einstellung eines ➚Schwellwertes zwischen
minimalem und maximalem ➚Grauwert, in dessen Ergebnis ein ➚Binärbild mit nur zwei Helligkeitsstufen
(hell und dunkel) vorliegt. (s. auch Look up Tabelle)
Binarisierungsschwelle ➚Schwellwert
Binning Technik zum Zusammenfassen von Ladungen von
benachbarten ➚Pixeln in ➚CCD-Sensoren. Dadurch
wird das ➚Signal-Rausch-Verhältnis verringert und der
➚Bildaufnehmer kann schneller ausgelesen werden
(➚Bildfrequenz), allerdings auf Kosten einer geringeren
➚Bildpunktauflösung. Der Binningfaktor gibt an, wie
viele Pixel zusammengefasst werden. 2 · 2 bedeutet,
dass jeweils die Pixel aus 2 benachbarten Zeilen und
Spalten kombiniert werden.
Beim Software-Binning werden benachbarte ➚Pixel aus
dem ➚Bildspeicher zusammengefasst, wodurch sich
das ➚Bildrauschen verringert.
Bitmap ➚BMP-Dateiformat
Bitmaske ➚Portkontrolle
15
B
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 16
Blende
B
Blende Öffnung im optischen System, die den Durchgang
von Strahlen mechanisch beschneidet (➚Öffnungsblende, Feldblende). Blenden können von ihrer Größe fix
sein (➚Festblende) oder veränderlich ( ➚einstellbare
Blende). (s. auch förderliche Blende)
Blendenautomatik ➚Auto-Iris-Objektiv
Blendendurchmesser ➚Lichtstärke
Blendenreihe ➚Blendenzahl
Blendensteuerung/Blendenregelung ➚Auto-Iris-Objektiv
Blendenstufe ➚Blendenzahl
Blendenzahl Über ➚Öffnungsblenden wird Einfluss auf
die Größe der freien Öffnung, und damit auf die ➚Lichtstärke und die Blendenzahl k genommen. Die kleinste
einstellbare Blendenzahl entspricht dem Kehrwert des
➚Öffnungsverhältnisses:
k = f’/ØEP mit k = Blendenzahl; f’ = Brennweite des Objektivs; ØEP = Durchmesser Eintrittspupille.
Beispiel: Ein Objektiv mit f’= 50 mm hat einen Frontlinsen-Ø von 28 mm. Bei diesem Objektiv ist die sichtbare
freie Öffnung (➚Eintrittspupille) etwa gleich dem Frontlinsendurchmesser. Damit wird k = 50 mm/28 mm = 1,78
≈ 1,8.
Für die näherungsweise Umrechnung der Blendenzahl
in die ➚numerische Apertur NA (Umgebung Luft) gilt:
k = 1/2NA mit NA = NA’ · ß’ mit (NA’ = bildseitige numerische Apertur, ß’ = Abbildungsmaßstab).
Die Größe der kleinsten Blendenzahl bestimmt die ➚Lichtstärke eines Objektivs. Eine Halbierung des durchgehenden Lichtstroms geschieht bei Halbierung der Lichtdurchtrittsfläche der Blende. Irisblenden umschließen
i.A. eine Kreisfläche, so dass bei Halbierung der Fläche
der Blendendurchmesser um √2 kleiner wird. So entsteht die typische Blendenzahlreihe: 0,7; 1; 1,4; 2; 2,8; 4;
5,6; 8; 11; 16; 22; 32. (s. auch förderliche Blende, Schärfentiefe, Bewegungsunschärfe)
Blitzbeleuchtungen sind Beleuchtungen, deren Leuchtdauer sehr kurz ist (➚Blitzzeit) im Verhältnis zu Belichtungszeit der aufnehmenden Kamera. Im Allgemeinen
werden Leuchtdauern < 1ms als Blitz bezeichnet. Im
Unterschied zur ➚Stroboskopbeleuchtung wird die
Blitzbeleuchtung durch einen Trigger ausgelöst und
kommt nach der ➚Blitzverzögerungszeit zum Leuchten.
Die ➚Blitzfrequenz ist abhängig von der Applikation
und kann u.U. die ➚Bildfrequenz erreichen.
Charakteristisch für Blitzbeleuchtungen sind die konstante emittierte Lichtenergie (auch bei Veränderung
der Blitzzeit, gleiche Helligkeit!), schnelle Anstiegs- und
Abfallzeiten der Lichtaussendung sowie geringe Verzögerungszeiten, was durch komplexe elektrische Schaltungen realisiert wird.
Als Lichtquellen kommen hauptsächlich ➚Infrarot-LEDs
zum Einsatz, die kurzzeitig mit dem 10-fachen ihres
16
Nennstromes betrieben werden und dabei die 10-fache
Lichtausbeute liefern. ➚Gasentladungslampen liefern
sehr helles Licht, sind aber problematisch hinsichtlich
➚EMV, sind gefährlich durch die interne Verwendung
von Hochspannung, altern recht schnell (bis zu 70%
Helligkeitsverlust am Ende der Lebensdauer) und besitzen ein nicht ausgeglichenes ➚Spektrum des ausgesendeten Lichtes. Um verschiedene ➚Beleuchtungstechniken realisieren zu können, werden verschiedenste Formen (Flächen, Ringlichter) verwendet als auch
Varianten, bei dem das Blitzlicht in ➚Lichtwellenleiter
eingekoppelt wird.
An die ➚Blitzsynchronisation bei schnelllaufenden
Prozessen werden hohe Ansprüche hinsichtlich des
Zeitverhaltens gestellt.
Leistungsfähige Bildverarbeitungssysteme stellen
dafür fertige Funktionen (➚asynchron Blitzen) zur Verfügung.
Blitzlichtbeleuchtungen werden dort genutzt, wo
schnelle und bewegte Prozesse sichtbar gemacht werden müssen (Stanzteile, Halbleiterindustrie), intensives
Dauerlicht zu Überhitzung führen würde (Verpackung
wärmeempfindlicher Produkte) oder wo Bediener bei
permanentem Betrieb der Beleuchtung gestört werden.
Anforderungen an Blitzbeleuchtungen für Machine Vision: hell wegen dem bevorzugten Einsatz im ➚Durchlicht; kurze Verzögerungszeiten, Anstiegs-, Abfallzeiten
im Blitz selbst; ➚Blitzfrequenz > Bildfrequenz der Kamera; ➚EMV-Tauglichkeit; lange Lebensdauer, auch bei
Vibrationen, Luftfeuchtigkeit, Wärme; geringer Helligkeitsverlust über die Lebensdauer; änderbare Blitzzeit
bei konstanter Lichtenergie; änderbare Blitzhelligkeit
ohne Änderung der Blitzzeit; Arbeit mit verschiedenen
Triggerpegeln (TTL/SPS).
Blitzlänge ➚Blitzzeit
Blitzröhre ➚Blitzbeleuchtung
Blitzsynchronisation Schnelllaufende Prozesse benötigen
zur sicheren Funktion eine Synchronisation verschiedener Vorgänge u. a. derer zur ➚Bildaufnahme. Die Blitzsynchronisation schließt Kamera (➚Shutter), Trigger und
➚Blitzbeleuchtung ein.
Nach der ➚Blitzverzögerungszeit erreicht die Blitzbeleuchtung ihre volle Helligkeit. Danach sollte die ➚Shutterzeit beginnen und enden, bevor die Blitzhelligkeit abnimmt.
Moderne Bildverarbeitungsprogramme übernehmen die
Synchronisation der Blitzauslösung und Bildaufnahme.
So lassen sich damit u.a. aus der Software heraus komfortabel die Blitzdauer, Verzögerungszeit, die Triggerflanke oder -zustand und die zu belegende Bildspeicherseite parametrieren.
Änderungen in der Synchronisation können verursacht
Lexikon der industriellen Bildverarbeitung
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 17
Brennweite
werden durch: variable/unbekannte Zeitpunkte des Triggerimpulses; variable/unbekannte Verzögerungszeiten;
variable/unbekannte Blitzzeiten; variable/unbekannte
Shutterzeiten; Start Bildaufnahme zu früh/zu spät; variable/unbekannte Signallaufzeiten in der Maschine
Blitzverzögerungszeit Zeit, die vom Anliegen eines Triggersignals (50% des Endpegels) an einer Blitzbeleuchtung vergeht, bis die Blitzbeleuchtung 50% ihrer Endhelligkeit erreicht hat.
Blitzwiederholfrequenz Frequenz mit der eine ➚Blitzbeleuchtung im Dauerbetrieb arbeiten kann. Sie wird begrenzt durch die Fähigkeit einiger ➚Lichtquellen,
schnell nacheinander Blitzen zu können: ➚Gasentladungslampen brauchen Zeit zur Abkühlung. ➚LED-Blitzbeleuchtungen sind theoretisch bis in den MHz-Bereich
blitzfähig. Ein weiteres Hindernis, das die Blitzwiederholfrequenz begrenzt, ist die schnelle Bereitstellung
kurzzeitig großer Energiemengen, wie sie für Blitzbeleuchtungen typisch sind. ➚Stroboskope realisieren eine
große Blitzwiederholfrequenz.
Blitzzeit Zeitdauer der Lichtaussendung einer ➚Blitzbeleuchtung, währenddessen die ➚Helligkeit >90% des
Maximalwertes ist. Mit➚Gasentladungslampen lassen
sich Blitzzeiten <= 1ps erreichen, typisch sind in der industriellen Bildverarbeitung bei Nutzung von LED-Blitzbeleuchtungen Zeiten von 5 ... 100 µs.
Blob Gruppe von benachbarten und zusammenhängenden
➚Pixeln gleichen oder ähnlichen ➚Grauwertes.
Blobanalyse untersucht ➚Blobs durch Schwerpunkt- und
Flächenbestimmung, wobei die zu erkennenden Objekte geschlossene ➚Konturen aufweisen müssen. Die zu
Grunde liegenden ➚Grauwerte und Größe der Flächen
werden mit ➚Toleranzern versehen, um das Verfahren
möglichst robust zu machen. Blobanalyse wird verwendet zum Zählen, Finden von Objekten sowie zur
➚Lage-/Drehlagenachführung genutzt.
Blooming Erscheinung bei der ➚Überbelichtung an
➚CCDs, die sich durch ausgefranste helle Zonen an der
überbelichteten Stelle im Bild bemerkbar machen.
Wird der Chip mit zu viel Licht beaufschlagt, werden zu
viel Elektronen erzeugt, die dann in Nachbar-Pixel überlaufen. Blooming ist eine Erscheinung der ➚Sättigung
und führt an den überbelichteten Bereichen zu Informationsverlust. Moderne CCD-Chips vermeiden Blooming
durch Abflussmöglichkeiten für überzählige Ladungen.
BMP-Dateiformat: Bit Map Picture. Gebräuchliches
Dateiformat zum Bilddatentransfer von Bildverarbeitungssystemen, das ohne Verluste arbeitet, aber je nach
Bildgröße sehr umfangreich ist. BMP-Dateien liegen in
einem Pixelformat vor. Komprimierte Formate mit RLE =
Run-Length Encoding für 4-Bit- und 8-Bit Bitmaps (RLE4
bzw. RLE8) sind möglich.
Lexikon der industriellen Bildverarbeitung
BNC Bayonett Neill Concelmann. Robuster Steckertyp mit
Bajonettverschluss, der für den Anschluss von ➚Koaxialkabeln genutzt wird. Über BNC-Stecker werden u.a.
analoge ➚Videosignale übertragen.
Bogenlampe lichtstarke ➚Gasentladungslampe mit thermischer Lichtemission des Lichtbogens. Beispiele sind
Quecksilber- und Natriumdampflampen. Brauchen Vorwärmzeit von einigen Minuten bis zur vollen Helligkeit.
Wegen aufwendiger Ansteuerung, unflexibler Bauform,
geringen Steuermöglichkeiten und begrenzter Lebensdauer in der Bildverarbeitung so gut wie nicht im Einsatz.
Brechkraft Kehrwert der ➚Brennweite eines abbildenden
optischen Systems (bezogen auf Umgebung Luft).
1
Einheit:
= dpt: Dioptrien
m
Brechung Richtungsänderung des Lichtes an der Grenzfläche beim Übergang von einem nichtleitenden Medium in ein anderes. Auf Brechung beruht die Lichtübertragung in Linsen. (s. auch Brechungsgesetz)
Brechungsgesetz beschreibt die Richtungsänderung eines Lichtstrahls an der Grenzfläche zweier nichtleitender Medien unterschiedlicher Brechzahl:
n · sin e = n’ · sin e‘ mit n = Brechzahl vor der Grenzfläche; n’ = Brechzahl nach der Grenzfläche; e = Einfallswinkel (zwischen Lot auf Fläche und einfallendem
Lichtstrahl); e‘ = Austrittswinkel (zwischen Lot auf
Fläche und austretenden Lichtstrahl) (s. auch Brechung)
Brechungsindex ➚Brechzahl
Brechzahl, auch Brechungsindex. Verhältnis der ➚Lichtgeschwindigkeit im Vakuum (Cv) zur Lichtgeschwindigkeit
in dem betrachteten Medium (Cm) oder der Sinusse von
Ein- und Ausfallwinkel. Winkelbezug ist dabei das Lot
auf die reflektierende Fläche: n= Cv/Cm = sin e/sin e’
Anmerkung: Die Brechzahl n ist wellenlängenabhängig
(➚Dispersion).
Brennebene Ebene, rechtwinklig zur ➚optischen Achse,
die den ➚Brennpunkt beinhaltet. Die bildseitige Brennebene bildet die ➚Bildebene für eine Abbildung aus
Unendlich.
Brennpunkt Punkt auf der ➚optischen Achse, in dem sich
achsparallel durch eine Linse einfallendes Licht idealerweise in einem Punkt sammelt. Tritt sowohl objektseitig
als auch bildseitig auf. (s. auch Brennweite)
Brennpunktstrahl Lichtstrahl (➚geometrische Optik), der
von der ➚Hauptebene eines ➚optischen Systems aus
durch den ➚Brennpunkt verläuft. (s. auch Brennweite)
Brennweite Formelzeichen f, f’. Die wichtigste kennzeichnende Größe eines abbildenden optischen Systems. Ergibt sich aus den Systemdaten Radien, Glassorten, Linsendicken, Medium zwischen den Linsen, Abstände. Die
Brennweite wird von den ➚Hauptebenen zum jeweiligen ➚Brennpunkt gemessen. Die Brennweite legt das
17
B
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 18
Bus
B
C
➚Gesichtsfeld fest und ist verbunden mit den ➚Gesichtsfeldwinkeln: eine kurze Brennweite (➚Weitwinkelobjektiv) verursacht bei festem ➚Arbeitsabstand große
Gesichtsfeldwinkel und kleine Details, eine lange Brennweite (➚Teleobjektiv) verursacht kleine Gesichtsfeldwinkel und große Objektdetails. Brennweitenangaben werden nur für fokale Systeme (Systeme mit Brennpunkt)
gemacht. Die typische Brennweitenstufung in der Bildverarbeitung ist: 3.5, 4.5, 6, 8, 10, 12, 16, 25, 35, 50, 75,
100 mm. Diese Folge ermöglicht die Austauschbarkeit.
Wird eine Kamera mit nächstkleinerer ➚Bildaufnehmergröße gewählt, bleibt bei gleichzeitiger Auswahl der
nächstkürzeren Brennweite der ➚Arbeitsabstand, die
Größe des Gesichtsfeldes und damit der Gesichtsfeldwinkel gleich. Brennweiten sind in der Objektivbezeichnung codiert: z.B. Tevidon 2/10 (10 mm Brennweite); Fujinon 1:1,4/50 (50 mm Brennweite). Die Beziehungen zu
➚Abbildungsmaßstab ß’ und ➚Arbeitsabstand WD/➚Objektabstand a sind näherungsweise: f’ = a · ß’/(1- ß’) mit
(a > 0, a ≈ WD, ß’ < 0)
Bus, oder Bussystem tauscht als Sammelleitung Daten und
Steuerinformationen zwischen Komponenten gemäß einem vereinbarten ➚Protokoll aus. Es gibt serielle und
parallele Busse. Serielle Busse übertragen bitserielle Informationen über große Entfernungen, z.B. über Zweidrahtleitung, ➚Koaxialleitung oder ➚Lichtwellenleiter.
Tpische Vertreter sind ➚CAN-Bus, ➚Ethernet,➚Profibus,
➚Interbus. Parallele Busse nutzen mehrere parallele Leitungen, auf denen bitparallel über kurze Enfernungen
übertragen wird. Beispiele sind der ➚VME-Bus und der
PCI-Bus (➚Peripherical Component Interface). Die innerhalb von Bildverarbeitungssystemen genutzen Bussysteme benötigen für die Informationsübertragung immer größere Bandbreiten, weswegen vorzungsweise
parallele Bussysteme genutzt werden. An der Schnittstelle zum industriellen Prozess kommen meist serielle
Busse zum Einsatz.
C
C Betriebssystemunabhängige Programmiersprache. Durch
die maschinennahe Programmierung und Effektivität
der Routinen ist C die bevorzugte Sprache der Entwickler von Bildverarbeitungssoftwarepaketen. Weiterentwicklung ist C++ sowie Visual C.
CiA CAN in Automation. Hersteller- und Informationsvereinigung für den CAN-Bus. www.can-cia.de
CDI, Cloudy-Day-Illuminator ➚Schattenfreie Beleuchtung
C-Mount Standardgewindeanschluss für ➚Matrix-Kameras in der Machine Vision. Gewinde 1-32 UN2A ⁄1"
18
Außendurchmesser mit 32 Gängen auf 1", ➚Auflagenmaß: 17,526 mm. C-Mount-Objektive können mit 5
mm-Zwischenring an ➚CS-Mount-Kameras verwendet
werden.
C-Signal Chrominaz-Signal. ➚Videosignal
Camera Link Kabelspezifikation für ein Kommunikationsinterface für Bildverarbeitungsapplikationen. Speziell
für die Bildübertragung zwischen Kamera und ➚Framegrabber ausgelegt. Nutzt Niedervolt-Differenzsignale
zur störsicheren Signalübertragung. Theoretisch auf 2,3
Gbit/s verlustlose Übertragung begrenzt (Spezifikationen: Camera Link basic configuration: ca. 192 Mbyte/s,
Camera Link full configuration: ca. 512 Mbyte/s). Zur
Übertragung von Video-, Steuer-, Kommunikationsdaten
(serielle Datenübertragung). MDR-26 pin Steckverbinder. Camera Link wurde im Jahr 2000 spezifiziert.
CAN-Bus Controller Area Network. Serielles Bussystem, ursprünglich für die Automobilindustrie entwickelt. Spezifiziert in ISO 11898. Arbeitet über verdrillte Zweidrahtleitung vorwiegend mit Entfernungen < 40 m. Begrenzt auf
1 Mbit/s Datenübertragungsrate. Praktisch bis zu 64 Busteilnehmer. Echtzeitfähig und zuverlässig durch umfangreiche Fehlererkennungsmaßnahmen. www.can-cia.de
Candela Abkürzung cd. SI-Einheit der ➚Lichtstärke. Definiert
durch die Lichtstärke einer Lichtquelle, die eine ➚monochromatische Strahlung mit einer Frequenz von 540 THz
ausstrahlt und deren ➚Strahlstärke 1/683 W · sr-1 beträgt.
Eine Punktquelle von 1 Candela strahlt 1 Lumen in einen
➚Raumwinkel von 1 Steradiant ab.
CCD ➚Charge Coupled Device
CCD-Iris Ein spezieller Betriebsmodus des ➚Shutters einer
➚CCD-Kamera. Die ➚Shutterzeit wird vom ➚CCD mit
der Zielgabe geregelt, das Niveau des ➚Videosignals
möglichst konstant zu halten, auch bei Beleuchtungsänderungen und trotz einer konstanten Blendeneinstellung.
Wird vorrangig für die Anwendung in der Sicherheitstechnik genutzt. Für eine Reihe von industriellen Applikationen führt die selbsttätige Änderung der Shutterzeit
zu Problemen mit der ➚Bewegungsunschärfe, besonders dann, wenn bewegte ➚Prüfobjekte untersucht
werden müssen. Auch führt die variable Shutterzeit zu
unterschiedlichen Rauschanteilen im Bild.
CCD-Kamera Kamera, die einen ➚CCD als ➚Bildaufnehmer nutzt. Einteilung in ➚Zeilenkameras, ➚Matrixkameras. Ausführung in Schwarz/weiß und als ➚Farbkamera. Das verwendete CCD erzeugt ein analoges ➚Videosignal. Je nach Weiterverarbeitung des Videosignals
in der CCD-Kamera gibt es ➚Analogkameras und ➚Digitalkameras. CCD-Kameras nach dem Stand der Technik haben ➚Vollbild-Sensoren und arbeiten mit ➚Progressiv Scan. CCD-Kameras sind die in der Bildverarbei-
Lexikon der industriellen Bildverarbeitung
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 19
CMOS-Sensor
tung am weitesten verbreiteten Kameras und sind technologisch sehr weit ausgereift. (s. auch Pixelzahl, Sensorgröße)
CCD-Rauschen Unerwünschtes Signal am Ausgang des
➚CCDs, das dem ➚Viedeosignal überlagert ist. Entsteht
durch ➚Dunkelstrom, sowie durch Rauschanteile der
steuernden und signalverarbeitenden Elektronik im Inneren des CCD-Chips.
CCFL ➚Cold Cathode Fluorescent Lamp
CCIR Comité Consultatif International des Radiocommunications. Internationaler Ausschuss für den Funkdienst.
CCIR steht in Zusammenhang mit ➚CCD-Kameras für
die europäische Video-Norm von Schwarz/weiß-Bildern
mit einer ➚Bildfrequenz von 50 Halbbildern pro Sekunde und 625 Zeilen.
CCTV-Objektiv, Closed-circuit-television-Objektiv. Bezeichnung für Objektive, die für Beobachtungszwecke
(Sicherheitstechnik) entwickelt wurden. Häufig, trotz ihrer Nachteile (mangelnde ➚Abbildungsgüte, fehlende
➚Industrietauglichkeit) auch in der Bildverarbeitung genutzt.
CDS ➚Correlated Double Sampling
Cg-/Cgk-Wert Cgm, Capability; gauge measurement. Fähigkeitsindex für die ➚Wiederholgenauigkeit eines Prüfmittels (Messgerätestreuung mit einem Normal als ➚Prüfobjekt).
Die Prüfmittelfähigkeit ist gegeben, wenn Cgm > = 1,33
ist. Cgm = 0,2 · T/6 · s mit s = Standardabweichung,
T = ➚Toleranzbereich.
Cgmk, Capability; gauge measurement koefficient. Fähigkeitsindex für die ➚Genauigkeit eines Prüfmittels (Messgerätestreuung mit einem Normal als ➚Prüfobjekt). Dieser Index enthält ➚systematische und ➚zufällige Anteile
(Fehler) der Messwertabweichung. Die Fähigkeit ist gegeben, wenn Cgmk > = 1,33 ist. Cgmk = (Xnormal + 0,1 ·
T) - Xq ges/3 · s oder Cgmk = Xq ges - (Xnormal - 0,1 · T)/3 ·
s mit s = Standardabweichung, T = ➚Toleranzbereich,
Xnormal = ➚Istwert des Normals, Xq ges = Mittelwert aller Messwerte. Cg-, Cgk-Werte werden auch angewendet
zur Qualifizierung von Prüfmitteln mit Bildverarbeitung.
Charge Coupled Device, CCD. Integrierter Schaltkreis, der
Lichtinformation (Photonen) in Ladungen umwandelt.
In eindimensionaler (CCD-Zeile) oder zweidimensionaler (CCD-Matrix) Form (Zeilen und Spalten) werden Ladungen in ➚Pixeln („lichtempfindlicher Kondensator“)
gesammelt. Wo viel Licht einfällt, entstehen viele Ladungen, wo wenig Licht einfällt, wenige. So entsteht ein
ortsdiskretes Ladungsbild, das in seiner Intensität über
die ➚optische Abbildung der Helligkeitsverteilung auf
dem lichtgebenden Objekt entspricht. Um die Ladungspakete, die sich in den Pixeln gesammelt haben, auszulesen, werden die Ladungen mit Hilfe getaktet angeleg-
Lexikon der industriellen Bildverarbeitung
ter elektrischer Felder vertikal und horizontal sukzessive
durch den ganzen Bildaufnehmer (durch vertikale und
horzontale Shiftregister) verschoben. Für das Verschieben der Ladungen gibt es verschiedene Prinzipien (➚Interline-Transfer-Sensor, ➚Frame-Transfer-Sensor). Am
Ende der Ladungsverschiebung entsteht ein serielles
analoges ➚Videosignal. Nach diesem Prinzip funktionieren die meisten heute gebräuchlichen (CCD-)Kameras für die industrielle Bildverarbeitung. Die einzelnen
CCD-Pixel sind nur hellempfindlich (➚spektrale Empfindlichkeit). Farbfähigkeit kann nur durch den Einsatz
von Lichtfiltern (➚Farbsensor) oder spektrale ➚Strahlteiler erreicht werden.
Vorteile der CCD-Technik: ist empfindlicher als ➚CMOS;
Pixel wirken integrierend („sammeln Helligkeit“); Kurzzeitbelichtung sehr effektiv möglich; billig, genau, und
sehr präzise (➚Maßverkörperung); hoher ➚Füllaktor.
Grenzen der CCD-Technologie: Serieller Datenzugriff.
Um an die Bildinformation eines Pixels zu kommen,
muss der gesamte Bildaufnehmer ausgelesen werden.
(Auslesezeit!); geringer ➚Dynamikumfang; Auftreten
von ➚Blooming; Auftreten von ➚Smear (besonders bei
Frame-transfer-Sensoren). (s. auch Pixelzahl, Pixelgröße,
Progressive Scan, CMOS-Sensor)
Checksumme ➚Prüfsumme
chromatische Aberration ➚Farbfehler
Chrominanz-Signal ➚Videosignal
CIE ➚Commission Internationale d´éclairage
Clipping Abschneiden von ➚Objekten an den Rändern des
➚Prüffensters. So entstehen z.B. offene ➚Konturen.
Closing ➚Morphologische Operation, bei der nacheinander ➚Dilatation und ➚Erosion durchgeführt wird. Die
Zahl der Erosionsschritte muss genauso groß sein wie
die der Dilatationsschritte. Durch Closing wachsen eng
beieinanderliegende helle ➚Objekte zusammen, Löcher
werden geschlossen und konkave Strukturen am Rand
von Objekten geschlossen.
Cloudy day-Beleuchtung ➚Schattenfreie Beleuchtung
CMOS-Sensor Complementary Metal Oxide Seminconductor-Sensor. Integrierter Schaltkreis, der Lichtinformation (Photonen) in Ladungen umwandelt. In allgemein
zweidimensionaler Form (Matrix von Fotodioden oder
-transistoren) werden Ladungen in ➚Pixeln gesammelt.
Wo viel Licht einfällt entstehen viele Ladungen, wo wenig Licht einfällt, wenige. So entsteht ein ortsdiskretes
Ladungsbild, das in seiner Intensität über die ➚optische
Abbildung der Helligkeitsverteilung auf dem lichtgebenden Objekt entspricht. Die Information, die das Ladungsbild erzeugt, wird über sukzessive Adressierung
der Spalten- und Zeilenadresse der Pixel ausgelesen.
Auch einzelne Pixel können zu jeder Zeit und sehr
schnell nacheinander ausgelesen werden. Damit ist ein
19
C
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 20
CMYK
C
CMOS-Sensor wie ein digitaler Speicherschaltkreis ansprechbar. Da die Adressierungslogik für jedes Pixel
mindestens zwei Transistoren benötigt, geht Fläche für
den lichtempfindlichen Teil des Sensors verloren, was
sich in dem geringer ➚Füllfaktor als bei CCD-Sensoren
niederschlägt und zu einer geringeren Lichtempfindlichkeit führt. Auch ist die ➚Pixel-Response-Non-Uniformity
durch Streuung der Bauelementedaten der großen notwendigen Anzahl an Ansteuerbauelementen wesentlich
schlechter als bei ➚CCDs. Bei CMOS-Sensoren ist prinzipbedingt kein ➚Blooming möglich, der ➚Dynamikbereich beträgt typisch 120dB bei einer logarithmischen
Empfindlichkeitskennlinie. Durch die verwendete Technologie erfolgt die ➚Analog-Digital-Umsetzung der Pixelhelligkeitssignale sofort auf dem Chip (pixelidentischer ➚Bildeinzug), weshalb CMOS-Sensoren i.A. ➚digitale Videosignale liefern. Auch Bildvorverarbeitung
auf dem CMOS-Chip ist möglich. Nahezu beliebige geometrische Formen der Pixelanordnung können erreicht
werden. Im Gegensatz zu CCDs wirkt ein CMOS-Sensor
nicht integrierend, er liefert Augenblickswerte der Helligkeit auf den Bildaufnehmern.
Weitere CMOS-Vorteile: Dynamikumfang bis 150 db
(CCD typ. 50 dB) ist möglich; direkte Adressierung der
Pixel (Bildausschnitte sehr schnell lesbar); hohe Bildraten (1,3 Mpixel-Vollbild mit 600 Hz); Betriebstemperaturen bis 125 Grad.
CMOS-Sensoren sind in der industriellen Bildverarbeitung
im Vormarsch, da durch sie viele neue Applikationen mit
extremem Helligkeitsumfang möglich werden: Schweißnahtverfolgung, bei Einsatz von Laserlichtquellen, als
Videofahrtenschreiber in der Automotive-Industrie uvm.
CMYK Cyan, magenta, yellow, key. Farbmodell für die subtraktive ➚Farbmischung beim Druckprozess (Offsetdruck). In der Bildverarbeitung ungebräuchlich.
CNC ➚Computerized Numerical Control
Codierter Lichtansatz Art einer ➚strukturierten Beleuchtung, die die aktive ➚Triangulation nutzt. Flächendeckend
können räumliche Koordinaten gewonnen werden. Zur
Genauigkeitssteigerung wird der codierte Lichtansatz mit
➚Subpixel-Antastung durch das ➚Phasenshiftverfahren
versehen. Berechnungszeiten der Höheninformation für
das gesamte Bild liegen im Sekundenbereich. Bei der Projektion eines Liniengitters auf ein ➚Prüfobjekt wirkt jede
Dunkel-Hell-Kante wie ein ➚Lichtschnitt. Normale Gitterprojektionsverfahren haben ein Zuordnungsproblem zwischen den Linien im Bild und den Linien des Gitters. Beim
codierten Lichtansatz wird die Eindeutigkeit durch die
Aufnahme von Folgen von Linienbildern erreicht, wobei
je ➚Bildaufnahme die Anzahl der projizierten ➚Kanten
nach einer bestimmten Codierung (z.B. nach dem GrayCode) erhöht wird.
20
Gerätetechnisch wird der codierte Lichtansatz realisiert
durch LCD-Projektoren, die auch individuelle Linienmuster zulassen. Anwendung: Rapid Prototyping, Rekonstruktion von Skulpturen, Vermessung von Karosserieteilen, Vermessung von Gesichtern. (s. auch strukturierte Beleuchtung, Phasenshiftverfahren, Moiré-Verfahren)
Cold Cathode Fluorescent Lamp Kaltkathoden-Fluoreszenzlampe.
COM-Server Endgerät in ➚TCP/IP-Ethernet-Netzwerken,
das Schnittstellen für serielle Geräte und digitale Einund Ausgabepunkte über das Netzwerk zur Verfügung
stellt. Über COM-Server können Bildverarbeitungssysteme, die über eine ➚serielle RS232-Schnittstelle, aber
über keinen ➚Ethernet-Anschluss verfügen, in EthernetNetzwerke eingebunden werden. Das Bildverarbeitungssystem stellt dazu die notwendigen Kommunikationsschnittstellen zur Verfügung. Über den COM-Server
mit seiner eigenen ➚IP-Adresse ist dann das Bildverarbeitungssystem über Ethernet ansprechbar. (s. auch
Fernwartung)
Commission Internationale d´éclairage Internationale
Beleuchtungskommission. Beschäftigt sich mit allen Belangen von Licht, Farbe und Beleuchtung. www.cie.co.at
Composite Sync Zusammengeführtes Synchronsignal,
welches das ➚vertikale Synchronsignal und ➚horizontale Synchronsignal beinhaltet.
Composite Video Signal ➚Videosignal
Computerized Numerical Control, CNC. Speicherprogrammierbare Steuergeräte, die besonders in Werkzeugund Druckmaschinen und in variierter Form in Industrierobotern eingesetzt werden. Zur Steuerung von Bewegungsabläufen kommen ➚Punktsteuerungen oder
➚Bahnsteuerungen zum Einsatz. Einige Bildverarbeitungssysteme besitzen ➚Schnittstellen zu CNC-Steuerungen.
Correlated Double Sampling CDS. Interne Schaltungstechnik für CCD-Chips, um thermisches Rauschen zu unterdrücken. Genutzt für extrem-rauscharme Kameras.
Cosinus4-Abfall ➚Vignettierung
Cosinus4-Gesetz ➚Vignettierung
CRC ➚Prüfsumme
CRT, Cathode Ray Tube. Kathodenstrahlröhre
CS-Mount Gewindebezeichnung für 1"x1/32" UN2A (Gewindenenndurchmesser 1"; 32 Gewindegänge auf 1"
Länge), ➚Auflagemaß 12,5 mm. Verkleinerte Form von
➚C-Mount. CS-Mount-Objektive können an C-MountKameras nicht verwendet werden.
Cyan, auch Zyan, entsteht bei additiver ➚Farbmischung
aus grün und blau. Blaugrüne Farbe, die resultiert, wenn
der rote Farbanteil aus weißem Licht entfernt wird.
(s. auch Komplementärfarbe)
C++ ➚C
Lexikon der industriellen Bildverarbeitung
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 21
Diffuse Beleuchtung
D
DAC Digital to Analogue Converter (engl.) ➚Digital Analog
Umsetzer
Data Matrix Code Zweidimensionaler Code mit großer Informationsdichte. In einem Data Matrix Code können
alphanumerische Zeichen verschlüsselt werden. Der Code wird in vielen Bereichen des produzierenden Gewerbes (besonders der Automobilindustrie und bei der Distribution) für die Teileidentifikation genutzt. Der
ECC200-Standard ist hierbei am gebräuchlichsten. Data
Matrix Code gibt es in den Codegröße von 10 · 10 bis
26 · 26 Punkten. Varianten sind gedruckte, gelaserte
oder genadelte Codes. Genadelte Codes können durch
eine veränderliche Struktur des Codes Beleuchtungsprobleme hervorrufen.
Datenkompression Verringerung der Datenmenge zur
Einsparung von Speicherplatz oder Handhabung (Datenübertragung) großer Datenmengen. Datenkompression beruht auf der Eliminierung redundanter Zeichen
bzw. dynamischer Zuordnung von Datenbits in Abhängigkeit der Häufigkeit eines Zeichens (character). Man
unterscheidet Verfahren mit echter und verlustbehafteter
Kompression. Meistgenutzter Einsatz bei der Komprimierung von Bildern (jpeg oder mpeg). Genutze Verfahren
sind u.a. die Lauflängenkodierung (run length coding),
run end coding und differentielle Pulscodemodulation.
DAU ➚Digital Analog Umsetzer
Deckglas ➚Planparallele Platte zum lichtdurchlässigen
Abschluss des ➚CCD-Chips im Schaltkreisgehäuse.
Manchmal mit ➚Infrarotsperrfilterschicht bedampft.
Häufig Träger von ➚Staub, der bei starker Abblendung
durch die ➚Abbildungstiefe sichtbar wird.
Defektpixel Im Herstellungsprozess von ➚Bilaufnehmern
kommt es zu Ausfällen oder stark differierender ➚Empfindlichkeit einzelner ➚Pixel. Je nach Güteklasse wird
die Anzahl dieser Defektpixel klassifiziert. Sie kann von
0 bis zu 1000 je Sensor reichen. Intelligente Signalverarbeitung in Kameras ermöglicht die Fehlerkorrektur
solcher Pixel dadurch, dass die Defektpixel im Ausgangssignal durch den mittleren Helligkeitswert der
umgebenden Pixel ersetzt werden.
Defokussierung Gegensatz zu ➚Fokussierung. Das Unscharfstellen eines Bildes.
Demoseite ➚Bildspeicherseite, auf der während der laufenden Bildvearbeitung Demonstrationsgrafiken zur
Veranschaulichung eingeblendet werden. Eine Trennung
zwischen ➚Bearbeitungs- und Demoseite ist vorteilhaft,
wenn z.B. eine Szene unter verschiedenen Beleuchtungen aufgenommen wird, die Ergebnisse aber nur in einem einzigen Bild dargestellt werden sollen.
Lexikon der industriellen Bildverarbeitung
Deutscher Kalibrierdienst Zusammenschluss von Kalibrierlabors, technischen Behörden, Instituten. Von ihnen
werden ➚Eichungen von Messgeräten und ➚Maßverkörperungen vorgenommen. Der Deutsche Kalibrierdienst wird von der ➚Physikalisch Technischen Bundesanstalt (PTB) akkreditiert und überwacht.
www.dkd.ptb.de
Deutsche Gesellschaft für Qualität Gesellschaft und Bildungsanbieter für Qualitätsmanagement. www.dgq.de
DGQ ➚Deutsche Gesellschaft für Qualität.
Dielektrische Schichten Zur Verstärkung oder Verminderung (➚Vergütung) von ➚Reflexionen auf optische Bauteile aufgebrachte Schichten aus elektrisch nicht leitenden Materialien.
Diffuse Auflichtbeleuchtung ➚Beleuchtungstechnik, die
die ➚Beleuchtungsrichtung Auflicht mit ➚diffuser Beleuchtung kombiniert. Diffuse Auflichtbeleuchtung soll
Oberflächeneigenschaften unterdrücken; ebene glänzende Teile gleichmäßig beleuchten; strukturierte
Flächen gleichmäßig (kontrastarm) beleuchten; Störstrukturen (z.B. Bearbeitungsspuren), verrundete Kanten, Kratzer, Knitter unterdrücken. Besonders schwierig
ist die gleichmäßige Beleuchtung gewölbter, gewinkelter, geknitterter Oberflächen mit diffuser Auflichtbeleuchtung.
Komponenten zur Erzeugung diffuser Auflichtbeleuchtung und deren Einsatzfelder: diffuse ➚Ringlichter,
großflächige diffuse ➚Flächenbeleuchtungen für Teile
mit geringen Unebenheiten, schwach geformte Teile;
➚Beleuchtung mit Kameradurchblick für Teile mit
größeren Unebenheiten, mäßig geformte Teile; ➚schattenfreie Beleuchtung für Teile mit großen Unebenheiten,
räumlich stark geformte Teile.
Diffuse Beleuchtung Beleuchtung, die idealerweise keine
Vorzugsrichtung besitzt, also in alle Richtungen des
Halbraumes (➚Raumwinkel) die gleiche ➚Leuchtdichte
hat. Ein idealer diffuser Strahler ist der ➚Lambertstrahler. Diffuse Beleuchtungen sollen örtlich homogen sein
bzw. homogen beleuchten. Die erreichte ➚Bestrahlungsstärke auf dem Objekt ist im ➚Auflicht abhängig
vom Abstand und von der Größe des Leuchtfeldes. Abweichungen der Einbaulage machen sich nur gering in
der Ausleuchtung der Abbildung bemerkbar (➚fotometrisches Entfernungsgesetz).
Anwendung: gleichmäßige ➚Durchlichtbeleuchtung für
undurchsichtige Teile; gleichmäßige ➚Auflichtbeleuchtung für glänzende, geschliffene, sandgestrahlte Teile;
kontrastmäßige Unterdrückung flacher Oberflächenstrukturen.
Möglichkeiten der Erzeugung diffuser Beleuchtung:
Kaltlichtquelle mit ➚Querschnittswandler; Leuchtstofflampe mit Mattscheibe; LED-Array mit Diffusor.
21
D
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 22
Diffuse Durchlichtbeleuchtung
D
Wird sowohl im ➚Auflicht (➚diffuse Auflichtbeleuchtung) als auch im ➚Durchlicht (➚diffuse Durchlichtbeleuchtung) verwendet.
Diffuse Durchlichtbeleuchtung ➚Beleuchtungstechnik,
die die ➚Beleuchtungsrichtung Durchlicht mit diffuser
Beleuchtung kombiniert. Besonders gut lassen sich damit
Objektkonturen kontrastreich darstellen, besonders bei
flachen Teilen. Durch diffuse Durchlichtbeleuchtung wird
nahezu ein ➚Binärbild erreichbar. Details auf der Oberfläche der Teile sind nicht sichtbar, nur die ➚Kontur. Bei
durchscheinenden Teilen sind Ober- und Unterseite nicht
mehr zu trennen. Problematisch kann die diffuse Durchlichtbeleuchtung bei hohen parallelwandigen Teilen mit
reflektierenden Seitenflächen und ➚Verkippung werden.
Dabei verändert sich der ➚Kantenort nicht reproduzierbar. Qualitätsmerkmal für diffuse Durchlichtbeleuchtungen ist die Homogenität. Gute Beleuchtungen erreichen
Schwankungen über die Leuchtfläche von < 5%.
Komponenten: diffuse ➚Flächenbeleuchtungen (s. auch
Hellfeld-Durchlichtbeleuchtung)
Diffuse Reflexion, auch gestreute Reflexion. Entsteht
durch ➚Streuung (Verteilung) des Lichtes bei ➚Reflexion an Oberflächen mit Rauhtiefen > λ/4. Gegenteil der
➚gerichteten Reflexion. Diffuse Reflexion verringert die
Intensität des einfallenden Lichtes durch Verteilung der
Lichtenergie in den Raum. (s. auch Reflexionsgrad)
Diffusor „Streuscheibe“. Verteilt Licht durch ➚Streuung in
(Volumenstreuung) oder an der Oberfläche (Oberflächenstreuung) von optischen Bauelementen. Meist sind Diffusoren ➚planparallele Platten. Diffusoren werden zur Homogenisierung von Lichtverteilungen verwendet.
Digital Analog Umsetzer, DAU. Setzt ➚Digitalsignale in
einer elektronischen Schaltung in ➚Analogsignale um.
Wird häufig zur Signalwandlung der digitalen ➚Videosignale am Ausgang eines ➚Framegrabbers zum Anschluss eines analogen Monitors genutzt.
Digital Signal Processor Prozessortyp, der auf die schnelle Abarbeitung mathematischer Algorithmen, zum Beispiel ➚Bildfilter spezialisiert ist. Häufig als zentraler
Prozessor in ➚Smart Cameras genutzt.
Digitale Ein-/Ausgänge Digitale Ein- und Ausgänge sind
die einfachste Prozessschnittstelle eines Bildverarbeitungssystems zur Automatisierungstechnik oder zum
Maschinenbau. Sie sind die Standardschnittstelle zur
SPS-Welt und werden mit den dort üblichen Signalpegeln betrieben. Bei ausreichender elektrischer Leistung
können die digitalen Ausgänge des Bildverarbeitungssystems direkt Aktoren (Sortierklappen, Pneumatikventile,
Auswerfer, ...) ansteuern, so dass für eine Reihe von Anwendungen das Bildverarbeitungssystem bereits Aufgaben der SPS übernimmt. Das gleiche gilt für digitale Eingänge, die bei geeigneten elektrischen Daten direkt Ini-
22
tiatoren, Lichtschranken, Näherungssensoren etc. abfragen können. Zur Erhöhung der Störsicherheit gegen
Überlastung sind digitale Ein- und Ausgänge in der Regel mit Optokopplern ausgestattet. Die Funktionalität
der abgefragten Eingänge kann dabei umfassen: Warten
auf Sollzustände (low oder high) mit ➚Timeout-Zeit-Abfragen von Zuständen; Entprellen der Eingangssignale
(wichtig bei der Abfrage mechanischer Schalter, ➚Entprellzeit). Die Funktionalität der steuernden Ausgänge
kann dabei umfassen: Ausgänge statisch setzen; Impulse (low oder high) für eine vorzugebende Zeitdauer ausgeben. (s. auch Portkontrolle)
digitale Filter ➚Bildfilter
Digitale Fotografie Digitale Fotografie nutzt elektronische ➚Bildaufnehmer in der ➚Bildebene der Kamera als
Ersatz für den Fotofilm.
Digitales Bild Im Unterschied zu einem analogen ➚Bild,
bei dem das Bild aus einer Vielzahl kleiner unregelmäßiger lichtempfindlicher Kristalle eines Salzes bestehent, oder gegenüber einem Bild, das mit einem Elektronenstrahl abgetastet wird (➚Vidikon) liegen digitale
Bilder in Form von ➚Pixeln, die in einer Matrixstruktur
(➚Bildaufnehmer) angeordnet sind, vor. Jedes Pixel ist
mit einem Helligkeitswert in digitaler Form entsprechend der ➚Digitalisierungstiefe versehen. Im einfachsten Fall ist das ein ➚Binärbild, meistens ein ➚Grauwertbild und im komplexesten Fall ein ➚Farbbild.
Digitalisierung Vorgang der Umwandlung von ➚Analogsignalen in ➚Digitalsignale. Für die Bildverarbeitung
müssen große Datenmengen innerhalb kurzer Zeit digitalisiert werden. So fallen z.B. für einen 1k · 1k CMOSBildaufnehmer bei einer ➚Bildfrequenz von 1000 Hz pro
Sekunde 1 Gbyte digitalisierte Bilddaten an. Die Digitalisierung von ➚Videosignalen erfolgt mit ➚Analog Digital Umsetzern, die entweder bereits in einer ➚Digitalkamera oder ➚Smart Camera enthalten sind oder bei
➚Analogkameras im ➚Framegrabber. Nach der Digitalisierung liegen die Bilddaten in einer dem Rechner zugreifbaren Form vor.
Digitalisierungstiefe ist von der Hardware (➚Analog Digital Umsetzer, ➚Framegrabber) vorgegeben und bestimmt den maximal darstellbaren digitalen Helligkeitswert in einem Bild. Bei einer Digitalisierungstiefe von
8 bit sind 256 verschiedene Helligkeitswerte (Grauwertstufen) möglich, bei 10 bit 1024.
Digitalkamera besitzt als Ausgang für das ➚Videosignal
➚Digitalsignale. Auch wenn sie einen analogen ➚Bildaufnehmer (z.B. CCD) nutzt, wird bei einer digitalen
Kamera die analoge Bildinformation im Innern der Kamera durch einen ➚Analog Digital Umsetzer digitalisiert.
Typische Schnittstellen digitaler Kameras zur Bilddatenübertragung sind ➚USB, ➚Fire Wire mit ➚Camera Link.
Lexikon der industriellen Bildverarbeitung
Lexikon neutral S.1-32/09.10.03
16.03.2004 10:52 Uhr
Seite 23
Drift
Digitale Kameras bieten gegenüber ➚Analogkameras
einige Vorteile: Unanfälligkeit gegenüber Einkopplung
von Störungen bei der Signalübertragung über Kabel;
ein besseres ➚Signal-Rausch-Verhältnis, pixelsynchroner ➚Bildeinzug, ➚Bildvorverarbeitung (Kontraststeigerung, Rauschminderung) kann schon in der Kamera,
noch vor der eigentlichen Bildverarbeitung in Echtzeit
durchgeführt werden. Es müssen keine Fernsehnormen
beachtet werden, wodurch eine höhere ➚Pixelzahl und
➚Bildfrequenz möglich ist. (s. auch Digitalisierung, Digitalisierungstiefe, siehe Fire Wire, Matrixkamera)
Digitalsignal Kann zeitlich nacheinander oder zeitlich parallel dargestellt werden. Besitzt je nach ➚Digitalisierungstiefe 2n (n=Anzahl der Informationsparameter)
Möglichkeiten für verschiedene Zustände, die meist als
Binärzahl/Dualzahl beschrieben werden. Vorteile von Digitalsignalen sind die hohe Darstellungsgenauigkeit
(nur abhängig von n), die problemlose Langzeitspeicherung und die Möglichkeit von komplexen Verknüpfungen in mikroelektronischen Schaltungen.
Dilatation, auch expand. ➚Morphologisches Verfahren
zum Verdicken/Ausdehnen von ➚Konturen. Gegenspieler der ➚Erosion. (s. auch opening, closing)
Dimensionelles Messen ➚Messen geometrischer Größen
wie ➚Abstände, ➚Winkel, ➚Konturen, Flächen. (s. auch
Fotometrie)
DIN-Normen Normen des Deutschen Instituts für Normung. DIN-Normen empfehlen Maße, Toleranzen und
Zeichnungsangaben. Sie ersparen aufwendige Spezifikationen einzelner Bauteile oder Geräte, wenn angegeben wird, welche DIN-Norm bei der Fertigung zugrunde
gelegt wurde. www.din.de
Diodenlaser Die in der Bildverarbeitung benötigten Lichtleistungen sind hinreichend gering, dass sie fast in allen
Fällen durch Diodenlaser abgedeckt werden, die sich
durch ihre kompakte Bauweise gut eignen. Diodenlaser
sind Halbleiterlaser, deren Lichtemission einem pn-Übergang (vor allem Gallium- und Indiumverbindungen) entstammt. Diodenlaser werden durch Anlegen einer
Kleinspannung in Durchlassrichtung der Diode gepumpt,
wodurch Elektronen und Löcher zum pn-Übergang getrieben werden (Ladungsträgerinjektion). Bei ihrer Rekombination kommt es zur Aussendung der Strahlung.
Diodenlaser können bis in den MHz-Bereich hinein einfach moduliert werden. So lassen sie sich gut als gepulste
Lichtquellen nutzen und einfach schalten. Sie sind gegen
Verpolung, Überspannung und elektrostatische Entladungen sehr empfindlich, weshalb sie immer zusammen mit
dem Betriebsgerät betrieben werden müssen.
Wie alle Laser zeichnen sich Diodenlaser durch ihre hohe Energiedichte, ausgesendetes ➚kohärentes und nahezu ➚monochromatisches Licht aus. Laserlicht besitzt
Lexikon der industriellen Bildverarbeitung
durch seine Kohärenz ein charakteristisches Intensitätsprofil mit ➚Speckles. Zur Formung des Laserlichtes
werden ➚Strahlformungsoptiken verwendet. In der
Bildverarbeitung werden Diodenlaser bevorzugt zur
➚Triangulation, für das ➚Lichtschnittverfahren oder zur
➚strukturierten Beleuchtung angewendet. Diodenlaser
gibt es mit einer Lichtleistung von 1 mW bis zu einigen
Watt. (s. auch Laserklasse)
Dispersion Abhängigkeit der Größe der ➚Brechzahl von
der ➚Wellenlänge. Kurzwelliges Licht (blau) wird stärker gebrochen als langwelliges Licht. Damit hat die Dispersion über die ➚Beleuchtungswellenlänge Auswirkungen auf den ➚Arbeitsabstand von Objektiven. Bei
➚Abbildungsmaßstäben um 0,2 können durch Dispersion Differenzen im Arbeitsabstand von bis zu 5 mm auftreten, je nachdem, ob ➚infrarotes Licht (890nm) oder
blaues Licht (400nm) verwendet wird. Die Dispersion ist
Ursache für ➚Farbfehler von optischen Systemen.
Divergenz Auseinanderlaufen von ➚Lichtstrahlen
DKD, Deutscher Kalibrierdienst
DLL ➚Dynamic Link Library
Dotcode ➚Datamatrix-Code
Drehlageermittlung Ist eine typische Bildverarbeitungsfunktion, die aus den Erfordernissen der Robotik entwickelt wurde. Bestimmt wird die Drehlage eines Objektes (➚Muster) als Parameter für die Orientierung von Robotergreifern und Positioniersystemen. Bei der Drehlageermittlung wird ein eingelerntes Helligkeitsmuster in einem vorgegebenen Bereich mit einem aktuellen Bild
verglichen und so lange verschoben und gedreht (➚Korrelation), bis eine maximale Übereinstimmung erreicht
wird. Danach wird der Drehwinkel zwischen beiden Mustern ermittelt. (s. auch Konturdrehlage)
Drehlagenachführung Verfahren zur drehlageunabhängigen Erkennung und ➚Antasten von ➚Prüfobjekten.
Drehlagenachführung wird angewendet, um ein gegenüber dem Einlernzeitpunkt in x- und y-Richtung verdrehtes Prüfobjekt sicher mit ➚Antaststrahlen oder
➚Prüffenstern versehen zu können. Dazu werden die
Koordinaten der Antaststrahlen/Prüffenster entsprechend der aktuellen Drehlage des Prüfobjektes einem
gedrehten Koordinatensystem zugeordnet. Wird oft in
Kombination mit ➚Lagenachführung angewendet.
Drehlagenachführung ist ein wirkungsvolles Mittel, um
Teile, die durch Positionierungenauigkeit, Synchronisierung, unterschiedliche Zykluszeit der Maschine an verschiedenen Positionen im Gesichtsfeld erscheinen, sicher zu erfassen.
Drift Als Driftvorgänge bezeichnet man die Änderung von
Kenngrößen über eine längeren Zeitraum (vgl. ➚flimmerfeie Beleuchtung). Drift spielt für die Bildverarbeitung eine Rolle, da von ihr über die eingestellten Para-
23
D
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 33
Druckbildkontrolle
D
meter (u.a. ➚Antastparameter) in den ➚Prüfprogrammen das Messergebnis beeinflusst wird.
Thermische Drift: Betrifft besonders elektronische Bauelemente in Kameras, ➚Framegrabbern und ➚LED-Beleuchtungen. Thermische Drift kann Synchronisationsprobleme, ➚Dunkelstromrauschen, Helligkeitsunterschiede bis hin zum Funktionsausfall verursachen. In
mechanischen Aufbauten verursacht thermische Drift
eine Änderung der Längenausdehnung (wichtig bei Präzisionsmessungen).
Helligkeitsdrift in Beleuchtungen: Kann durch thermische Drift, Alterung oder durch Verschmutzung verursacht werden. Daher sollte vorbeugend ➚Helligkeitsnachführung eingesetzt werden.
Druckbildkontrolle Anwendung industrieller Bildverarbeitung zur Qualitätskontrolle von Druckware (Etiketten, Bedienelemente, Logos etc.) Im Gegensatz zu
➚OCR/OCV wird die Abweichung von einem Idealzustand bestimmt. Wird meist durch ➚Mustererkennung
reduziert und ist durch ➚Korrelation lage- und drehlageunempfindlich. An die Verarbeitungsgeschwindigkeiten werden durch die in der Druckindustrie herrschenden Geschwindigkeiten hohe Anforderungen gestellt.
DSP ➚Digital Signal Processor
Dünne Schichten ➚Vergütung
Dunkel-Hell-Übergang In ➚Kantenrichtung Übergang von
einem geringeren zu einem größerem Helligkeitswert.
Dunkelfeld-Auflichtbeleuchtung ➚Beleuchtungstechnik
mit unter flachem Winkel über der ➚Objektebene einfallende Beleuchtungsstrahlenbündeln. ➚DunkelfeldAuflichtbeleuchtung kann nicht durch direkte ➚Reflexion an ➚Prüfobjekten in das beobachtende Objektiv
einfallen (Feld ist dunkel). Nur an Oberflächenstrukturen
diffus gestreute Lichtanteile gelangen in das Objektiv:
Fehler erscheinen hell. Durch im Vergleich zur Reflexion
nur schwache ➚Streuung sind Dunkelfeld-Auflichtbeleuchtungen häufig lichtschwach, was durch lange ➚Integrationszeiten (➚Shutter) ausgeglichen werden kann.
Der Lichteinfall unter flachem Winkel über dem Objekt
kann durch ➚Dunkelfeldringlichter oder ➚gerichtete
Beleuchtung (Streiflichtbeleuchtung) erzeugt werden.
(s. auch Dunkelfeldbeleuchtung)
Anwendung: Hervorheben von Konturen, Kratzern, Rissen etc. (sowohl graviert als auch erhaben) an undurchsichtigen/durchsichtigen Teilen. So ist optische ➚Bildvorverarbeitung für Konturen möglich. Besonders geeignet
zur ➚Oberflächenkontrolle, auch an stark reflektierenden Teilen. Die Grenzen der Dunkelfeld-Auflichtbeleuchtung sind immer dann gegeben, wenn sich Staub,
Schmutz, Fusseln auf dem Prüfobjekt befinden. Für die
Bildverarbeitung lässt sich dabei nicht trennen, ob es
sich um Schmutz oder Oberflächenstrukturen handelt.
24
Dunkelfeldbeleuchtung Beschreibt die Richtung der einfallenden Beleuchtungsstrahlenbündel in das optische
System. Bei der Dunkelfeld-Beleuchtung gehen die Beleuchtungsstrahlenbündel in jedem Fall am optischen
System vorbei (das Feld ist dunkel), allein die Streuung
an Oberflächenstrukturen führt dazu, dass ein geringer
Teil des Lichtes diffus in Richtung der Optik gestreut
wird (Fehler erscheinen hell). Kombiniert mit den
➚Lichtrichtungen ergeben sich: ➚Dunkelfeld-Auflichtbeleuchtung und ➚Durchlicht-Dunkelfeldbeleuchtung.
Dunkelfeld-Durchlichtbeleuchtung Die unter flachem
Winkel unter der ➚Objektebene einfallenden Beleuchtungsstrahlenbündel der ➚Durchlichtbeleuchtung können nicht durch direkte ➚Reflexion an ➚Prüfobjekten
in das beobachtende Objektiv einfallen (Feld ist dunkel). Nur an Oberflächenstrukturen diffus gestreute
Lichtanteile gelangen bei der ➚Dunkelfeldbeleuchtung
in das Objektiv: Fehler erscheinen hell. Somit ist die
Dunkelfeld-Durchlichtbeleuchtung für ihre Funktion auf
durchsichtige oder zumindest durchscheinende Prüfobjekte angewiesen und begrenzt und wird dadurch recht
selten angewendet. (s. auch Dunkelfeld-Auflichtbeleuchtung)
Dunkelfeldringlicht Spezielle Form einer ➚Ringlichtbeleuchtung, das ➚Dunkelfeldbeleuchtung erzeugt. Besonderheit ist die radiale Anordnung der Lichtquelle(n),
die das Licht schwerpunktmäßig in Richtung des Ringmittelpunktes oder leicht darunter aussenden. Je nach
➚Beleuchtungsabstand lassen sich durch den flachen
Abstrahlwinkel in der ➚Objektebene verschiedene
➚Beleuchtungsstärkeverteilungen realisieren. Aus
Funktionsgründen muss die Positionierung der Dunkelfeldringlichter dicht über/unter dem ➚Prüfobjekt erfolgen, bishin zum direkten Aufsetzen (Beleuchtungsabstand 0). Das macht den Einsatz von Dunkelfeldringlichtern bei industriellen Inspektionsaufgaben zum Teil
schwierig.
Dunkelstrom Strom, der in den ➚Pixeln eines ➚Bildaufnehmers auch ohne Einfall von Licht generiert wird. Dieses Hintergrundsignal erzeugt Rauschen durch thermisch generierte Elektronen in verschiedenen Schichten
eines ➚CCDs. Die Höhe des Dunkelstroms ist abhängig
von der Architektur des Bildaufnehmers, der Betriebsart
und der Umgebungstempereratur und für jedes Pixel
verschieden groß. Kann durch ➚Schwarzreferenzpixel
kompensiert werden. Der Dunkelstrom eines Bildaufnehmers verdoppelt sich jeweils bei einer Temperatursteigerung um 9K.
Duplex Datenübertragung in beiden Richtungen. Vollduplex: Datenübertragung in beiden Richtungen gleichzeitig. Halbduplex: jeweils nur ein Gerät kann senden und
das andere empfangen.
Lexikon der industriellen Bildverarbeitung
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 34
Eingriffsgrenzen
Durchlichtbeleuchtung Beleuchtungsrichtung, bei dem
die Beleuchtung im Halbraum hinter der ➚Objektebene
liegt. Anwendungen immer dann, wenn es bei kontrastreicher Abbildung (Schattenbilder) um hohe Genauigkeiten geht, z.B. bei der Vermessung von ➚Prüfobjekten. Durchlichtbeleuchtungen benötigen i.A. Objekte,
die nicht sehr durchscheinend sind. Diffuse Leuchtflächen sorgen bei Durchlichtbeleuchtung für gleichmäßige Helligkeit.
Die Grenzen der Durchlichtbeleuchtung werden meist
von der Anlage vorgegeben, in die die Beleuchtung eingebaut wird. Grundsätzlich ist die Durchlichtbeleuchtung die ideale Beleuchtung für die Bildverarbeitung,
da sie die Abbildung weitgehend unabhängig von den
optischen Eigenschaften der Prüfobjekte macht. Für
Durchlichtbeleuchtungen ist die ➚Leuchtdichte eine
entfernungsunabhängige Größe und konstant, d.h. unabhängig vom ➚Beleuchtungsabstand. Typische Beipiele für Durchlichtbeleuchtungskomponenten sind:
➚telezentrische Beleuchtungen, diffuse Flächenbeleuchtungen.
Dynamic Link Library Sammlung von spezifischen Programmen unter Windows®, die bestimmte Dienste für
andere Programme realisieren, z.B. Treiber. Bei Bedarf
werden sie von einem Anwenderprogramm aufgerufen.
Sie werden nicht zusammen mit dem Anwenderprogramm in den Arbeitsspeicher geladen und sparen damit Speicherplatz.
Dynamikumfang Verhältnis zwischen Sättigungsspannung und Dunkelstromrauschen eines ➚Bildaufnahmers.
Dynamikumfang = 20 log (Usätt./Urausch). Typische Dynamikumfänge von ➚CCDs liegen zwischen 50 und 80 dB.
Der Dyna-mikumfang der ➚Digitalisierungstiefe ist geringer als der des Bildaufnehmers. Das ist verständlich,
da ja das Dunkelstromrauschen weit im niedrigwertigsten digitalisierten bit untergehen sollte:
Dynamikumfang der Digitalisierung:
8 bit
255 Grauwertstufen
> 48 db
10 bit
1024 Grauwertstufen
> 60 db
12 bit
4096 Grauwertstufen
> 72 db
14 bit
16384 Grauwertstufen
> 84 db
Zum Vergleich: Das menschliches Auge hat einen Dynamikumfang von 120 db (dynamische Anpassung mit Iris,
vergleichbar mit 106 Grauwertstufen). Hohe Dynamik
bedeutet letztendlich besseren ➚Kontrast im Bild.
Dynamische Schwelle, auch lokales ➚Schwellwertverfahren. Verfahren, bei dem der ➚Schwellwert entsprechend lokaler oder globaler Parameter des Bildes (meist
Helligkeit) nachgeführt wird. Wird u.a. für das ➚Antasten genutzt. Die dynamische Schwelle wird angewendet, um Änderungen in der Helligkeit (Alterung, Helligkeitsdrift) auszugleichen.
Lexikon der industriellen Bildverarbeitung
E
ECC200 Code Häufig genutzter ➚Data Matrix Code.
Echtzeit Zeitverhalten von Systemen, auf ein äußeres Ereignis in einer definierten Zeit (der Reaktionszeit) zu
antworten. Die Reaktionszeit für Echtzeitsysteme kann
je nach Aufgabe sehr verschieden sein (Beispiele: Antiblockiersystem – Mikrosekunden, Temperaturregelung
– Minuten). Bei industriellen Prüfaufgaben hängen die
Anforderungen an die Echtzeitfähigkeit direkt mit der
Taktzeit des unverzögerten Teileflusses zusammen. In
der industriellen Bildverarbeitung ist es die Fähigkeit eines Systems, eine vollständige Analyse und Auswertung
eines ➚Prüfobjektes vor dem Eintreffen des Nächsten
auszuführen. Im Extremfall kann das eine Verarbeitung
der Informationen im Takt der ➚Bildfrequenz, in VideoEchtzeit, bedeuten. Echtzeitfähigkeit wird besonders
von Bildverarbeitungssystemen mit mehreren Kameras
gefordert, damit diese gleichzeitig den ➚Bildeinzug realisieren können. (s. auch Zykluszeit)
Effektive Pixel ➚Lichtempfindliche Fläche
EIA ➚Electronic Industries Association
Eichung ist eine von der staatlichen Eichbehörde nach gesetzlichen Vorschriften vorgenommene Prüfung für den
rechtsgeschäftlichen Verkehr. (s. auch Kalibrierung)
Eigensicherheit Eigenschaft eines Systems, auch bei Ausfall bestimmter Funktionen sicher zu funktionieren. Die
zu gewährende Sicherheit kann sich beziehen auf: Leben und Gesundheit, Qualität u.ä.
Eigensicherheit von Anlagen mit Bildverarbeitung, bezogen auf die Qualität bedeutet: Bei Funktionsausfall
einzelner Systemfunktionen werden alle durchgelaufenen Teile der Klasse „Schlechtteile“ zugeordnet. Bei der
Programmgestaltung von Bildverarbeitungsprogrammen ist der Eigensicherheit Rechnung zu tragen.
Eindimensioneller Code ➚Bar-Code
Einfallswinkel Winkel zwischen dem einfallenden Strahl
auf eine Oberfläche und deren Flächennormale.
Eingespiegelte Beleuchtung ➚Koaxial eingespiegelte
Beleuchtung
Eingriffsgrenzen bezeichnen Warnwerte, die kleiner/
größer als der ➚obere/➚untere Grenzwert sind. Die
Festlegung von Eingriffsgrenzen erfolgt gemäß der Annahme, dass sich ein Prozess ideal verhält (konstantes
Prozessniveau und konstante Streuung). Eingriffsgrenzen werden so festgelegt, dass sie von der Prüfgröße
nur mit einer kleinen Wahrscheinlichkeit erreicht, unteroder überschritten werden. Das Einrichten der Eingriffsgrenzen muss sorfältig geschehen, da bei kleinen Eingriffsgrenzen häufiger in den Prozess eingegriffen werden muss („blinder Alarm“). Ist der Abstand der Ein-
25
D
E
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 35
Einschraubtiefe
E
griffsgrenzen zu groß, kommt es dazu, dass ein erwünschtes Eingreifen in den Prozess ausbleibt („unterlassener Alarm“).
Einschraubtiefe ➚Eintauchtiefe
Einstellbare Blende Möglichkeit am ➚Objektiv über einen
Blendring den ➚Lichtstrom, der durch das Objektiv fließt,
zu beeinflussen. Einstellbare Blenden können manuell
oder motorisch (s. auch Auto-Iris) gesteuert sein und funktionieren meist als Iris-Blenden mit Blendenlamellen. Je
mehr Lamellen, desto besser das symmetrische Beschneiden des Lichtstromes (geringere ➚Abbildungsfehler).
Für industrielle Anwendungen sollten einstellbare Blenden über eine Feststellmöglichkeit verfügen, um die
Selbstverstellung durch Vibrationen oder die Verstellung
durch Bedienpersonal zu vermeiden.
Einstellentfernung Auf dem Entfernungseinstellring eines Objektivs angezeigter ➚Arbeitsabstand bei Scharfeinstellung. Die kürzeste Einstellentfernung, auch MOD
(minimal object distance) genannt, ist der kürzeste am
Entfernungseinstellring des Objektivs einstellbare ➚Arbeitsabstand. Die kürzeste Einstellentfernung ist bei
langbrennweitigen Objektiven größer als bei kurzbrennweitigen Objektiven. Verkürzt werden kann die kürzeste
Einstellentfernung durch die Verwendung von ➚Zwischenringen oder ➚Nahlinsen.
Eintauchtiefe, auch Einschraubtiefe. Linsen und Fassungsteile von ➚Objektiven ragen in den Bauraum zwischen
➚Objektivauflagefläche und ➚Bildaufnehmer in die Kamera hinein. Die Herstellerangaben über Eintauchtiefe
sind zu beachten, da bei zu großer Eintauchtiefe (z.B.
bei Nutzung von artfremden Objektiven). Schäden am
➚Deckglas des ➚Bildaufnehmers auftreten.
Eintrittspupille Bild der ➚Öffnungsblende, das von der
Frontseite des Objektivs aus sichtbar ist.
Electronic Industries Association EIA. Nordamerikanische Industrievereinigung der elektronischen Industrie.
EIA steht in Zusammenhang mit ➚CCD-Kameras für die
amerikanische und japanische Video-Norm von Schwarz/
weiß-Bildern mit einer ➚Bildfrequenz von 60 Halbbildern pro Sekunde und 525 Zeilen. www.eia.org
Elektrolumineszenz Art kalter Lichterzeugung durch nichtthermische Umwandlung elektrischer Energie in ➚Licht
in Flüssigkeiten oder festen Stoffen. An p-n-Übergängen
von ➚Leuchtdioden tritt Elektrolumineszenz auf.
Elektromagnetische Verträglichkeit ist die Fähigkeit von
elektrischen Geräten in einer elektromagnetischen Umgebung in vorgegebener Weise zu arbeiten sowie die
Umgebung freizuhalten von unzulässig hohen elektromagnetischen Wirkungen.
Durch die rauen Gegebenheiten im industriellen Umfeld
(Übersprechen, Störfelder, Transienten, ...) wirkt die elektromagnetische Verträglichkeit direkt auf das Bildverar-
26
beitungssystem ein. Diese Störgrößen haben direkten
Einfluss auf die Genauigkeit und Zuverlässigkeit eines
Bildverarbeitungssystems.
Elektronischer Shutter ➚Shutter
Elliptische Polarisation ➚Polarisation
EMC Electromagnetic Capability ➚Elektromagnetische
Verträglichkeit
Empfindlichkeit beschreibt den Zusammenhang zwischen der auf einen ➚Bildaufnehmer einfallenden Beleuchtung und das am Ausgang erzeugte Spannungssignal.
EMV ➚Elektromagnetische Verträglichkeit
EMVA European Machine Vision Organization. Europäische Machine Vision Vereinigung. 2003 gegründet.
www.emva.org
Endoskop Optisches Gerät zur Inspektion schwer zu erreichender Hohlräume, Kammern, Motoreninnenräume.
Häufig zur medizinischen Diagnostik genutzt. Benutzt
getrennten Abbildungs- und Beleuchtungsstrahlengang.
Die ➚Lichtquelle befindet sich außerhalb des Endoskops. Starre Endoskope sind schlanke, gerade Röhren.
Flexible Endoskope (Glasfaserendoskope) nutzen ➚Bildleitkabel zur Übertragung der optischen Abbildung und
➚Lichtwellenleiter zur Beleuchtung. Vorteil ist die Biegsamkeit, so dass mit Glasfaserendoskopen auch in Hohlräume (Maschinen, aber auch bei der menschlichen
Diagnostik) vorgedrungen werden kann, die mit starren
Endoskopen nicht erreichbar sind. Mit Vorsatzspiegeln
und -optiken kann nicht nur in Richtung der Röhrenachse sondern auch seitwärts abgebildet werden (Bohrungswandungen, Venen, etc.). Dünnste Endoskope haben ca. 1 mm Außendurchmesser. Endoskope werden
fast immer in Verbindung mit einer Kamera (hauptsächlich zur Dokumentation) genutzt. Anwendungsfälle mit
Bildverarbeitung sind selten.
Entfernungsgesetz ➚quadratisches Entfernungsgesetz
Entozentrische Perspektive ➚Perspektive
Entozentrisches Objektiv Objektiv, das die entozentrische ➚Perspektive nutzt. Bildet entsprechend der Sehgewohnheit des menschlichen Auges ab: nah liegende
Objekte erscheinen größer als entfernter liegende.
Meistverwendetes Objektiv in der Bildverarbeitung.
Sehr kleine Baugrößen sind möglich und verschiedenste
Qualitäten (➚Abbildungsfehler). Bei schräger Draufsicht
kommt es zu Perspektivfehlern. Anwendung: Für Beobachtungsaufgaben, ➚Anwesenheitskontrolle, ➚attributive Prüfung, ➚Druckbildkontrolle, Farbkontrolle. Die
Möglichkeiten zum Messen sind stark eingeschränkt
(Ausnahmen: flache, ebene Teile, aber nur bei konstantem ➚Arbeitsabstand).
Entprellzeit Bei der Abfrage von digitalen Eingängen einzustellende Zeit, damit das Eingangssignal stabil anliegt.
Lexikon der industriellen Bildverarbeitung
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 36
Farberkennung
Entspiegelung ➚Vergütung
Erosion, auch shrink. ➚Morphologisches Verfahren zum
Verdünnen von ➚Konturen. Gegenspieler der ➚Dilatation. (s. auch opening, closing)
Erschütterungsfestigkeit ➚Industrietauglichkeit
Ethernet ist die zur Zeit bei lokalen Netzen (LAN) am häufigsten angewandte Technologie. Es gibt drei verschiedene Ethernet Topologien: 10Base2, 10Base5 und 10BaseT. Die Übertragungsrate beträgt 10 Mbit/s. Eine Weiterentwicklung ist das Fast-Ethernet mit 100 Mbit/s.
Übertragung über Koaxialleitungen, spezielle Vierdrahtleitungen oder Glasfasern. Aus der Bürotechnik entwickelt, dringt das Ethernet nach Möglichmachen von
➚Echtzeit auch in den Feldbereich der Automatisierungstechnik vor. Eine Reihe von Bildverarbeitungssystemen
besitzen Ethernetanschluss. (s. auch ISO 8802-3)
Expand ➚Dilatation
F
F-Theta-Objektiv Gruppe von ➚Objektiven, die gewöhnlich in Scannern zur Abtastung großer ➚Gesichtsfelder
genutzt wird. F-Theta-Objektive besitzen eine F-ThetaKorrektion, um die Bildhöhe proportional zum Scanwinkel zu machen: „Normale“ Objektive bilden proportional zum Tangens dieses Winkels ab.
Falschfarben Zuordnung fremder Farbwerte zu einem Bild.
Falschfarben werden zur Visualisierung von Schwarz/
weiß-Bildern genutzt, um geringe ➚Grauwertdifferenzen sichtbar zu machen. Praktische Realisierung u.a.
über ➚Look up Tabellen.
Faltung bedeutet in der Bildverarbeitung die Verrechnung
von Matrizen z.B. bei ➚Bildfiltern. Dabei wird das als
Matrix von Helligkeitswerten vorliegende Bild mit der
Matrix des Filter-Operators verrechnet.
Faltungsverfahren ➚Antastalgorithmus
Faltungsverfahren mit maximalem Koeffizienten
➚Antastalgorithmus
Farb-Bild-Austast-Synchron-Signal ➚Videosignal
Farbabstand ➚Farbdifferenz
Farbauflösung Fähigkeit, die ➚Farbvalenzen von Farben
auf dem ➚Prüfobjekt zu differenzieren. Das Farbauflösungsvermögen ist damit sehr stark an die Fähigkeiten
des ➚Bildaufnehmers gebunden. Ähnlich wie die
➚Grauwertauflösung hängt die Farbauflösung direkt
mit der ➚Digitalisierungstiefe zusammen. Weiterhin haben das ➚Signal-Rausch-Verhältnis, der ➚Dynamikumfang, die Verstärkung der einzelnen Farbkanäle des Videosignals, der ➚Weißabgleich, die Homgenität der Beleuchtung sowie Wechselwirkungen mit dem Prüfobjekt
Lexikon der industriellen Bildverarbeitung
Einfluss. Die Farb-Ortsauflösung auf dem Objekt ist eng
mit dem ➚Abbildungsmaßstab verbunden, über den mit
der ➚Pixelgröße im Bild festgelegt ist, wie groß das
kleinste aufzulösende Farbfeld auf dem Objekt ist. Hier
sind Einchip-Farbkameras, auf Grund der Farbaufteilung
und Fertigungstoleranz der farbempfindlichen Pixel auf
3 benachbarte Pixel, unempfindlicher als 3-Chip-Farbkameras (➚Farbkamera).
Farbbild Digitales Bild im ➚Bildspeicher, bei dem drei zusammengehörige ➚Bildpunkte je eine rote, eine grüne
und eine blaue ➚Farbkomponente zugeordnet ist. Dieses Farbtripel wird zur Farbdarstellung genutzt. Mit 3 · 8
bit RGB-Farbkomponenten lassen sich im Farbbild 16
Millionen verschiedene Farben darstellen (➚Farbtiefe).
Farbbildverarbeitung Abgeleitet aus den Verfahren und
Algorithmen der ➚Binär- und ➚Grauwertbildverarbeitung nutzt die Farbbildverarbeitung noch komplexere Informationen. Die Betrachtungen müssen auf die Verknüpfung aller drei ➚Grundfarben ausgeweitet werden,
was die zu verarbeitende Datenmenge erhöht und Farbbildverarbeitung sehr viel rechenzeitaufwendiger macht.
Eine Reihe von Anwendungen werden durch Farbbildverarbeitung überhaupt erst möglich, nämlich die Inspektion farbiger Objekte, die bei Grauwertbildverarbeitung denselben Grauwert hervorrufen, so zum Beispiel in
der Lebensmittelkontrolle, Qualitätsbewertung von Naturprodukten (Holz) oder die Oberflächenkontrolle an
galvanisierten Teilen.
Farbdifferenz, auch Farbabstand. Differenz der Werte der
➚Farbkoordinaten. Für jede Farbkomponente ist die
Farbdifferenz der Koordinaten gesondert zu betrachten.
Farbe Sinneseindruck, der durch das Auge vermittelt wird
bei Reizung der Netzhaut durch ➚Licht verschiedener
➚Wellenlängen. (s. auch Farbeindruck, Farbvalenz, Farbmetrik)
Farbeindruck Subjektive Bewertung von Farben durch den
Menschen. Ungeeignet als Bezugsgröße für die Farbbildverarbeitung. (s. auch Farbvalenz, Farbmetrik)
Farbempfindlichkeit ➚Spektrale Empfindlichkeit.
Farberkennung Die Nutzung des Merkmals Farbe kann visuelle Inspektionsaufgaben vereinfachen, durch Verbessern des ➚Kontrasts oder Trennen von Objekten vom
Hintergrund. Farberkennung schließt drei Bereiche ein:
➚Farbtest, Farbe finden und Farb-➚Mustererkennung.
Dazu wird quantisiert, welche Farben und in welchen Anteilen (➚Farbvalenz) in einem ➚Prüffenster vorkommen.
Farberkennung kann unter bestimmten Bedingungen
(geringe Anzahl von verschiedenen Farben, Bekanntheit,
welche Farben vorkommen) auch von Schwarz/weißBildverarbeitungssystemen durchgeführt werden (Nutzung von ➚Lichtfiltern, ➚Komplementärfarbe). (s. auch
spektrale Empfindlichkeit, Beleuchtungswellenlänge)
27
E
F
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 37
Farbfehler
F
Farbfehler ➚Abbildungsfehler, der nur bei Beleuchtung
mit polychromatischem Licht auftritt. Er wird durch
➚Disperion der optischen Gläser hervorgerufen. Man
unterscheidet zwischen Farblängsfehlern, die zu unterschiedlichen ➚Brennpunktlagen für verschiedene
➚Wellenlängen führen und Farbquerfehler, die zu unterschiedlichen ➚Abbildungsmaßstäben für verschiedene Wellenlängen führen (wellenlängenabhängige
➚Verzeichnung). Hochwertige Objekte sind für den
ganzen Wellenlängenbereich des sichtbaren Lichtes
sowie des nahen Infrarotlichtes farbkorrigiert. Der Einfluss von Farbfehlern in der Schwarz/weiß-Bildverarbeitung lässt sich einfach durch die Nutzung von
➚monochromatischem (einfarbigen) Licht verhindern.
(s. auch Weißlicht)
Farbfilter Schichten farbiger Stoffe (Glas, Gelatine, Kunststoffe), die Wellenlängenbereiche eines ➚Spektrums
dämpfen. Werden als ➚Absorptionsfilter oder ➚Interferenzfilter ausgeführt. Farbfilter lassen besonders den
Wellenlängenbereich des Lichtes durch, in dem sie
selbst erscheinen. Die ➚Komplementärfarbe wird i.A.
besonders gut gedämpft. Eingefärbte Kunststoffe weisen durch Trübung und Ausbleichen keine genügende
Langzeitstabilität auf. Über die Verlängerung der ➚Integrationszeit bei der Anwendung von Farbfiltern gibt der
➚Filterfaktor Auskunft. Durch den Einsatz von Farbfiltern in der Schwarz/weiss-Bildverarbeitung lässt sich eine gezielte optische ➚Bildvorverarbeitung zur Kontraststeigerung erreichen. So können durch das bewusste
Vorsetzen von Farbfiltern im Schwarz/weiß-Bild auch
Farben nachgewiesen werden.
Farbfilter-Matrix, auch Mosaikfilter. Flächige Anordnung
von kleinen ➚Farbfiltern nach einem festgelegten Muster. Werden für die spektrale Aufbereitung der Helligkeitsinformationen in Farb-Bildaufnehmern (➚Farbkamera)
genutzt. Für Einchip-Farbkameras werden immer 3 benachbarte Pixel zur Erfassung der Farbinformation eines
Farbpunktes zusammengefasst. So können die drei benachbarten Pixel je ein rotes, grünes, blaues Filter tragen
(additive ➚Farbmischung/Transmissionsfilter) oder je ein
gelbes, ein zyan und ein magenta (subtraktive ➚Farbmischung/Absorptionsfilter).
Farbkamera ➚Bildaufnehmer besitzen für sich keine
natürliche Fähigkeit, ➚Farben zu unterscheiden. Gemäß
der ➚spektralen Empfindlichkeit des Halbleitermaterials
der ➚Pixel unterscheiden sie nur zwischen hell oder
dunkel und Zwischenwerten. Um das Silizium des Sensorsubstrats farbfähig zu machen, sind ➚Farbfilter notwendig. Dadurch gibt es zwei Arten von Farb-Kameras:
3-Chip-Farbkamera: Das einfallende Licht wird über
spektral und geometrisch teilende ➚Strahlteiler (meist
Prismen) in drei Farbauszüge (rot, grün, blau) aufgeteilt
28
und auf drei separate ➚Bildaufnehmer (i.A. ➚CCD) gelenkt, die ihrerseits den jeweiligen Farbauszug als Helligkeit („Grauwert“) registrieren. Dieser Aufbau ist
optomechanisch sehr aufwendig, da die drei Bildaufnehmer pixelgenau justiert sein müssen. Vorteil ist die
große örtliche Farbauflösung in Höhe der Pixelzahl des
Bildaufnehmers sowie die hohe Farbtreue durch
großflächig homogene ➚Farbfilter. 3-Chip-Kameras liefern als Videosignal die drei Farbauszüge RGB immer
getrennt. Sie sind teuer und verlangen nach hochwertigen Objektiven.
Einchip-Farbkamera: Nutzt einen Bildaufnehmer, der
durch Aufbringen einer ➚Farbfiltermatrix auf die Pixel
farbempfindlich gemacht wurde. Dadurch sind diese Kameras in ihrem Aufbau einfacher, besitzen aber nicht eine so hohe Farbtreue durch die Streuung der Daten der
einzelnen mikrooptisch hergestellten Filter auf den Pixeln. Auch beträgt ihre Farb-Ortsauflösung (➚Farbauflösung) nur 1/3 der Pixelzahl des Bildaufnehmers, da immer 3 benachbarte Pixel durch ihre Farbauszüge einen
gemeinsamen Farbpunkt charakterisieren. Einchip-Farbkameras sind kostengünstiger als 3-Chip-Farbkameras
und liefern meist ein Y/C ➚Videosignal, selten auch RGB.
Farbkomponente Einzelner Bestandteil/Farbe (rot, grün,
oder blau) des ➚RGB-Farbraumes. Die Farbkomponenten werden im ➚Farbbild in jeweils einem byte oder
Wort separat abgespeichert. (s. auch Grundfarben)
Farbkontrast beschreibt die Eigenschaft von verschiedenen ➚Farben, trotz gleicher Helligkeit (➚Farbraum), unterscheidbar zu sein. Das setzt einen Mindestabstand ihrer ➚Farbkoordinaten, eine notwendige ➚Farbdifferenz
voraus, deren Erkennbarkeit empfängerabhängig ist.
Farbkoordinate Kennzeichnet eine Farbe durch ein Zahlentripel gemäß dem verwendeten ➚Farbraum. Die
Farbkoordinaten kennzeichnen die ➚Farbvalenz.
Farblängsfehler ➚Farbfehler
Farbmetrik Quantitative Erfassung des Phänomens ➚Farbe.
Drückt den ➚Farbeindruck durch Zahlenwerte aus
(➚Farbraum). (s. auch DIN5033)
Farbmischung Additive Farbmischung entsteht bei der
Mischung von Licht der drei Grundfarben rot, grün, blau
in einer Beleuchtungsebene (z.B. mit farbigen LED-Beleuchtungen). Beim Mischen ist die entstehende Farbe
heller als die Ausgangsfarben.
Dabei ergeben sich folgende Mischfarben:
Additive Mischfarben/Mischverhältnisse der Intensitäten:
Blau [%] Grün [%] Rot [%]
Mischfarbe
100
100
100
Weiß
100
100
–
Cyan
100
–
100
Magenta
–
100
100
Gelb
100
50
50
Ungesättigtes Blau
Lexikon der industriellen Bildverarbeitung
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 38
Farbtiefe
–
50
100
Orange
50
100
–
Blaugrün
100
50
–
Grünblau
100
–
50
Violett
50
50
50
Mittleres Grau
50
50
–
dunkles Blaugrün
25
25
25
dunkles Grau
–
–
–
Schwarz
Subtraktive Farbmischung entsteht bei der Mischung
von Farbstoffen (Farbpigmente) oder mehrerer hintereinander angeordneten Farbfiltern der drei Grundfarben
rot, grün, blau (z.B. Druckfarben). Beim Mischen ist die
entstehende Farbe dunkler als die Ausgangsfarben. Dabei ergeben sich folgende Mischfarben:
Subtraktive Mischfarben/Mischverhältnisse der Intensitäten:
Blau [%] Grün [%] Rot [%]
Mischfarbe
100
100
100
Schwarz
100
100
–
Rot
100
–
100
Grün
–
100
100
Blau
50
50
–
helles Rot
100
25
100
dunkles Grün
100
25
25
dunkles Gelb
50
–
100
Blaugrün
50
50
50
mittleres Grau
25
25
25
helles Grau
25
25
–
Rosa
100
100
25
Braun
–
–
–
Weiß
(s. auch Komplementärfarbe)
Farbmodell ➚Farbraum
Farbquerfehler ➚Farbfehler
Farbraum Objektive Beschreibung von Farben durch 3
Komponenten, den ➚Farbvalenzen, unabhängig von
der menschlichen Wahrnehmung. Verschiedene Farbräume können ineinander umgerechnet werden.
RGB-Farbraum: (Rot-Grün-Blau-Farbraum). Zugeordnete Farbvalenzen sind für Rot (700 nm), Grün (546
nm), für Blau (436 nm) (➚CIE-Standard). Die Darstellung eines Farbwertes aus den Komponenten Rot,
Grün und Blau (additive Farbmischung) kann direkt
aus dem ➚Videosignal einer ➚Farbkamera erfolgen.
Die grafische Darstellung erfolgt im RGB-Farbdreieck
oder RGB-Würfel (0, 0, 0 ist Schwarz und 1, 1, 1 ist
Weiß). Die RGB-Komponenten werden zum Beispiel
beim ➚Farbtest genutzt.
HSI-Farbraum (wahrnehmungsorientiert): Hue-Saturation-Intensity (Farbton, Farbsättigung, Helligkeit). Abgeleitet aus dem RGB-Farbraum (Kamerawerte). Darstellung in Zylinderkoordinaten: H beschreibt den Winkel über den Umfang, S den Radius, I die Höhe im Zylinder. Oft für Machine Vision genutzt. Der HSI-Far-
Lexikon der industriellen Bildverarbeitung
braum wird genutzt, weil sich nicht alle Farbtöne
durch Spektralfarben darstellen lassen (z.B. Körperfarben bei Wechselwirkung mit dem einfallenden Licht).
Farbton H: Wert zur Farbunterscheidung. Farbtöne sind
in einem Farbkreis angelegt. Der Farbton legt die Position einer Farbe entlang des Umfangs des Kreises fest.
0/360 Grad ist Rot, 120 Grad ist Blau, 180 Grad ist
Cyan, 240 Grad ist Grün. Zwischenwerte entsprechen
der additiven ➚Farbmischung aneinandergrenzender
Farben. Unbunte Farben wie Weiß, Grau und Schwarz
besitzen keine H-Komponente.
Farbsättigung S: Beschreibt die spektrale Reinheit einer Farbe, d.h. je enger der Wellenlängenbereich ist,
der zur Farbe beiträgt, desto reiner ist die Farbe. Der
Grad der Sättigung wird in Prozent ausgedrückt, von
0% (keine Farbintensität – auf der Zylinderachse) bis
100% (volle Farbintensität – Außenrand des Zylinders). Bei abnehmender Farbsättigung wird die Farbe
grauer. Auf der Zylinderachse sind alle Farben unbunt.
So z.B. hat ein Schwarz/weiß-Bild einen Farbsättigungswert von 0%.
Helligkeit I: Beschreibt die Helligkeit des Lichtes und ist
damit mit dem Energiebegriff verbunden. Die Helligkeit bezieht sich auf die Weiß- und Schwarzanteile in
einer Farbe (Höhe innerhalb des Zylinders). Sie wird in
Prozent ausgedrückt, von 100% (nur Weiß) bis 0% (nur
Schwarz). Bei 50% Helligkeit erhält man den reinsten
Farbton.
CIE-Farbraum: Nutzt andere (beliebige) Grundfarben
(X, Y, Z) zur Farbbeschreibung als der RGB-Farbraum.
CMY-Farbraum: Findet keine Verwendung in der Bildverarbeitung. Wird bei der subtraktiven ➚Farbmischung (besonders für Druckfarben) genutzt.
Weiterhin LAB-Farbraum.
Farbsättigung ➚HSI-Farbraum
Farbtemperatur Temperatur, die ein schwarzer Körper haben müsste, um in einer bestimmten Farbe zu erscheinen. Dient zur Charakterisierung von Lichtquellen.
Norm-Farbtemperatur für Tageslicht: 5500 K; Klarer Sonnenhimmel: 10000 K; Abendrot: 3000 K; Kerze: 1900 K;
➚Halogenglühlampe: 2850 K ➚Gasentladungslampe:
6250 K. Die Farbtemperatur hat Einfluss auf die Farbwiedergabe. (s. auch Weißabgleich)
Farbtest Funktion zur Farbprüfung. Um Farb-Oberflächendefekte zu erkennen, wird eine Farbkontrolle innerhalb
des ➚Prüffensters durchgeführt. Dabei werden die Werte der ➚Farbkomponenten Rot, Grün und Blau jeweils
einzeln getestet, toleriert und mit einer Referenzfarbe
verglichen. (s. auch Farbraum)
Farbtiefe ist der auf drei Farbkomponenten erweiterte Begriff der ➚Digitalisierungstiefe. Die Farbtiefe ist ein Maß
für die Anzahl darstellbarer Farben. Wird jede Farbe mit
29
F
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 39
Farbton
F
einer Digitalisierungstiefe von n bit digitalisiert, so lassen sich durch die Beschreibung von Farben aus drei
➚Farbkoordinaten 2n · 2n · 2n Farben darstellen. Damit
herrscht eine Farbtiefe von 3 · 2n bit.
Beipiel: Bei 8 bit Digitalisierungstiefe für jede der drei
Farbkomponenen bedeutet das: 256 · 256 · 256 = 16,7
Millionen verschiedener darstellbarer Farben, d.h. 24 bit
Farbtiefe. Wie gut die ➚Farbauflösung ist, hängt nicht
nur von der Farbtiefe ab, sondern einer Reihe weiterer
Faktoren (➚Farbsensor, ➚Farbkamera)
Farbton ➚HSI-Farbraum
Farbübergang ➚Kantenübergang
Farbvalenz Maß für die Farbempfindung. Dreidimensionale Größe (Vektor) im ➚Farbraum.
Faserbündel Zusammenfassung vieler ➚Lichtwellenleiter
zur Vergrößerung des lichtleitenden Querschnitts für
möglichst hohen Lichtstrom. Faserbündel werden häufig
zur Lichtleitung von Licht aus ➚Kaltlichtquellen genutzt. Dazu werden sie an einem Ende mit einem herstellerspezifischen Anschlussstück an der Kaltlichtquelle
versehen. Das andere Ende kann zu einem ➚Querschnittswandler geführt werden. (s. auch Bildleiter)
Faserlichtquelle ➚Kaltlichtquelle
FBAS-Signal Farb-Bild-Austast-Synchron-Signal. ➚Videosignal
Fehlerbild bezeichnet das Bild eines Schlecht-Teiles im
➚Bildspeicher. Fehlerbilder werden meist zur Dokumentation und für Rückschlüsse auf die Fehlerentstehung
gespeichert. Fehlerbilder bilden die Grundlage für die
➚Fernwartung.
Fehlerfortpflanzung Die ➚systematischen Fehlereinflüsse (vorzeichenbehaftete Einzelfehler, durch partielle Ableitung berechnet) jeder einzelnen Komponente der
Bildverarbeitungsanlage werden zum maximal möglichen Gesamtfehler addiert (lineares Fehlerfortpflanzungsgesetz). Treten zufälltige Fehler oder unerfasste
systematische Fehler auf, so wird das quadratische Fehlerfortpflanzungsgesetz angewendet. Der Gesamtfehler
bestimmt die erreichbare Messgenauigkeit. (s auch Genauigkeit einer Bildverarbeitungsanlage)
Feldbus Bussystem, im prozessnahen Bereich, das häufig
einfache Informationen überträgt, an das jedoch hohe
Anforderungen an die Zuverlässigkeit (vielfältige mögliche Störeinflüsse) gestellt werden. Lange Übertragungsstrecken und verschiedenste Endgeräte mit eigener Intelligenz (Sensoren, Aktoren) sind typisch. Die Datenübetragung muss möglichst in ➚Echtzeit erfolgen.
Durch die Busstruktur sind Feldbusse hinsichtlich Planungs- und Installationsaufwand gegenüber koventioneller Verdrahtung sehr effektiv. ➚CAN-Bus, ASI sind für
einfache Ein-/Ausgabe-Einheiten geeignet; ➚Interbus-S,
➚Profibus sind anspruchsvoller und unterstützen die
30
Kommunikationsfunktionen zwischen Rechnern und
Funktionsmodulen.
Feldbus-Master Steuert den Datenverkehr eines Feldbussystems. Der Datenaustausch zwischen dem Master und
den Slaveteilnehmern erfolgt grundsätzlich nur nach
Anfrage vom Master.
Fernsehnormen ➚NTSC, ➚PAL, ➚RS-170, ➚SECAM
Fernsteuerschnittstelle Leistungsfähige Bildverarbeitungssysteme zeichnet die Möglichkeit aus, von außen
ferngesteuert zu werden, was vielfältige Möglichkeiten
der Einbindung in Automatisierungsanlagen zulässt. So
kann das Bildverarbeitungssystem als programmierbarer
Sensor genutzt werden, der immer auf Anforderung reagiert, das System kann in spezielle Bedienoberflächen
eingebunden werden oder als Slave im Bussystem agieren. Auch ermöglicht dieses Feature das einfache Umprogrammieren vieler Systeme von einem Leitrechner aus.
Schnittstellen dazu sind ➚RS-232, ➚CAN-Bus, ➚Ethernet. Basis für die Kommunikation mit dem Bildverarbeitungssystem ist meist ein blockorientiertes Protokoll.
Nachdem die Blocklänge an das Bildverarbeitungssystem
mitgeteilt wurde, wird die Befehlskennung des auszuführenden Bildverarbeitungsbefehls gesendet, gefolgt
von den dazugehörigen Parametern sowie zur Datensicherheit gefolgt von einer Checksumme. Danach wird der
Befehl im Bildverarbeitungssystem ausgeführt, das Ergbebnis zurückgegeben zusammen mit einem Quittierungssignal für einen erfolgreichen oder fehlgeschlagenen Befehl. In dieser Weise werden alle weiteren Befehle des ferngesteuerten ➚Prüfprogramms abgearbeitet.
Fernwartung Bedienung und eigentliche Bildverarbeitung
rücken immer mehr auseinander. Dezentralisierte Systeme verlangen nach Möglichkeiten, aus der Ferne in die
Fertigungsumgebung einzugreifen. Das gilt auch für
Bildverarbeitungssysteme, auf die über Modem, ISDN
oder Ehernet/Internet aus der Ferne zugegriffen werden
kann. Per Fernwartung können durchgeführt werden:
Versionsprüfung von Software und Betriebssystem,
Software-update, neu einspielen von Prüfprogrammen,
herunterladen von (Fehler-)Bildern. Vielfach ist mit dem
Zugriff auf die Daten des Bildverarbeitungssystems
auch der Zugriff auf Produktionsdaten möglich, was
meistens ungewollt ist. Daher schützen sich viele Unternehmen durch eine ➚Firewall vor Angriffen und ungewünschtem Datenzugriff und verschließen damit auch
die Möglichkeit zur Fernwartung.
Festblende, auch Fixblende. Nicht einstellbare Blende.
Festblenden werden häufig in qualitativ hochwertigen
Objektiven verwendet, da durch die Festblende der Einflussparameter ➚einstellbare Blende auf die Abbildungsfehler entfällt. Für Anwendungen der industriellen
Lexikon der industriellen Bildverarbeitung
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 40
Flächenbeleuchtung
Bildverarbeitung unter besonders extremen Umweltbedingungen (Vibrationen, Schmutz, Feuchtigkeit) werden
oft Objektive mit Festblende verwendet, da diese weniger bewegliche Teile beinhalten und so weniger störanfällig sind. Auch entfällt der Blendenmechanismus der
Irisblende, der nur schwer gegen das Eindringen von
Staub und Feuchtigkeit zu schützen ist.
Festbrennweite Die meisten in der Bildverarbeitung verwendeten Objektive nutzen nicht veränderliche Brennweiten. Das Gegenteil zur Festbrennweite bieten
➚Zoom-Objektive.
Festmusterrauschen ➚Bildaufnehmer mit Zeilen-Spalten-Struktur besitzen auf Grund von Fertigungstoleranzen im Halbleiterherstellungsprozess Unterschiede in
der ➚Empfindlichkeit der einzelnen ➚Pixel. Das macht
sich durch das Festmusterrauschen bemerkbar, einem
individuellen Grauwertmuster des Bildaufnehmers,
wenn er unbeleuchtet oder gleichmäßig beleuchtet ausgelesen wird. Das Festmusterrauschen lässt sich durch
Vergleich mehrfachen Bildauslesens über Korrekturwerte in ➚Look up Tabellen kompensieren.
Feststellmöglichkeit zeichnet Bildverarbeitungkomponenten für den industriellen Einsatz aus. Alle Einstellelemente sollen fixierbar sein, um sich durch Schwingungen nicht zu verstellen bzw. um nicht von Bedienpersonal verstellt zu werden.
Fiberscope ➚Glasfaserendoskop
Fiducial Bezeichnung für Referenz-Passmarken für die
optische Inspektion, besonders in der Elektroniktechnologie.
Filter Vorrichtung um die Intensität, die spektrale Zusammensetzung oder den Polarisationszustand elektromagnetischer Wellen oder deren gespeicherte Information
zu ändern. Optische Filter, ➚Lichtfilter, Softwarefilter, digitale Filter (➚Bildfilter) werden verwendet, um Merkmale eines Bildes oder Bildausschnittes (➚Prüffenster)
hervorzuheben, zu unterdrücken, oder die Bildqualität
zu verbessern.
Filterfaktor beschreibt den Verlängerungsfaktor für die
➚Belichtungszeit (➚Integrationszeit) beim Vorsatz von
➚Lichtfiltern vor das Objektiv. Durch das Blocken von
Lichtbestandteilen durch Filter gelangt weniger Licht
auf den ➚Bildaufnehmer. Der Helligkeitsausgleich erfolgt durch eine längere Belichtungszeit, die sich wie
folgt berechnet: Belichtungszeit mit Filter = Belichtungszeit ohne Filter · Filterfaktor. Bei Nutzung mehrerer
aufeinander geschraubter Filter müssen die Filterfaktoren zu einem Gesamtfilterfaktor addiert werden.
Filtergewinde Standardisierte metrische Feingewinde für
➚Lichtfilter. Weitere Informationen zu Größen unter:
www.heliopan.de; www.schneiderkreuznach.com
Filterparameter bestimmen die Wirksamkeit von ➚Bildfil-
Lexikon der industriellen Bildverarbeitung
tern. Filterparameter sind: Filtertyp, Filtergröße (n · m Pixel), Filtergröße (Rechteck, Kreis, n-Eck), Filtersymmetrie, Filterordnungsgrad. Die Filterparameter werden mit
den Filterkoeffizienten versehen,
Fire Wire auch IEEE 1394. Genormtes serielles Digitalbussystem. Es dient als Verbindung zwischen PC's und
PC-Peripherien (z.B. Kameras). Das Bussystem wird
über ein einziges Kabel (6-adrig) betrieben, worüber
sowohl die Netzspannungsversorgung als auch die Datenübertragung stattfindet. Der IEEE 1394 verfügt
über „plug and play“ und „hot plugging“. Die Bustopologie unterstützt die Daisy Chain- und die Peer-toPeer-Kommunikation. Pro Kabelsegment können theoretisch bis zu 63 Geräte angeschlossen werden. Jedes
Gerät kann bis zu 4,50 m weit vom nächsten entfernt
sein, wobei sich bei Einsatz von Repeatern Längen von
bis zu 25 m erreichen lassen. Die Segmente selbst sind
mit Brücken erweiterbar, so dass sich ein Verbund von
bis zu 1000 Segmenten aufbauen lässt. Seine Leistungsstärke resultiert aus der Nutzung vieler Kanäle
zur gleichzeitigen isochronen und asynchronen Datenübertragung. www.1394ta.org
Fire Wire Kamera ➚Digitale Kamera, die den ➚Fire Wire
als Bussystem nutzt. Fire Wire Kameras benötigen für die
Zusammenarbeit mit ➚Framegrabbern spezielle Treiber.
Firewall Elektronisch, per Hardware oder Software realisiertes Sicherheitssystem zwischen Netzen, z.B. zwischen einem internen Netzwerk (Intranet) und einem
öffentlichen Netzwerk (Internet). Hierbei lassen sich die
Zugriffe ins jeweils andere Netz abhängig von der Zugriffsrichtung, dem benutzten Dienst sowie der Authentifizierung und Identifikation des Netzteilnehmers begrenzen oder komplett sperren. Ein weiteres Leistungsmerkmal kann die Verschlüsselung von Daten sein,
wenn z.B. das öffentliche Netz nur als Transitweg zwischen zwei räumlich getrennten Teilen eines Intranet
genutzt wird. Firewalls stellen häufig für die ➚Fernwartung von Bildverarbeitungssystemen ein Hindernis dar.
Fisheye-Objektiv ➚Weitwinkelobjektiv
Fix-Fokus-Objektiv Objektiv mit fest eingestelltem ➚Arbeitsabstand. Für Anwendungen der industriellen Bildverarbeitung unter besonders extremen Umweltbedingungen (Vibrationen, Schmutz, Feuchtigkeit) werden oft
Objektive mit festem Fokus verwendet, da diese weniger bewegliche Teile beinhalten. Auch entfällt der
Schneckengang zur Entfernungseinstellung, der nur
schwer gegen das Eindringen von Staub und Feuchtigkeit zu schützen ist.
Fixblende ➚Festblende
Flächenbeleuchtung Allgemeine Bezeichnung für eine
Beleuchtungskomponente, die ein flächenförmiges Helligkeitsprofil erzeugt, unabhängig von der ➚Beleuch-
31
F
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 41
Flächenschwerpunkt
F
tungsrichtung und den Eigenschaften des verwendeten
Lichtes (➚Beleuchtungseigenschaften). Das Gegenteil
von Flächenbeleuchtungen sind ➚strukturierte Beleuchtungen. Die Möglichkeiten der Ausführung von Flächenbeleuchtungen sind vielfältig: ➚Leuchstofflampenbeleuchtung ➚CCFL-Beleuchtungen ➚LED-Beleuchtungen
➚Kaltlichtquelle mit ➚Querschnittswandler ➚Laser mit
Kollimator. Flächenbeleuchtungen sind die am meisten
in der Bildverarbeitung eingesetzten Beleuchtungen. (s.
auch Linienbeleuchtung)
Flächenschwerpunkt Punkt, an dem sich eine ebene
Fläche im statischen Gleichgewicht befindet. Flächenschwerpunkte werden zur Beschreibung (Lage x,y) und
Analyse von ➚Konturen oder bei der ➚Blobanalyse verwendet.
Flankentriggerung Auslösen eines Ereignisses durch Auftreten einer Flanke (low-high, high-low) in einem digitalen Signal. (s. auch Zustandstriggerung)
Flash-EPROM Elektrisch löschbarer und beschreibbarer
ROM (read only memory). Flash-EPROMs werden in
Bildverarbeitungssystemen genutzt, um Systemdaten,
➚Kalibrierfaktoren, ➚Referenzgeometrien und ➚Prüfprogramme zu speichern, so dass nach Abschalten des
Bildverarbeitungssystems oder nach Stromausfall sofort
wieder alle systemrelevanten Daten zum Selbststart des
Systems vorliegen.
Flicker Erscheinung bei ➚Halbbild-Sensoren, bei der die
Intensität zwischen beiden Halbbildern (➚Zeilensprungverfahren) verschieden ist.
Flimmerfreie Beleuchtung Zeitliche Inhomogenität der
➚Beleuchtungsstärke führt zu Schwankungen im ➚Grauwert des ➚Kamerabildes. Neben langfristiger ➚Drift treten dabei Helligkeitsschwankungen von Bild zu Bild
durch zeitlich schwankende Beleuchtungsstärken auf.
Flimmerfreie Beleuchtungen tragen dem Rechnung und
sorgen durch Ansteuerschaltungen dafür, dass die Periodendauer der Ansteuerfrequenz der Beleuchtung wesentlich kleiner ist als die ➚Belichtungszeit der Kamera.
Beleuchtungen, bei denen die Frequenz der Betriebsspannung in Form von Helligkeitsschwankungen „durchgereicht“ werden, können sein: ➚LED-Beleuchtungen,
➚Leuchtstofflampenbeleuchtungen, ➚Kaltlichtquellen.
Fluoreszenz Anregung (Induktion) der Strahlungsaussendung durch induzierendes Licht, z.B. ultraviolettes Licht.
Die induzierende Wellenlänge ist immer kleiner als die
fluoreszierende.
Beispiel: Anregung mit ultraviolettem Licht („Schwarzlicht“, Wellenlänge < 380 nm) führt zur Lichtaussendung (Fluoreszenz) im sichbaren Licht.
Förderliche Blende Bedingt durch ➚Beugung an Blendenbauteilen sinkt die ➚Bildschärfe mit zunehmender
➚Blendenzahl (➚beugungsbegrenztes Objektiv). Die
32
förderliche Blende stellt hierbei ein Optimum her zwischen möglichst großer Schärfe im Bild und möglichst
großer ➚Schärfentiefe. Ausgehend von der getrennten
Erkennbarkeit zweier Punkte mit einem Mindestkontrast
von 37% ergibt sich für die förderliche Blende
k = u’ / (1,22 λ · [ß’ + 1]) mit u’– zulässige Unschärfe
im Bild λ – mittlere Beleuchtungswellenlänge ß’– Abbildungsmaßstab (ß’ > 0).
Für u’ = 11 µm (Pixelgröße bei 2/3"-Bildaufnehmer) und
λ = 550 nm ergibt sich:
Abbildungsmaßstab
förderliche Blende
<1
16
1
8
5
5,6
10
2
Fokussierung a) die Einstellung eines optischen Systems
auf eine optimale Bildgüte (➚Abbildungsgüte). Die Einstellung kann fix sein (➚Fix-Fokus-Objektiv), manuell
(manuelles Objektiv) oder automatisch (➚Auto-FokusObjektiv) vorgenommen werden. Die Scharfeinstellung
eines ➚Objektives sollte nach folgenden Schritten erfolgen: Blende völlig öffnen, Lichtquelle so dämpfen, dass
ein nicht übersteuertes Bild entsteht, Fokussieren, Blende/Lichtquelle auf notwendige Einstellung (Blendenzahl/Helligkeit) bringen, dementsprechend Lichtquelle/Blende nachführen. Nach diesem Verfahren ist gewährleistet, dass sich die eingestellte Entfernung etwa
in der Mitte des ➚Schärfentiefenbereiches befindet.
Fokussierung ist b) die Bündelung paralleler ➚Lichtstrahlen auf einen Punkt (➚Brennpunkt). (s. auch Fokustest)
Fokustest Bildverarbeitungsfunktion, die den Fokuswert
einer ➚Szene liefert. Der Fokuswert gibt Auskunft über
die Qualität der ➚Fokussierung des Objektives an der
Kamera. Das schärfstmögliche Bild (bestmögliche Fokussierung) ist dann eingestellt, wenn der Fokuswert
ein Maximum aufweist. Die Funktion Fokustest reagiert
auf Kontrast. Als Schärfenkriterium können ➚Kanten
oder strukturierte Oberflächen herangezogen werden.
Anwendung: Die Funktion Fokustest lässt sich zum Aufbau von Regelschleifen zur nachgeführten Scharfeinstellung von Objektiven nutzen. Das ist dann notwendig, wenn der Abstand der Prüfobjekte oder deren Höhe
variiert und nicht durch optische Maßnahmen (Abblendung des Objektives, ➚telezentrisches Objektiv) ausgeglichen werden kann.
Fotogrammetrie, auch Bildmessung. Verfahren, das Informationen über die dreidimensionale Geometrie und das
Vorhandensein von Objekten liefert.
Die Fernbereichsfotogrammetrie beschäftigt sich mit
der Vermessung der Erde von der Erde und aus der Luft
hauptsächlich für die Geodäsie.
Lexikon der industriellen Bildverarbeitung
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 42
Freiheitsgrad
Die Nahbereichsfotogrammetrie findet Anwendung für
die Vermessung von Gebäuden, industrieller Objekte
oder in der Mikroskopie.
Fotometrie Die Messung von ➚sichtbarem Licht. Im Allgemeinen sind damit gemeint: ➚Leuchtdichte, ➚Beleuchtungsstärke, ➚Lichtstrom, ➚Beleuchtungsstärke.
Fotometrische Messungen mit Bildverarbeitung werden
auf Intensitätsmessungen zurückgeführt und beinhalten
die Messung von: Minimalintensität, Mittelwert der Intensität, Standardabweichung der Intensitätswerte.
(s. auch Luxwerttest, dimensionelles Messen)
Fotometrische Mitte Integrales ➚Kantenortskriterium,
das den Flächenvergleich über bzw. unter dem ➚Grauwertverlauf zur Beschreibung des ➚Kantenortes nutzt.
Innerhalb der ➚Kantenbreite wird der Kantenort an der
Symmetrielinie definiert, an der die Flächen oberhalb
und unterhalb des Grauwertverlaufes gleich groß sind.
Fotometrisches Entfernungsgesetz Grundlage für das
Verständnis der Helligkeitsverhältnisse beim Beleuchtungsdesign für eine ➚Auflichtbeleuchtung. Aussage
ist: Beleuchtungsstärke E ~ 1/Beleuchtungsabstand2.
Die ➚Beleuchtungsstärke (auf das ➚Prüfobjekt einfallendes Licht) nimmt mit Quadrat der Entfernung ab. Je
weiter die Beleuchtung entfernt ist, desto geringer ist
die Beleuchtungsstärke am Objekt.
Beispiel: Von 1000 lux Beleuchtungsstärke einer Lichtquelle in 500 mm Entfernung verbleiben bei Vergrößerung des ➚Beleuchtungsabstandes auf 1000 mm noch
250 lux. Bei einem Prüfobjekt aus Stahl (➚Reflexionsgrad ca. 55%) stehen nach der ➚Reflexion der einfallenden Beleuchtung nur noch ca. 138 lx ➚Leuchtdichte
für die Kamera zur Verfügung.
Bemerkung: Der Abstand Objekt – Objektiv spielt keine
Rolle; die ➚Leuchtdichte bleibt konstant. Schlussfolgerung für den praktischen Einsatz: Beleuchtung möglichst nahe am Prüfobjekt positionieren. (s. auch Lichtdurchgang durch Objektive)
Fourier-Transformation Mathematische Methode für die
Bildverarbeitung zur Bearbeitung der in den Bildinformationen enthaltenen Signale. Die Fourier-Transformation vermittelt Zusammenhänge, die bei der Abtastung und Filterung von Bildern auftreten. Sie ist ein
➚globaler Operator, der die Bildinformation des ganzen
Bildes benötigt. Sie wird bei der Bildcodierung, Auswertung periodischer Vorgänge und zur Bestimmung von
Formmerkmalen verwendet.
FOV field of view ➚Gesichtsfeld
Frame svw. vollständiges Bild. Kann als ➚Vollbild oder als
2 ➚Halbbilder auftreten.
Frame Transfer Sensor Ein Funktionsprinzip von ➚CCDs.
Dabei wird das während der ➚Integrationszeit im lichtempfindlichen Teil des ➚Bildaufnehmers entstandene
Lexikon der industriellen Bildverarbeitung
➚Ladungsbild als Ganzes schnell in einen parallelen
lichtgeschützten Bereich des Bildaufnehmers verschoben. Während der Integrationszeit für das nächste Bild
wird während der ➚Bildaufnahme im lichtempfindlichen
Teil des Bildaufnehmers die Bildinformation aus dem
lichtgeschützten Teil ausgelesen. Bei zu hellen Regionen
im Bild tritt bei Frame Transfer Bildaufnehmern ➚Smear
auf. (s. auch Interline Transfer Sensor)
Framegrabber setzt die von der Kamera gelieferten ➚Videosignale in ein für den Rechner zugreifbares Format
um und legt Bilder im ➚Bildspeicher ab. Die bedienten
Kameras können durch externen Takt vom Framegrabber gesteuert sein (➚Genlock). Verschiedene Anzahlen
(1, 4, 16) und Möglichkeiten für Videosignaleingänge
(schwarz/weiss, Farbe, analog, digital (USB, Fire Wire))
sind möglich.
In der ersten Stufe des Framegrabbers erfolgt die Pegelanpassung sowie die Abtrennung der Synchronisationssignale vom ➚Videosignal. Danach wird vom ➚Analog
Digital Umsetzer die ➚Digitalisierung des Videosignals
vorgenommen. Bei pixelsynchronem ➚Bildeinzug dient
der ➚Pixelclock als Abtastsignal. Die Digitalisierung
wird mit der ➚Digitalisierungstiefe durchgeführt. Das so
entstandene ➚digitale Bild wird über ➚Look up Tabellen in seinem Bildinhalt gezielt verändert und in einem
Zwischenspeicher abgelegt. Je nach Ausbaugrad des
Framegrabbers kann hier schon eine ➚Bildvorverarbeitung in Hardware mit einem ➚Digitalen Signalprozessor
durchgeführt werden. Danach wird das Bild über den
Datenbus des PC (häufig ➚PCI-Bus) in den PC-Speicher
transferiert.
Framegrabber gibt es für verschiedene Bussysteme
(➚VME-Bus), jedoch werden sie besonders häufig von
PC-basierten Systemen genutzt. Multiprozessorsysteme,
die videoechtzeitfähig sind und hochgradig ➚Parallelverarbeitung ermöglichen, sind Stand der Technik.
Framerate ➚Bildfrequenz
Framework Bedienoberfläche für Smart Cameras.
Freiheitsgrad Begriff der technischen Mechanik, der die Bewegungsmöglichkeiten zwischen zwei Teilen beschreibt.
Bei freier Beweglichkeit liegen drei mögliche Verschiebungsrichtungen (translatorisch) in x-, y-, z-Richtung sowie drei mögliche Verdrehungen (rotatorisch) (Winkel um
die x-, y-, z-Achse) vor. Für Paarungen von Teilen, die nicht
beweglich sein sollen, müssen alle 6 Freiheitsgrade verhindert werden. Für zueinander bewegliche Teile werden
einzelne Freiheitsgrade freigegeben.
Um Bildverarbeitungsanlagen funktionsfähig und zuverlässig zu machen, müssen die Freiheitsgrade gezielt beherrscht werden. Zur gezielten Beeinflussung der Freiheitsgrade zwischen den Komponenten der Bildverarbeitung wird die ➚Justierung verwendet.
33
F
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 43
Fremdlicht
F
G
Fremdlicht Bezeichnung für einfallendes Licht, das ungewollte und nicht kontrollierbare Effekte hervorruft.
Fremdlicht ist häufig Licht von der Hallenbeleuchtung
oder Sonnenlicht, das nur zu bestimmten Zeiten stört.
Maßnahmen zum Ausschalten von Störlicht können
sein: Wahl einer kurzen Belichtungszeit (➚Integrationszeit) Einsatz einer lichtstärkeren Beleuchtung, Einsatz
einer ➚Blitzbeleuchtung, starke Abblendung des Objektives, Einsatz von ➚Lichtfiltern, besonders ➚Bandpassfilter zusammen mit ➚monochromatischer Beleuchtung, auch Polarisationsfilter (➚Polarisation), Umhausen der Prüfeinrichtung.
Fresnellinse ➚Linsenform
Frontlinse Kostenfaktor, besonders an ➚telezentrischen
Objektiven. Empfindliches Bauteil an vorderster Stelle
des Bildverarbeitungssystems. Daher ist der Schutz
durch ein ➚Schutzglas oder ein Gehäuse zu empfehlen.
Frontlinsendurchmesser ➚telezentrisches Objektiv
Füllfaktor Verhältnis der lichtempfindlichen Sensorfläche
zur gesamten Sensorfläche, Die Verbesserung des Füllfaktors ist eine vorrangige Aufgabe für Schaltungsdesigner, um die ➚Bildaufnehmer lichtempfindlicher zu machen. Frame Transfer CCD-Sensoren besitzen die größten Füllfaktoren, gefolgt von Interline Transfer CCD-Sensoren. CMOS-Sensoren weisen einen weitaus geringeren Füllfaktor auf.
Fullframe-Sensor ➚Vollbild-Sensor
G
Gammakorrektur Die Gammakorrektur bietet die Möglichkeit, das Videoausgangssignal einer Kamera entsprechend der nichtlinearen Kennlinie (Zusammenhang
zwischen Eingangssignal und Lichtstärke) eines Kathodenstrahlröhren-Monitors korrigiert auszugeben. Auch
Tonwertkorrektur, das Anpassen von Helligkeitsunterschieden in der Farbwiedergabe sind damit möglich.
Gasentladungslampe erzeugt Strahlung durch Gasentladung bei hoher Lichtausbeute (bis zum 20-fachen
➚Strahlungsfluss einer ➚Halogenglühlampe). ➚Leuchtstofflampen, Bogenlampen, ➚Xenonkurzbogenlampen
sind Gasentladungslampen. Druck und Art der Lampenfüllung mit Gasen bestimmen wesentlich die Eigenschaften. Als Gase werden Xe, Ar und Metalldämpfe
(Hg, Na) verwendet. Da da Gas zum Erzielen seiner Betriebseigenschaften heiß sein muss, benötigen Gasentladungslampen eine Anlaufzeit. Alle Gasentladungslampen müssen mit Strombegrenzung betrieben werden
und benötigen daher ein Vorschaltgerät. Auf Grund ihrer zum Teil schwierigen Betriebsbedingungen (Hitze,
34
Hochspannung, Größe und festgelegte Form) werden
Gasentladungslampen nur begrenzt in der Bildverarbeitung eingesetzt.
Gateway Gerät, das die verschiedene Netze mit jeweils
verschiedenen ➚Protokollen miteinander verbindet. Dabei werden die ➚Kommunikationsprotokolle übersetzt.
Im Unterschied zu „Bridge“ und „Router“, die die physikalische Art des Netzes umsetzen (z.B. Ethernet/
ISDN), das eigentliche Protokoll (z.B. TCP/ IP) aber unberührt lassen, schaffen Gateways den Zugang zu protokollfremden Netzen (z.B. TCP/IP auf Profibus, RS-232
auf Profibus etc.).
Gaußsche Optik ➚Geometrische Optik
Gegenfarbe ➚Komplementärfarbe
Gegenlicht ➚Durchlicht
Gegenlichtbeleuchtung ➚Durchlichtbeleuchtung
Gegenstandsgröße ➚Objektgröße
Gelb entsteht bei additiver ➚Farbmischung aus Rot und
Grün. Farbe, die resultiert, wenn der blaue Farbanteil aus
weißem Licht entfernt wird. (s. auch Komplementärfarbe)
Genauigkeit ist die systembedingte Abweichung des beobachteten Mittelwertes vom tatsächlichen Mittelwert
des untersuchten Merkmals am selben ➚Prüfobjekt.
Auch Differenz zwischen Istwert und Sollwert. Im Messwesen wird als Genauigkeit die Differenz zwischen
Messwert und dem tatsächlichem Wert verstanden. (s.
auch Genauigkeit einer Bildverarbeitungsanlage, messtechnische Grundsätze)
Genauigkeit einer Bildverarbeitungsanlage ist eine
der am häufigsten gestellten und am schwersten zu beantwortenden Fragen von Bildverarbeitungsanwendern.
Oft wird die ➚Genauigkeit einer Bildverarbeitungsanlage zum Kriterium der Machbarkeit. Dabei spielt nicht
nur die Frage nach der Anzahl der ➚Pixel eine Rolle,
sondern weitere Einflüsse wie: der konstruktive Gesamtaufbau; Zusammenwirken der einzelnen Systemkomponenten; die Temperaturverhältnisse; die Güte der
Abbildungs- und Beleuchtungsoptik; die ➚Beleuchtungswellenlänge; die Art und Weise der Signalabtastung; Prinzip und Anwendung von Algorithmen; Art
und Qualität der ➚Kalibrierung.
Grundsätzlich sind eine hohe ➚Pixelanzahl des ➚Bildaufnehmers, pixelidentischer ➚Bildeinzug, Verwendung
➚telezentrischer Objektive und Beleuchtungen, kurze
Beleuchtungswellenlängen, helligkeitsinvariante ➚Antastalgorithmen gute Voraussetzungen für eine hohe
Genauigkeit.
Die mit Bildverarbeitung erreichbaren Genauigkeiten
unterliegen vielfältigen Einflüssen. Je nach Systemkonzeption und Applikation können sie zwischen 0,01 mm
(sehr anspruchsvoll, selbst bei kleinem ➚Gesichtsfeld
von 2 · 2 mm2 und günstigen Umweltbedingungen), ty-
Lexikon der industriellen Bildverarbeitung
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 44
Gerichtete Auflichtbeleuchtung
pisch zwischen 0,05 ... 0,1 mm unter Industriebedingungen, bis hinauf in den mm-Bereich bei großen Gesichtsfeldern gehen. Einfluss auf die Genauigkeit einer
Bildverarbeitungslösung hat die gesamte Kette des Informationsflusses/vereinte Technikdisziplinen.
Nachgewiesen ist, dass die Qualität der Maßverkörperung (➚CCD) ➚Auflösungen von 1/100 Pixel zulässt.
Einige Einflussfaktoren auf die Genauigkeit sind:
Beleuchtung: ➚Beleuchtungstechnik, örtliche/zeitliche
Homogenität, ➚Beleuchtungswellenlänge, ➚Kohärenzgrad der Beleuchtung;
➚Prüfobjekt (stärkster Einfluss!): Objektgeometrie, optische Eigenschaften, ➚Beugung am Objekt;
Optik: Gesichtsfeldgröße (➚Abbildungsmaßstab)/➚Bildpunktauflösung, ➚Abbildungsfehler, ➚Kontrast (➚Modulationsübertragungsfunktion), Schärfe der Abbildung,
➚Schärfentiefe der Abbildung, ➚Aliasing, Beugung an
Objektivteilen;
Kamera: Bildpunktauflösung (CCD-Format), ➚Sättigung, ➚Dynamikumfang, ➚Blooming, ➚Shading,
➚Rauschen, Temperatur, Linearität der Verstärkung, Kameramechanik (Abstände, Winkel);
Framegrabber: Art der Synchronisierung, Qualität der
➚Look up Tabellen, Quantisierungsfehler ➚ADU, Linaerität der Digitalisierung, Übersprechen;
Software: verwendeter Algorithmus, Auflösung /➚Subpixel-Antastung, Kantensymmetrie und -form, ➚Kantenbreite, Helligkeitsverlauf an der ➚Kante;
Mechanik: ➚Positioniergenauigkeit, Auflösung von Aktoren;
Der Vergleich zu tastenden Messverfahren wird gern
hinsichtlich der erreichbaren Genauigkeiten der industriellen Bildverarbeitung herangezogen. Dabei wird
meistens unterschlagen, in welchen Eigenschaften die
Bildverarbeitung den tastenden Verfahren überlegen ist
(Berührungslosigkeit, Schnelligkeit, Dokumentierbarkeit). (s. auch messtechnische Grundsätze, Mikrometer)
Genlock Externe Synchronisationsmöglichkeit für Kameras, die eine frei laufende Kamera (➚Bildeinzug) mit einem externen Master (➚Framegrabber) synchronisiert
(➚horizontales/➚vertikales Synchronsignal). Beim Einsatz von Kameras in industriellen Applikationen lässt
sich der Zustand permanenter Synchronisation meist
nicht herstellen, da die ➚Bildaufnahme durch externe
Signale (Lichtschranke, SPS, ...) asynchron getriggert
wird (➚asynchrone Bildaufnahme).
Geometrieelemente, auch Beschreibungsgeometrie. Geometrieelemente sind geometrische Primitive, mit denen
sich die Geometrie eines ➚Prüfobjektes beschreiben
lässt. Die beschriebene Geometrie wird im ➚Prüfprogramm als Abbild des Prüfobjektes zur Ermittlung der
Ergebnisse genutzt. Geometrieelemente sind: Punkte,
Lexikon der industriellen Bildverarbeitung
Geraden, Kreise, Ellipsen, Konturen, Ergebnisse. Durch
Verknüpfung von Geometrieelementen lassen sich in
➚Prüfprogrammen komplexe Prüfaufgaben lösen.
Geometrische Optik, auch Strahlenoptik. Modelliert wird
das Phänomen Licht mit Lichtstrahlen. Lichtstrahlen breiten sich im homogenen Medium geradlinig aus. An
Grenzflächen zweier Nichtleiter wird das Licht reflektiert
oder gebrochen. Die Lichtrichtung (der Strahlengang) ist
umkehrbar.
Gegenüber der Wellenoptik werden nicht Wellenflächen,
sondern deren Normalen in Ausbreitungsrichtung zur
Beschreibung genutzt. Diese werden Lichtstrahlen genannt. Da an der optischen Abbildung nicht nur einzelne
Lichtstrahlen beteiligt sind, werden Strahlenbündel zur
Erklärung herangezogen. Die Strahlenbündel können
sich dabei durchkreuzen, ohne sich gegenseitig zu beeinflussen. Die geometrische Optik berücksichtigt nicht
die ➚Beugung, ist aber als Sonderfall in der Wellenoptik
enthalten.
Gepulste Beleuchtung Im Unterschied zur ➚Blitzbeleuchtung ist die Leuchtdauer der gepulsten Beleuchtung länger. Die Leuchtdauer kann im Bereich der Belichtungszeit, aber auch darüber liegen. Gepulste Beleuchtungen werden bei normalem Betriebsstrom der
➚Lichtquellen für kurze Zeiten ein- und ausgeschaltet.
Die Aus-Zeit kann gegenüber der Ein-Zeit sehr groß werden. (s. auch statische Beleuchtung)
Gerade antasten Funktion, die das ➚Antasten mehrerer
Punkte sowie die Bildung der ➚Bestgerade zusammenfasst. Als Ergebnis werden abgelegt: Lage der Gerade,
Geradheit. Zur Erhöhung der statistischen Sicherheit
werden beim Gerade antasten mehrere parallel liegende Antastungen genutzt, die ihrerseits aus mehreren
parallelen ➚Antaststrahlen bestehen können (➚Antastbreite). Die Nutzung dieses Verfahrens empfiehlt sich,
wenn Kanten erkannt werden sollen, die verschmutzt
sind, ausgefranst sind, Bearbeitungsspuren aufweisen
oder anders strukturiert sind.
Gerade definieren Die Nutzung von ➚Geometrieelementen lässt es zu, Geometrieelemente neu zu kombinieren
und dadurch neue Geraden zu definieren durch: Gerade
aus zwei Punkten; Gerade aus n Punkten; Lotgerade auf
Gerade; Parallele durch Punkt; Gerade durch Schnittpunkte zweier Kreise; Tangente an Kreis; Symmetriegerade; Verschiebung von Geraden.
Geradheit ➚Bestgerade
Gerichtete Auflichtbeleuchtung ➚Beleuchtungstechnik,
die ➚Auflichtbeleuchtung mit der „gerichteten“ Beleuchtungseigenschaft kombiniert. Einflussfaktoren für
die Wirksamkeit gerichteter Auflichtbeleuchtungen sind:
➚Lichtrichtung; ➚Lichteinfallswinkel; ➚Beleuchtungsabstand.
35
G
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 45
Gerichtete Beleuchtungen
G
Anwendung: gleichmäßiges Beleuchten von diffus reflektierenden flachen (ebenen) Flächen; bewusstes Hervorheben gerichteter Störstrukturen (z.B. Kratzer, Kanten) durch ➚Streuung (➚Dunkelfeld-Auflichtbeleuchtung); Oberflächenkontrolle (zufällige Richtung der Fehler); Ausleuchten von Spalten.
Telezentrisches Auflicht ist nur selten sinnvoll, da die Oberflächenstruktur des ➚Prüfobjektes durch Streuung die Telezentrie zerstört (➚koaxial eingespiegelte Beleuchtung).
Komponenten zur Erzeugung: gerichtete ➚Flächenbeleuchtungen, gerichtete ➚Ringlichter, ➚telezentrische
Beleuchtungen
Gerichtete Beleuchtungen haben einen Schwerpunkt in
ihrer Abstrahlcharakteristik, wobei die Abstrahlchrakteristiken sehr verschieden sein können (kugel- bis keulenförmig). Auch können sie mit Einzellichtquellen (Halogenglühlampenspot) oder mehreren Lichtquellen
(LED-Array) ausgestattet sein. Letzteres führt durch die
Überlagerung mehrerer gerichteter Einzellichtquellen zu
einer besseren ➚Lichtstärke und einer homogeneren
Helligkeitsverteilung innerhalb der beleuchteten Fläche.
Die erreichte ➚Bestrahlungsstärke auf dem Objekt ist
abhängig vom Beleuchtungsabstand (➚fotometrisches
Entfernungsgesetz). Schon geringe Abweichungen der
Einbaulage (➚Lichteinfallsrichtung, ➚Lichteinfallswinkel) machen sich durch das Vorhandensein einer Vorzugsrichtung stark in der Abbildung (➚Helligkeit, ➚Kontrast) bemerkbar.
Anwendung: gezieltes Hervorheben von Kanten, Oberflächenstrukturen durch Schattenbildung, gezielte Übersteuerung zur lichttechnischen Bildvorverarbeitung.
Möglichkeiten der Erzeugung: alle bildverarbeitungstypischen ➚Lichtquellen. Leuchtstofflampen nur eingeschränkt. Werden bis auf wenige Ausnahmen (➚gerichtete Durchlichtbeleuchtung) meist im ➚Auflicht (➚gerichtete Auflichtbeleuchtung) verwendet.
Gerichtete Durchlichtbeleuchtung kombiniert die ➚Beleuchtungsrichtung ➚Durchlicht mit ➚gerichteter Beleuchtung. ➚Beleuchtungstechnik, die selten zur Anwendung kommt. Kann nur für die gezielte Beleuchtung von
Spalten, Lücken, geneigte Flächen oder für durchscheinende, selbst diffus machende Prüfobjekte (➚Diffusor)
genutzt werden. Erreichbar durch gerichtete ➚Flächenbeleuchtungen, gerichtete ➚Ringlichter. Eine Sonderform ist die ➚telezentrische Durchlichtbeleuchtung.
Gesamtvergrößerung ➚Monitorvergrößerung
Geschlossene Kontur ➚Kontur
Gesichtsfeld Bild- oder objektseitige Begrenzung des vom
Bildaufnehmer gesehenen Objektfeldes. Für die meisten
Anwendungen der industriellen Bildverarbeitung wählt
man das Gesichtsfeld ca. 10% größer als die ➚Objektgröße, um die ➚Positioniergenauigkeit von Handha-
36
bungssystemen auszugleichen. Je nach Anwendung
(z.B. bei einer Übersichtsdarstellung) kann das Gesichtsfeld auch viel größer sein als die Objektgröße.
Gesichtsfeldwinkel Der Gesichtsfeldwinkel hängt von der
➚Bildaufnehmergröße und der genutzten ➚Brennweite
des ➚Objektives ab. Er ergibt sich, gemessen im ➚Perspektivitätszentrum des ➚Objektives, durch die Begrenzung des Gesichtsfeldes durch den Bildaufnehmer. Je kürzer die Brennweite, desto größer der Gesichtsfeldwinkel.
Da ➚Bildaufnehmer in vielen Fällen ein Breiten-/Höhenverhältnis besitzen (➚Seitenverhältnis), das ungleich 1
ist, ergeben sich in vertikaler und horizontaler Richtung
verschiedene Gesichtsfeldwinkel im gleichen Verhältnis
wie das Breiten-/Höhenverhältnis des Bildaufnehmers.
Typische horizontale Gesichtsfeldwinkel in Grad sind:
BW 2/3"-BA 1/2"-BA 1/3"-BA Brennweite (BW)
3,5
104
77
Bildaufnehmer (BA)
4,5
79
60
6
57
44
8
60
45
34
10
46
34
25
12
31
23
16
31
23
17
25
20
15
11
35
14
11
8
50
10
7,5
5,6
75
6,7
5
3,7
100
5
3,8
2,8
(s. auch Weitwinkelobjektiv, Teleobjektiv)
Gestreute Reflexion ➚Diffuse Reflexion
Gitterprojektionsverfahren Zusammenfassende Bezeichnung verschiedener Verfahren zur dreidimensionalen makroskopischen Vermessung von Oberflächen (vgl.
➚Interferometrie und Bildverarbeitung), die auf der Projektion von Streifenmustern auf das ➚Prüfobjekt beruhen. (s. auch codierten Lichtansatz, Moiré-Verfahren,
Phasenshiftverfahren)
Glasfaser ➚Lichtwellenleiter
Glasfaserendoskop ➚Endoskop
Globaler Operator mathematische Funktion, bei dem der
Grauwert des neu zu berechnenden Pixels von der Gesamtheit der anderen Pixel des Bildes abhängt. Beispiel:
➚Fourier-Transformation.
Glühlampe ➚Halogenglühlampe
Golden Piece ➚Kalibrierkörper
Gradient Vektor (Richtung und Betrag) des größten Anstieges (1. Ableitung) einer Größe in einem Feld. Auf die
Bildverarbeitung bezogen: Richtung des größen Helligkeitanstieges. Viele Verfahren der Bildverarbeitung beruhen auf der Auswertung von Helligkeitsgradienten im
Bildfeld zum Finden von ➚Kanten, zur ➚Segmentierung
oder zur ➚Texturanalyse. (s. auch Antastalgorithmus)
Lexikon der industriellen Bildverarbeitung
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 46
Halbbild-Sensor
Gradientenalgorithmus ➚Antastalgorithmus
Gradientenverfahren ➚Antastalgorithmus
Graufilter ➚Neutralfilter
Grauwert Bezeichnung des Helligkeitswertes eines ➚Pixels. Der minimale Grauwert 0 ist bei völliger Dunkelheit
erreicht und der maximale Grauwert bei der ➚Sättigungsbeleuchtungsstärke. Die Größe des maximalen
Grauwerts hängt von der ➚Digitalisierungstiefe ab. (s.
auch mittlerer Grauwert)
Grauwertalgorithmus ➚Antastalgorithmus
Grauwertantastung ➚Antastalgorithmus
Grauwertauflösung ist die Anzahl der von einem ➚Bildaufnehmer auflösbaren ➚Grauwerte und hängt direkt
mit der ➚Digitalisierungstiefe zusammen. Die Grauwertauflösung eines Bildverarbeitungssystems bestimmt neben dem geometrischen ➚Auflösungsvermögen die mit dem Bildverarbeitungssystem erreichbare
➚Genauigkeit von ➚Antastalgorithmen. Weiteren Einfluss auf die Grauwertauflösung haben das ➚SignalRausch-Verhältnis sowie der ➚Dynamikumfang.
Grauwertbereich Beschreibt den minimal und maximal
möglichen/tolerierten Wert des ➚Grauwertes. Die Angabe eines Grauwertbereiches wird von einigen Bildverarbeitungsfunktionen wie das ➚Pixel zählen genutzt.
Grauwertbild Digitales Bild im ➚Bildspeicher, bei dem jedem ➚Pixel ein ➚Grauwert zugeordnet ist.
Grauwertbildverarbeitung nutzt im Unterschied zur
➚Binärbildverarbeitung und ➚Farbbildverarbeitung
➚Grauwerte zur Gewinnung der Bildinformationen.
Grauwertdarstellung 1.) Darstellungsweise am Monitor
des Bildverarbeitungssystem, bei dem ➚Grauwerte und
keine ➚Binärwerte oder ➚Farben zur Darstellung herangezogen werden. 2.) Darstellung des ➚digitalen Bildes im ➚Bildspeicher in ➚Grauwerten.
Grauwertdifferenz Unterschied zwischen den ➚Grauwerten verglichener ➚Pixel. Die erreichte Grauwertdifferenz ist eine direkte Auswirkung des ➚Kontrastes.
Grauwertkorrelation Im Unterschied zu binären Verfahren, die nur Schwarz/Weiß-Informationen nutzen, werden bei der Grauwertkorrelation (➚Korrelation) die
➚Grauwerte bei der Korrelation eines ➚Objektes mit einem Bild herangezogen.
Grauwertprofil ➚Kantenübergang
Grauwertschwelle ➚Schwellwert
Grauwertsprung Änderung des ➚Grauwertes auf dem
➚Bildaufnehmer von einem ➚Pixel zu nächsten mit
großer ➚Grauwertdifferenz. Das Gegenteil vom Grauwertsprung ist der Grauwertverlauf (➚Kantenübergang). Grauwertsprünge treten beispielsweise an Kantenübergängen bei ➚Sättigung auf und sind für ➚Antastalgorithmen problematisch, da keine mathematisch de-
Lexikon der industriellen Bildverarbeitung
finierten Verhältnisse vorliegen (Funktionen an unstetigen Stellen nicht definiert).
Grauwertstufen ➚Digitalisierungstiefe
Grauwerttest Einfacher und schneller Befehl zur Ermittlung des ➚mittleren Grauwertes innerhalb einer definierten Fläche (➚Prüffenster). Der Grauwerttest kann
sehr vielfältig eingesetzt werden, zum Beispiel für: Online-Test der Beleuchtung des Bildverarbeitungssystem
bei jedem Prüfzyklus; zur Helligkeitsnachführung der
Beleuchtung in Bildverarbeitungssystemen; zur ➚Anwesenheitskontrolle einfacher Objekte (➚Grauwertdifferenz zwischen Hintergrund und Objekt); zur ➚attributiven Prüfung (helles, graues, dunkles Teil)
Grauwertübergang ➚Kantenübergang
Grauwertunterschied ➚Grauwertdifferenz
Grauwertverfahren ➚Antastalgorithmus
Grauwertverfahren mit Subpixeling ➚Antastalgorithmus
Grauwertverlauf ➚Kantenübergang
Grenzen der Bildverarbeitung Für die sichere Funktion
einer Bildverarbeitungslösung in der industriellen Fertigung müssen Prüfbedingungen standardisiert und Prüfmerkmale eindeutig beschrieben sein. Eine ständige Veränderung der ➚Umgebungsbedingungen erhöht den
Aufwand und kann letztendlich den Einsatz eines Bildverarbeitungssystem unwirtschaftlich machen. Bei der
Planung und Realisierung einer Bildverarbeitungsanlage
sollten deshalb genau betrachtet werden: erreichbare
➚Genauigkeit einer Bildverarbeitungsanlage; Einflussfaktoren, Limitierung durch Natur des Lichtes (Grenze:
>1 µm); Umgebungsbedingungen (Schmutz, Nebel, Aerosole, Temperatur, Erschütterungen ...); Teileeigenschaften (ungünstige und stark variierende optische Eigenschaften, Farbabweichungen); vollständige dreidimensionale Teilevermessung (3D) ist mit optischen Verfahren
nicht immer möglich (Hinterschneidungen); unrealistische Erwartungen der Kunden (teilweiser Vergleich mit
bisherigen Messverfahren) (s. auch Bildverarbeitung)
Grundfarben sind die Farben Rot, Grün und Blau (RGB).
(s. auch additive Farbmischung, subtraktive Farbmischung)
H
H-SYNC ➚Horizontales Synchronsignal
HAD ➚Hole Accumulated Diode
Halbbild ➚Zeilensprungverfahren, ➚Halbbild-Sensor
Halbbild-Sensor halfframe sensor. ➚Bildaufnehmer, der
zum Bildaufbau zwei nacheinander aufgenommene
Halbbilder nutzt (➚Zeilensprungverfahren). Zuerst wird
das erste Halbbild (geradzahlige Zeilen) belichtet und
37
G
H
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 47
Halbbild-Shutter
H
ausgelesen, danach das zweite Halbbild (ungeradzahlige Zeilen). Der zeitliche Versatz zwischen der Aufnahme
des ersten und des zweiten Bildes führt dazu, dass es
bei der Nutzung von Halbbildsensoren zur Abbildung
schneller Prozesse zu einem ➚Halbbildversatz kommt.
Halbbild-Sensoren wurden aus den Anforderungen der
klassischen Fernsehtechnik heraus entwickelt, werden
heute aber in der Bildverarbeitung nicht mehr genutzt.
(s. auch interlaced, Vollbild-Sensor, Progressive Scan)
Halbbild-Shutter ➚Shutter
Halbbildversatz Erscheinung bei ➚Bildaufnehmern, die
zeitlich nacheinander zwei Halbbilder (➚Halbbild-Sensor) aufnehmen. Halbbildversatz tritt dann auf, wenn
sich während der ➚Bildaufnahme das Objekt bewegt.
Halbraum ➚Raumwinkel
Halbwertsbreite Filterkennwert für ➚Bandpassfilter. Differenz aus oberer und unterer Wellenlänge, bei denen
die Durchlässigkeit eines optischen Filters auf 50% der
maximalen Durchlässigkeit abgefallen ist.
Halfframe-Sensor ➚Halbbild-Sensor
Halogenglühlampe Traditionelle Lichtquelle, die vor allem in ➚Kaltlichtquellen genutzt wird. Sonstige Anwendung in der Bildverarbeitung selten, da kaum eine
Strahlformung zur gezielten Beleuchtung möglich ist.
Die Wärmeentwicklung (ca. 93% der Leistung) ist sehr
stark und der Licht-Wirkungsgrad (ca. 7%) ist gering.
Der Kolben der Halogenglühlampe ist mit einem Halogengas (F, Br, J) gefüllt, mit dem Zweck, das Abdampfen
der Glühwendel und Niederschlagen (Schwärzung) auf
dem Lampenkolben zu verhindern. Damit wird auch die
➚Farbtemperatur (typisch 2850 K) erhöht, es entsteht
weißeres Licht.
Die Lebensdauer von Halogenglühlampen ist begrenzt
und variiert je nach Leistung zwischen 100 und 1.000
Stunden. Geringere Betriebsspannungen (Dimmen) verlängern die Lebensdauer, ändern aber die Farbtemperatur, und bewirken, dass der Halogen-Kreisprozess nicht
mehr funktioniert (schnelleres Schwärzen des Lampenkolbens).
Halogenglühlampen sind sehr hell und liefern ein
weißes Licht mit einem kontinuerlichen ➚Spektrum. Sie
sind träge beim Schalten (Nachleuchten, Einschaltverzögerung), sehr erschütterungsempfindlich im Betrieb
(Reißen der Glühwendel) und Betriebsspannungsschwankungen schlagen sich direkt in Schwankungen
des ➚Lichtstromes wieder (ripple).
Handshake Verschiedene Status- und Quittiersignale, die
wechselweise von kommunizierenden Geräten zur Koordination und zum Sichermachen des Datenflusses genutzt werden. Handshake ist eine Zwangslaufsteuerung,
bei der Folgeaktivitäten erst nach Bestätigung der richtigen Auswertung vorheriger Abläufe vorgenommen
38
werden können. Sie sind zeitaufwendig und deshalb oft
nur bedingt einsetzbar. Sie benötigen einen Rückkanal.
Beim Software-Handshake werden zwischen den Teilnehmern definierte Steuerzeichen ausgetauscht. Ein Befehl wird durch ein entsprechendes Codewort quittiert.
Verbreitete Methode ist das XON/XOFF.
Hardware-Handshake vollzieht die Kontrolle der Kommunikationsprozesse durch den elektrischen Zustand an
separaten Handshake-Leitungen. Hardware-Handshake
ist aufwendig und zeitintensiv. Allgemein bekannte Variante des Hardware-Handshakes ist das RTS/CTS (Request to Send/Clear to Send).
Hauptebenen zur optischen Achse: senkrechte Ebenen,
die die Hauptpunkte (objektseitige, bildseitige) enthalten. Hauptpunkte sind in einem optischen System die
Punkte, die von der Objektseite zur Bildseite mit dem
➚Abbildungsmaßstab 1 abbilden und stellen die Kardinalpunkte dar, von denen aus die ➚Brennweite, ➚Objektweite und Bildweite gemessen (gerechnet) werden.
Die Angabe der Hauptebenen ist nur für den ➚achsnahen Bereich gültig.
Hauptstrahl Lichtstrahl in einem optischen System, der
von einem beliebigen Objektpunkt ausgehend, durch
die Mitte der ➚Öffnungsblende verläuft. Parallele
Haupstrahlen rufen die telezentrische ➚Perspektive hervor. (s. auch paralleler Hauptstrahlengang)
HDTV High Definition Television. Hochaufgelöstes Fernsehen
(analog oder digital), das mit mehr als 1000 Zeilen arbeitet (Verdopplung der Zeilenzahl der konventionellen Fernsehnorm). Verbunden damit ist ein ➚Seitenverhältnis von
16:9. Keine Verwendung in der Bildverarbeitung, da diese
eigene ➚Bildaufnehmergrößen und ➚Pixelzahlen nutzt.
Hell-Dunkel-Übergang in Antastrichtung: Helligkeitsübergang von einem größerem zu einem geringeren
Grauwert.
Hellanteil Funktion, die die Anzahl an ➚Pixeln innerhalb
eines ➚Prüffensters ermittelt, die in ihrem ➚Grauwert
über einer eingestellten ➚Grauwertschwelle liegen.
Hellfeld-Auflichtbeleuchtung ist eine ➚Hellfeldbeleuchtung, bei der die ➚Auflichtbeleuchtung aus Richtung
der Kamera kommt und vom ➚Prüfobjekt zurück in die
Beobachtungsrichtung reflektiert wird. Es ergibt sich ein
gleichmäßiges helles, gut kontrastiertes Bild. Geeignet
für undurchsichtige/durchsichtige Teile mit gut reflektierenden Oberflächen; Glas, Metall, Kunststoffe, ...
Realisierung durch ➚koaxial eingespiegelte Beleuchtung.
Hellfeld-Durchlichtbeleuchtung ist eine ➚Hellfeldbeleuchtung, bei der die ➚Durchlichtbeleuchtung gegenüber dem optischen System angeordnet ist und direkt abgebildet wird. Durch ➚Absorption am ➚Prüfobjekt ergibt
sich ein gleichmäßiges helles, kontrastscharfes Bild mit
nahezu binären Eigenschaften (➚Binärbild).
Lexikon der industriellen Bildverarbeitung
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 48
Hochpass-Filter
Geeignet je nach verwendeter Beleuchtungsart: für undurchsichtige (durchsichtige) flache Teile (➚diffuse Beleuchtung); für undurchsichtige/durchsichtige räumliche
Teile (➚telezentrische Beleuchtung).
Damit Hellfeld-Durchlichtbeleuchtungen möglichst unabhängig von Verschmutzungen arbeiten können
(➚Staub), empfiehlt sich die Montage in einem Abstand
vom Prüfobjekt von mehr als dem dreifachen ➚Schärfentiefe-bereich. Dadurch ist sichergestellt, dass auch
größere Schmutzpartikel auf der Lichtaustrittsfläche der
Beleuchtung in der ➚Unschärfe untergehen.
Hellfeldbeleuchtung Beschreibt die Richtung der einfallenden Beleuchtungsstrahlenbündel in das optische System. Das Gesichtsfeld der Hellfeldbeleuchtung wird
durch die Beleuchtung direkt (➚Hellfeld-Durchlichtbeleuchtung) oder durch direkte Reflexion am ➚Prüfobjekt (➚Hellfeld-Auflichtbeleuchtung) beleuchtet und ist
in diesen Zonen hell, Fehler sind dunkel.
Helligkeit ist die physiologische Reaktion eines Betrachters (Stärke der Lichtempfindung) auf die ➚Leuchtdichte.
Dementsprechend kann die Helligkeit nicht durch ein
Gerät gemessen werden, sondern nur die Leuchtdichte.
Flächen gleicher Leuchtdichte können allerdings bei unterschiedlicher Umgebungshelligkeit subjektiv unterschiedliches Helligkeitsempfinden hervorrufen. Die
Maßzahl für die Helligkeit bezieht sich auf Schwarz- und
Weißanteile einer Farbe in Prozent: 100% (nur Weiß) bis
0% (nur Schwarz). Bei 50% Helligkeit erhält man den
reinsten Farbton (➚HSI-Farbraum).
Helligkeitsabfall a) Räumliche Erscheinung der nachlassenden Helligkeit im Bild. Bei sich vergrößerndem ➚Beleuchtungsabstand wird durch das ➚fotometrische Entfernungsgesetz die ➚Beleuchtungsstärke geringer.
b) Zeitliches Nachlassen der ➚Lichtstärke von Beleuchtungen. Durch ➚Beleuchtungsregelung lässt sich der Effekt minimieren.
c) natürliche ➚Vignettierung. Helligkeitsabfall hat wesentlichen Einfluss auf die einzustellenden ➚Antastparameter. Bildverarbeitungslösungen mit großem Helligkeitsabfall arbeiten i.A. nicht so zuverlässig wie solche
mit gleichförmiger Beleuchtung. (s. auch Drift, Helligkeitsnachführung)
Helligkeitsauflösung ➚Grauwertauflösung
(s. auch Dynamikumfang)
Helligkeitsnachführung ist das automatische Hinzufügen
bzw. Entfernen von Grauwertanteilen (z.B. ermittelt mit
➚Helligkeitsoffset) in Abhängigkeit von der Grundhelligkeit des ➚Prüffensters. Mit Helligkeitsnachführungen
können Befehle, die ➚Binärschwellen verwenden, automatisch an Helligkeitsänderungen angepasst werden.
Die Helligkeit sollte nachgeführt werden, wenn: im
➚Prüfprogramm ➚Binäralgorithmen verwendet wer-
Lexikon der industriellen Bildverarbeitung
den; die Helligkeit des ➚Prüfobjektes stark variiert (z.B.
durch Fremdlicht, Oberflächenbeschaffenheit)
Helligkeitsnachführung kann in Hardware auch durch
eine Helligkeitsregelung an ➚LED-Beleuchtungen realisiert werden.
Helligkeitsoffset Funktion zur Erkennung von ➚Grauwertdifferenzen. Helligkeitsoffset ermittelt die mittlere
Grauwertdifferenz innerhalb eines ➚Prüffensters zu einem Vergleichsgrauwert und wird zur ➚Helligkeitsnachführung benutzt.
Helligkeitsübergang ➚Kantenübergang
Helligkeitsverlust ➚Drift
HF-Beleuchtung ➚Leuchtstofflampenbeleuchtung
High-end-Systeme High-end-Systeme werden in Maschinen mit hohen Verarbeitungsgeschwindigkeiten (OCR in
Briefsortieranlagen, Verpackungsmaschinen) oder bei sehr
komplexen Anwendungen (dreidimensionale Messungen
großer Flächen mit sehr dichten Messpunkten) genutzt.
Sie zeichnen sich aus durch: Bedienung von 16 Kameras
und mehr; Aufbau häufig auf VME-Bus-Basis; hochgradige ➚Parallelverarbeitung (synchroner ➚Bildeinzug vieler
Kameras); Asynchronbetrieb (➚Progressive Scan oder
CMOS-Kameras); Multiprozessorsysteme; ➚Blitzlichtbeleuchtungen mit mehreren kW Lichtleistung; extrem
kurze Verarbeitungszeiten (Bildeinzug incl. Verarbeitung
20 ms); interne Bilddatenbusse von 128 bit Breite.
Hintergrund Bereiche in Bildern, die keine zu analysierenden
➚Objekte darstellen, werden unabhängig vom Bildinhalt
mit dem Begriff „Hintergrund“ zusammengefasst.
Hintergrundbeleuchtung ➚Durchlichtbeleuchtung
Histogramm Graphische Darstellung der Häufigkeitsverteilung von Helligkeitswerten im Bild. Bei Grauwertbildverarbeitung gilt: Über die ➚Grauwerte 0-255 wird die
Häufigkeit (Anzahl der ➚Pixel mit entsprechendem
Grauwert) aufgetragen. Das Histogramm ist häufiges
Hilfsmittel, um den Vordergrund (hohe Grauwerte) vom
➚Hintergrund (niedrige Grauwerte) im Bild durch
➚Segmentierung zu trennen. Zur Segmentierung wird
ein Schwellwert zwischen die Grauwerte des Vordergrundes und die des Hintergrundes gelegt.
HL-Flanke High-Low-Flanke
Hochauflösend Unter hochauflösend im Sinne der Bildverarbeitung versteht man a) das ➚Auslösungsvermögen eines ➚Objektives mehr als 100 ➚Linienpaare/mm
auflösen zu können. Das liegt weit über dem Standard
üblicher ➚CCTV-Objektive mit 40 Linienpaaren/mm;
b) Matrix-Bildaufnehmer mit mehr als 1000 Pixeln pro
Zeile oder Spalte.
Hochpass-Filter unterdrücken im Ortsfrequenzbereich niedere Frequenzen. Im gefiltertem Bild bedeutet das, dass
starke ➚Kontraste über wenige Pixel hervorgehoben
werden. Schleichende Wechsel der Grauwerte (geringer
39
H
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 49
Höhenvertauschtes Bild
H
I
Grauwertunterschied) hingegen werden unterdrückt.
Durch Hochpass-Filter werden Kantenkontraste verstärkt; das Bild erscheint schärfer. (s. auch ➚Bildfilter)
Höhenvertauschtes Bild beschreibt die Tatsache, dass bei
der optischen Abbildung das Bild gegenüber dem Objekt auf dem Kopf steht. Bei der einstufigen Abbildung
ohne zusätzliche Strahlablenkung durch Prismen oder
Spiegel ist auch die Seite vertauscht. Viele Kameras
kompensieren diese Höhen- und Seitenvertauschung.
Hole Accumulation Diode Von Sony entwickelte Halbleiterstruktur in CCDs, die den Dunkelstrom sehr reduziert
und den Bildaufnehmer empfindlicher macht. Weiterentwicklung ist ➚lens on the chip, d.h. vor jedes Pixel
wird eine mikrooptisch kleine Sammellinse aufgebracht.
Horizontales Synchronsignal Bestandteil des ➚Videosignals. Das horizontale Synchronsignal gibt den Beginn
einer neuen Zeile im ➚Videosignal an. Auch als H-SYNC
bezeichnet.
HSB-Farbraum Hue-Saturation-Brightness-Farbraum, svw.
HSI-➚Farbraum
HSI-Farbraum Hue-Saturation-Intensity-Farbraum ➚Farbraum
HSL-Farbraum Hue-Saturation-Lightness-Farbraum, svw.
➚HSI-Farbraum
Hperfokale Distanz ➚Naheinstellung auf Unendlich
Hyperzentrische Perspektive ➚Perspektive
Hyperzentrisches Objektiv Objektiv, das die hyperzentrische ➚Perspektive nutzt. Bildet wie bei einer Lupenabbildung ab: vorn liegende Objekte erscheinen kleiner als
hinten liegende. Selten gebautes und genutztes Objektiv, das auf Grund seiner Art der Perspektive sehr kurze
➚Arbeitsabstände und eine sehr viel größere Frontlinse
als das ➚Prüfobjekt aufweisen muss. Daher gestaltet
sich das Thema Beleuchtung beim praktischen Einsatz
hyperzentrischer Objektive als sehr schwierig: viel Licht
aus allen Richtungen bei nicht vorhandenem Platz. Eingesetzt werden hyperzentrische Objektive u.a. für die
Bedruckungskontrolle auf Mantelflächen von Zylindern,
realisiert in Draufsicht: Die Mantelfläche erscheint als
Kreisring.
I
IEEE 1394 ➚Fire Wire
Impulsanstiegszeit Zeitdifferenz zwischen dem Auftreten
von 10% und 90% der maximalen Impulsamplitude.
Impulsbreite Zeitdifferenz zwischen 50% der maximalen
Impulsamplitude an der ansteigenden und abfallenden
Impulsflanke.
Indizierte Programmverzweigung erlaubt mit einem
40
Befehl den Sprung zu verschiedenen Marken oder Unterprogrammen in ➚Prüfprogrammen. Der Befehl springt
dabei zu einer Marke, deren Name – bei der Abfrage –
aus einem festen Teil, der Stammmarke und einem variablen Teil, dem Index, zusammengesetzt wird. Der Vorteil diese Verfahrens besteht darin, dass mit einunddemselben Befehl in Abhängigkeit vom Index verschiedene Unterprogramme oder Marken aufgerufen werden
können. Beispiele für derartige Indizes sind die Nummerierung von Werkstückhaltern an Rundtakttischen oder
die Codierung von Werkstückträgern durch Transponder.
Mit dieser Funktion kann im Prüfprogramm, abhängig
von der Nummer des Werkstückhalters/-trägers, zu individuell zugehörigen Unterprogrammen gesprungen
werden, die u.a. auf den Werkstückhalter abgestimmte
➚Kalibrierfaktoren, Justieroffsets oder ➚Korrekturfaktoren enthalten können.
Industrielle Bildverarbeitung ➚Bildverarbeitung
Industrietauglichkeit Der industrielle Einsatz von Bildverarbeitungskomponenten verlangt nach einem möglichst geringen Einfluss der industrietypischen ➚Umgebungsbedingungen. Industrietauglichkeit bedeutet für
Optiken, Beleuchtungen und Systeme: Große Zuverlässigkeit auch für zerbrechliche Komponenten, elektronische Ansteuerbarkeit, Industriesteckverbinder, Verpolsicherheit, digitale Ein-/Ausgänge mit Optokopplern,
weiter Eingangsspannungsbereich, ausfallsichere Lichtquellen (LED), Kurzschlussfestigkeit, hohe ➚IP-Schutzklasse, zugentlastete Kabel mit großer Biegewechselfestigkeit, Trennung von Bedienung und Bildverarbeitung,
robuste Algorithmen, Feststellmöglichkeit, Erschütterungsfestigkeit, Staub- bis Lösungsmitteldichtheit, definierte Befestigungs-/Montagemöglichkeiten, mechanische Robustheit.
Infrarotbeleuchtung Beleuchtungen, die besonders in
der Sicherheitstechnik und Bildverarbeitung eingesetzt
werden. Als ➚Lichtquellen werden thermische Strahler
und Infrarot-LEDs eingesetzt. Infrarot-LED-Beleuchtungen werden besonders dann angewendet, wenn eine
hohe Unabhängigkeit von ➚Fremdlicht zu erreichen ist
oder im sichtbaren ➚Licht Objektdetails nicht erkennbar
sind. Infrarotbeleuchtungen sind aufgrund der ➚spektralen Empfindlichkeit für das menschliche Auge nicht
sichtbar, werden aber von ➚Bildaufnehmern wahrgenommen.
Als LED-Beleuchtung sind Infrarotbeleuchtungen besonders gut blitzbar (➚Blitzbeleuchtung), erzeugen aber
auf dem Bildaufnehmer ein kontrastärmeres Bild (➚Pixel-Übersprechen). Sinnvollerweise arbeiten Infrarotbeleuchtungen mit ➚Tageslichtsperrfiltern oder ➚Bandpassfiltern zusammen, um das Spektrum des sichbaren
Lichtes zu unterdrücken. Ein möglicherweise in der Ka-
Lexikon der industriellen Bildverarbeitung
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 50
Interline Transfer Sensor
mera eingebautes ➚Infrarotsperrfilter ist in diesem Zusammenhang aus der Kamera zu entfernen. Bei Anwendung der Infrarotbeleuchtung gibt es besondere Effekte:
Die Farbwiedergabe ist unberechenbar (Versuche machen!). Viele Stoffe, u.a. Druckpigmente, sind für infrarotes Licht durchsichtig. Bei starken Vergrößerungen treten stärkere Beugungseffekte an Kanten auf. Bei starken
Infrarotbeleuchtungen sind Arbeitsschutzmaßnahmen
zu beachten (➚Augenschutz). Der ➚Reflexionsgrad für
infrarotes Licht ist zum Teil sehr abweichend vom sichtbaren Licht. Es kommt zur Vergrößerung des ➚Arbeitsabstandes (➚Dispersion), die ➚Fokussierung muss
nachgeführt werden.
Infrarotes Licht Elektromagnetische Strahlung mit ➚Wellenlängen über 780 nm. ➚Bildaufnehmer der Bildverarbeitung sind für infrarotes Licht (➚spektrale Empfindlichkeit) nur für Wellenlängen bis etwa 1100 nm empfindlich, meist aber ohnehin mit einem ➚Infrarotsperrfilter versehen.
Weitere Unterteilung in IR-A-Licht: 780 nm ... 1,4 µm
(auch NIR - near infrared ), IR-B-Licht: 1,4 ... 3 µm, IR-CLicht: 3 ... 800 µm. Langwelliges infrarotes Licht wird als
Wärmestrahlung wahrgenommen. Infrarotes Licht kann
in hoher Stärke für das menschliche Augen schädlich
sein (➚Augenschutz) und kann aus dem ➚Spektrum
von Lichtquellen ➚durch Infrarotsperrfilter herausgefiltert werden.
Infrarotkamera Kamera, die für ➚infrarotes Licht empfindlich ist. Meistens handelt es sich dabei nicht um Kameras, die im ➚NIR arbeiten sondern Kameras, die Wärmebilder ortsauflösend darstellen. Mit solchen Wärmebildkameras können z.B. Gebäude auf Wärmebrücken analysiert, Reibung an mechanisch stark belasteten Baugruppen nachgewiesen und elektronische Schaltungen auf
Überhitzung untersucht werden. Die Algorithmen der
Bildverarbeitung sind vielfach die gleichen, die für die
Auswertung von Bildern sichtbaren Lichts genutzt werden.
Infrarotsperrfilter Kurzpassfilter. Sperrt Licht mit ➚Wellenlängen > 780 nm. Infrarotsperrfilter sind im sichtbaren Bereich des ➚Spektrums zu mehr als 90% durchlässig. Da ➚Bildaufnehmer der Bildverarbeitung für infrarotes Licht (➚spektrale Empfindlichkeit) empfindlich
sind, werden sie zum Schutz gegen das tief in das Silizium des ➚CCDs eindringende Licht meist mit einem Infrarotsperrfilter versehen. In manchen Fällen ist das Infrarotsperrfilter auf das Deckglas des ➚Bildaufnehmers
direkt aufgedampft.
Hinweis: Das Entfernen des eingebauten Infrarotsperrfilters aus der Kamera verändert die ➚Abbildungsfehler,
den ➚Arbeitsabstand sowie die ➚optische Weglänge.
(s. auch Filtergewinde, planparallele Platte, ➚PixelÜbersprechen)
Lexikon der industriellen Bildverarbeitung
Inkohärentes Licht ➚Licht mit statistisch verteilten Phasendifferenzen der einzelnen Lichtwellen. ➚Interferenz
ist nicht möglich, da die Kohärenzlänge zu klein ist. Gegenteil von ➚kohärentem Licht. Die meisten ➚Lichtquellen senden inkohärentes Licht aus.
Integrationszeit Belichtungszeit bei CCDs, in der auf den
lichtempfindlichen Elementen des ➚Bildaufnehmers
Licht (Photonen) gesammelt (integriert) werden. Die Integrationszeit kann durch ➚Shutter verkürzt oder verlängert werden.
Intelligente Kamera ➚Smart Camera
Interbus ➚Feldbus, der für industrielle Sensoren/Aktoren
mit einer durchgängigen Vernetzung von der Steuerungsebene bis hin zu primitiven Schaltelementen entwickelt wurde. www.interbusclub.com
Interface ➚Schnittstelle
Interferenz Wechselwirkungen bei der Überlagerung von
ausreichend ➚kohärenten Wellen. Interferenz führt zu
typischen amplituden- und phasenabhängigen Intensitätsverteilungen, den Interferogrammen. Messtechnische Anwendung in der ➚Interferometrie.
Interferenzfilter sind optische Filter, die durch ➚Interferenz bestimmte ➚Wellenlängen/-bereiche aus einem
➚Spektrum auslöschen. Können als ➚Bandpass sowie
als Lang- und Kurzpassfilter ausgeführt sein.
Interferogramm ➚Interferometrie und Bildverarbeitung
Interferometrie und Bildverarbeitung basieren auf der
➚Interferenz des Lichtes. Sie gehört nach dem heutigen
Stand der Technik zu den genauesten und empfindlichsten Messmethoden. Mit Interferometern lassen sich optisch Weglängen bis herab zu 10 nm genau vermessen.
Die mikroskopische Vermessung (vgl. ➚Gitterprojektionsverfahren) beruht vor allem auf der Auswertung
von Streifenmustern in Interferogrammen (Bilder von
Interferenzmustern). Interferogramme lassen Rückschlüsse auf die sie erzeugenden Oberflächen zu, hinsichtlich Ebenheit, Planparallelität, Oberflächenrauhigkeit. Bildverarbeitung übernimmt dabei vielfach die
Analyse der Streifenmuster. Von Streifen zu Streifen
herrscht ein Höhenunterschied in Größe der beleuchtenden Wellenlänge/2. Durch geeignete ➚Interpolationsverfahren können sehr fein Zwischenwerte gemessen werden. Wegen ihrer extrem hohen Auflösung sind
interferometrische Messverfahrern sehr empfindlich
und werden meist nicht im industriellen Einsatz genutzt
sondern nur im Messraum.
Interlace ➚Zeilensprungverfahren
Interline Transfer Sensor Ein Funktionsprinzip von
➚CCDs. Das während der ➚Integrationszeit entstandene ➚Ladungsbild wird spaltenweise in parallel zu den
lichtempfindlichen Spalten des ➚Bildaufnehmers liegende vertikale Shift-Register verschoben, die lichtge-
41
I
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 51
Interpolation
I
schützt sind. In Folge wird das gesamte Ladungsbild
nacheinander zeilenweise durch die vertikalen Shift-Register in ein horizontales Shift-Register verschoben. Das
horizontale Shift-Register wird ausgelesen und das analoge ➚Videosignal wird zeilenweise aneinandergesetzt,
bis der gesamte Bildinhalt ausgelesen ist. Interline
Transfer Sensoren neigen zu geringen ➚Smear-Erscheinungen. (s. auch Frame Transfer Sensor)
Interpolation ➚Subpixel-Antastung
Interpolationsfaktor Maß für die Feinheit der erreichbaren Subpixel-Auflösung bei der ➚Subpixel-Antastung. Der Interpolationsfaktor ist ein rein mathematisches Maß, das von den genutzten Algorithmen vorgegeben wird und hat nichts mit der praktisch erreichbaren Subpixel-Auflösung einer Anlage mit Bildverarbeitung zu tun, die von einer Vielzahl von Einflussfaktoren abhängt (➚Genauigkeit einer Bildverarbeitungsanlage).
Ein Interpolationsfaktor von 10 besagt, dass die Position innerhalb eines Pixels auf 0,1 Pixel angegeben werden kann. Statistisch begründete Messreihen haben ergeben, dass größere Interpolationsfaktoren als 15 praktisch nicht erreichbar sind (auch unter den perfekten Bedingungen eines Feinmessraumes nicht).
Als Richtwerte für den praktischen Einsatz können gelten:
Ideales Umfeld: Labor mit schwingungsgedämpfter
Messanordnung, telezentrische Beleuchtung und Objektiv, Messobjekte sauber mit sauber ausgeformten Körperkanten ohne Bearbeitungsspuren: Interpolationsfaktor besser als 10, Kantenort besser als 1,5 µm aufgelöst.
Reale Industrieumgebung: Schwingungen, Schmutz, jedes Prüfobjekt weist andere Bearbeitungsspuren auf, ...
Interpolationsfaktoren von 3 ... 5
Invertieren kehrt die ➚Grauwerte, Helligkeitswerte eines
Bildes in einem vorgegebenen Bereich um: schwarz wird
weiß und umgekehrt. Pixel für Pixel werden die Grauwerte umgerechnet: maximal möglicher Grauwert – ursprünglicher Grauwert = neuer Grauwert. (s. auch Look
up Tabelle)
IP-Adresse Jeder Netzteilnehmer bekommt unter ➚TCP/IP
eine einmalige Internetadresse, auch IP-Nummer genannt. Das ist ein 32-bit-Wert (4 · 8 bit), durch 4 Punkte getrennt. Die IP-Adresse unterteilt sich in Net-ID (zur
Adressierung des Netzes) und Host-ID (zur Adressierung
des Netzteilnehmers innerhalb des Netzes).
IP-Schutzklasse nach DIN 40050. Schutz eines Gerätes
gegen den Zugang zu gefährlichen Teilen, sowie gegen
das Eindringen von festen Körpern oder Flüssigkeiten.
Wird durch den IP-Code (International Protection) festgelegt. Die Angabe einer Kennziffer gibt die Höhe des
Schutzgrades an und schließt alle niedrigeren Schutzgrade ein.
42
1. Ziffer: Schutzgrad gegen den Zugang zu gefährlichen
Teilen und gegen feste Fremdkörper:
Schutz gegen gefährliche Teile:
0
Nicht geschützt.
1
Geschützt gegen den Zugang mit großen Kör
perflächen
2
Geschützt gegen Zugang mit dem Finger
3
Geschützt gegen Zugang mit einem Werkzeug
4
Geschützt gegen Zugang mit einem Draht
5+6 Vollständiger Berührungsschutz
Schutz gegen feste Fremdkörper:
0
Nicht geschützt
1
Geschützt gegen Fremdkörper
<= 50mm Durchmesser
2
Geschützt gegen Fremdkörper
<= 12,5mm Durchmesser
3
Geschützt gegen Fremdkörper
<= 2,5mm Durchmesser
4
Geschützt gegen Fremdkörper
<= 1,0mm Durchmesser
5+6 5 Staubgeschützt; 6 Staubdicht
2. Ziffer: Schutzgrad gegen das Eindringen von Wasser:
0
Nicht geschützt.
1
Geschützt gegen Tropfwasser
2
Geschützt gegen Tropfwasser bei einer Gehäuse
neigung von bis zu 15 Grad.
3
Geschützt gegen Schwallwasser.
4
Geschützt gegen Spritzwasser.
5
Geschützt gegen Strahlwasser.
6
Geschützt gegen starkes Strahlwasser.
7
Geschützt gegen die Wirkung bei zeitweiligem
Untertauchen.
8
Geschützt gegen die Wirkung bei dauerndem
Untertauchen.
Der Schutzgrad spielt in industriellen Bildverarbeitungsanlagen eine Rolle, da zum Teil mit Netz- und Hochspannungen (Leuchtstofflampen, Blitzbeleuchtungen)
sowie unter widrigen Umweltbdingungen gearbeitet
wird. So werden zum Beispiel auch unter Niederspannung arbeitende LED-Beleuchtungen mit einer IPSchutzklasse versehen.
IPC Industrial PC. Personal Computer, der für die rauen Einsatzbedingungen in der Industrie hinsichtlich Zuverlässigkeit und Funktionsfähigkeit robuster gemacht wurde.
PC-basierte Bildverarbeitungssysteme im Produktionseinsatz nutzen IPCs.
IR-Beleuchtung ➚Infrarotbeleuchtung
IR-Licht ➚Infrarotes Licht
IR-Sperrfilter ➚Infrarotsperrfilter
Istwert ➚Messwert.
I/O ➚digitale Ein-/Ausgänge
Lexikon der industriellen Bildverarbeitung
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 52
Justierung von Bildverarbeitungskomponenten
J
JPEG-Dateiformat JPEG: Joint Photographies Expert
Group. Gebräuchliches Dateiformat zum datensparenden Bilddatentransfer von Bildverarbeitungssystemen.
Das Komprimierungsverfahren ist nicht verlustfrei: Farboder auch Bildinformationen aus dem Originalbild gehen bei der Komprimierung verloren. Damit für den Bilddatentransfer von Bildverarbeitungssystemen nur bedingt einsetzbar. JPEG reduziert die Anzahl der Bits im
Bild, indem wiederholt vorkommende oder schwer auszumachende Bilddaten eliminiert werden.
Justierhilfe Einstellhillfe für die lotrechte Ausrichtung der
➚optischen Achse zur ➚Objektebene/Messebene. Sie
beruht auf der Koinzidenz zweier zueinander um 45
Grad verdrehter Fadenkreuze auf Glas, die sich in einem
Abstand zueinander befinden. Der Abstand zwischen
beiden Fadenkreuzen kann je nach Objektiv durch verschieden hohe Justierhilfen gewählt werden, so dass bei
starker Abblendung (große ➚Schärfentiefe) beide Fadenkeuze hinreichend scharf abgebildet werden. Durch
➚Justierung ist dafür Sorge zu tragen, dass die Mittelpunkte beider Fadenkreuze zur Deckung gebracht werden, was der lotrechten Lage der optischen Achse zur
Auflagefläche der Justierhilfe entspricht. Die integrierte
Beleuchtung lässt die Justierhilfe sowohl im ➚Durchlicht als auch im ➚Auflicht nutzen. Justierhilfen funktionieren über das gesamte ➚Gesichtsfeld nur für ➚telezentrische Objektive. ➚Entozentrische Objektive können nur sehr begrenzt ausgerichtet werden (Funktion
der Justierhilfe nur in der Bildmitte). Justierhilfen werden benötigt, da nur selten die ➚optische Achse und die
➚mechanische Achse optischer Komponenten übereinstimmen. (s. auch Justierung)
Justierprogramm ➚Prüfprogramm
Justierung ist das Einstellen eines Messsystems mit dem
Ziel, Messabweichungen auf Werte zu bringen, die den
technischen Anforderungen entsprechen. Justierung erfolgt in einem gesondertem Arbeitsgang beim Einrichten der Maschine, also außerhalb der eigentlichen Prüfung und wird mit einem ➚Prüfprogramm, dem Justierprogramm durchgeführt. Justierung benötigt besondere
gerätetechnische Voraussetzungen, die bei der Konzeption der Bildverarbeitungsanlage berücksichtigt werden
müssen (Verschiebe-, Dreheinheiten, unter ungünstigen
Voraussetzungen um alle 6 ➚Freiheitsgrade).
Was muss an einer Bildverarbeitungsanlage justiert
werden? Gesichtsfeld (Lage, Größe); Schärfeeinstellung
der Abbildung (➚Arbeitsabstand); Lage der Beleuchtung; Homogenität; Helligkeit der Beleuchtung; Ausrichtung der Achsen (➚Justierhilfe).
Lexikon der industriellen Bildverarbeitung
Weitere Justierungen können nötig sein:
mechanisch: 3 translatorische und 3 rotatorische Freiheitsgrade; ...;
optisch: lotrechte Justierung; perspektivfreie Justierung; ...;
elektrisch: Justierungen elektrischer Signale; Verstärkungen (➚Weißabgleich); Helligkeitseinstellungen an
Beleuchtungen; ...;
softwaretechnisch: ➚Shadingkorrektur; ➚Gamma-Korrektur; ➚Korrekturfaktoren; ...
Die Justierung erfolgt beim Einrichten häufig nach
➚Referenzbildern und ➚Referenzgeometrie, die bei der
Erstjustierung der Anlage aufgenommen wurden und
einen Optimalzustand aufweisen. Eine Justierung sollte
nach jeder Demontage/Montage an der Bildverarbeitungsanlage (auch nur von Teilen) vorgenommen werden.
Justierung telezentrischer Systeme: Eine Ausrichtung ist
notwendig, um Beleuchtung, Objekt, Objektiv in eine
definierte Lage/Drehlage zueinander zu bringen. Dabei
muss folgende Reihenfolge eingehalten werden:
1.) ➚Arbeitabstand Objektiv einstellen
2.) Drehung des Bildes um die ➚optische Achse
3.) Rechtwinkligkeit zum Prüfobjekt herstellen (➚Justierhilfe, ➚Verkippung)
4.) ➚Gesichtsfeld in die richtige Position (x, y) bringen
5.) Abstand der Beleuchtung im Durchlicht relativ groß
wählen (Staub unscharf) (s. auch Durchlichtbeleuchtung)
6.) Gleichmäßigkeit der Beleuchtung herstellen
Justierung von Bildverarbeitungskomponenten Für eine bestimmungsgemäße Funktion einer Bildverarbeitungslösung müssen immer alle beteiligten Komponenten (Beleuchtung, Prüfling, Optik, Kamera) unter Einhaltung der folgenden Reihenfolge zueinander justiert
werden:
1.) Justierung Prüfobjekt zum Halter
2.) Justierung Kamera/Optik zum Prüfobjekt
3.) Justierung Beleuchtung zum Prüfobjekt
4.) Justierung Beleuchtung zu Kamera/Optik
Für 2.) gestaltet sich der Arbeitsablauf so:
a) Justierung des Arbeitsabstandes WD (scharfe Bilder)
b) Drehung um die z-Achse (Verdrehung des Bildes justieren)
c) Drehung um die x- und y-Achse (lotrechte Ausrichtung justieren ➚Justierhilfe)
d) Verschiebung in x- und y-Achse (Lage ➚Gesichtsfeld
justieren)
Gute Konstruktionen zeichnen sich durch entkoppelte
Justiermöglichkeiten aus (Trennung der Justierung einzelner Komponenten). Nach der Justierung ist sicherzustellen, dass die Justierung während des Betriebes erhalten bleibt.
43
J
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 53
Kalibrierfaktor
durch
K Klemmung, Lacksicherung, Einhausen, Verschluss.
K
Kalibrierfaktor Kennzahl, die den Zusammenhang zwischen einer Eingangsgröße und einer Ausgangsgröße
herstellt.
Bildverarbeitungssysteme werden hauptsächlich hinsichtlich dreier Gruppen von Kalibrierfaktoren kalibriert:
a) ➚Abbildungsmaßstab (metrische Kalibrierung) Der
Kalibrierfaktor für den Abbildungsmaßstab legt die Verhältnisse zwischen Pixelgröße und Objektgröße fest.
Der Kalibrierfaktor wird mit einem ➚Kalibrierkörper ermittelt. Je nach Sensortyp können für x- und y-Richtung
verschiedene Kalibrierfaktoren vorkommen. Die bei der
➚Kalibrierung ermittelten Kalibrierfaktoren bestimmen
direkt die ➚Genauigkeit eines Bildverarbeitungssystems. Nahezu jede mechanische Änderung an Maschine und Bildverarbeitungssystem ändert den Kalibrierfaktor des Abbildungsmaßstabes und verlangt nach
Neukalibrierung.
b) ➚Helligkeitswerte (fotometrische Kalibrierung) Fotometrische Messverfahren (➚Fotometrie) verlangen nach
Herstellung eines Bezuges zur ➚Beleuchtungsstärke.
Der Kalibrierfaktor bezieht sich hier nicht auf ein körperliches Maß, sondern auf eine Helligkeitsreferenz
(➚Lichtquelle und/oder körperliches Helligkeitsnormal).
Da beide ➚Drift unterliegen können, sollte bei der Kalibrierung von Helligkeitswerten an Ort und Stelle die
Größe des Referenzmaßes ermittelt werden.
c) Farbwerte (kolorimetrische Kalibrierung) Farbkalibrierfaktoren treten i.A. als Tripel auf, da alle drei ➚Grundfarben kalibriert werden müssen. Sonst wird mit ihnen
wie mit Helligkeitswerten verfahren. (s. auch ➚Weißabgleich)
Gewöhnlich werden Kalibrierfaktoren im Flash-EEPROM
des Bildverarbeitungssystems abgelegt, so dass sie auch
nach Abschalten des Systems erhalten bleiben.
Kalibrierkörper, auch Normal, vermessenes Teil, das zur
➚Kalibrierung genutzt wird. Der Kalibrierkörper dient als
➚Maßverkörperung und überträgt seine maßlichen Eigenschaften auf das Bildverarbeitungssystem, z.B. zur
Festlegung des ➚Abbildungsmaßstabes, der dann aus
dem bekannten Maß des Kalibrierkörpers und der Messgröße berechnet wird. Der Kalibrierkörper muss bei Messungen unter Wiederholbedingungen (➚Wiederholgenauigkeit) eindeutige ➚Messwerte liefern und langzeitstabil sein. Er sollte das gleiche Merkmal wie die später
mit der Messeinrichtung zu prüfenden Objekte besitzen,
jedoch qualitativ höherwertig sein. Die Unsicherheit der
➚Kalibrierung sollte < 10% des ➚Toleranzbereiches
sein, damit ein ➚Cgk-Wert > = 1,33 erreicht werden
kann. Auch sollte die Genauigkeit der Vermessung der
44
Kalibriernormale 10 x höher sein als die geforderte Genauigkeit der Bildverarbeitungsanlage. Wenn kein Kalibrierkörper verfügbar ist, kann ersatzweise aus der Produktion ein geeignetes ➚Prüfobjekt gewählt werden,
das als Kalibrierkörper zu vermessen und zu kennzeichnen ist. Typische Kalibrierkörper sind für metrische Messeinrichtungen mit sich ändernden Prüfobjekten: Prüfstifte und Chrommasken. Kalibrierkörper für fotometrische
Maße (Helligkeitsnormale) und kolorimetrische Maße
(Farbnormale) verlangen nach besonders sorgfältiger
Überprüfung, da ihre Werte durch Alterung driften können. Zusätzlich dazu ist bei diesen Kalibrierkörpern eine
kalibrierte Beleuchtung zu verwenden.
Kalibriernormal ➚Kalibrierkörper
Kalibrierung Feststellen des für ein Messsystem gültigen
Zusammenhanges zwischen Ausgangsgröße und Eingangsgröße. Bildverarbeitungssysteme müssen für eine
Reihe von Anwendungen kalibriert werden. Eingangsgröße ist dabei die Helligkeitsverteilung auf dem
➚Bildaufnehmer, Ausgangsgröße der zu ermittelnde
➚Messwert.
Der Zusammenhang kann hergestellt werden hinsichtlich: metrischer Kalibrierung (➚Abbildungsmaßstab kalibrieren); fotometrischer Kalibrierung (Helligkeitswerte,
➚Luxwerttest, ➚Shading kalibrieren); kolorimetrischer
Kalibrierung (Farbwerte kalibrieren).
Wie auch beim späteren Messvorgang sind beim Kalibrieren alle Einflussgrößen der Bildverarbeitung (➚Genauigkeit einer Bildverarbeitungsanlage) beteiligt und
haben Einfluss auf den ➚Kalibrierfaktor. Die Kalibrierung wird mit einem gesonderten ➚Prüfprogramm, dem
Kalibrierprogramm durchgeführt. Typischer Ablauf einer
metrischen Kalibrierung im zweidimensionalen Bereich
ist: a) vorausgehende ➚Justierung;
b) metrische Kalibrierung in der Bildverarbeitung wird
meist nach ➚Kalibrierkörpern vorgenommen;
c) die Kalibierung erfolgt für die x- und y-Richtung des
➚Bildaufnehmers getrennt, da je nach Pixelgeometrie
und -abstand unterschiedliche Kalibrierfaktoren vertikal
und horizontal typisch sind;
d) das Ergebnis der Kalibrierung wird mit dem ➚Kalibrierfaktor gespeichert;
Beim Kalibrieren sollten zum Erreichen einer möglichst
guten ➚Wiederholgenauigkeit die gleichen Antastalgorithmen/➚Antastparameter genutzt werden wie im späteren ➚Prüfprogramm. Ebenso sollte ein möglichst
gleich geformter Kalibrierkörper genutzt werden wie
später Prüfobjekte in der Serienprüfung.
Eine Kalibrierung muß nach jeder Demontage/Montage
an der Bildverarbeitungsanlage (auch nur von Teilen)
vorgenommen werden, zumindest aber als vorbeugende Kalibrierung in festgelegten Zeitintervallen.
Lexikon der industriellen Bildverarbeitung
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 54
Kantenbreite
Praktische Hinweise zur Kalibrierung von Bildverarbeitungseinrichtungen: für eine möglichst hochwertige Kalibrierung sollten Kalibrierkörper mehr als das halbe
➚Gesichtsfeld bedecken; die Verzeichnung geht in die
Kalibrierung mit ein! (Wird ein immer nahezu gleichgroßes Prüfobjekt in nahezu immer gleicher Position
vermessen; (relative Messung) kann die Verzeichnung
vernachlässigt werden). Kalibrierkörper in möglichst
rechtwinkliger Lage zum ➚Bildkoordinatensystem anordnen; für gleichmäßige Beleuchtung sorgen; Kalibrierung für den Subpixelbereich besonders sorgfältig vornehmen und mehrere Durchläufe zur Erhöhung der statistischen Sicherheit vornehmen.
Die Vorgänge für die Kalibrierung im dreidimensionalen
Raum sind sehr viel komplexer, zumal sie sich auf die
Kombination mehrerer zweidimensionaler ➚Bildaufnehmer beziehen. So müssen durch verschiedenartige ➚Koordinatentransformationen diverse Koordinatensysteme
verknüpft werden (➚Weltkoordinaten, ➚Roboterkoordinaten, ➚Kamerakoordinaten, etc.).
Für den Vorgang der Kalibrierungen und der Überwachung von Messmitteln gemäß DIN ISO 10012 (Forderungen an die Qualitätssicherung für Messmittel) ist die
Angabe der ➚Messun-sicherheit gefordert. (s. auch Eichung, Prüfprogramm) www.dkd.ptb.de
Kaltlichtbeleuchtung ➚Kaltlichtquelle
Kaltlichtfilter Ein ➚Infrarotsperrfilter zum Fernhalten des
langwelligen ➚Infrarotlichts (Wärme) vom ➚Faserbündel/➚Querschnittswandler einer ➚Kaltlichtquelle. Lässt
die „kälteren“ Lichtanteile (kürzere ➚Wellenlängen) passieren.
Kaltlichtquelle nutzt ➚Halogenglühlampen oder ➚Metalldampflampen zur Lichterzeugung. Durch ➚Absorption (➚Infrarotsperrfilter) und/oder ➚Reflexion an ➚Kaltlichtfiltern und -spiegeln wird der langwellige Infrarotanteil des Lichtes (Wärmestrahlung) entfernt. Kaltlichtquellen werden vorranging für die Lichteinkopplung in
➚Faserbündel/ ➚Querschnittswandler genutzt. Zur Wärmeabführung (➚Lichtquellen bis 1000 W möglich) sind
Lüfter integriert. Die Helligkeitseinstellung erfolgt mittels Dimmer (Änderung der ➚Farbtemperatur!), oder
mit einer ➚Blende durch Begrenzung des ➚Lichtstromes. Kaltlichtquellen sind wegen der verwendeten
➚Lichtquellen erschütterungsempfindlich und können
durch das Nachleuchten der Lichtquelle nur begrenzt
elektrisch angesteuert werden (z.T. mit mechanischem
Verschluss). Qualitativ hochwertige Kaltlichtquellen
nutzen außerdem eine hochfrequente Ansteuerung der
Lichtquelle, um ripple (in Lichtstärkeschwankungen umgesetzte Frequenz der Betriebsspannung) zu vermeiden
(➚flimmerfreie Beleuchtung). Auf Grund der konzentrierten Einkopplung des Lichtes in Querschnittswandler
Lexikon der industriellen Bildverarbeitung
sind hohe Beleuchtungsstärken erreichbar, wie sie für
die Beleuchtung schneller Produktionsprozesse (Inspektion von durchlaufendem Endlosmaterial, Produktionslinien mit großem Teiledurchsatz) oder stark absorbierender ➚Prüfobjekte benötigt werden.
Kamerabild Das von der Kamera erfasste und auf dem
➚Bildaufnehmer aktuell vorhandene Bild. Das Kamerabild wird digitalisiert und im ➚Bildspeicher abgelegt.
Kameragewinde ➚Objektivanschluss
Kamerakonstante Kameraspezifisches Maß, das für Berechnungen in der dreidimensionalen metrischen Messtechnik notwendig ist. Die Kamerakonstante gibt an,
wie weit die ➚Bildebene vom ➚Projektionszentrum
entfernt ist.
Kamerakoordinatensystem Bezugssystem, das seinen
Ursprung im Unterschied zum ➚Bildkoordinatensystem
im ➚Perspektivitätszentrum des ➚optischen Systems
der Kamera hat. Müssen Koordinaten von mehreren Kameras miteinander verrechnet werden, muss dazu das
➚Weltkoordinatensystem verwendet werden. (s. auch
Koordinatentransformation)
Kante Eine Kante im Sinne der Bildverarbeitung beschreibt
die Trennlinie zwischen Bereichen unterschiedlicher Helligkeit. Helligkeitsänderungen können durch Grauwertkanten (➚Grauwertdifferenz), Texturkanten (➚Textur)
oder Farbkanten (➚Farbdifferenzen) benachbarter Regionen (aneinandergrenzende Pixel) im Bild beschrieben werden. Im Gegensatz zu Körperkanten mit einem
abrupten Kantenübergang kann der Übergang einer abgebildeten Kante aus physikalischen Gründen nicht innerhalb eines Pixels erfolgen sondern immer mit einer
➚Kantenbreite. Gut auswertbare Kanten haben eine optimale ➚Kantenbreite von 4 ... 6 Pixel, keine ➚Überbelichtung und ausreichenden ➚Kontrast.
Die Antastsicherheit von Kanten wird verbessert durch:
breite Antastungen (➚Antastbreite), das macht Statistik
innerhalb einer Messung möglich; Mehrfachmessung
mit Mittelung (bei genügender Zeit); saubere, definiert
geformte Prüfobjekte! (s. auch Subpixel-Antastung, Antastalgorithmus)
Kantenbreite ist die Erscheinung, dass bei der Abbildung
einer Körperkante das Bild keinen „harten“ ➚Kantenübergang innerhalb eines ➚Pixels aufweist. Die Kantenbreite wird verursacht durch Wechselwirkungen des
Lichtes mit dem ➚Prüfobjekt, begrenztes ➚Auflösungsvermögen der Optik, Signalverfälschung in der Elektronik usw. Bei einer optisch sehr guten Abbildung (Hochleistungsobjektive) lassen sich steile ➚Kanten mit einer
Kantenbreite von (< = 3 Pixel) erreichen. ➚Sub-PixelAntastungen benötigen für ihre optimale Funktion jedoch Kantenbreiten von 4 ... 6 Pixel. Bei großen Kantenbreiten (flache Kanten) nimmt die ➚Messunsicher-
45
K
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 55
Kantenfilter
K
heit der Algorithmen durch einen stärkeren Einfluss des
Sensorrauschens zu.
Kantenfilter ➚Filter, die einen steilen Anstieg (➚Langpassfilter) oder steilen Abfall (➚Kurzpassfilter) der
Transmissions-Filterkennlinie realisieren. Wichtigste Beschreibungsgröße ist die Kantenwellenlänge, bei der
50% Durchlässigkeit (➚Transmission) besteht. (s. auch
Bandpassfilter)
Kantenfindungsalgorithmus ➚Antastalgorithmus
Kantenform Die Kantenform wird durch den Verlauf der
Helligkeitswerte (➚Grauwerte. ➚Farbwerte) auf einem
➚Bildaufnehmer entlang eines ➚Kantenübergangs bestimmt. Man unterscheidet steile und flache Kanten
(➚Kantensteilheit, ➚Kantenbreite), symmetrische und
unsymmetrische Kanten. Die Wirksamkeit von ➚Antastalgorithmen hängt stark von der Kantenform ab. Symmetrische Kanten lassen sich besonders sicher auswerten und ermöglichen ➚Subpixel-Antastung auch mit
großen ➚Interpolationsfaktoren. Unsymmetrische Kanten hingegen ziehen größere ➚Antastunsicherheiten
nach sich (➚Verkippung). Kanten realer ➚Prüfobjekte
sind selten symmetrisch. Die Kantenform ist sämtlichen
Einflussfaktoren auf die Bildqualität (➚Genauigkeit einer Bildverarbeitungsanlage) unterlegen. Damit lässt
sich durch die bewusste Auslegung und Gestaltung der
Bildverarbeitungsanlage (Auswahl der Systemkomponenten, deren Anordnung, genutzte Verfahren und Algorithmen, eingestellte Parameter) die Kantenform
stark beeinflussen. (s. auch Grauwertdifferenz, Grauwertsprung)
Kantenort beschreibt die Lage der ➚Kante im Bild. Die
Frage „Wo liegt die Kante im Grauwertbild?“ ist eine
zentrale Frage der Bildverarbeitung, die nicht eindeutig
geklärt ist. Die Lage des Kantenortes wird sehr stark von
der eingesetzten Optik und Bleuchtung bestimmt. Die
Nutzung verschiedener ➚Kantenortskriterien stellt einen pragmatischen Ansatz dar, sich je nach Applikation
möglichst gut der Realität zu nähern. (s. auch Antasten,
telezentrische Beleuchtung, telezentrisches Objektiv)
Kantenortskriterium stellt die mathematisch notwendige
Eigenschaft eines ➚Kantenüberganges dar, die den genauen Ort des Helligkeitsüberganges als ➚Kante definiert. Die verschiedenen ➚Antastalgorithmen verwenden unterschiedliche Kantenortskriterien.
Diese sind: ➚Schwellwert; differentielles Kantenortskriterium (1. und 2. Ableitung, ➚Gradientenverfahren); integrales Kantenortskriterium (➚fotometrische Mitte);
Kantenortskriterium mit Korrelation (➚Faltungsverfahren). In den Kantenortskriterien liegt die Unsicherheit
der Software begründet, den wahren Kantenort zu finden. (s. auch Kantenform)
Kantenparameter ➚Antastparameter
46
Kantenrichtung beschreibt die geometrische Richtung einer ➚Kante im Bild. Häufig wird die Art des zu erwartenden ➚Kantenüberganges im Zusammenhang mit der
Kantenrichtung genannt.
Kantensteilheit beschreibt, welche Grauwertänderung
(➚Grauwertdifferenz, ➚Kontrast) innerhalb einer bestimmten Anzahl von ➚Pixeln (➚Kantenbreite, ➚Schärfentiefe) auftritt. Steile ➚Kanten ändern ihren ➚Grauwert innerhalb weniger Pixel, flache Kanten ändern den
Grauwert innerhalb vieler Pixel.
Die Kantensteilheit bestimmt in starkem Maße das Ergebnis von ➚Antastungen. Über die ➚Antastparameter
kann auf die Wirksamkeit der Antastalgorithmen Einfluss genommen werden. (s. auch Gradient, Kantenform)
Kantensymmetrie ➚Kantenform
Kantensuche ➚Antasten
Kantenübergang beschreibt qualitativ die Art einer
➚Kante in ➚Antastrichtung entlang des ➚Antaststrahls. Es werden Hell-Dunkel- sowie Dunkel-Hell-Kantenübergänge unterschieden. Quantitativ wird der Kantenübergang durch den Grauwertverlauf (das langsame
oder sprunghafte Ansteigen/Abfallen der Grauwerte)
beschrieben. Die Art des Kantenüberganges ist ein
➚Antastparameter. Prinzipiell gelten alle Angaben für
Kantenübergänge sowohl für Grauwertkanten als auch
für Farbkanten. Bei Farbkanten müssen einzig die Betrachtungen zum Kantenübergang für alle 3 Farbkomponenten in Kombination betrachtet werden. (s. auch
Kantenbreite, Kantensteilheit, Kantenort, Kantenortskriterium)
Kantenverlagerung ist ein ➚systematischer Fehler. Die
Lage des ➚Kantenortes ist von vielen Faktoren abhängig (➚Genauigkeit einer Bildverarbeitungsanlage).
Durch die dort genannten Einflüsse kann es zur Verschiebung des ermittelten Kantenortes vom realen Kantenort kommen.
Typische Fehler, die zur Kantenverlagerung führen sind
u.a.: ➚Nutzung einer veränderten ➚Beleuchtungswellenlänge, zu starkes Schließen der Blende (➚Beugung).
Kantenverlauf ➚Kantenform
Katadioptrisches Objektiv ➚Zwei-Messstellenobjektiv
Kissenförmige Verzeichnung ➚Verzeichnung
Klassifikation Einordnung eines ➚Objektes mit einer Vielzahl von ➚Merkmalswerten in eine vorgegebene (geringe) Zahl von Klassen. Voraussetzung dafür ist, dass
vorher eine ➚Merkmalsextraktion stattgefunden hat
und signifikante Merkmale zur Klassifikation genutzt
werden. Zu Klassifikation dienen Klassifikatoren. Dabei
werden verschiedene Möglichkeiten genutzt: ➚wissensbasierte Systeme, ➚neuronale Netze, ➚numerische
Klassifikation.
Lexikon der industriellen Bildverarbeitung
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 56
Kontrast
Koaxial eingespiegelte Beleuchtungen realisieren die
➚Hellfeld-Auflichtbeleuchtung und werden im ➚Auflicht mit ➚Strahlteilern zwischen Objekt und Kamera
realisiert. Einige Varianten vollziehen die Beleuchtungseinkopplung innerhalb des Objektives und müssen das
Problem von parasitären Reflexen mit λ/4-Platten lösen.
Andere Varianten nutzen das Vorsetzen von Komponenten mit Strahlteilern vor das Objektiv und spiegeln hier
die Beleuchtung ein.
Wesentlicher Nachteil sind die Lichtverluste: beim ersten Lichtdurchgang (Beleuchtung auf Objekt) werden
am ➚Strahlteiler nur 50% der Intensität der Beleuchtung zum Objekt abgelenkt. Beim zweiten Lichtdurchgang des vom ➚Prüfobjekt reflektierten Lichtes in das
Objektiv sind wieder nur 50% möglich, so dass maximal
25% der Ausgangsintensität zur Verfügung stehen. Das
allerdings gilt ohne jegliche Berücksichtigung des Prüfobjektes, dessen ➚Reflexionsgrad seinerseits zwischen
< 5% und 90% liegen kann. Möglichkeiten:
a) diffus koaxial eingespiegelte Lichtquelle. Sehr gleichmäßige Ausleuchtung mäßig reflektierender Oberflächen. Teile mit Oberflächenstruktur erscheinen dunkler als glatte. Anwendungsbeispiel: Lesen geätzter Schrift
auf glatter Blechoberfläche.
b) telezentrische eingespiegelte Lichtquelle. Sehr gleichmäßige Ausleuchtung stark reflektierender Oberflächen.
Anwendungsbeispiel: Kratzererkennung auf Glasoberflächen.
Koaxialkabel Zur Übertragung analoger ➚Videosignale
meistgenutzte Kabelart mit Innenleiter und Außenleiter,
der gleichzeitig als Schirmung dient. Eignet sich für hohe Übertragungsgeschwindigkeiten und ist wenig störempfindlich. Feldfrei.
Kohärentes Licht entsteht, wenn Licht bei der Emission aus
einer möglichst unendlich kleinen ➚Lichtquelle mit möglichst ➚monochromatischen Eigenschaften emittiert wird.
Durch Kohärenz ist die Konstanz der Phasenbeziehungen
zwischen zwei Wellenzügen gegeben. So können nur kohärente Wellen miteinander interferieren (➚Interferenz).
Räumliche und zeitliche Kohärenz wird unterschieden.
Zeitliche Kohärenz wird durch die Kohärenzlänge beschrieben und ist der größtmögliche Gangunterschied
zwischen zwei Teilwellenzügen einer Strahlungsquelle, bei
dem noch Interferenzen auftreten. Interferenzen durch
kohärentes Licht treten bei ➚Speckles von Lasern auf. Der
Kohärenzgrad (0...1) kennzeichnet die räumliche Kohärenz zweier Lichtwellen. Kohärentes Licht hat den Kohärenzgrad 1, inkohärentes Licht den Kohärenzgrad 0.
Kohärenz ➚Kohärentes Licht
Kohärenzlänge ➚Kohärentes Licht
Kollimator 1.) Allgemein für die Erzeugung von parallelem
Licht. Dazu wird die Lichtquellenmitte im Brennpunkt
Lexikon der industriellen Bildverarbeitung
des abbildenden Systems positioniert. Ist die Quelle sehr
klein, entsteht nur ein achsparalleles Bündel (z. B. Laserkollimator).
2.) Optische Vorrichtung, die eine Marke (Fadenkreuz,
Strichteilung, Kreise) nach Unendlich abbildet.
Koma, auch Asymmetriefehler. ➚Abbildungsfehler. Tritt auf
bei schief in das Objektiv eintretenden Strahlbündeln, bei
seitlich der optischen Achse liegenden ➚Prüfobjekten.
Dabei werden die schräg einfallenden Strahlenbündel
asymmetrisch beschnitten, wodurch unsymmetrische,
schwach kontrastierte Schattenbilder (Zykloiden o.ä.)
entstehen. Derartige kometenschweifartige Störstrukturen können Probleme für das ➚Antasten hervorrufen.
Kommunikationsprotokoll ➚Protokoll
Kommunikationsschnittstelle ➚Schnittstelle
Komplementärfarbe Komplementärfarben ergeben bei
additiver ➚Farbmischung immer weiß und liegen im
Farbkreis gegenüber:
Farbe
Komplementärfarbe
rot
cyan
grün
magenta
blau
gelb
In Beleuchtungsanordnungen werden Komplementärfarben ausgenutzt, um Prüfobjekte mit gesteigertem Kontrast darzustellen, sowohl in der ➚Grauwert-Bildverarbeitung, als auch in der ➚Farbbildverarbeitung. Beleuchtung des Prüfobjektes mit Objektfarbe führt zu geringen
Kontrasten. Beleuchtung mit der Komplementärfarbe
des Prüfobjektes führt zu großen Kontrasten.
Konjugiert Im Sinne der Optik das paarweise Auftreten optischer Größen: objekt- und bildseitig. Konjugierte Größen
sind über die Abbildung miteinander verknüpft. z.B. objektseitig: ➚Schärfentiefe, bildseitig: ➚Abbildungstiefe.
Kontinuierliches Spektrum ➚Spektrum
Kontrast Im Sinne der Bildverarbeitung das Grauwertverhältnis zwischen hellsten und dunkelsten ➚Pixeln im gesamten Bild oder einem ➚Prüffenster. Voraussetzung für
erfolgreiche Bildverarbeitung sind kontrastreiche Bilder,
denn Bildverarbeitungsalgorithmen „leben“ vom Kontrast. Hochauflösende Objektive bilden kontrastreicher
ab als schlechter auflösende Objektive.
Die Berechnung des Kontrastes erfolgt nach:
GWmax. - GWmin.
Kontrast = ––––––––––––
· 100%
GWmax. + GWmin.
GW = normierter Grauwert (0 ... 100)
Ist das Bild zu dunkel, hat das geringen Kontrast zur Folge. Ein ➚überbelichtetes Bild hat ebenfalls geringen
Kontrast. Der beste Kontrast wird erreicht, wenn die gesammte Spanne der möglichen ➚Grauwerte (bei 8 bit
256) zur Abbildung genutzt werden. Geringer Kontrast
verlängert die Rechenzeit, reduziert die erreichbare Ge-
47
K
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 57
Kontrastübertragungsfunktion
K
nauigkeit sowie die Zuverlässigkeit, Details sich zu erkennen.
Das Kontrastverhältnis zwischen Objekt und Bild wird
durch die ➚Modulationsübertragungsfunktion beschrieben. Der Begriff Kontrast wird auch auf Farben (➚Farbkontrast) angewendet. (s. auch Kontrastverstärkung,
Kontrastverlust)
Kontrastübertragungsfunktion ➚Modulationsübertragungsfunktion.
Kontrastumfang Bereich der in einem Bild vorkommenden ➚Kontraste, kleinstmöglichen bis zum größtmöglichen Kontrast.
Kontrastverhältnis ➚Modulationsübertragungsfunktion
Kontrastverlust Die Ursachen für Nachlassen des ➚Kontrastes im Bild können verschieden sein. Kontrastverlust
kann durch ➚Umweltbedingungen, die Komponentenauswahl oder ➚Drift hervorgerufen werden: jedes optische System führt per se zum Kontrastverlust in der Optik ➚Modulationsübertragungsfunktion; nicht ausreichende ➚Vergütung der Optik; minderwertiges Objektiv; in die Optik einfallendes Streulicht erzeugt parasitäre Lichtreflexe (➚Fremdlicht); Verschmutzung an Optik
und Beleuchtung (➚Staub, Ölfilm, Fettfinger); falsch gewählte ➚Beleuchtungswellenlänge; Alterung der Lichtquelle (➚Helligkeitsnachführung einsetzen); zu lichtschwache Beleuchtung; zu kurze ➚Integrationszeit.
Kontrastverstärkung dient der Bildverbesserung (hervorheben von Kanten) für eine sicherere Auswertbarkeit. Optische Kontrastverstärrkung kann durch den
Einsatz von ➚Komplementärfarben bei der Beleuchtung oder durch gezielten Einsatz von ➚Beleuchtungstechniken erzielt werden. Kontrastverstärkung per Software kann z.B durch ➚Spreizen oder die Anwendung
digitaler Filtern erreicht werden. Beispiel: Die ➚Bildsubtraktion eines Bildes mit ➚Laplace-Filter und des
Ursprungsbildes ergibt ein kontrastverstärktes Bild.
(s. auch Look up Tabelle)
Kontur ist eine Folge benachbarter Punkte, die eine Kurve
bilden, die durch das ➚Gesichtsfeld begrenzt ist. Eine
geschlossene Kontur ist vollständig im Gesichtsfeld zu
sehen und liegt vor, wenn die Verfolgung der Kontur von
einem Anfangspunkt aus nach einem Umlauf wieder am
Anfangspunkt anlangt. Offene Konturen erfüllen diese
Bedingung nicht. Konturen sind z.B. das Ergebnis der
➚Segmentierung. Konturen dienen der Beschreibung
von Objekten, die sich nicht mit den geometrischen Variablen Punkt, Gerade, Kreis, Ellipse beschreiben lassen
und sind damit ein universelles Werkzeug für die Bildverarbeitung. (s. auch Kontur antasten)
Kontur antasten Beim Kontur antasten wird ausgehend
von einem Startpunkt in ➚Suchrichtung eine ➚Kante
gesucht. Entlang dieser gefundenen Kante wird die
48
➚Kontur im Bildpunktraster verfolgt. Arbeitsbereich für
das Verfolgen der Kante kann die gesamte Bildfläche
oder nur ein definierter Ausschnitt (➚Suchfenster) sein.
Wird eine Kontur gefunden, so entsteht ein Konturobjekt mit einem ➚Konturschwerpunkt, einer ➚Konturfläche, ➚Konturextrempunkten, ➚Konturkrümmung.
Konturabstand Die Funktion Konturabstand beschreibt
den minimalen/maximalen Abstand einer ➚Kontur zu:
den Koordinatenachsen; Punkten; Geraden sowie die
die Breite und Höhe der Kontur in x- und y-Koordinaten
Konturdrehlageerkennung Die Funktion Konturdrehlageerkennung ermittelt die ➚Drehlage einer ➚Kontur zu:
einer definierten Kontur – einer eingelernten Kontur –
gegenüber den Koordinatenachsen. Ein einzustellender
minimaler Übereinstimmungsgrad macht diese Funktion robust. Genutzt wird die Konturdrehlageerkennung
zur Bestimmung der Drehlage von unregelmäßig geformten ➚Prüfobjekten als Greifparameter für Roboterund Positioniersysteme.
Konturextrempunkte Minimale und maximale Koordinaten (x, y) des Abstandes einer ➚Kontur bezüglich eines
Koordinatensystems, Punkten oder Geraden.
Konturfläche Fläche, die von einer geschlossenen ➚Kontur umschlossen wird. Angabe in Pixeln.
Konturschwerpunkt Punkt (x,y), an dem sich eine von einer ➚Kontur begrenzte ebene Fläche im statischen
Gleichgewicht befindet. Wird als ein Beschreibungskriterium für die ➚Konturanalyse genutzt.
Konvergenz Zusammenlaufen von ➚Lichtstrahlen aus
verschiedenen Richtungen in einem Punkt.
Koordinatentransformation Bei komplexen Bildverarbeitungsapplikationen verwenden viele der Einzelkomponenten intern eigene Koordinatensysteme (Werkstückkoordinatensystem, Kameras, Roboter etc.). Für die Datenübergabe zwischen den Komponenten ist es nötig,
die Koordinatensysteme ineinander umzurechnen, was
durch die ➚Koordinatentransformation geschieht. Bildverarbeitungssysteme, die in der Lage sind, mehrere Kameras zu nutzen, rechnen die ➚Kamerakoordinaten
oder ➚Bildkkoordinaten in ➚Weltkoordinaten um.
Ebenso werden bei der ➚Robot Vision Kamerakoordinaten in Roboterkoordinaten umgerechnet. Liegen vom
Roboter Roboterkoordinaten an, rechnet das Bildverarbeitungssystem Roboterkoordinaten in Kamerakoordinaten um.
Korrektion Bezeichnung für das Beheben von ➚Abbildungsfehlern an ➚optischen Systemen.
Korrekturfaktor ➚Justierung und ➚Kalibrierung der Bildverarbeitungsanlage sind vor dem Produktionsbetrieb
notwendige Voraussetzungen. Die Arbeit in der Praxis
hat aber gezeigt, dass sich nicht alle Fehlereinflüsse dadurch korrigieren lassen. Der pragmatische Ansatz ist in
Lexikon der industriellen Bildverarbeitung
Lexikon S.33-64/13.10.03
16.03.2004 10:53 Uhr
Seite 58
Laplace-Filter
einigen Fällen das Einfügen von Korrekturfaktoren/-offsets in das Prüfprogramm.
Korrekturfaktoren werden genutzt: um werkstückträgerabhängige Größen zu kompensieren (➚indizierte Programmverzweigung); um Nennmaße mit (produktionsbedingten) Offsets durch den Anlagenbediener nachzuführen; Nichtlinearitäten auszugleichen (Bildverarbeitung, Handhabung, Zuführung).
Korrelation Mathematisches Verfahren zur Ähnlichkeitsanalyse, die besonders bei der ➚Mustererkennung genutzt wird. Im ersten Schritt wird ein ➚Prüfobjekt (oder
Teil desselben) mit der Kamera aufgenommen und in
einem ➚Muster gespeichert. Im zweiten Schritt dient
die Korrelation dazu, in neu aufgenommenen Bildern
nach diesem Muster zu suchen und es mit einer definierbaren Genauigkeit wiederzufinden. Als Maß der
Ähnlichkeit gilt dabei der Korrelationskoeffizient. Die
Korrelation wird als hochpräzises Verfahren in der Bildverarbeitung dazu eingesetzt, Bauteilpositionen zu ermitteln sowie Bauteilkontrollen und Bauteilidentifikationen durchzuführen, Muster zu erkennen bei der
➚Montagekontrolle, ➚Vollständigkeitskontrolle, zum
Finden von Marken als auch in einfachen ➚Smart Camera Sensoren als „Teilefinder“. Neue Verfahren machen die rechenaufwendige Korrelation unabhängiger
von Schwankungen der Helligkeit (Beleuchtung, Bauteilvarianz) bei gleichzeitiger Verkürzung der Verarbeitungsgeschwindigkeit.
Kreis antasten ➚Funktion, die das Antasten mehrerer
Punkte sowie die Bildung des ➚Bestkreises zusammenfasst. Als Ergebnis werden abgelegt: Koordinaten des
Mittelpunktes, Radius, Rundheit. Zur Erhöhung der statistischen Sicherheit werden beim Kreis antasten mehrere radial liegende Antastungen genutzt (Minimum 3).
Je mehr radiale Antastungen genutzt werden, desto präziser wird die Bestimmung des Bestkreises. Jede radiale
Antastung kann aus mehreren parallelen ➚Antaststrahlen bestehen (➚Antastbreite). Die Nutzung dieses Verfahrens empfiehlt sich, wenn Kanten erkannt werden
sollen, die verschmutzt, ausgefranst sind, Bearbeitungsspuren aufweisen oder anderweitig strukturiert sind.
Kreis definieren Die Nutzung von ➚Geometrieelementen
ermöglicht es, Geometrieelemente zu kombinieren und
dadurch neue Kreise zu definieren durch: Kreis aus drei
Punkten, Kreis aus n Punkten, Tangentialkreis an Gerade und Punkt Tangentialkreis an Kreis und Punkt.
Krümmungstest Verfahren zur Bewertung der Krümmung
von ➚Konturen entlang einer ➚Segmentlänge. Als Maß
für die Krümmung können ➚Segmenthöhe und ➚Segmentfläche herangezogen werden. Krümmungstest
wird genutzt zur quantitativen Bewertung von frei geformten Konturen, die sich nicht mit den geometrischen
Lexikon der industriellen Bildverarbeitung
Grundelementen Gerade, Kreis und Ellipse beschreiben
lassen.
Künstliche Vignettierung ➚Vignettierung
Kürzeste Einstellentfernung ➚Einstellentfernung
Kurzbrennweitig Eine kurze Brennweite besitzend. Typische Eigenschaft von ➚Weitwinkelobjektiven.
Kurzzeitshutter ➚Shutter
L
Ladungsbild Ortsdiskretes Abbild der Menge an Photonen, die auf einen zweidimensionalen ➚Bildaufnehmer
aufgetroffen sind. Die einfallenden Photonen erzeugen
Ladungen. Dabei wird angestrebt, dass die Menge der
erzeugten Elektronen proportional zur Intensität des
eingefallenen Lichtes ist, wodurch sich auf dem Bildaufnehmer ein naturgetreues ortsaufgelöstes Helligkeitsabbild in Form eines Ladungsmusters ergibt. Die Weiterverarbeitung des Ladungsbildes erfolgt z.B. im ➚CCD.
(s. auch Quanteneffizienz)
Lagenachführung auch Positionskompensation, relative
Positionierung. Verfahren zum lageunabhängigen Erkennen und ➚Antasten von ➚Prüfobjekten. Lagenachführung wird angewendet, um ein gegenüber dem Einlernzeitpunkt in x- und y-Richtung verschobenes Prüfobjekt sicher mit ➚Antaststrahlen oder ➚Prüffenstern (Mittelpunkt) versehen zu können. Dazu werden die Koordinaten der Antaststrahlen/Prüffenster entsprechend der
aktuellen Lage des Prüfobjektes einem verschiebbaren
Koordinatensystem zugeordnet. Wird oft in Kombination
mit ➚Drehlagenachführung anegewendet. Lagenachführung ist ein wirkungsvolles Mittel, um Teile, die durch
Positionierungenauigkeit, Synchronisierung, unterschiedliche Zykluszeit der Maschine an verschiedenen Positionen im Gesichtsfeld erscheinen, sicher zu erfassen.
Lambertstrahler streut das Licht ideal; seine ➚Leuchtdichte ist in alle Richtungen gleich groß. Die ➚Lichtstärke eines Lambertstrahlers fällt von der Normale der
leuchtenden Fläche bei größeren Winkeln mit dem Cosinus ab. Diffuse Beleuchtungskomponenten zeigen ein
ähnliches Verhalten wie Lambertstrahler.
Langbrennweitig eine lange Brennweite besitzend. Typische Eigenschaft von ➚Teleobjektiven.
Langzeitbelichtung ➚Shutter/Langzeitshutter
Langzeitshutter ➚Shutter
Laplace-Filter Digitales Filter, beruhend auf dem LaplaceOperator. Der Laplace-Filter dient dem Hervorheben von
Kanten an strukturreichen Bereichen (Hochpasseigenschaft) und dem Unterdrücken weniger strukturierter
Bereiche.
49
K
L
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 65
Laser
L
Laser ➚Diodenlaser
Laserklasse Durch den Einsatz von Lasern als Lichtquelle
in der industriellen Bildverarbeitung muss das Thema
Schutz vor schädigender Strahlung ernst genommen
werden. In den meisten Fällen wird mit ➚Laserdiodenmodulen (Halbleiterlaser) gearbeitet, die naturgemäß
eine wesentlich geringere Lichtleistung besitzen als
Festkörper- oder Gaslaser. Dennoch sind Schutzmaßnahmen zu beachten, die in EN60825 spezifiziert sind:
Laserklassen und ihre Begriffsbestimmung:
Klasse 1: ungefährlich
Klasse 2: Strahlung nur im sichtbaren Bereich (400 nm
bis 700 nm). Bei kurzzeitiger Bestrahldauer (bis 0,25 s)
ungefährlich für das Auge (< 1 mW)
Klasse 3A: Für das Auge gefährlich, wenn Strahlquerschnitt durch optische Instrumente verkleinert wird,
sonst wie Klasse 2 (< 5 mW bei 400 nm bis 700 nm Wellenlänge).
Klasse 3B: Laserstrahlung ist gefährlich für Auge und in
besonderen Fällen auch für die Haut (1 mW bis 5 mW
bei 400 nm bis 700 nm Wellenlänge, 5 mW bis 500 mW
bei 315 nm bis 1 mm Wellenlänge).
Klasse 4: Laserstrahlung ist sehr gefährlich für Haut und
Auge. Auch diffus gestreute Strahlung kann gefährlich
sein. Die Lasestrahlung kann Brand- oder Explosionsgefahr verursachen (> 500 mW bei 315 nm bis 1 mm Wellenlänge).
Die auf Lasermodulen angegebene Laserschutzklasse
gilt für das Modul an sich. Durch die Integration in ein
System und/oder eine spezifische Anwendung kann sich
die Laserklasse ändern. Aus diesem Grund muss die
vollständige Anlage mit einer separaten Laserschutzklasse versehen werden.
Laserlichtquelle ➚Lichtquelle auf Basis des Laser-Effektes.
In der Bildverarbeitung werden fast ausschließlich ➚Diodenlaser genutzt. Laserlichtquellen sind ➚kohärent,
➚monochromatisch und weisen ➚Speckles auf. Sie werden u.a. für ➚strukturierte Beleuchtungen angewendet.
Auf Grund der großen Energiedichte bedürfen Laserlichtquellen besonderer Schutzmaßnahmen (➚Laserklasse).
Lastenheft Das Lastenheft beschreibt die Anforderungen
an ein Produkt/Leistung aus Anwendersicht, wie sie in
der Planungsphase, aus Vorfelduntersuchungen, Machbarkeitsuntersuchungen, Aufwands- und Terminabschätzungen abgesteckt wurden. Das Lastentenheft
wird i.A. vom Auftraggeber erstellt und den möglichen
Auftragnehmern zur Erabeitung ihres Angebotes vorgelegt. (s. auch Pflichtenheft)
Lauflängenkodierung, auch Run Length Coding, RLC.
Verfahren zur Kompression von Bilddaten, besonders
wirksam bei Binärbildern. Es werden nicht die Hellig-
50
keitswerte aller Pixel abgespeichert, sondern nur die
Koordinaten von Bildpunkten, an denen Helligkeitsänderungen auftreten.
LCD-Monitor Liquid Crystal Display-Monitor ➚TFT-Monitor
Lebensdauer Der Zuverlässigkeitstheorie (Wahrscheinlichkeitstheorie und Statistik mit technischem Hintergrund) entstammender Kennwert technischer Systeme,
der die Zeit vom Betriebsbeginn bis zum Systemausfall
kennzeichnet. (s. DIN 55350)
LED ➚Luminiszenzdiode
LED-Beleuchtungen nutzen die vorteilhaften robusten Eigenschaften von ➚Luminiszenzdioden (LED) als Lichtquellen. Durch die geringe Flussspannung der einzelnen
LEDs besitzen industrietaugliche LED-Beleuchtungen
leistungsfähige Ansteuerschaltungen, die u.a. folgende
Funktionen realisieren: Anpassung an einen weiten Eingangsspannungsbereich; Hochfrequenzbetrieb/Modulation mit hohen Frequenzen (Periodendauer << Belichtungsszeit ➚flimmerfreie Beleuchtung); Stabilisierung
ermöglicht Helligkeitseinstellung (manuell, über Steuerspannung oder Bus); Bereitstellung von Blitzmöglichkeiten; Speicherung von Beleuchtungsparametern (Helligkeiten, Muster); Anbindung an Bussysteme.
Die Varianten der Ansteuerung von LED-Beleuchtungen
ermöglichen ➚Helligkeitsnachführung (Regelschleife).
Durch die Kleinheit der einzelnen LED können LED-Beleuchtungen nahezu beliebige Beleuchtungsformen annehmen. Farbige Mischbestückung sowie Blitzbeleuchtungen sind möglich. LED-Beleuchtungen arbeiten wartungsfrei.
Hinweise für den praktischen Betrieb: 1 Grad Celsius Erwärmung führt zu 1% Helligkeitsverlust (reversibler Vorgang); Langzeiterwärmung verändert den LED-Chip irreversibel (Helligkeitsverlust), daher ist eine Helligkeitseinstellung auf 50% langzeitstabiler; Erzeugung von
Luftströmungen (Konvektionskühlung) ist empfehlenswert; Ein- und Ausschalten (auch mit hohen Frequenzen) schadet dem LED-Chip nicht (Blitz!), verlängert
aber durch geringere Erwärmung, Helligkeit und Lebensdauer.
LED-Beleuchtungen sind für den Industrieeinsatz eingehaust in robuste Gehäuse und können ➚IP-Schutzklassen bis IP67 erreichen. (s. auch adaptive Beleuchtungen)
Leere Vergrößerung Erscheinung bei großen ➚Abbildungsmaßstäben, dass trotz steigendem Abbildungsmaßstab nicht mehr Details, sondern nur größer, sichtbar werden. Leere Vergrößerung wird durch ➚Beugung
und Überlagerung der Beugungsmuster sowie durch
das begrenzte ➚Auflösungsvermögen von ➚Bildaufnehmern hervorgerufen. Für Anwendungen in der Bildverarbeitung sind vom Betrag daher Abbildungsmaßstäbe > 10 nicht zu empfehlen.
Lexikon der industriellen Bildverarbeitung
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 66
Lichtdurchgang durch Objektive
Lehren Vorgang des maßlichen ➚Prüfens, ob ein vorgegebener ➚Toleranzbereich eingehalten wird. Die Größe
des Maßes ist dabei nicht erheblich.
Lens-on-chip Bei der Lens-on-chip-Technik wird auf jedes
➚Pixel des ➚Bildaufnehmers eine Mikrolinse aufgebracht, die das Licht, bündelt und nur auf die aktive Sensorfläche lenkt. Dadurch wird eine Empfindlichkeitssteigerung von ➚Interline-Transfer-Sensoren um ca. Faktor
zwei bis drei erzielt. Mit dieser Maßnahme können die
Folgen eines kleinen ➚Füllfaktors ausgeglichen werden.
Durch den Einsatz der Mikrolinsen kommt es im Randbereich, bedingt durch schräg einfallende Randstrahlen,
zu einer geringeren Bestrahlung als in der Bildmitte. Dadurch wird ein zusätzlicher Randlichtabfall (➚Vignettierung) eingefügt. Für messtechnische Anwendungen sind
daher Sensoren mit Lens-on-chip nicht geeignet.
Leuchtdichte lichttechnische Größe, Formelzeichen L. Die
auf die Augenempfindlichkeit (➚V-Lambda-Kurve) bewertete Strahldichte. Die Leuchtdichte ist der Lichtstrom, der in einer bestimmten Richtung in einem bestimmten ➚Raumwinkel von einer bestimmten Fläche
austritt, gemessen in cd/m2 (➚Candela/m2).
L = d2φ / dΩ · dA · cos ε. Die Leuchtdichte ist Maß für
die vom Auge oder ➚Bildaufnehmer empfundene Helligkeit eines Strahlers oder beleuchteten Objektes. Die
Leuchtdichte der Sonne beträgt 109 cd/m2, die einer
Leuchtstofflampe ca. 104 cd/m2, typische ➚LED-Beleuchtungen bis 3000 cd/m2 (Jahr 2002).
Die Leuchtdichte ist eine entfernungsunabhängige
Größe und somit auch für ➚Durchlichtbeleuchtungen
konstant, unabhängig vom ➚Beleuchtungsabstand. Der
Mittelwert der Leuchtdichte kann mit einem Beleuchtungsstärkemesser (Luxmeter) mit vorgesetztem Tubus
(für definierten Raumwinkel) realisiert werden. Der gemessene ➚Beleuchtungsstärkewert E steht in der Beziehung zur Leuchtdichte: L = E · r2 / (A · Ω).
Näherungsformel: Ein beleuchtetes Objekt leuchtet mit
einer Leuchtdichte Lob = Eob · ρ
mit ρ = Reflexionsgrad des Objektes,
Eob = Beleuchtungsstärke auf dem Objekt (➚fotometrisches Entfernungsgesetz E ~ 1/s ≤ beachten!) (s. auch
Lichtdurchgang durch Objektive)
Leuchtdichteindikatrix Abhängigkeit der Leuchtdichte
von der Ausstrahlungsrichtung einer flächenhaften
Lichtquelle. Für einen ➚Lambertstrahler ist die räumlich
dargestellte Leuchtdichteindikatrix eine Halbkugel.
(s. auch Abstrahlcharakteristik)
Leuchtdiode ➚LED
Leuchtfeldgröße ➚Leuchtfläche
Leuchtfläche Beschreibt die lichttechnisch aktive Fläche
einer Beleuchtung, aus der Lichtenergie austritt. Die
Leuchtfläche muss nicht immer mit der Größe der Streu-
Lexikon der industriellen Bildverarbeitung
scheibe/Frontlinse übereinstimmen. Durch Blenden
kann die aktiv ausstrahlende Fläche kleiner sein.
Leuchtstofflampenbeleuchtung ist durch ihren geringen
Preis eine in der Bildverarbeitung gern genutzte Beleuchtung mit Leuchtstofflampen als ➚Lichtquelle. Die
vom hauptsächlichen Einsatz in der Gebäudebeleuchtungstechnik vorgegebenen Formen (Linie und Ring)
schränken die Einsatzgebiete ein: als Low-end-Lichtquelle für ➚Durchlicht, als Lichtquelle zur großflächigen
Ausleuchtung und als ➚Ringlicht. Bei Leuchtstofflampen sind verschiedene ➚Farbtemperaturen (3000 ...
6000 K) möglich, wodurch der Einfluss auf die ➚Farbbildverarbeitung groß ist. Spezielle Leuchtstoffe ermöglichen auch Ausstrahlung im UV-A-Bereich (➚ultraviolettes Licht). Die Lichtausbeute ist sehr gut. Nachteilig
ist das frequenzabhängige Schwanken der Helligkeit.
Die allgemein gegebene Nichtsynchronität zwischen
Ansteuerfrequenz und Kamera-Bildaufnahmefrequenz
führt zu Schwebungen und damit zu nicht definierten
Helligkeitsverhältnissen. Für die Verwendung in der
Bildverarbeitung müssen daher Leuchstofflampen mit
HF-Vorschaltgeräten (f > 15 kHz) betrieben werden, damit die Helligkeit im aufgenommenen Bild konstant
bleibt. Zu beachten ist, dass die Intensität des Lichtes
von der Umgebungstemperatur abhängig ist, die Lichtquelle ca. 10 Minuten warmlaufen muss und Alterung
zu Helligkeitsdrift führt (am Ende der Lebensdauer ca.
50%). Mittlere Lebensdauer 8.000 ... 12.000 Stunden.
LH-Flanke Low-High-Flanke
Licht Licht als elektromagnetische Welle belegt den Wellenlängenbereich zwischen 15 nm und 800 µm. Die darin eingeschlossenen Bereiche sind ➚ultraviolettes Licht
(UV), ➚sichtbares Licht (VIS), ➚infrarotes Licht (IR).
Licht breitet sich in einem homogenen Medium geradlinig aus, beeinflusst sich gegenseitig nicht (bei unterschiedlichen Lichtquellen) und folgt den Gesetzen der
➚Brechung, ➚Reflexion und ➚Beugung. (s. auch Lichtenergie)
Lichtdurchgang durch Objektive gibt Auskunft darüber,
wie viel Licht den ➚Bildaufnehmer der Kamera erreicht.
Bei einer ➚Auflichtbeleuchtung bestimmt der ➚Beleuchtungsabstand s über das ➚fotometrische Entfernungsgesetz die ➚Beleuchtungsstärke Eob auf dem
➚Prüfobjekt: Eob ~ 1 / s. Das beleuchtete Objekt leuchtet nunmehr mit der Leuchtdichte Lob = Eob · ρ/π
mit ρ = ➚Reflexionsgrad des streuenden Objektes;
Eob = Beleuchtungsstärke auf dem Objekt. Bei einer
➚Durchlichtbeleuchtung leuchtet die Lichtquelle selbst
mit der Leuchtdichte Lob (das Objekt erscheint dunkel).
In Näherung gilt für die Beleuchtungsstärke Esensor auf
dem Bildaufnehmer:
Esensor= π · Lob · τ / (4 k2 · [1 - ß’2]) mit
51
L
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 67
Lichteinfallshöhe
L
k
= Blendenzahl
τ
= Transmissionsgrad des Objektives (τ ~ 0,9)
Eob = Beleuchtungsstärke auf dem Objekt
ß’
= Abbildungsmaßstab
Gilt nur auf der optischen Achse (Bildmitte). Abweichend
davon muss der ➚cos4-Abfall berücksichtigt werden.
Anmerkung: Der ➚Arbeitsabstand des Objektives hat
keinen Einfluss auf Beleuchtungsstärke auf dem Bildaufnehmer Esensor, denn das Objekt leuchtet mit einer entfernungsunabhängigen ➚Leuchtdichte Lob.
Lichteinfallshöhe Höhe des Schwerpunktes einer Lichtquelle über der ➚Objektebene mit dem ➚Prüfobjekt.
Die Lichteinfallshöhe bestimmt in starkem Maße den erreichbaren ➚Kontrast im Kamerabild durch Schattenwirkung an Kanten, Strukturen und der Oberfläche des
Prüfobjektes. (s. auch Lichteinfallsrichtung, Beleuchtungsabstand, Lichteinfallswinkel)
Lichteinfallsrichtung ist die Richtung am ➚Prüfobjekt (N,
O, S, W und Zwischenrichtungen) in der ➚Objektebene,
aus der die Beleuchtung den Hauptteil ihrer Lichtenergie
aussendet. Die Lichteinfallsrichtung bestimmt in starkem
Maße den erreichbaren ➚Kontrast im Kamerabild durch
Schattenwirkung an Kanten, Strukturen und der Oberfläche des Prüfobjektes. Da die ➚Drehlage des Prüfobjektes in vielen Fällen (z.B. bei rotationssymmetrischen
Teilen) nicht konstant gehalten werden kann, muss u.U.
die Lichteinfallsrichtung durch die Beleuchtung geändert
werden, wie durch ein ➚Sektorenringlicht oder mehrere
schaltbare Beleuchtungen um das Prüfobjekt herum. (s.
auch Beleuchtungsabstand, Lichteinfallswinkel)
Lichteinfallswinkel ist der Winkel zwischen der ➚Objektebene mit dem ➚Prüfobjekt und der ➚optischen Achse
der Beleuchtung bzw. der Normalen der ➚Lichtaustrittsfläche der Beleuchtung. Der Lichteinfallswinkel bestimmt in starkem Maße den erreichbaren ➚Kontrast im
Kamerabild durch Schattenwirkung an Kanten, Strukturen und der Oberfläche des Prüfobjektes. (s. auch Lichteinfallsrichtung, Beleuchtungsabstand)
Lichtempfindliche Fläche, auch aktive Fläche. ➚Bildaufnehmer besitzen i.A. mehr ➚Pixel als zur Darstellung
des Bildes im ➚Bildspeicher oder auf dem Monitor freigegeben werden. Die nicht lichtempfindlichen Pixel sind
mit einer Metall-Schirmung abgedeckt und dienen der
Kompensation chipinterner Erscheinungen (➚Dunkelstrom, ➚Festmusterrauschen). Außerdem wird durch sie
der Referenzwert für Schwarz (➚Schwarzreferenz-Pixel)
festgelegt. (s. auch Sensorgröße)
Lichtenergie Licht als strahlungsphysikalische Größe ist
nicht gut greifbar. Zur Darstellung der Größenverhältnisse seien hier einige Vergleichswerte genannt, um von
der im Licht enthaltenen Energie eine Vorstellung zu bekommen:
52
Außerhalb der Atmosphäre strahlt die Sonne auf einen Quadratmeter mit einer Bestrahlungsstärke von 1353 W/m2.
Die Atmosphäre lässt bei Stand im Zenit davon noch
1120 W/m2 übrig. Über die gesamte Zeit eines Jahres
gemittelt ergeben sich etwa 100 W/m2. Aus einem Watt
Leistung lässt sich (als theoretische Grenze) maximal
ein ➚Lichtstrom von 683 lm gewinnen bei monochromatischem Licht von 555 nm. Bei weißem Licht sind es
noch 225 lm/W. Eine Halogenglühlampe bringt es bei
2850 K ➚Farbtemperatur auf etwa 18 lm/W, eine ➚LED
auf 16 lm/W und ein Halogenstahler auf 100 lm/W.
Lichtfarbe ➚Wellenlänge. Weiße Lichtquellen werden hinsichtlich ihrer Lichtfarbe entsprechend ihrer ➚Farbtemperatur eingeteilt in Tageslichtweiß (>5000 K), Neutralweiß (3300 ... 5000 K), Warmweiß (<3000 K).
Lichtfilter sind optische Filter, die die Lichtintensität verringern (➚Neutralfilter), die spektrale Zusammensetzung des Lichtes ändern (➚Absorptionsfilter oder ➚Interferenzfilter) oder die Polarisationseigenschaften des
Lichtes (➚Polarisationsfilter) verändern.
Lichtfilter können vor dem ➚Objektiv oder vor dem
➚Bildaufnehmer angebracht werden. Ein eingefügtes
Lichtfilter reagiert wie ➚eine planparallele Platte, die
optische Weglänge wird geändert. Näherungsweise
vergrößert sich der ➚Arbeitsabstand beim Vorsetzen
vor das ➚Objektiv um Glasdicke/3, beim Vorsetzen vor
den Bildaufnehmer um Glasdicke/3 · ß’2 (ß’➚Abbildungsmaßstab). Ebenso bedeutet das Entfernen eines
Lichtfilters (z.B. ➚Infrarotsperrfilter aus der Kamera)
die Änderung der optischen Verhältnisse (➚Schnittweiten) – der ➚Arbeitsabstand muss angepasst werden.
Hochwertige Lichtfilter sind vergütet (➚Vergütung).
Lichtleiter ➚Lichtwellenleiter
Lichtquelle ist ein Körper, der Licht aussendet. In der Bildverarbeitung werden Lichtquellen verschiedenster
Funktionsprinzipien genutzt: Glühlampen mit Glühemission (➚Halogenglühlampe); ➚Leuchtdioden (LED) mit
➚Lumineszenz; ➚Leuchtstofflampen mit ➚Fluoreszenz;
➚Gasentladungslampen; ➚Laser.
Lichtschnittverfahren Einfaches optisches Verfahren zur
Vermessung dreidimensionaler Prüfbjekte. Entlang eines
„Schnittes“ auf dem Objekt wird die Projektion einer
Lichtlinie (➚Linienbeleuchtung) erzeugt und mit der Kamera aufgenommen. Unter Berücksichtigung des Winkels zwischen Kamera und Beleuchtung kann mittels trigonometrischer Zusammenhänge aus der deformierten
Lichtlinie im Bild die Höhe des dreidimensionalen Objektes entlang des Lichtschnitts berechnet werden.
Anwendung: Linienhafte Höhenbestimmung, Anwesenheitskontrolle/Montagekontrolle von Teilen, die in einer
Richtung im Bild an verschiedenen Orten auftreten können. (s. auch strukturierte Beleuchtung)
Lexikon der industriellen Bildverarbeitung
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 68
Livebild
Lichtstärke 1.) lichttechnische Größe, Formelzeichen I. Die
auf die ➚Augenempfindlichkeit (➚V-Lambda-Kurve) bewertete Strahlstärke. Der Lichtstärke beschreibt den
➚Lichtstrom in eine bestimmte Richtung, bezogen auf
den durchfluteten ➚Raumwinkel in lm/sr (➚Lumen/
➚Steradiant) oder ➚Candela [cd]. I = dφ / dΩ.
Die Lichtstärke 1 candela [cd] entspricht ungefähr der
einer Kerze. Eine 60W-Glühlampe hat eine Lichtstärke
von etwa 65 cd.
2.) Maß für das Vermögen von Objektiven, Licht durchzulassen. Über die Lichtstärke lässt sich auf die Wirksamkeit von Bildverarbeitungsalgorithmen Einfluss nehmen. Je lichtstärker ein Objektiv, desto sicherer die Bildverarbeitung. Die Lichtstärke wird beschrieben durch
das ➚Öffnungsverhältnis.
Lichtstrahl ➚geometrische Optik
Lichtstrom Lichttechnische Größe, Formelzeichen φ. Der
auf die Augenempfindlichkeit (➚V-Lambda-Kurve) bewertete Strahlungsfluss. Der Lichtstrom beschreibt die
gesamte von einer Lichtquelle abgestrahlte Lichtleistung
in ➚Lumen [lm] oder ➚Candela · ➚Steradiant [cd ·sr].
Lichttechnische Größen Auf die Augenempfindlichkeit
(➚V-Lambda-Kurve) bewertete ➚strahlungsphysikalische Größen. Dazu gehören ➚Lichtstrom, ➚Lichtstärke,
➚Leuchtdichte, ➚Beleuchtungsstärke.
Lichtverteilung ➚Abstrahlcharakteristik
Lichtweg ➚Optische Weglänge
Lichtwellenleiter Glas- oder Kunststofffasern, die Licht
über lange Strecken übertragen. Das Licht pflanzt sich
durch ➚Totalreflexion an der Faserwandung mit geringen Verlusten fort. Durch die Bündelung vieler Einzelfasern (Durchmesser typisch 30 ... 100 Mikrometer) lassen
sich große Datenmengen übertragen. Lichtwellenleiter
werden sowohl zur Informationsübertragung als auch
zur Lichtübertragung für Beleuchtungszwecke (➚Kaltlichtbeleuchtung, ➚Faserbündel) und als ➚Bildleitkabel
zur Übertragung von Bildern genutzt.
Lineare Polarisation ➚Polarisation
Linienbeleuchtung Umschreibung einer Lichtquelle, die
eine linienförmige Lichtstruktur erzeugt. Verschiedene
Möglichkeiten der Erzeugung sind: Laser mit ➚Vorsatzoptik; Projektion einer ➚Kante; Projektion eines Dias/
Chromgitters; ➚Kaltlichtquelle mit ➚Querschnittswandler; Diodenzeile mit ➚Zylinderlinse.
Linienlichter werden genutzt für:
a) ➚Zeilenkameras zur gezielten und konzentrierten Beleuchtung
b) ➚Matrixkameras mit dem ➚Lichtschnittverfahren
c) Matrixkameras zur gezielten Hervorhebung von Objektdetails (s. auch Flächenbeleuchtung)
Linienlaser Bezeichnung für Laserlichtquelle, die durch
Vorsatz einer ➚Strahlformungsoptik eine Lichtlinie er-
Lexikon der industriellen Bildverarbeitung
zeugt. Linienlaser werden u.a. für das ➚Lichtschnittverfahren genutzt.
Linienpaare/mm Für den Auflösungstest mit ➚Testcharts
genutzte Einteilung von hellen (ideal weißen) und dunkeln (ideal schwarzen) Linien. Ein Linienpaar/mm entspricht einer 0,5mm breiten weißen und einer 0,5 mm
breiten schwarzen Linie.
Linienspektrum ➚Spektrum
Linsenform In optischen Abbildungs- und Beleuchtungssystemen für die Bildverarbeitung treten am häufigsten auf:
1.) sphärische Linsen. Sie sind durch Ausschnitte aus 2
Kugelflächen begrenzt und werden durch 2 Radien beschrieben, womit sich die Linsenformen: Bikonkav, plankonkav, konkavkonvex, plankonvex und bikonvex ergeben. Sonderfall einer Linse ist die ➚planparallele Platte
(2x Radius unendlich). Auf Grund der einfachen und lange erprobten Herstellungsweise sind sphärische Linsen
preiswert. Alle sphärischen Linsen besitzen ➚Abbildungsfehler. Aus sphärischen Linsen sind die meisten
Objektive der Bildverarbeitung aufgebaut. Außerdem
werden sie in Beleuchtungssystemen zur Lichtformung
(z. B. ➚telezentrische Beleuchtung) genutzt.
2.) asphärische Linsen. Linsen, deren rotationssymmetrische Oberflächenform durch eine komplexe mathematische Funktion (Polynom, Spline u.a.) beschrieben wird.
Asphärische Linsen werden in Kombination mit sphärischen Linsen zur Korrektur von Abbildungsfehlern genutzt, sind aber kostspielig in der Herstellung, da sie auf
speziellen Werkzeugmaschinen gefertigt werden. Verwendung in hochwertigen Objektiven der Bildverarbeitung bei höchsten Ansprüchen an die Bildqualität.
3.) Fresnellinsen. Sowohl sphärisch als auch asphärisch
möglich. Bestehen aus Ringen gleicher Krümmung wie
massive Linsen. Durch die Stufung der Zonen kann die
Linse sehr flach gehalten werden. Werden meist in
Kunststoff gefertigt und sind im Vergleich zu Glaslinsen
konkurrenzlos billig. Eingeschränkte ➚Abbildungsgüte.
Werden typischerweise für fokussierte Beleuchtungen
(Spots), als Kreisringe in LED-Ringlichtern, in ➚telezentrischen Beleuchtungen, aber auch für den Einsatz in
➚telezentrischen Großfeldobjektiven genutzt.
Livebild Das vom ➚Bildaufnehmer aufgenommene Bild
wird direkt an einen Monitor ausgegeben. Parallel dazu
wird bei einigen Systemen permanent bei Eintreffen eines neuen Bildes der ➚Bildspeicher überschrieben (typisch bei ➚Framegrabber). Gegensatz dazu ist das
➚Speicherbild, das zur Darstellung immer wieder zyklisch aus dem ➚Bildspeicher ausgelesen wird. Je nach
Hardware-Architektur des Bildverarbeitungssystems
kann der Betrieb im Livebildmodus den Hauptprozessor
entlasten (z.B. bei einigen ➚Smart Cameras). Das ist immer dann vorteilhaft, wenn der Prozessor beim Auslesen
53
L
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 69
Lokaler Operator
L
M
des Speicherbildes mit dem Transfer von Bilddaten beschäftigt ist.
Lokaler Operator Mathematische Funktion, die auf ein
Pixel wirkt unter Wechselwirkung mit den benachbarten
Pixeln. Der neu berechnete Helligkeitswert eines Pixels
hängt auch von seiner Umgebung ab. Wie stark diese
Wirkung ist, wird durch Wichtungsfaktoren, die Koeffizienten festgelegt. Der Operator wird so Zeile für Zeile
durch den gesamten Arbeitsbereich „geschoben“. Die
Größe des Operators (z.B. 3 · 3 Pixel, d.h. um das bezeichnete Pixel jeweils ein Pixel herum) kann eingestellt
werden und bestimmt dadurch wesentlich die Zeit, die
für die Abarbeitung der Funktion benötigt wird. Mit zunehmender Operatorgröße nimmt die Verarbeitungszeit
überproportional zu. (s. auch Punktoperator, globaler
Operator)
Look up Tabelle LUT. Transformationstabelle in Form eines schnellen digitalen Speichers, der digitalen Eingangssignalen (Helligkeitswerte aus Bilddaten) neue
Ausgangswerte (veränderte Helligkeitswerte) zuweist.
Abhängig vom Helligkeitswert wird für jedes ➚Pixel
auf eine Speicheradresse zugegriffen, in der der neue
Helligkeitswert für das Pixel steht. So lässt sich in Hardware ➚Bildvorverarbeitung (➚Kontrastverstärkung,
➚Invertieren, ➚Schwellwert, ➚Binarisierung, ➚Falschfarbendarstellung, ➚Shadingkorrektur, Helligkeitsänderung) in Video- ➚Echtzeit durchführen. Mit Look up Tabellen lassen sich Bilddatentransformationen realisieren, die mathematisch nicht beschreibbar sind. Look up
Tabellen werden von ➚Framegrabbern oder ➚Smart
Cameras verwaltet.
Lotrechte Justierung ➚Justierung
Lumen Abkürzung lm. SI-Einheit des ➚Lichtstroms. Lichtstrom pro ➚Raumwinkeleinheit einer punktförmigen
Lichtquelle, die eine ➚Lichtstärke von einer ➚Candela
hat. Fotometrisches Äquivalent zur Lichtleistung [Watt]:
Ein Lumen ist 1/683 W bei einer Wellenlänge von 555 nm.
Luminanz-Signal ➚Videosignal
Lumineszenz Kalte Form der Lichtaussendung. Kann elektrisch (Elektrolumineszenz), chemisch (Chemolumineszenz), biologisch (Biolumineszenz) oder durch Licht (Fotolumineszenz) ausgelöst werden.
Lumineszenzdiode Abkürzung LED (light emitting diode).
Halbleiterbauelement zur kalten Lichterzeugung. Bei
Stromfluss durch den pn-Übergang rekombinieren im
Sperrschichtbereich Elektronen und Löcher unter Abstrahlung von Lichtenergie. Verschiedene ➚Wellenlängen sind möglich: vom ultravioletten Licht, sichtbaren
Licht bis infraroten Licht, abhängig vom Substrat. Typische Materialien sind GaAs- und In-Verbindungen. LEDs
besitzen einen großen Wirkungsgrad und viele Eigenschaften, die sie für die Anwendung in Beleuchtungen
54
für die industrielle Bildverarbeitung (➚LED-Beleuchtungen) geeignet machen: hohe Lebensdauer (100.000 h
MTBF), erschütterungsunempfindlich, nahezu monochrom, geringe Helligkeitsdrift, ideale elektrische Ansteuerbarkeit (modulierbar, blitzbar), geringe Leistungsaufnahme.
Weitere Anwendungen: Kontrollleuchten, Lichtquellen
für Scheinwerfer (Automotive), Datenübertragung über
➚Lichtwellenleiter.
LUT ➚Look up Tabelle
Lux Abkürzung lx. SI-Einheit der ➚Beleuchtungsstärke. 1
➚Lumen pro Quadratmeter = 1 Lux.
Luxmeter Beleuchtungsstärkemesser mit Fotoelement im
Messkopf, einer ➚V-Lambda-Korrektur und einem ➚Diffusor, damit aus allen Winkeln einfallendes Licht mit bewertet wird. (s. auch Beleuchtungsstärke, Leuchtdichte)
Luxwerttest ➚Beleuchtungsstärketest
M
Machine Vision, auch Maschinelles Sehen. Machine Vision
ist die Beschreibung des Verstehens und der Interpretation von technisch gewonnenen Bildern zur Steuerung
technischer Prozesse. Dazu bedient sich Machine Vision
der ➚Bildverarbeitung.
Magenta entsteht bei additiver ➚Farbmischung aus Rot
und Blau. Tiefrote/purpurrote Farbe, die resultiert, wenn
der grüne Farbanteil aus weißem Licht entfernt wird. (s.
auch Komplementärfarbe)
Makro-Objektiv Objektiv mit einer besonders geringen
kürzesten ➚Einstellentfernung. Makro-Objektive werden so gerechnet, dass sie bei kurzen Arbeitsabständen
ihre besten Abbildungsleistungen liefern. Da sie vor allem für messtechnische Anwendungen genutzt werden,
verfügen sie meist nur über eine Festblende und einen
fest eingestellten Arbeitsabstand (➚Fix-Fokus-Objektiv).
Typische ➚Abbildungsmaßstäbe liegen zwischen -0,1
und -10. Der Einsatz von Makro-Objektiven ist dem Einsatz von ➚Zwischenringen und ➚Nahlinsen vorzuziehen.
Maschinelles Sehen ➚Machine Vision
Maßverkörperung Messmittel, das zur Darstellung einer
Größe mit vorgegebenem Wert dient. Die Maßverkörperung ist Bezugsgröße für die ➚Kalibrierung. Für die Bildverarbeitung ist die Matrixstruktur des ➚Bildaufnehmers die Maßverkörperung. In der Maßverkörperung
liegt die Messgenauigkeit eines Messsystems begründet
(Pixelabstand, Pixelgröße). Nachgewiesen ist, dass die
Maßverkörperung eines ➚CCDs Auflösungen von 1/100
Pixel zulässt.
Lexikon der industriellen Bildverarbeitung
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 70
Messtechnische Grundsätze
Matrixkamera, auch Flächenkamera. Meist mit ➚CCD
(➚CCD-Kamera) oder ➚CMOS-Bildaufnehmer ausgeführt. Bezeichnet die Anordnung der ➚Pixel in einer zeilen- und spaltenförmigen Struktur. CCD-Matrixkameras
müssen, bedingt durch das Prinzip des CCD, immer die
gesamte Bildinformation aus dem Bildaufnehmer auslesen und sind damit in ihrer ➚Bildfrequenz begrenzt. Abhilfe schafft hier das ➚Binning, das mehrere Pixel, auf
Kosten der ➚Auflösung, zusammenfasst. Kameras mit
CMOS-Bildaufnehmer sind hinsichtlich der Bildfrequenz
Kameras mit CCD-Bildaufnehmer überlegen. Matrixkameras können hardwareseitig mit einer Reihe von Features ausgerüstet sein wie: Einstellung von Kameraparametern (➚CCD-Iris, Weißabgleich, Verstärkungen,
Kennlinieneinstellungen) über eine ➚Schnittstelle, Bedienung verschiedener Schnittstellen (➚Fire Wire, ➚serielle Schnittstelle, ➚Ethernet, ➚USB). Eine eigene Klasse von Matrixkameras mit eingebauter Intelligenz sind
die ➚Smart-Cameras. Matrixkameras können als
Schwarz/weiß- oder als ➚Farbkameras ausgeführt sein.
Als ➚Objektiv-anschluss hat sich für industriell eingesetzte Matrixkameras die ➚C-Mount-Spezifikation
durchgesetzt. (s. auch Sensorgröße, Pixelzahl)
Maximum-Filter Digitaler Filter (➚Bildfilter), beruhend
auf dem Maximum-Operator. Beseitigt einzelne dunkle
Pixel aus hellen Regionen. Glättet die Bildinformation
bei gleichzeitiger Beibehaltung der ➚Kantensteilheit.
Mechanische Achse Die mechanische Achse eines Objektives wird von der Rotationsachse des mechanischen Tubusses gebildet. Im Idealfall soll die mechanische Achse
mit der optischen Achse übereinstimmen. In der Praxis
tritt dieser Fall durch fertigungsbedingte Abweichungen
kaum auf. Daher reicht es nicht aus, das Objektiv mechanisch auszurichten – es muss eine Ausrichtung der ➚optischen Achse erfolgen. (s. auch Justierung, Justierhilfe)
Median-Filter Digitaler nichtlinearer Filter (➚Bildfilter).
Sortiert zuerst die im ➚Prüffenster enthaltenen Helligkeitswerte. Entfernt danach die höchsten und niedrigsten Helligkeitswerte. Der implementierte Sortier-Algorithmus macht den Median-Fillter rechenzeitintensiv.
Wirkung: beseitigt ➚Rauschen. Glättungswirkung bei
Erhalt der ➚Kantensteilheit. Arbeitet effektiver als der
Mittelwertfilter bei geringerer Unschärfe.
Mehrkamerasystem Bildverarbeitungssystem, das die
Bildinformation von mehreren Kameras nutzt. Mehrkamerasysteme können verschieden aufgebaut werden:
a) Nutzung eines ➚Framegrabbers mit mehreren Eingängen für Kameras = zentrale Lösung. Je nach ➚Echtzeitfähigkeit und -erfordernissen kann ein teures Multiprozessorsystem notwendig sein, das den synchronen
Bildeinzug mehrerer Kameras gleichzeitig realisiert; Vernetzung mehrerer ➚Smart Cameras an einem Bussys-
Lexikon der industriellen Bildverarbeitung
tem (➚Ethernet, ➚Profibus) = dezentrale Lösung, die
durch die autonome Smart Camera echtzeitfähig ist.
b) Nutzung mehrerer ferngesteuerter ➚Smart Camera
Sensoren als Slaves an einem Leitrechner = dezentrale
Lösung, die durch die autonome Smart Camera echtzeitfähig ist.
Merkmal ist eine Eigenschaft eines betrachteten ➚Pixels
oder Bildgebietes. Merkmale können z.B. ➚Grauwerte,
➚Gradienten, ➚Kanten, ➚Konturen, Flächen oder
➚Texturen sein und werden durch Bildverarbeitungssoftware interpretiert.
Merkmalsextraktion ist der entscheidende Schritt der Datenreduktion, um Eigenschaften von ➚Objekten zu extrahieren und in einem Merkmalsvektor (Liste signifikanter Merkmale mit Wichtungsfaktoren) abzulegen. Setzt
➚Segmentierung der Objekte voraus. Die gewonnenen
➚Merkmale werden anschließend zur ➚Klassifikation
genutzt. Schwierigster Schritt der Bildverarbeitung, da
„scharfe“ Kriterien für die Merkmale angewendet werden im Vergleich zur menschlichen Merkmalsextraktion,
die „weiche“ Kriterien nutzt. (s. auch neuronale Netze)
Merkmalsvektor fasst die ein Objekt beschreibenden
Merkmale (Merkmalswerte) in einem Vektor zusammen.
Messen Das Feststellen der Qualität und Quantität einer
Größe durch Vergleich mit einer bekannten Vergleichsgröße. (s. auch Prüfen, dimensionelles Messen, Fotometrie)
Messfehler Da alle Messverfahren, auch die Bildverarbeitung, unvollkommen sind, besitzen sie Messfehler. Die
Größe des Messfehlers ist meist nicht genau zu bestimmen (➚zufällige Fehler, ➚systematische Fehler), d.h. der
fehlerfreie Wert (➚Sollwert) ist vom Messfehler überlagert.
Der Messfehler ist Istwert (➚Messwert) minus Sollwert.
Die Analyse der Messfehler für individuelle Bildverarbeitungslösungen gestaltet sich schwierig, da die Bestimmung der Messfehler zeitaufwendig ist. Daher nutzt
man häufig pragmatische Ansätze unter Ausnutzung
statistischer Methoden zur Genauigkeitssteigerung.
(s. auch Prüfmittelfähigkeit, Cg-/Cgk-Werte, Korrekturfaktor, DIN 1319)
Messobjektiv Objektiv mit besonders geringen ➚Abbildungsfehlern. (s. auch telezentrisches Objektiv)
Messtechnische Grundsätze Grundregeln, die bei der
Auslegung von Bildverarbeitungsanlagen zu beachten
sind, damit ➚systematische Fehler minimiert werden
und die ➚Prüfmittelfähigkeit erreicht werden kann:
a) Das ➚Auflösungsvermögen des ➚Bildaufnehmers
sollte 1/10 des geforderten ➚Toleranzbereiches betragen. Abweichungen von diesem Wert sind möglich,
müssen dann aber im konkreten Systemzusammenhang
diskutiert werden.
55
M
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 71
Messunsicherheit
M
b) Die Genauigkeit der Vermessung von ➚Kalibrierkörpern sollte 10x größer sein als die geforderte Genauigkeit der Bildverarbeitungsanlage.
c) Messeinrichtungen für die Vermessung von räumlichen Teilen sollen so justiert sein (➚Justierung), dass die
Abweichung der Rechtwinkligkeit der ➚optischen Achse (➚Verkippung) zur ➚Objektebene/Messebene minimal gehalten wird.
d) Als Faustregel für die ➚Anwesenheitskontrolle gilt:
das ➚Prüfobjekt sollte 1% der Fläche (in Pixeln) des
➚Gesichtsfeldes ausmachen (bei schwachem ➚Kontrast), bei gutem Kontrast kann das herab zu einer
Fläche von nur 10 Pixel sein.
e) Bei ➚OCR/OCV sollte die Fläche eines einzelnen Zeichens 200 ... 400 Pixel betragen. (s. auch Cg-/Cgk-Wert)
Messunsicherheit Beschreibt die Streuung von Messergebnissen. (s. auch Antastunsicherheit)
Messwert Fehlerbehafteter Ist-Wert eines Messsystems.
Metalldampflampe ➚Lichtquelle und spezielle Form der
➚Gasentladungslampe, bei der die Farbwiedergabe
durch Zusatz von Halogeniden verbessert wurde. Metalldampflampen sind sehr hell, haben eine hohe
➚Farbtemperatur, eine längere Lebensdauer als Halogenglühlampen, besitzen aber kein kontinuierliches
➚Spektrum und benötigen eine Warmlaufzeit.
Mikrometer Tausendster Teil eines Millimeters. Am Maß
„ein Mikrometer“ verdeutlichen sich die häufig übersteigerten Erwartungen an das, was industrielle Bildverarbeitung fähig ist, zu messen. Zur Verdeutlichung: das
menschliche Auge kann in 25 cm Entfernung noch
Details von 70 µm trennen; ein menschliches Haar ist
30 .. 50 µm dick; das Klopfen auf eine Tischplatte erzeugt Amplituden von 5 ... 10 µm (Schwingungsamplituden in Maschinen sind wesentlich größer); der Tastsinn des Fingers erfasst Oberflächenrauhheiten bis
>1 µm; die Wellenlänge des sichtbaren Lichtes beträgt
0,38 ... 0,78 µm; die Fotolithografie zur Herstellung integrierter Schaltungen nutzt Licht <0,13 µm (Jahr
2002); in 1 µm lassen sich 10 000 Schichten Atome unterbringen. Messen auf 1 Mikrometer genau ist mit industrieller Bildverarbeitung nicht möglich (außer interferometrische Messverfahren). Messen auf 10 Mikrometer genau gehört bereits zu den ambitionierten Vorhaben der Bildverarbeitung.
Mikroobjektiv ➚Mikroskopobjektiv
Mikroskopobjektiv Sammelndes ➚optisches System zur
vergrößernden Abbildung (➚Abbildungsmaßstab). Typischerweise verringert sich der Arbeitsabstand mit dem
Betrag des Abbildungsmaßstabes, dabei erfordern
große Arbeitsabstände einen erheblichen optischen Aufwand. Long-distance Mikroskopobjektive realisieren dabei große Arbeitsabstände. Beispiel:
56
Abbildungsmaßstab:
1
3
5
10
Arbeitsabstand [mm]:
79
75
64
50
Die Kennzeichnung von Mikroskopobjektiven erfolgt
i.A. durch Angabe des Abbildungsmaßstabes und der
➚numerischen Apertur (z.B. 10/0,25) sowie weiterer mikroskopspezifischer Daten. Große numerische Aperturen
führen zu Objektiven mit großer ➚Lichtstärke. Mikroskopobjektive werden in der Bildverarbeitung zur Abbildung sehr kleiner ➚Prüfobjekte zusammen mit Mikroskopköpfen verwendet, die die notwendige Tubuslänge
realisieren. So entsteht für den ➚Bildaufnehmer ein vergrößertes höhenvertauschtes Bild.
Minimum-Filter Digitales Filter (➚Bildfilter), beruhend auf
dem Minimum-Operator. Beseitigt einzelne helle Pixel
aus dunklen Regionen. Glättet die Bildinformation bei
gleichzeitiger Beibehaltung der ➚Kantensteilheit.
Mittelwert-Filter Digitales Filter, beruhend auf dem Mittelwert-Operator. Ersetzt den Helligkeitswert eines ➚Pixels
durch den mittleren Helligkeitswert des für die Filtermaske vorgegebenen Wertes. Beseitigt Rauschen und kleine
Störungen im Bild, macht das Bild aber unschärfer.
MOD minimal object distance. Kürzeste ➚Einstellenfernung
Modulation ➚Kontrast
Modulation Transfer Function MTF. ➚Modulationsübertragungsfunktion
Modulationsübertragungsfunktion, engl. modulation
transfer function, MTF, auch Kontrastübertragung.
Beschreibt die Güte (das optische ➚Auflösungsvermögen, nicht das der Kamera!) eines optischen Systems
und fasst in Kurverscharen alle ➚Abbildungsfehler, ausgeschlossen die ➚Verzeichnung, zusammen. Die Modulationsübertragungsfunktion beschreibt die Übertragung eines ➚Kontrastes K auf dem Objekt (➚Linienpaare/mm) zu einem Kontrast K´ im Bild: T = K´ / K. Dieser Kontrast ist in verschiedenen Richtungen (tagential,
sagittal) unterschiedlich groß. Daher gehören die tangentiale und sagittale Kurve immer zusammen.
Zur Ermittlung der MTF wird ein Liniengitter von der
Bildmitte zum Bildrand verschoben und an verschiedenen Orten im Bild die Kontrastübertragung ermittelt.
Dieses Verfahren wird für verschiedene Ortsfrequenzen
(Anzahl von Linienpaare/mm) durchgeführt. Im Ergebnis
ensteht eine Kurvenschar der MT. (x-Achse: Bildort von
Bildmitte 0% bis Bildrand 100%, y-Achse: Kontrastübertragung 0 bis 100%). Einflussfaktoren auf die MTF
(außerhalb des optischen Systems) sind: Ortsfrequenz,
➚Abbildungsmaßstab, ➚Blendenzahl, ➚Beleuchtungswellenlänge, Bildort (h/hmax).
Allgemeine Erkenntnisse:
a) Im Bild ist immer ein schlechterer Kontrast als auf
dem Objekt: Kontrastübertragung < 100%;
Lexikon der industriellen Bildverarbeitung
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 72
Mustererkennung
b) Bei zunehmender Detailfeinheit (Ortsfrequenz)
nimmt der Kontrast im Bild ab;
c) Es gibt eine optimale Blendeneinstellung, bei der die
MTF Maximum erreicht;
d) Sagittale und tangentiale Strukturen werden unterschiedlich gut aufgelöst (Beachten bei strukturierten
Teilen!);
e) Am Bildrand wird die Kontrastübertragung signifikant
schlechter. Darum möglichst nur 80% des Gesichtsfeldes nutzen;
Die aus den Konstruktionsdaten eines gerechneten optischen Systems berechnete MTF wird als geometrische
MTF bezeichnet.
Auch in Zusammenhang mit ➚Bildaufnehmern wird der
Begriff MTF genutzt. Dabei wird die MTF durch die ➚Pixelgröße bestimmt. (s. auch DIN 58185)
Moiré-Effekt entsteht bei der Überlagerung zweier nicht
transparenter Gitter/Raster auf transparentem Untergrund. Je nach Verdrehung/Verschiebung der beiden Gitter zueinander verdecken die Linien des einen Gitters die
Spalten des anderen. So entstehen scheinbar neue Linien
größeren Abstandes, ebenso wie die zusammentreffenden Spalten neue Spalten scheinbar größeren Abstandes
erzeugen. Die Zeilenstruktur des ➚Bildaufnehmers kann
zusammen mit einem abbildenden Monitor ebenfalls
Moiré-Effekte hervorrufen. Verwendet wird der MoiréEffekt messtechnisch beim ➚Moiré-Verfahren.
Moiré-Verfahren ➚Gitterprojektionsverfahren unter Ausnutzung des ➚Moiré-Effektes zur dreidimensionalen
Oberflächenvermessung großer Objekte. Dazu wird ein
Strichgitter schräg auf das ➚Prüfobjekt projiziert (vgl.
➚codierter Lichtansatz). Unter einem abweichenden
Betrachtungswinkel wird die Szene durch ein zweites
Gitter betrachtet. Dabei kommt es zu Streifenerscheinungen der Höhenschichtlinien. Meist wird nur ein Beleuchtungsgitter benötigt, da der ➚Bildaufnehmer von
sich aus durch seine Zeilenstruktur Moiré hervorruft.
Verschiedene Möglichkeiten bestehen:
a) Bei den In-plane-Verfahren befinden sich beide Gitter
in einer Ebene (Verdrehungs- und Verschienungs-Moiré).
b) Die Out-of-plane-Verfahren unterteilen sich in Schatten-Moiré und Projektions-Moiré (➚Phasenshiftverfahren). Die minimal auflösbare Höhendifferenz hängt
beim Moiré-Verfahren von der Größe des ➚Gesichtsfeldes und damit vom lateralen ➚Auflösungsvermögen ab.
Ohne genauigkeitssteigernde rechnerische Verfahren
(Phasenshiftverfahren) lassen sich mit dem Moiré-Verfahren Höhenauflösungen von etwa 1/1.000 der Gesichtsfeldgröße erreichen.
Monitorvergrößerung Verhältnis zwischen der Größe
des ➚Gesichtsfeldes und der Größe eines Monitors. Die
Monitorvergrößerung ist ein rein visueller Wert und hat
Lexikon der industriellen Bildverarbeitung
nichts mit dem ➚Abbildungsmaßstab gemein. Allein der
Einsatz eines größeren Monitors täuscht ein besseres
➚Orts-Auflösungsvermögen vor, bringt aber hinsichtlich
der besseren Auflösung von Details keine Vorteile (vgl.
➚leere Vergrößerung).
Beispiel: Ein Objekt von 3,6mm Höhe wird mit einem
➚Bildaufnehmer 1/3" (3,6mm hoch) auf einem 15"Monitor (Höhe 230 mm) dargestellt. Die Monitorvergrößerung beträgt 64-fach und steigert sich bei Verwendung eines 17"-Monitors auf 72-fach. Der für die
Bildpunktauflösung verantwortliche Abbildungsmaßstab ist in beiden Fällen gleich: -1.
Monochromatisches Licht Einfarbiges Licht. Monochromatisches Licht besitzt kein ➚Spektum, sondern als
Grenzfall nur eine ausgesendete ➚Wellenlänge. Laser
erfüllen die Bedingung der Monochromasie nahezu ideal
durch ihr sehr schmalbandig emittiertes Spektrum. Ideal
monochromatisches Licht besäße eine unendliche ➚Kohärenzlänge.
Morphologische Bildverarbeitung Morphologie: Lehre
von der Gestalt. Die morphologische Bildverarbeitung
manipuliert und erkennt Fomen unter Nutzung der beiden grundlegenden lokalen Operatoren ➚Erosion und
➚Dilatation und wendet sie auf Strukturelemente an.
Zur morphologischen Bildverarbeitung gehören ➚Skelettierung, ➚Opening, ➚Closing. Morphologische Bildverarbeitung lässt sich für ➚Binär-, ➚Grauwert- und
➚Farbbilder einsetzen. Angewendet wird morphologische Bildverarbeitung zur Rauschfilterung, Hintergrundunterdrückung sowie zur Vorverarbeitung für die
➚Blobanalyse. Morphologische Bildverarbeitung ist
sehr gut zu parallelisieren und wird durch die Nutzung
Boolscher Algebra sehr gut von der Hardware unterstützt.
Mosaikfilter ➚Farbfiltermatrix
MTF modulation transfer function ➚Modulationsübertragungsfunktion
Multimedia Verknüpfung verschiedener elektronischer Informationsträger (Text, Grafik, Animation, Ton, Film) zu
komplexen Informationen mit Möglichkeit der Interaktion für den Anwender.
Muster beschreibt die ➚Merkmale (➚Kanten, Linien,
Flächen, Ecken, ➚Konturen) eines ➚Objektes. Muster
sind Grundelemente für die inhaltliche Interpretation
des Bildes. (s. auch Mustererkennung)
Muster suchen ➚Mustererkennung
Mustererkennung, auch Pattern Recognition, Pattern
Matching. Mustererkennung dient der Einordnung von
➚Objekten in einer beliebig gearteten Umgebung. Dazu
müssen zuerst charakteristische ➚Merkmale extrahiert
werden (➚Merkmalsextraktion) bevor verglichen und
klassifiziert werden kann. Die Objekte werden als digi-
57
M
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 73
Musterkatalog
M
N
tales ➚Muster abgelegt. Die enthaltenen Merkmale
werden von einem Suchverfahren (➚Korrelation) verglichen. Mustererkennung ermöglicht es, sowohl Positionen zuvor eingelernter Referenzobjekte in einem Suchfenster zu ermitteln als auch anhand des Übereinstimmungsgrads Aussagen über die Qualität oder das Vorhandensein von Mustern zu treffen.
Bei modernen Algorithmen der Mustererkennung wird
der Übereinstimmungsgrad von der Helligkeit im Prüffenster nicht beeinflusst. 100% Übereinstimmungsgrad
bedeuten genaue Übereinstimmung, 0% bedeutet keine
Übereinstimmung. Praktisch im Industrialltag erprobte
und robuste Einstellungen sind 60 ... 80%.
Die Suche erfolgt nach einem Suchraster. Ein feines
Suchraster wird z.B. für Schriften und Gravuren, ein grobes für Bohrungen und Löcher verwendet. Je feiner das
Suchraster, desto rechenintensiver ist das Verfahren, findet aber auch feinere Muster.
Im Ergebnis der Mustererkennung entsteht eine Tabelle
mit den Schwerpunktkoordinaten, Drehlagen und Graden der Übereinstimmung der gefundenen Muster.
Die Anwendungen der Mustererkennung sind vielfältig:
Lage- und ➚Drehlageermittlung in der Robotik; Vollständigkeitskontrolle an unübersichtlichen Baugruppen;
➚OCR/OCV (s. auch Template Matching)
Musterkatalog Systematische Sammlung von typischen
➚Prüfobjekten (Musterteilen) zur: Beschreibung/Eingrenzung der Aufgabestellung; Beschreibung der zu unterscheidenden Klassen; Angabe der Beschaffenheit des
Prüfobjektes (Variation der mechanischen, optischen,
Materialeigenschaften, Herstellungsprozess); lückenlosen Darstellung aller zu erkennenden Abweichungen
und Fehlerklassen (Gut-, Schlecht-, Grenz-, Referenzmuster) (s. auch VDI/VDE Richtlinie 2632)
Musterteile ➚Musterkatalog
N
Naheinstellung auf Unendlich Einstellung der ➚Objektweite/des ➚Arbeitsabstandes und der ➚Blende so, dass
die hintere Schärfentiefengrenze (➚Schärfentiefe, ➚Schärfentiefebereich) nach Unendlich fällt. Der damit eingestellte Schärfentiefebereich ist der größtmögliche bei
gegebenem ➚Abbildungsmaßstab und Blende. In der
Fotografie verwendet, um bei Landschaftsaufnahmen
möglichst viel Bildinhalt scharf dazustellen.
Nahes Infrarot ➚Infrarotes Licht
Nahlinse Sammellinse, die durch das Vorschrauben vor ein
Objektiv die Verkürzung der mechanisch vorgegeben
➚kürzesten Einstellentfernung ermöglicht. Wird durch
58
ihre ➚Brechkraft und die Größe des Einschraubgewindes
(➚Filtergewinde) charakterisiert. Die ➚Arbeitsabstände
ändern sich beim Einsatz von Nahlinsen wie folgt:
Einstellentfernung
Arbeitsabstand
am Objektiv
3m
1m
0,5 m
keine Nahlinse
3m
1m
0,5 m
Nahline 1 dpt
0,7 m
0,5 m
0,33 m
Nahlinse 2 dpt
0,43 m
0,33 m
0,25 m
Nahlinse 3 dpt
0,3 m
0,25 m
0,2 m
Nahlinse 5 dpt
0,19 m
0,16 m
0,14 m
Nahlinse 10 dpt
0,1 m
0,09 m
0,08 m
➚Zwischenringe sollten Nahlinsen vorgezogen werden,
da Nahlinsen i.A. stärkere Abbildungsfehler in das optische System einfügen als Zwischenringe. Werden Nahlinsen eingesetzt, sollte ihre Brechkraft deshalb 20%
der Brechkraft des verwendeten Objektives nicht übersteigen. Die beste Lösung für kurze ➚Arbeitsabstände
sind ➚Makroobjektive.
Natürliche Vignettierung ➚Vignettierung
NC-Steuerung Numeric Control-Steuerung ➚Computerized Numerical Control
Nennmaß ➚Sollwert
Neuronales Netz Rechenmodell zur Verarbeitung komplexer Informationen der Struktur des Gehirns nachempfunden. Merkmale neuronaler Netze sind Lernfähigkeit,
Parallelität der Verarbeitung (Schaltelemente arbeiten
parallel), Robustheit (reagieren auf Fehler nicht abrupt,
sondern passen sich schrittweise an), Adaptivität (Anpassung das Lösungsweges durch Training und nicht
durch Vorschrift). Netzstruktur mit einer hohen Anzahl
von Schaltelementen und Knoten. Vorbild sind biologische Systeme. Neuronale Netze sind lernfähig, schnell
und fehlertolerant, wenn es um unscharfe Kriterien geht.
Mit neuronalen Netzen lassen sich so gut wie beliebige
Beziehungen zwischen Ein- und Ausgangssignalen herstellen. In der Bildverarbeitung besonders zur ➚Mustererkennung und ➚Klassifikation genutzt.
Neutralfilter auch Graufilter. Aselektives Filter, d.h. die
Dämpfung des ➚Lichtstromes ist nahezu wellenlängenunabhängig (VIS, IR) innerhalb eines Spektralbereiches.
Einsatz bei zu heller Beleuchtung, fehlender Abblendmöglichkeit am Objektiv, festgelegter ➚Belichtungszeit
der Kamera. In verschiedenen typischen ➚Filterfaktoren
lieferbar.
Faktor
Blendenoptische
stufen
Dichte
4x
2
0,6
16x
4
1,2
1000x
10
3
Bei Stapelung mehrer Neutralfilter müssen die ➚Filterfaktoren addiert werden. (s. auch Filtergewinde, planparallele Platte)
Lexikon der industriellen Bildverarbeitung
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 74
Oberer Grenzwert
Newtonsche Ringe ➚Interferenzerscheinung beim Drücken
einer gewölbten Glasfläche gegen eine Planfläche. Entlang der Streifen herrschen gleiche Abstände zwischen
den Glasplatten.
n.i.O. Abkürzung für „nicht in Ordnung“. Kennzeichnung
fehlerhafter Teile in der Fertigung
NIR near infrared light ➚Infrarotes Licht
Non interlaced Vollbildverfahren, ohne ➚Zeilensprung.
Bei der Bildaufnahme wird die volle Bildinformation
(gesamte Auflösung) auf einmal erfasst, dadurch wird
➚Halbbildversatz vermieden. Beim Bildaufbau wird das
Bild Zeile für Zeile nacheinander aufgebaut im Gegensatz zum ➚Interlace-Verfahren. Bei gleicher Bildwiederholfrequenz ist dies für den Betrachter wesentlich angenehmer. ➚Progressive Scan-Sensoren arbeiten bei der
Bildaufnahme ebenfalls non-interlaced, also im Vollbildmodus.
Normal ➚Kalibrierkörper
Normalbrennweite ➚Brennweite eines Objektives, die
bei der Abbildung den Sehgewohnheiten des menschlichen Auges am Nahesten kommt. Der Betrag der Normalbrennweite beträgt etwa der Diagonale des ➚Bildaufnehmers.
Normalobjektiv Objektiv, das durch die ➚Normalbrennweite gekennzeichnet ist.
Normen in der Bildverarbeitung Die Normung in der industriellen Bildverarbeitung ist, abgesehen von einigen
Schnittstellen, noch nicht sehr fortgeschritten. Das
hängt auch mit den ständig wechselnden und neu hinzukommenden Anwendungsfeldern der Bildverarbeitung zusammen. An dieser Stelle seien einige für die industrielle Bildverarbeitung relevante Normen genannt:
VDI/VDE 2519 VDI/VDE 2617, Bl. 6.1 Koordinaten-Messgeräte mit optischer Antastung; Sensoren zur 2D-Messung VDI/VDE 2628, Bl. 1 Automatisierte Sichtprüfung;
Beschreibung der Prüfaufgabe VDI/VDE 2632, Bl. 1 Industrielle Bildverarbeitung; Definition von Anforderungen
an Bildverarbeitungssysteme VDI/VDE 2634-2 Optische
3D-Messsysteme. Bildgebende Systeme mit flächenhafter Antastung. Weitere Informationen und Übersichten
unter: www.din.de; www.vdi.de
Normlichtart wird von einer standardisierten Lichtquelle
ausgesendet und entspricht einer festgelegten ➚Farbtemperatur. Normlichtart A entspricht einer Farbtemperatur von 2865 K (Glühlampenlicht), D65 einer Farbtemperatur von 6500 K (dem Tageslicht am ähnlichsten).
Normlichtarten werden als Referenz für Farbmessungen
benötigt und als Normal für die fotometrische ➚Kalibrierung genutzt.
NTSC National Television Standards Committee. In den
USA, Südamerika und Japan üblicher Standard zur Codierung von Farb-Videosignalen. NTSC arbeitet mit 60
Lexikon der industriellen Bildverarbeitung
Halbbildern pro Sekunde bei 484 sichtbaren Zeilen. Der
NTSC-Standard liefert eine schlechtere Bildqualität als
die europäische Norm ➚PAL.
Numerische Apertur Maß für die Öffnung eines optischen
Systems und damit seine ➚Lichtstärke. Je größer die numerische Apertur, desto heller das Objekt. Die numerische Apertur wird für Systeme mit endlichem Arbeitsabstand angegeben (z.B. ➚telezentrische Objektive, ➚Mikroskopobjektive). Die Angabe der ➚Blendenzahl ist
dann sinnvoll, wenn der Arbeitsabstand groß im Vergleich zur ➚Brennweite ist. Bei Mikroobjektiven und
hohen Abbildungsmaßstäben ergeben sich bildseitig
sehr kleine Bündeldurchmesser, die zu einer beugungsbedingten Unschärfe führen können. In diesen Fällen
verbessert sich das ➚Auflösungsvermögen durch eine
höhere numerische Apertur.
Definition der numerischen Apertur NA: NA = n · sin u.
n – Brechzahl des Mediums, in dem das Objekt eingebettet ist (in der Regel Luft mit n = 1) u – maximaler
Winkel des durch Öffnungsblende begrenzten objektseitigen Strahlenbündels.
Anschaulich ist die numerische Apertur der größte Winkel, der begrenzt durch die ➚Öffnungsblende, vom Objekt (objektseitige numerische Apertur NA)/vom Bildaufnehmer (bildseitige numerische Apertur NA') aus gesehen werden kann.
Die Numerische Apertur ist eine ➚konjugierte Größe,
die durch den Abbildungsmaßstab miteinander verknüpft ist: NA = |ß'| · NA' . Als Vergleichswert zur Blendenzahl kann k = 1 / (2 NA) gesetzt werden. Berechnungen der ➚Schärfentiefe können mit der numerischer
Apertur vorgenommen werden.
Numerische Klassifikation Klassisches Verfahren der
➚Klassifikation, besonders für die ➚Mustererkennung.
Verwendet geometrische Abstandsmaße und Statistik
zur Klassifikation:
a) Schwellwertklassifikatoren: Merkmalswert unter/über
einem Schwellwert
b) Abstandsklassifikatoren: Abstand (quadratische Abweichung) zu einem für jede Klasse vorliegenden Muster (Prototyp)
Nyquist-Frequenz ➚Abtasttheorem
O
Obere Eingriffsgrenze, auch OEG ➚Eingriffsgrenzen
Oberer Grenzwert, auch OGW, oberes Abmaß, „+“- Toleranz. Größte (positive) noch zulässige Abweichung vom
➚Nennmaß/➚Sollwert, die ein ➚Prüfobjekt noch als
gut charakterisiert.
59
N
O
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 75
Oberes Abmaß
O
Oberes Abmaß ➚Oberer Grenzwert
Oberflächeninspektion ➚Oberflächenkontrolle
Oberflächenkontrolle Durchführung geziehlter Kantensuche innerhalb eines ➚Prüffensters. Typisch ist die
Nutzung verschiedener Rasterrichtungen und Rasterweiten. Entlang des Rasters wird durch ➚Antastung
nach Oberflächendefekten gesucht. Je feiner das Raster
ist, desto kleinere Fehler können erkannt werden. Die
Anzahl der gefundenen Kanten entlang des Rasters gilt
als Kriterium für die Oberflächengüte. Verwendet werden zum Finden der Oberflächenfehler die üblichen
➚Antastalgorithmen.
Wie alle optischen Verfahren zur Oberflächenprüfung ist
die Oberflächenkontrolle durch ihre Empfindlichkeit gegenüber Staub und Schmutz begrenzt. Die Software
kann im zweidimensionalen Bild nicht unterscheiden,
ob es sich um einen vertieften Kratzer oder einen erhabenen Schmutzpartikel handelt. Daher sind die gewonnnenen Ergebnisse sorgfältig zu interpretieren.
Mit dem Autokontrast-Verfahren können Helligkeitsänderungen beim Kantensuchen berücksichtigt werden.
Dabei wird der mittlere Grauwert auf der zu untersuchenden Fläche ermittelt und als Bezugsgröße genutzt.
Anwendung: bei sehr schwachem Kontrast mit starken
Helligkeitsschwankungen.
Oberflächenprüfung ➚Oberflächenkontrolle
Oberflächentest ➚Oberflächenkontrolle
Objekt 1.) optisch/materiell ➚Prüfobjekt 2.) Software: eine
topologisch zusammenhängende Punktmenge von
➚Pixeln, die bestimmten Kriterien entprechen. In der
Bildverarbeitung sind die Kriterien für das Zusammenhängen i.A. ➚Grauwerte.
Objektabstand Objektweite, Gegenstandsweite. Abstand
des Objektes von der ➚Hauptebene. Objektweiten sind
körperlich nicht fassbar, da sie Bezug auf die abstahierte ➚Hauptebene nehmen. Daher ist in praktischer Verwendung bei der Bildverarbeitung der ➚Arbeitsabstand. Der Objektabstand ist abhängig von: ➚Abbildungsmaßstab; ➚Brennweite; Objektivtyp, bei➚telezentrischen Objektiven ist der Objektabstand meist fix;
der verwendeten ➚Beleuchtungswellenlänge (➚Dispersion); Einfügen optischer Bauelemente (➚Planplatten
etc.); diese verlängern die ➚optische Weglänge; Einhaltung des ➚Auflagenmaßes der verwendeten Kamera.
Die Beziehungen zu ➚Brennweite f’ und ➚Abbildungsmaßstab ß’ sind näherungsweise: a = f’ · (1 - ß’)/ß’ mit
(f’ > 0, ß’ < 0)
Objekte suchen Sonderfall der ➚Mustererkennung mit
verschiedenen Mustern. Gemäß einer Liste von verschiedenartigen ➚Objekten, die eingelernt wurden,
wird im ➚Suchfenster nach den eingelernten Objekten
gesucht. Die Anzahl der verschiedenen gefundenden
60
Objekte, deren Drehwinkel sowie die Koordinaten der
➚Flächenschwerpunkte werden in einer Ergebnistabelle abgelegt.
Objektebene Zur ➚optischen Achse rechwinklige Ebene,
in dem sich das ➚Prüfobjekt befindet. Ein sich in der
Objektebene befindliches Prüfobjekt wird scharf in die
➚Bildebene abgebildet.
Objekterkennung ➚Mustererkennung.
Objektgröße, auch Gegenstandsgröße. Gibt die maximale
Ausdehnung des Prüfobjektes an und hat u.a. Einfluss
auf ➚Abbildungsmaßstab, ➚Perspektive, Größe des
➚Gesichtsfeldes.
Objektiv Kombination mehrerer abbildender optischer
Bauelemente (sphärische/Asphärische Linsen) mit sammelnden Eigenschaften in einem gemeinsamen Gehäuse. Objektive bilden reell ab. Zu einem Objektiv gehören
der ➚Objektivanschluss und das Objektivgehäuse, gegebenenfalls Entfernungs- und Blendeneinstellring.
Meistens besitzen Objektive ein Einschraubgewinde für
Lichtfilter (➚Filtergewinde).
Objektive gleicher ➚Brennweite lassen sich durch verschiedene Anordnungen erzielen, die ➚Abbildungsgüte
ist aber sehr verschieden, im einfachsten Fall kann auch
eine Einzellinse verwendet werden, komplexe Anordnungen können jedoch ➚Abbildungsfehler kompensieren.
Die Objektivauswahl sollte nach dem Einsatzzweck erfolgen: So preiswert wie möglich, so genau wie nötig.
Hinsichtlich der Einsatzklassen und Bildqualität lassen
sich unterscheiden:
a) Low-cost-Objektive: Geringe Abbildungsleistung,
Kunststoffgehäuse, keine Feststellmöglichkeiten, nicht
gesicherte Schraubverbindungen, einfache Blendenkonstruktion, kein Filtergewinde, Taumeln des Bildmittelpunktes bei Verstellung, häufig CCTV-Objektive aus der
Sicherheitstechnik.
b) Standard-Objektive: Gute Abbildungsleistung, Metallfassung mit Feststellmöglichkeiten, gesicherte Schraubverbindungen, vielgliedrige Blende, Filtergewinde.
c) Industrie-Objektive: Gute Abbildungsleistung, Metallfassung mit Feststellmöglichkeiten, wenige bewegliche
Mechanikteile, Gewinde verklebt, erschütterungsgeprüft, Filtergewinde.
d) Präzisions-Objektive: Exzellente Abbildungsleistung,
komplexer Aufbau, für wenige Spezialanwendungen
benötigt, teuer.
Objektivanschluss Mechanische Schnittstelle zwischen
➚Objektiv und Kamera. Für industrielle Kameras sind
Gewinde üblich, auch Bajonett-Anschluss. Mit dem Objektivanschluss ist das ➚Auflagenmaß verbunden. Der
Objektivanschluss sollte mit dem Kameraanschluss korrespondieren, wenn nicht, sind auch Adapter möglich.
Lexikon der industriellen Bildverarbeitung
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 76
Operator
Objektivanschlüsse sind weitgehend standardisiert, wie
z.B.: ➚C-/CS-Mount (Gewinde): 1-32UN2A für Matrixkamera; Standard der industriellen Bildverarbeitung;
NF-Mount (Gewinde): M17x0,5 für Matrixkameras;
L-Mount (Gewinde): M39x1/26"; Leica-Gewinde für Zeilenkameras; F-Mount (Nikon-Bajonett) für Zeilenkameras; U-Mount (M42x1-Practica-Gewinde) für Zeilenkameras; 35 mm Bajonett; Pentax; M12x0,5 für Kleinstoptiken u.a.
Objektivauflagefläche Anlagefläche des Objektives an
die Kamera. Von der Objektivanlagefläche bis zur lichtempfindlichen Schicht des ➚Bildaufnehmers wird das
➚Auflagemaß gemessen. Die Objektivauflagefläche soll
parallel zur ➚Bildebene/Sensorebene verlaufen, um
➚Abbildungsfehler zu vermeiden.
Objektivgewinde ➚Objektivanschluss
Objektweite ➚Objektabstand
OCI optical character inspection. Vergleich von Zeichen mit
einer hinterlegten Referenz. Wird zur Anwesenheitskontrolle von Zeichen genutzt.
OCP optical character presence. Anwesenheitsnachweis
für Zeichen durch ➚Pixel zählen. Verschiedene Zeichen
mit gleicher Pixelzahl werden gleich interpretiert. Daher
nur möglich bei Zeichen festen Inhalts.
OCR/OCV OCR – optical character recognition: Lesen von
Zeichen. OCV – optical character verification: Vergleichen von Zeichen bekannten Inhalts auf Vollständigkeit
und Qualität. OCR/OCV sind Spezialfälle der ➚Mustererkennung. Bei OCR/OCV werden die Daten der zu erkennenden Zeichen wie beim ➚Zeichen einlernen durch
➚Merkmalsextraktion ermittelt und mit den Zeichen im
aktuellen ➚Zeichensatz verglichen. Typisches Verfahren
dafür ist die ➚Korrelation. Das Zeichen wird erkannt
(➚Klassifikation), wenn der Übereinstimmungsgrad
größer oder gleich einem vorgegebenen Mindestwert
[%] ist. Einfachste Variante für OCV ist das ➚Pixel
Zählen. Auf die Zuverlässigkeit von OCR/OCV haben
verschiedenste Faktoren Einfluss: der gesamte optische
Kanal des Bildverarbeitungssystems; Art des Druckes,
Druckqualität, -kontrast (Nadel, Thermotransfer, Laser);
Eigenschaft der Zeichen (Position, Abstand, Größe, Länge der Zeile, wie viele Zeilen); verwendeter Algorithmus;
erforderliche Leserate; Verfahren bei Lesefehlern/Anzahl
erlaubter Lesefehler.
Als Faustregeln für OCR/OCV gelten: 3 Pixel Freiraum
zwischen 2 Zeichen sind notwendig; gute lesbare Größe
der Zeichen ist 25 · 25 Pixel (Fläche eines einzelnen Zeichens 200 ... 400 Pixel); ein gutes OCR-System (Stand
2002) hat eine Erfolgsquote von 99,9% (eine Fehllesung
aus Tausend); Grauwertniveau der Zeichen sollte möglichst ähnlich sein (für Druck, Beleuchtung beachten).
OCV wird z.B. genutzt, um die Druckqualität von Zei-
Lexikon der industriellen Bildverarbeitung
chen zu prüfen, damit ihre spätere Lesbarkeit mit OCR
gewährleistet ist. OCR findet Anwendung zur Identifikation von Produkten anhand Klarschrift, für Lesegeräte
bei Post und Distributoren, Plausibilitätsprüfung in der
Medizintechnik, in OCR-Software zum Lesen gescannter
Dokumente u.v.m.
OEM ➚Original Equipment Manufacturer
OEW ➚oberer Frequenzwert
Öffnung, auch Apertur ➚numerische Apertur
Öffnungsblende, auch Aperturblende. Körperliche ➚Blende in einem optischen System, die den ➚Lichtstrom begrenzt. Mit ihr können: die ➚Bildhelligkeit, ➚Beleuchtungsstärke auf dem Bildaufnehmer; die ➚Schärfentiefe; das ➚Auflösungsvermögen des Objektives beeinflusst werden. Begrenzt das an der Abbildung beteiligte
Strahlenbündel und bestimmt damit die ➚Blendenzahl
und ➚Numerische Apertur.
Öffnungsfehler, auch sphärische Abberation. ➚Abbildungsfehler. Entsteht durch die sphärische Form von
Linsen beim Einfall von weit von der ➚optischen Achse
entfernten Lichtstrahlen. Parallel einfallende Strahlen
werden nicht mehr in einem Punkt (➚Brennpunkt) vereint, sondern in einem Brennfleck. Tritt vor allem bei Objektiven mit großer Öffnung auf. Folge: Objekte am
Rand des ➚Gesichtsfeldes werden unscharf abgebildet.
Gemindert werden kann der Öffnungsfehler durch Abblenden oder wenn es die Konstruktion zulässt, durch
den Einsatz asphärischer Linsen.
Öffnungsverhältnis Die Größe der freien Öffnung (Eintrittspupille) am Objektiv bestimmt Menge des durchgehenden Lichtstromes (Durchgangsfläche ~ Lichtstrom). Je größer die Eintrittspupille, desto lichtstärker
ist das Objektiv und desto kleiner das Öffnungsverhältnis. Begrenzend wirken ➚Öffnungsblenden. Das Öffnungsverhältnis K ist der Kehrwert der ➚Blendenzahl k.
K = 1/k = øEP/f’ mit øEP = Durchmesser der ➚Eintrittspupille bei völlig geöffneter Blende, f’ = Brennweite des
Objektives
Offene Kontur ➚Kontur
OLED ➚organische Leuchtdiode
Opening ➚Morphologische Operation, bei der nacheinander ➚Erosion und danach ➚Dilatation durchgeführt
wird. Die Zahl der Erosionsschritte muss genau so groß
sein wie die der Dilatationsschritte. Durch Opening verschwinden kleine Objekte (einzelne Pixel); das Bild wird
„gereinigt“. Schließt Unterbrechungen in dunklen
Strukturen.
Operator bestimmt das Wirken eines ➚Bildfilters. Im Operator ist festgelegt, welche ➚Pixel aus der Nachbarschaft mit in die Berechnungen einbezogen werden und
welche Wichtungsfaktoren dabei berücksichtigt werden. Je nach Aufbau des Operators können Strukturen,
61
O
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 77
Optical Character Inspection
O
P
Kanten, Objekte im Bild hervorgehoben oder unterdrückt werden.
Optical Character Inspection ➚OCI
Optical Character Presence ➚OCP
Optical Character Recognition Optische Zeichenerkennung ➚OCR/OCV
Optical Character Verification Optische Zeichenverifizierung ➚OCR/OCV
Optische Abbildung ist die Projektion einer dreidimensionalen Szene auf einen ➚Bildaufnehmer. Übertragung
der Lichtinformation von der Objektseite zur Bildseite.
Einfachste Beschreibung der optischen Abbildung mit
➚Strahlenbündeln (➚geometrische Optik)
Optische Achse Gedachte Symmetrieachse der optischen
Abbildung und Verbindungslinie aller Linsenscheitel
(Kugelmittelpunkte) eines optischen Systems. Die optische Achse stimmt (durch fertigungsbedingte Abweichungen) nicht exakt mit der mechanischen Achse eines
Objektives überein. Für Kombinationen aus ➚telezentrischem Objektiv und ➚telezentrischer Beleuchtung müssen die optischen Achsen beider Systeme fluchtend eingestellt werden (s. auch Justierung).
Optische Bildvorverarbeitung ➚Bildvorverarbeitung
Optische Grenzfläche Fläche des unmittelbaren Aneinandergrenzens zweier optischer Medien mit unterschiedlicher ➚Brechzahl. Grenzflächen bilden die Grundlage für
➚Brechung und ➚Reflexion.
Optische Übertragungsfunktion beschreibt die gesamte
Übertragungsfunktion eines optischen Systems. Zusätzlich zur ➚Modulationsübertragung beinhaltet sie auch
die Phasenmodulation. Meistens beschränkt man sich
bei der Darstellung der optischen Übertragungsfunktion
auf die Modulationsübertragungsfunktion.
Optische Vergrößerung ➚Abbildungsmaßstab
Optische Wegdifferenz ➚Optische Weglänge
Optische Weglänge Produkt aus dem vom Licht zurückgelegten geometrischen Weg d und der Brechzahl n des
durchquerten Mediums. Gleiche optische Weglängen
werden vom Licht in gleicher Zeit durchquert, auch
wenn die geometrischen Wege verschieden sind. Geringere ➚Ausbreitungsgeschwindigkeit in optischen Gläsern als in Luft führt zu einer optischen Wegdifferenz
beim nachträglichen Einfügen optischer Bauelemente in
den Strahlengang (Schnittweitenänderung). Es muss um
den Betrag der optischen Wegdifferenz nachfokussiert
oder der ➚Arbeitsabstand geändert werden. Zu beachten beim Einfügen von Schutzgläsern, Prismenvorsätzen, ➚Lichtfiltern u.ä. (s. auch Lichtfilter)
Optisches Glas Ein strahlungsdurchlässiger, amorpher,
fester und weitgehend homogener Stoff, der durch
➚Brechzahl, ➚Dispersion und ➚Transmission gekennzeichnet ist.
62
Optokoppler Bauteil, das zur galvanischen Entkopplung
von Stromkreisen genutzt wird. Das eingehende elektrische Signal wird über eine ➚Leuchtdiode in ein Lichtsignal umgesetzt und von einem Fototransistor und Verstärker wieder in eine entkoppelte elektrische Information rückgewandelt. Dadurch kann die Störsicherheit
(Schutz vor Beschädigung, Kurzschluss usw.) drastisch
erhöht werden. Typischer Einsatz in Ein-/Ausgabeschaltungen der Bildverarbeitungsperipherie. (s. auch digitale Ein-/Ausgänge)
Organische Leuchtdiode Besteht im Unterschied zur
herkömmlichen ➚Luminiszenzdiode aus Oligomeren
oder Polymeren und findet hauptsächlich in der Kommunikationstechnik Anwendung. Für ➚LED-Beleuchtungen ungebräuchlich.
Original Equipment Manufacturer, auch OEM. OEMs in
der Bildverarbeitungsbranche bauen Maschinen mit integrierter Bildverarbeitung als Option. Die Maschine
funktioniert auch ohne Bildverarbeitung, hat aber für
den Kunden durch Einsatz der Bildverarbeitung einen
Zusatznutzen. (s. auch Systemintegrator)
Ortsauflösung Fähigkeit eines Bildverarbeitungssystems,
Details das ➚Prüfobjektes im ➚Speicherbild hinreichend genau aufzulösen. Die Ortsauflösung hängt von
einer Vielzahl von Faktoren ab (➚Genauigkeit einer
Bildverarbeitungsanlage).
Ortsfrequenz Bezeichnung für die Dichte regelmäßiger
Strukturen, angegeben häufig in ➚Linienpaare/mm (z.B.
Optisches Gitter).
P
PAL Phase Alternating Lines. In Westeuropa üblicher Standard zur Codierung von analogen Farbfernseh- ➚Videosignalen. Mit guten Korrekturmöglichkeiten für die Farbinformation. Dabei liegt ein Bild mit 625 Zeilen und einer Halbbildfrequenz von 50 Hz zugrunde.
Parallele Bildaufnahme Parallele Bildaufnahme ist in Systemen mit ➚Progressive Scan-Sensoren möglich und beschleunigt die Prüfung. Der ➚Bildeinzug wird gestartet
und sofort automatisch auf die ➚Bearbeitungsseite umgeschaltet. So kann parallel zum Bildeinzug schon auf
einer anderen ➚Bildspeicherseite die Bildverarbeitung
stattfinden. Paralleler Bildeinzug kann für Multiprozessorsysteme (➚Framegrabber) auch bedeuten, dass mehrere Kameras zeitgleich Bilder auf verschiedene Bildspeicherseiten übertragen. Parallele Bildaufnahme wird
durch ➚Framegrabber als auch ➚Smart Cameras unterstützt, so dass je nach Umfang der Prüfaufgabe die Prüfung in Video- ➚Echtzeit vorgenommen werden kann.
Lexikon der industriellen Bildverarbeitung
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 78
Pflichtenheft
Parallele Schnittstelle ➚Schnittstelle zur parallelen Datenübertragung. Im PC-Bereich als LPT bezeichnet.
Paralleler Hauptstrahlengang Besonderheit der telezentrischen Abbildung. Dadurch, dass die ➚Eintrittspupille
im Unendlichen liegt (objektseitig telezentrisch), wird
ein achsparalleler Hauptstrahlengang erzeugt, so dass
die Besonderheiten der ➚telezentrischen Perspektive
entstehen. ➚Telezentrische Objektive nutzen u.a. den
parallelen Hauptstrahlengang.
Parallelverarbeitung Methode zu Steigerung der ➚Verarbeitungsgeschwindigkeit von Bildverarbeitungssystemen durch zeitgleiches Bearbeiten von mehreren Prozessen. Systeme mit nur einem Prozessor können keine
echte Parallelverarbeitung durchführen, die Rechenzeit
wird auf verschiedene Tasks aufgeteilt. Somit können
➚Framegrabber mit nur einem Prozessor keinen gleichzeitigen ➚Bildeinzug von mehreren Kameras durchführen. Der Bildeinzug wird zeitlich versetzt durchgeführt, was bei schnellen Prozessen durch Fehlen der
Echtzeitfähigkeit zum Scheitern führen kann. Multiprozessorsysteme realisieren dies durch den Aufbau mit
mehreren parallel arbeitenden Prozessoren.
Parallelversatz entsteht bei der Verkippung einer vor das
➚Objektiv vorgesetzten ➚planparallelen Platte, z.B. eines Filters. Dabei ist der austretende Strahl parallel zum
eintretenden Strahl versetzt. Die Stärke des Parallelversatzes hängt von der Dicke der Glasplatte d, der Glasart
(➚Brechzahl n) sowie dem Kippwinkel ε ab und berechnet näherungsweise sich für kleine Winkel nach:
Versatz a = (n-1) · d · ε / n (kleine Winkel)
Gezielt genutzt wird der Effekt des Parallelversatzes für
optische Winkelmessgeräte.
Parametrieren Übergeben von Einstell- und Konfigurationswerten, die gespeichert und bei Bedarf geladen und
selten geändert werden.
Beim Parametrieren von Bildverarbeitungssystemen
werden an Bildverarbeitungsfunktionen und Operatoren Parameter übergeben, die durch ihre Werte die Wirkung der Funktion bestimmen. Durch das Parametrieren
werden Bildverarbeitungssysteme bedienfreundlich. Der
Nutzer muss nicht programmieren, sondern wählt aus
dem Bildverabeitungs-Funktionsumfang aus und teilt
der Funktion durch das Parametrieren mit, mit welcher
Größe der Einflussfaktoren die Funktion arbeiten soll.
Paraxialgebiet ➚achsnaher Bereich
Passwortschutz Die Komplexität der Thematik Bildverarbeitung gebietet es, Veränderungen an der Konfiguration des Bildverarbeitungssystems zu schützen. Passwortschutz für Bildverarbeitungssysteme umfasst immer verschiedene Stufen:
1. Stufe (für alle zugängig): Anwenderoberfläche (Visualisierung, Verfolgen des Prozessverlaufs);
Lexikon der industriellen Bildverarbeitung
2. Stufe (Einrichter): Änderung von Toleranzen, Setzen
von Startprogrammen, Statistiken speichern, rücksetzen;
3. Stufe (Programmierer): Änderungen an Prüfprogrammen, Veränderung von Systemvariablen.
Pattern ➚Muster
Pattern matching ➚Mustererkennung
Pattern Recognition ➚Mustererkennung
PC-basiertes System PC-basierte Systeme erfreuen sich
auch in der industriellen Bildverarbeitung großer Beliebtheit, obwohl sie für einen anderen Einsatzzweck
(Bürotechnik) konzipiert wurden.
Robuste Varianten nutzen Industrie-PCs (IPC) oder Panel-PCs. In konventioneller Form wird ein ➚Framegrabber im PC-Slot zur Bildverarbeitung genutzt. Dabei müssen die eingezogenen Bilder vom Framegrabber zum PC
übertragen werden, wobei sich die eigentliche Funktion
des PCs nur auf die Nutzung des PC-Speicher als Bildspeicher beschränkt. Die Bildverarbeitung findet auf
dem Framegrabber statt. Das PC-System suggeriert wegen der bekannten Bedienoberfläche Windows® eine
besonders problemlose Bildverarbeitung.
Allen PC-basierten Systemen gemein ist die Kurzlebigkeit von PC-Hardware, das Problem des identischen
Nachkaufs sowie Probleme für die Ersatzteilhaltung, sowie Kompatibilitätsprobleme.
PCI ➚Peripherical Component Interface
Peripherical Component Interface PC-Bussystem, über
das auch ➚Framegrabber mit dem PC kommunizieren;
prozessorunabhängig mit 32 bit Busbreite; unterstützt
Mehrprozessorsysteme.
Perspektive ist die geometrische Projektion des Objektraumes auf eine Bildebene. Die ➚optische Abbildung
kann die Perspektive ändern. Möglich sind:
a) Entozentrische Perspektive: Das ➚Perspektivitätszentrum liegt in Betrachtungsrichtung vor dem Objekt. Die
Folge: Gleichgroße Objekte erscheinen in großer Entfernung kleiner als in kurzer Entfernung. ➚Entozentrische
Objektive realisieren entozentrische Perspektive.
b) Hyperzentrische Perspektive: Das Perspektivitätszentrum liegt in Betrachtungsrichtung hinter dem Objekt. Die
Folge: Gleichgroße Objekte erscheinen in großen Entfernungen größer als in kurzer Entfernung. ➚Hyperzentrische Objektive realisieren hyperzentrische Perspektive.
c) Telezentrische Perspektive: Das Perspektivitätszentrum
liegt in Betrachtungsrichtung im Unendlichen. Die Folge:
Gleichgroße Objekte erscheinen sowohl in großer Entfernungen als auch in kurzer Entfernung gleich groß.
➚Telezentrische Objektive realisieren telezentrische Perspektive.
Perspektivitätszentrum ➚Projektionszentrum
Pflichtenheft Das Pflichtenheft enthält alle Anforderungen
an ein zu schaffendes Produkt/Leistung und andere ein-
63
P
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 79
Phasenshiftverfahren
P
zuhaltende Rand- und Umgebungsbedingungen. Es wird
aus dem ➚Lastenheft in Kooperation mit dem Auftraggeber entwickelt. Das Pflichtenheft gilt für den Auftraggeber und den Auftragnehmer als vertragsrechtlich verbindliche Arbeitsgrundlage, die das zu entwickelnde Produkt aus der Sicht des Auftraggebers erfüllen muss. Es ist
die verbindliche Grundlage für die spätere Abnahme.
Phasenshiftverfahren Verfahren zur Genauigkeitssteigerung des ➚codierten Lichtansatzes/➚Moirè-Verfahrens
durch Einsatz von Sinusgittern anstelle von Stufengittern mit nachgeschalteter ➚Subpixel-Antastung. Geringe Höhenänderungen verschieben Hell-Dunkel-Kanten
im Kamerabild nur Bruchteile eines ➚Pixels. Weist das
Projektionsgitter eine sinusförmige Helligkeitsmodulation auf, so registriert das Pixel der Kamera eine sinusförmige Helligkeitsänderung. Verschiebt man das Projektionsgitter im Projektor um eine Viertelperiode, so
gibt das Pixel eine cosinusförmige Abhängigkeit von der
Objekthöhe aus. Über trigonometrische Zusammenhänge wird die Winkel- bzw. Phaseninformation der Verschiebung in Bruchteilen der Gitterperiode dargestellt.
Im Vergleich zum klassischen ➚Moiré-Verfahren lässt
sich die Höhenauflösung beim Phasenshiftverfahren auf
das 10- bis 25-fache steigern, also auf 1/10.000 bis
1/25.000 der ➚Gesichtsfeldgröße.
Photo Response Non Uniformity PRNU. Beschreibt die
Eigenschaft eines ➚Bildaufnehmers, bei gleichmäßiger
Beleuchtung je ➚Pixel unterschiedliche Helligkeitssignale zu liefern. Für Schwarz/weiß-Bildaufnehmer sehr
gering, da die einzigen Einflussfaktoren die ➚Quanteneffizienz und der ➚Dunkelstrom sind. ➚Farbsensoren
haben eine größere PRNU, da die auf dem Bildaufnehmer aufgebrachten mikrooptischen Farbfilter (➚Farbfiltermatrix) technologisch nicht völlig gleichmäßig aufgebracht werden können. Die PNRU ist die Ursache für das
➚Shading. Sensoren werden je nach Abweichung ihrer
PRNU in verschiedenen sortierten Qualitätsklassen geliefert.
Physikalisch Technische Bundesanstalt Institut und
messtechnische Oberbehörde für das Messwesen
in Deutschland. Sitz in Braunschweig und Berlin.
www.ptb.de
Pick and Place Greifen und Positionieren. Zentrale Aufgabe in Robot Vision Systemen. Nach der Identifikation
von Objekten an Hand ihrer Geometrie wird die Position bestimmt, der Greifpunkt ermittelt und präzise positioniert. Lageabweichungen von der Sollposition werden erkannt und kompensiert. (s. auch Roboterführung,
Robot Vision)
Pipeline-Verarbeitung Methode zur Steigerung der
➚Verarbeitungsgeschwindigkeit in Bildverarbeitungssystemen. Die Pipeline ist eine spezielle Befehlsaus-
64
führungseinheit im Prozessor, die für stufenweises Laden, Verarbeiten und Zurückschreiben von Daten optimiert ist. Eine CPU ohne Pipeline kann mit der Ausführung des folgenden Befehls erst beginnen, nachdem
der vorige vollständig abgearbeitet ist. Die Pipeline-Architektur ermöglicht ein mehrstufiges Vorgehen: Ein Bild
wird aufgeteilt und in verschiedene parallel arbeitende
Module übertragen. Die Verarbeitung in den einzelnen
Modulen startet zeitlich versetzt. Je mehr Module zeitlich parallel arbeiten (➚Parallelverarbeitung), desto
größer ist die Verarbeitungsgeschwindigkeit. Am Ende
liegen die Ergebnisse aller Module vor und werden als
Gesamtergebnis zusammengefasst.
Pixel Kunstwort, aus „picture“ und „element“. Bezeichnet
einen Bildpunkt auf dem ➚Bildaufnehmer, auch auf einem Monitor u.a. Jedes Pixel ist mit Zeilen- und Spaltenkoordinaten x, y versehen. (s. auch Pixelgröße, Pixelzahl)
Pixel-Übersprechen Die Absorptionstiefe, mit der Photonen in das Siliziumsubstrat eines ➚Bildaufnehmers eindringen ist wellenlängenabhängig. Je größer die ➚Wellenlänge, desto tiefer das Eindringen. Das führt zum Generieren von Ladungen auch in benachbarten Pixeln,
dem Pixel-Übersprechen. Dieses ist bei Beleuchtung mit
infrarotem Licht am größten, weshalb zur Vermeidung
in Kameras meist ein ➚Infrarotsperrfilter eingebaut ist.
Bei ausgebautem Infrarotsperrfilter und ➚Infrarotbeleuchtung kommt es durch das Pixel-Übersprechen zu
flaueren und verwascheneren Bildern (Verschlechterung
der ➚Modulationsübertragungsfunktion) als bei Wellenlängen des ➚sichtbaren Lichts.
Beispiel: 90% aller Photonen grünen Lichts (520 nm) erzeugen Ladungen im beleuchteten Pixel und nur 42%
aller Photonen roten Lichts (670 nm). Die verbleibenden
58% der Photonen erzeugen Pixel-Übersprechen.
Schlussfolgerung: Hinsichtlich des Pixel-Übersprechens
erzeugt blaues Licht die kontrastreichsten Bilder.
Pixelauflösung ➚Bildpunktauflösung
Pixelclock Signal am Ausgang von qualitativ hochwertigen analogen CCD-Kameras, das den pixelsynchronen
Takt beim Pixelauslesen des ➚Bildaufnehmers liefert.
Der Pixelclock dient als Synchronisierungssignal am
➚Framegrabber und als Abtastsignal bei der ➚Digitalisierung für den pixelsynchronen ➚Bildeinzug.
Pixelgröße Fortschreitende Entwicklungen in der Halbleitertechnologie lassen die ➚Sensoren immer kleiner werden. Dementsprechend wird die Pixelgröße auch immer
kleiner. Auf der Fläche eines ➚Pixels eines 2/3"-Bildaufnehmers mit 768 · 582 Bildpunkten lassen sich ca. 20
Pixel eines 1/10"-Bildaufnehmers mit gleicher ➚Pixelzahl unterbringen. Die Abmessungen der Pixel können in
x- und y-Richtung verschieden sein, heutzutage sind je-
Lexikon der industriellen Bildverarbeitung
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 80
Polarisationsfilter
doch quadratische Pixel üblich. Die Pixelgröße, für die
sich als Quasi-Standard der industriellen Bildverarbeitung durchgesetzte ➚Sensorgröße 1/2", beträgt zwischen 5 µm · 5 µm und 7 µm · 7 µm, je nach Pixelzahl
des ➚Bildaufnehmers. (s. auch Sensorgröße, Pixelzahl)
Pixeljitter Zeitliche Schwankung in der Lage der Pixel bei
der analogen Übertragung durch ein analoges ➚Videosignal. Pixeljitter entsteht bei frei laufendem oder unsynchronen ➚Bildeinzug im Videosignal zwischen Kamera und ➚Framegrabber durch die nicht eindeutig
mögliche Zuordnung des Pixelortes im Videosignal. Bei
einer konstanten ➚Szene sind von Bild zu Bild variierende Messwerte die Folge. Pixeljitter lässt sich durch
pixelsynchronen oder pixelidentischen ➚Bildeinzug vermeiden.
Pixelsynchroner Bildeinzug ➚Bildeinzug
Pixeltakt ➚Pixelclock
Pixelzahl Qualitätskriterium von ➚Bildaufnehmern, das
direkt das ➚Auflösungsvermögen bestimmt. Parallel zur
Verkleinerung der ➚Sensorgröße vergrößert sich mit jedem Technologieschub die Anzahl der auf dem Bildaufnehmer verfügbaren ➚Pixel. Zeilensensoren werden
derzeitig mit bis über 12.000 Pixel gefertigt. MatrixSensoren werden vielfach noch mit der aus der anlogen
Fernsehtechnik (➚PAL, ➚NTSC) stammenden Pixelzahl
von 440.000 bzw. 380.000 benutzt. Langsam setzten
sich durch den Siegeszug der ➚digitalen Kameras für industrielle Anwendungen 1k · 1k (1Mega-Pixel) als Standard durch, die frei von den Begrenzungen der analogen
Fernsehtechnik sind. In der Digitalfotografie sind 3 Mega-Pixel Standard und für astronomische Anwendungen
werden sogar Sensoren mit 8k · 8k genutzt. Die dabei
möglichen großen Auflösungen dürfen nicht über die
großen Datenmengen hinwegtäuschen, die dabei zu bearbeiten und zu transportieren sind und vielfach den
Flaschenhals bilden. Ein Vergleich: das menschliche Auge besitzt 100 Mio. Stäbchen („Schwarz/weiß Pixel“)
sowie 6 Millionen Zapfen („Farb-Pixel“).
Pixel zählen Einfache und sehr schnelle Funktion in Bildverarbeitungssystemen, die eine Auswertung der Statistik (➚Histogramm) über die ➚Grauwerte der ➚Pixel im
➚Prüffenster durchführt. Innerhalb eines definierten Bereiches wird die Anzahl der Pixel festgestellt, die in einem vorher definierten ➚Grauwertbereich liegen. Für
eine Reihe einfacher Anwendungen (➚Anwesenheitskontrolle, ➚attributive Prüfung, aber auch optische Zeichenanwesenheitskontrolle (➚OCP)) lässt sich das Pixel-zählen sehr effektiv einsetzen. Einfache Bildverarbeitungssysteme, die nach dem Prinzip des Pixelzählens
arbeiten, sind eine kostengünstige Alternative, versagen
aber sehr schnell, sobald die Eigenschaften der ➚Prüfobjekte oder die Beleuchtungsverhältnisse wechseln.
Lexikon der industriellen Bildverarbeitung
Planglasplatte ➚planparallele Platte
Planparallele Platte Optisches Bauelement mit zwei
planparallelen Funktionsflächen. Lichtfilter und Schutzgläser sind planparallele Platten. Bei Schrägdurchgang
von Licht kommt es zu ➚Parallelversatz der durchgehenden Strahlung.
Das Einfügen einer planparallelen Platte in einen Strahlengang ändert die ➚optische Weglänge. Beim Einfügen
vor das Objektiv vergrößert sich der ➚Arbeitsabstand
näherungsweise um Glasdicke/3, beim Einfügen vor den
➚Bildaufnehmer um Glasdicke/(3 · ß’2) mit (ß’ ➚Abbildungsmaßstab). Beim Einfügen in den Strahlengang
wird künstlich ➚Astigmatismus erzeugt.
PLC Programmable logic controller ➚Speicherprogrammierbare Steuerung
Polarisation Licht als elektromagnetische Welle ist quer
zu seiner Ausbreitungsrichtung polarisierbar, d.h. die
Schwingungsrichtung der elektrischen Feldstärke kann
bestimmte Richtungen einnehmen. Die meisten ➚Lichtquellen erzeugen unpolarisiertes Licht (zufällige Polarisation), also statistisch verteilte Schwingungen in alle
Richtungen, so auch ➚LED-Beleuchtungen. Durch einen
Polarisator (z.B. ➚Polarisationsfilter) findet eine Änderung der Schwingungsrichtung statt. Idealerweise ist
das Licht dann linear polarisiert (real nicht vollständig
erreichbar). Andere Schwingungszustände, wie zirkular
(Schwingungsrichtung rotiert permanent) oder elliptisch
polarisiertes Licht (zusätzlich zur Rotation ändert sich
die Amplitude der Schwingung) können aus linear polarisiertem Licht durch Einsatz von Verzögerungsplatten
gewonnen werden. Meist liegen jedoch Mischformen
vor. Polarisation kann erzeugt werden durch:
a) ➚Streuung bei Lichtdurchgang (Glas, Kunststoff, ...)
wenn die Streupartikel klein gegenüber der Wellenlänge
des Lichtes sind (➚Polarisationsfilter).
b) ➚Reflexion (Glas, Metall, Kunststoff, ...)
Bei der Reflexion dreht sich die Schwingungsrichtung
des Lichtes um 90 Grad, d.h. Polarisator und Analysator
sind um 90 Grad zueinander verdreht.
c) Erscheinungen bei Wechselwirkungen mit dem ➚Prüfobjekt.
Der Grad der Polarisation ist winkelabhängig, was generelle Aussagen über die Nutzung zur optischen ➚Bildvorverarbeitung sehr schwierig macht. Versuche sind für die
Ausnutzung von Polarisationseffekten der richtige Weg.
Beste Ergebnisse ergeben sich, wenn ein möglichst
großer ➚Reflexionsgrad erreicht wird. Durch Ausnutzung
der Polarisation lässt sich ➚Fremdlicht unterdrücken.
Polarisationsfilter Filter, das ➚Polarisation hervorruft. Polarisationsfilter arbeiten im Bereich des ➚sichtbaren
Lichts nahezu wellenlängenunbhängig, wirken aber im
➚NIR nicht. Meistgebräuchlich sind linear polarisieren-
65
P
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 81
Polarisator
P
de Filter (Polarisator vor der Beleuchtung, Analysator
vor dem Objektiv). Der ➚Filterfaktor beträgt etwa 2. Polarisationsfilter können zur Unterdrückung von Reflexen
verwendet werden (vor allem bei Nutzung von ➚Ringlichtbeleuchtungen und ➚Flächenbeleuchtungen) und
zur Sichtbarmachung von Strukturen in transparenten
Objekten. Allgemeingültige Aussagen zur Ausrichtung
von Beleuchtung, Prüfobjekt, Objektiv und Polarisationsfiltern können nicht gemacht werden, da die Ergebnisse von vielen Faktoren abhängig sind. Versuche
sind hier die beste Methode, sich einer optimalen Lösung zu nähern. (s. auch Filtergewinde)
Polarisator erzeugt linear polarisiertes Licht. ➚Polarisation.
Polarisierte Beleuchtung, häufig als ➚LED-Beleuchtungen (Flächenbeleuchtung) oder als ➚Ringlicht mit Filtervorsatz (➚Polarisationsfilter) ausgeführt. Das der
Lichtquelle enstammende unpolariserte Licht wird
durch einen ➚Polarisator vor der Beleuchtung i. A. in linear polarisiertes Licht gefiltert (Helligkeitsverlust!). Zur
Einstellung der Polarisationsrichtung muss der Polarisationsfilter drehbar und klemmber sein. Polarisierte Beleuchtungen arbeiten immer mit einem ➚Analysator vor
dem Objektiv des Beobachtungssystems zusammen. (s.
auch Polarisation)
Polfilter ➚Polarisationsfilter
Polling Zyklische Abfrage angeschlossener Geräte nach
dem Zustand auf den Signalleitungen. Polling wird u.a.
an ➚digitalen Eingängen von Bildverarbeitungssystemen genutzt, um den Zustand von Sensoren (z.B. Startimpuls), die die Abarbeitung des ➚Prüfprogramms beeinflussen, abzufragen.
Portkontrolle An der Schnittstelle vom Bildverarbeitungssystem zur automatisierungstechnischen Umgebung
werden Ports genutzt. Ports sind mehrere zusammengefasste ➚digitale Eingänge. Mit der Funktion Portkontrolle werden die Hardwareeingänge zyklisch abgefragt
(➚Polling) und abhängig von den Eingangssignalen an
den Ports zu Marken oder Unterprogrammen gesprungen. Dabei können mehrere Sprungbedinungen in einer
Verzweigungsliste angeordnet werden. Die Verzweigung erfolgt für die erste erfüllte Bedingung in der Liste.
Die Sollwert, bei dem gesprungen wird, wird durch eine
Bitmaske festgelegt. Ebenso können maskiert mehrere
digitale Ausgänge gleichzeitig gesetzt werden. Die Maskierung mit einer Bitmaske bedeutet, dass bestimmte,
durch die Bitmaske festgelegte, Kombinationen der digitalen Ein-/Ausgänge ausgeschlossen werden.
Position ➚Lage
Positioniergenauigkeit bestimmt die Lage des ➚Prüfobjektes im ➚Gesichtsfeld der Kamera. Alle Handhabungsund Transportsysteme besitzen nur eine begrenzte Positioniergenauigkeit. Positioniergenauigkeiten bei konti-
66
nuierlich laufenden Prozessen unterliegen zusätzlich
den Einwirkungen der Synchronsation. Über die gewählte Größe des Gesichtsfeldes lassen sich einerseits
Ungenauigkeiten der Positionierung ausgleichen, andererseits hat die Gesichtsfeldgröße Einfluss auf andere
anlagenbestimmende Paramter: ➚Abbildungsmaßstab,
➚Arbeitsabstand, ➚Auflösungsvermögen, ➚Beleuchtungsabstand, ➚Beleuchtungstechnik.
Als praxistauglicher Richtwert hat sich zum Ausgleich
von Positionierungenauigkeiten eine Gesichtsfeldgröße
von ca. 110% der Größe des Prüfobjektes bewährt.
Positionskorrektur ➚Lagenachführung/➚Drehagenachführung
Positionsnachführung auch Positionskompensation, relative Positionierung. ➚Lagenachführung
Primärfarben ➚Grundfarben
Prisma Optisches Bauelement mit zwei oder mehr planen
Flächen zur Lichtablenkung durch Reflexion (verspiegelte Flächen oder ➚Totalreflexion) und/oder Brechung.
Lenken das Licht um den ➚Ablenkwinkel ab. Zusätzlich
erfolgt ein Bildortversatz. Stehen Ein- und Austrittsfläche nicht senkrecht zur optischen Achse, entsteht
➚Astigmatismus. Prismen werden u.a. zur Strahlumlenkung in ➚Prismenvorsätzen genutzt. (s. auch Planplatte)
Prismenvorsatz Vorsatz eines mechanisch gefassten optischen ➚Prismas vor ein ➚Objektiv oder eine Beleuchtung mit dem Ziel, die Blickrichtung einer optischen Anordnung zu verändern. Der ➚Ablenkwinkel beträgt oft
90 Grad. Prismenvorsätze übernehmen die mechanische
Fassung des Prismas und erlauben zur ➚Justierung eine
Drehung um die ➚optische Achse des Objektives sowie
die Klemmung auf dem Objektivzylinder. Prismenvorsätze werden hauptsächlich zum Knicken des Strahlenganges von ➚telezentrischen Objektiven und ➚telezentrischen Beleuchtungen verwendet. Bei Nutzung eines
Prismenvorsatzes vergrößert sich die ➚optische Weglänge, was bei dem resultierenden ➚Arbeitsabstand des
➚Objektives beachtet werden muss.
Prismenvorsätze vor ➚entozentrischen Objektiven kommen nur selten zum Einsatz, da bei zunehmendem ➚Gesichtsfeldwinkel der Strahlengang durch das Prisma beschnitten wird. Für Machine Vision übliche ➚Bildaufnehmer und ➚Brennweiten empfiehlt sich der Einsatz von
Prismenvorsätzen nur für Brennweiten größer 25 mm. In
der Machine Vision werden Prismenvorsätze häufig bei
beengten Platzverhältnissen in Maschinen verwendet.
PRNU ➚Pixel Response Non Uniformity
Profibus Process Field Bus. Serieller asynchroner Bus zur
Verbindung digitaler Feldautomatisierungsgeräte (Stellglieder, SPS, Messwandler etc.). Linienstruktur mit Stichleitungen, Verzweigungen oder Ring. Übertragung über
Zweidraht-Leitung oder Lichtwellenleiter. Bis 1200 m
Lexikon der industriellen Bildverarbeitung
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 82
Prüfmittelfähigkeit
Länge je Linie mit maximal 32 Teilnehmern. Durch Einsatz von Repeatern kann die Übertragungslänge gesteigert werden. Übertragungsgeschwindigkeit 9,6 kbit/s
bis 12 Mbit/s. www.profibus.com
Profibus-DP ➚Profibus für Dezentrale Peripherie (DP). Einfache analoge und digitale Ein-/Ausgabebaugruppen
und intelligente Baugruppen können in die Feldebene
verlagert werden, womit der Verkabelungsaufwand
sinkt. Besonders für zeitkritische Applikationen in der
Fertigungsautomatisierung.
Programmverzweigungen Durch Programmverzweigungen werden Bildverarbeitungsprüfprogramme übersichtlicher, kürzer und vermeiden redundante Abschnitte. Die nach Verzweigungen erscheinenden Unterprogramme können leicht ausgetauscht werden. Das verringert den Änderungsaufwand. (s. auch bedingter
Sprung, Unterprogrammtechnik, Bedingungsblock)
Progressive Scan Konventionelle CCD-Bildaufnehmer arbeiten nach einem festen zeitlichen Taktregime, das den
Beginn einer ➚Bildaufnahme vorgibt. Wird innerhalb einer Bildaufnahme der Start einer neuen Bildaufnahme
angefordert, muss bis zur Beendigung der Bildaufnahme
gewartet werden, bis das angeforderte Bild eingezogen
werden kann. Für viele Anwendungen aus dem industriellen Bereich dauert dies zu lange, maximal zwischen 33
und 40 ms zu warten. Progressive Scan Bildaufnehmer
lassen den Start der Bildaufnahme zu jedem beliebigen
Zeitpunkt zu (Start/Restart-Fähigkeit) und arbeiten
außerdem als ➚Vollbild-Bildaufnehmer. Weiterer Vorteil
gegenüber konventionellen CCD-Bildaufnehmer ist die
Möglichkeit, die ➚Integrationszeit auf einfache Weise
steuern zu können. So kann die ➚Shutterzeit variabel
eingestellt werden. Für die kontinuierliche Darstellung
des Kamerabildes auf einem Monitor ist jedoch eine Zwischenspeicherung der Bilddaten notwendig. Kameras
mit Progressive Scan-CCD-Bildaufnehmer sind deshalb
nur mit digitalem Signalausgang (z.B. SVGA) ausgestattet und liefern kein analoges ➚Videosignal. Das flexible
Bildraster von Progressive Scan-Bildaufnehmer macht
sie perfekt geeignet für die ➚Synchronsation mit schnellen Prozesse sowie die Anwendung von ➚Blitzbeleuchtungen.
Projektionszentrum Schnittpunkt aller Strahlen der optischen Abbildung bei der Zentralprojektion. (s. auch entozentrisches Objektiv, hyperzentrisches Objektiv, Kamerakonstante
Protokoll Gibt zeitliche und syntaktische Regeln für die
Datenkommunikation vor, wie Daten zu senden und zu
empfangen sind, wie die Übertragung begonnen und
beendet wird oder wie bei Wartezeiten zu verfahren ist.
Prozessabbild Abbild der Signalzustände (Ein- und Ausgänge) an einem Automatisierungsgerät. Für ein
Lexikon der industriellen Bildverarbeitung
➚Gateway können dies z.B. sein: Prozessabbild der Ausgänge: ➚Statuswort, ➚Statusmerker, Ergebnisse Prozessabbild der Eingänge: ➚Steuerwort, ➚Steuermerker,
Parameter.
Prozessfähigkeit Ein Prozess wird bezüglich eines Merkmals als fähig bezeichnet, wenn das Merkmal eines Teils
mit einer Wahrscheinlichkeit von 99,63 % (+/-3-fache
Standardabweichung s = 6 σ) innerhalb eines vorgegebenen ➚Toleranzbereiches liegt. Zur Bestimmung der
Prozessfähigkeit ist die Berechnung der ➚Cp/Cpk-Werte
notwendig. Ein als prozessfähig eingestufter Prozess
weist Cpk > 1,33 auf. Dann bezeichnet man diesen Prozess auch als „6-Sigma-Prozess“.
Prüfaufgabe Die von industrieller Bildverarbeitung lösbaren Prüfaufgaben sind sehr vielfältig, es kommen durch
die technologische Weiterentwicklung ständig neue hinzu. Von den möglichen Prüfaufgaben sind weltweit erst
etwa 20% gelöst. Von 100 gelösten Prüfaufgaben der
industriellen Bildverarbeitung sind: 9 Lage- Drehlageerkennung; 3 Code lesen; 6 Klarschrift lesen; 4 Werkstückkidentifikation; 14 2D-Messungen; 2 3D-Messungen;
12 Vollständigkeitskontrolle; 11 Oberflächeninspektion
endlos; 13 Oberflächeninspektion Teile; 3 Druckbildkontrolle; 23 sonstige Prüfaufgaben (Quelle: VDMA).
Prüfen nach DIN EN ISO 8402: Feststellen, ob ein ➚Prüfobjekt vorgeschriebene Eigenschaften besitzt.
Unterteilung in nichtmaßliches/maßliches Prüfen. Maßliches Prüfen unterteilt sich widerum in ➚Messen und
➚Lehren.
Maßliches Prüfen: Längen, Breiten, Höhen; Winkel, Orientierung; Größen; Flächeninhalte, Schwerpunkte; Gerad-,
Rundheiten; Formen, Konturen; Farben; lichttechnische
Größen; ...
Nichtmaßliches Prüfen: Attribute; Abstände, Position;
Vollständigkeit; Farben; Grad der Ausprägung; Zeichenerkennung; Code-Erkennung; Objekterkennung; Strukturen, Texturen; Lageerkennung (Robot Vision); ...
Prüffenster, auch Arbeitsbereich, Area of Interest, AOI, Region of interest, ROI. Wirkungsbereich von Algorithmen
oder Prüffunktionen. Prüffenster sind i. A. nur Teilbereiche des im ➚Bildspeicher abgelegten ➚Kamerabildes.
Sie werden gezielt gewählt, um die Bearbeitungszeit zu
verkürzen. Prüffenster können sein: Rechteck, n-Eck,
Kreis, Kreisring, Ellipse, Ellipsenring, Kontur.
Prüfling ➚Prüfobjekt
Prüfmittelfähigkeit Neue oder vorhandene Prüfmittel
sind geeignet, dem festgelegten Anwendungszweck
entsprechend, genau zu messen. Der Nachweis der Prüfmittelfähigkeit dient dazu, dass das Prüfmittel für den
Einsatz in der Fertigung genehmigt wird, ein fortlaufendes Prozessregelungssystem für Messmittel geschaffen
wird, Messmittel miteinander vergleichbar zu machen
67
P
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 83
Prüfobjekt
P
sowie dazu, dass Messergebnisse unter gleichen Bedingungen eine zeitliche Stabilität aufweisen. Messungen
erfolgen an Hand von kalibrierten (vermessenen) Normalen (➚Kalibrierkörper) und Serienteilen zur Ermittlung
von: Genauigkeit und ➚Wiederholgenauigkeit des Prüfmittels, Streubereich des Prüfmittels mit, ohne Bedienereinfluss, zeitlicher Stabilität. (s. auch Cg-/Cgk-Werte)
Prüfobjekt Träger der Prüfgröße (siehe DIN 1319-1). Teil
oder Werkstück, das zu untersuchen ist. Größter Unsicherheitsfaktor beim Prüfen mit Bildverarbeitung durch
meist nicht vorauszusehende variierende Eigenschaften
des Prüfobjektes hinsichtlich:
a) Form: Wechselwirkungen mit der ➚Beleuchtung
(flach, parallelwandig, zylindrisch, Freiformflächen, ...)
b) Kantenform: Wechselwirkungen mit der ➚Beleuchtung
(geschnitten, gefräst, gedreht, gerissen, schmutzig, ...)
c) Oberflächengeometrie: ➚Reflexionseigenschaften
(poliert, geschliffen, sandgestrahlt, korrodiert, ...)
d) Oberflächenbehandlung: Öl, Wachs, Galvanisierung, ...
e) Farbe: Wechselwirkungen mit der Beleuchtung (unterschiedliche ➚Absorption führt zu verschiedenem
➚Kontrast, ...)
Prüfprogramm Prüfprogramme dienen der Abarbeitung
der vom Programmierer festgelegten Funktionalität eines Bildverarbeitungssystems. Darin ist die Lösung der
➚Prüfaufgabe ausgeführt.
Prüfprogramme bestehen aus mehreren Prüfschritten
(z.B. Konturerkennung, Zeichen lesen, Blobanalyse). Am
Ende eines Prüfprogramms steht i. A. eine Ergebnisausgabe (auf Monitor, digitaler Ausgang, i.O./n.i.O., String,
Datei, ...). Das Gesamtergebnis eines Prüfprogramms,
(Ermittlung, ob das ➚Prüfobjekt den Vorgaben entspricht oder nicht) ergibt sich aus den Ergebnissen der
Prüfschritte. Einzelergebnisse können logisch miteinander verknüpft werden.
Verschiedene Arten Prüfprogramme werden für eine
Bildverarbeitungsanlage benötigt:
a) Kalibrierprogramme: zur Herstellung der ➚Messgenauigkeit bei der Inbetriebnahme nach Demontage oder
zur erneuten ➚Kalibrierung bei vorbeugender Instandhaltung.
b) Justierprogramme: Herstellung eines funktionsfähigen Aufbaus bei Montage und nach Demontage hinsichtlich Lage und Größe des ➚Gesichtsfeldes, Lage der
Beleuchtung, Homogenität der Beleuchtung, Ausrichtung der optischen/mechanischen Achsen (➚Justierhilfe), ➚Arbeitsabstand.
c) Prüfprogramm zur Prüfung des Prüfobjektes:
Maßnahmen zur Beschleunigung von Prüfprogrammen
können sein: Bildqualität verbessern (➚Kontrast, Schärfe), Anzahl der Befehle reduzieren, gleiche Befehle nacheinander nutzen, so kleine ➚Prüffenster/➚AIO wie mög-
68
lich, relative Positionierung nutzen, Unterprogrammtechnik für häufig wiederholte Programmteile nutzen, Grafiken einblenden minimieren.
Prüfprogramme können optimiert werden durch: Kurze
➚Antastungen/kleine ➚Prüffenster. Sie sind weniger
störanfällig. Parameter der Prüfbefehle in der Mitte der
Streuweite der Prüfteile ansetzen (setzt Bestimmung der
Streuweite voraus). Zeitsicherheit herbeiführen durch
zeitminimierte Programme. Varianten von Verfahren/
Befehlen testen (Es gibt viele Wege...) und deren Störsicherheit untersuchen. Sichere Kommunikation erreichen
(undefinierte Zustände vermeiden, ➚Handshake nutzen).
Prüfstift ➚Kalibrierkörper
Prüfsumme Sicherheitsvorkehrung bei der Datenübertragung. Durch den Vergleich der vom Sender mitgesendeten Prüfsumme mit der beim Empfänger ermittelten
Prüfsumme werden Fehler bei der Datenübertragung
festgestellt. Genutzt u.a. bei der ➚Fernsteuerung und
beim Bilddatentransfer von Bildverarbeitungssystemen.
Prüfzeit ➚Zykluszeit
PTB ➚Physikalisch Technische Bundesanstalt
Punkt antasten Liefert die Koordinaten (x, y) eines Punktes auf einer ➚Kante innerhalb eines Bildes im ➚Bildspeicher. Zur Erhöhung der statistischen Sicherheit können zum Punkt antasten auch mehrere parallele ➚Antaststrahlen genutzt werden (➚Antastbreite). Die Nutzung dieses Verfahrens empfiehlt sich, wenn Kanten erkannt werden sollen, die verschmutzt sind, Bearbeitungsspuren aufweisen oder anderweitig strukturiert
sind. (s. auch Antasten)
Punkt definieren Die Nutzung von ➚Geometrieelementen lässt es zu, Geometrieelemente zu kombinieren und
dadurch neue Punkte zu definieren durch:
Schnittpunkt zweier Geraden, Lotpunkt auf Gerade, Lot
auf Kreis, Mittelpunkt zwischen zwei Punkten, Schnittpunkte Gerade-Kreis, Schnittpunkte Kreis-Kreis, Verschiebung von Punkten.
Punktoperator Mathematische Funktion, die punktweise
auf ein Pixel wirkt, ohne Wechselwirkung mit den benachbarten Bildpunkten. Der neue berechnete Wert des
➚Pixels hängt nur vom ursprünglichen Helligkeitswert
desselben Pixels ab.
Punktoperatoren können in Software und in Hardware
ausgeführt werden. Zu letzterem eignen sich besonders
➚Look up Tabellen (LUT), die sehr schnell arbeiten.
Beispiele: ➚Invertieren, ➚Schwell-wert neu festlegen,
➚Shading-Korrektur.
Punktsteuerung Point to Point Control, Steuerungsart von
➚Computerized Numerical Control. Die Bewegung erfolgt durch Positionieren auf vorprogrammierte Punkte.
Häufiger Einsatz in Bohr-, Niet-, Stanz-, Punktschweißmaschinen. Vgl. Bahnsteuerung.
Lexikon der industriellen Bildverarbeitung
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 84
Reflexionsmindernde Schichten
Q
Quadratisches Entfernungsgesetz ➚Fotometrisches
Entfernungsgesetz
Quanteneffizienz Kennziffer, die den Wirkungsgrad eines
➚Bildaufnehmers angibt (immer < 100%). Beschreibt
das Verhältnis erzeugter Elektronen je Pixel zur Anzahl
der eingefallenen Photonen. Eine Steigerung der Quanteneffizienz bedeutet, dass die Empfindlichkeit des Bildaufnehmers steigt. Die Quanteneffizienz wird wellenlängenspezifisch bestimmt.
Für Strahlungsquellen bedeutet die Quanteneffizienz
das Verhältnis aus der Anzahl emittierter Photonen zur
Anzahl geflossener Elektronen.
Quantisierung ➚Digitalisierung.
Querschnittswandler bringen den runden Bündelquerschnitt eines ➚Faserbündels aus ➚Lichtwellenleitern für
den Lichtaustritt in eine andere geometrische Form.
Mögliche Querschnittsformen sind u.a.: Bündel in 2 kleinere Bündel; Bündel in 4 kleinere Bündel; Bündel in ➚Linienlicht; Bündel in ➚Ringlicht; Bündel in Flächenlicht
(➚Flächenbeleuchtung). Auch andere kundenspezifische Formen können konfektioniert werden.
R
Randlichtabfall ➚Vignettierung
Raumfilter ➚Bildfilter
Raumwinkel, auch Ω. Wird zur Beschreibung ➚lichttechnischer Größen genutzt. Berechnet sich aus der Oberfläche eines Kugelausschnitts einer Kugel mit dem Radius r. Ist die Fläche eine Kugelkappe, kann deren Fläche
über A = 2 · π · r · h (h = Höhe der Kugelkappe) berechnet werden. Der Raumwinkel ist dabei
Ω = A Ω0 / r2 = 2 · π · (1 - cos α) Ω0 mit α – halber Kegelwinkel, der von der Kugelkappe ausgeschnitten wird.
Ω0 ist die Raumwinkeleinheit 1 sr (sprich 1 Steradiant).
Für kleine α (α = sin α) gilt mit cos α = 1 - α2 / 2.
Ω = π · α2 Ω0.
Ein Winkel α = 60 Grad hat den Raumwinkel 3,14 sr, der
Halbraum hat einen Raumwinkel von 2π sr, der Vollraum hat einen Raumwinkel von 4π sr.
Referenzbild Ist ein im justierten Zustand an der Maschine aufgenommenes und abgespeichertes Bild, das im
Fall einer nötigen Neujustierung als Referenz für den
Soll-Zustand genutzt wird. (s. auch Justierung, Referenzgeometrie)
Referenzgeometrie ist ein Satz von ➚Geometrieelementen,
der aus dem Prüfprogramm heraus in eine separate Datei
Lexikon der industriellen Bildverarbeitung
gespeichert wird und zu späterem Zeitpunkt wieder genutzt (ins Prüfprogramm zurückgeladen) werden kann.
Referenzgeometrien werden oft zur ➚Justierung von Bildverarbeitungskomponenten (besonders Optik und Beleuchtung) genutzt. Dazu werden im justierten (Gut-)Zustand die Geometrieelemente von markanten Körperkanten bestimmt und in einer Referenzgeometrie abgespeichert. Wurde eine Maschine demontiert und wieder aufgebaut oder umgerüstet und muss erneut justiert werden,
enthält die Referenzgeometrie die lagegenauen Daten des
vorherigen Zustandes, anhand dessen die Justierung
durchgeführt werden kann.
Reflexion Ablenkung des Lichtes an Oberflächen von Stoffen. Reflexion ist Grundlage der Abbildung an Spiegeln
und Prismen. Reflexionen an Linsen schwächen den
➚Kontrast und können durch ➚Vergütung verringert
werden. Grad und Art der Reflexion an Prüflingen bestimmen Kontrast/Helligkeit im Bild.
Formen der Reflexion:
a) gerichtete Reflexion (➚Reflexionsgesetz);
b) ➚diffuse Reflexion/➚Streuung; Verteilung des Lichtes
bei der Reflexion (tritt bei Rauhtiefen > λ/4 auf);
c) Mischform: diffuse Reflexion mit gerichtetem Schwerpunkt.
Die Reflexionseigenschaften eines ➚Prüfobjektes in Zusammenhang mit der ➚Beleuchtungstechnik bestimmen
in starkem Maße die Qualität der Abbildung auf dem
➚Bildaufnehmer. Ein reales ➚Prüfobjekt ist meist eine
unbekannte Mischung aus Reflexion, ➚Absorption,
➚Transmission. (s. auch Reflexionsgrad)
Reflexionsgesetz Beschreibt die Ausbreitung des Lichtes
bei gerichteter ➚Reflexion: Einfallswinkel = Ausfallswinkel. Winkelbezug ist dabei das Lot auf die reflektierende Fläche.
Reflexionsgrad Kurzzeichen ρ. Verhältnis von reflektiertem zu einfallendem ➚Strahlungsfluss bei ➚Reflexion
an Oberflächen. Der Reflexionsgrad hat bei ➚Auflichtbeleuchtung einen starken Einfluss auf das Licht, das
den ➚Bildaufnehmer erreicht. Es gilt der Energieerhaltungssatz: ➚Reflexionsgrad + ➚Absorptionsgrad +
➚Transmissionsgrad = 100%
Der Reflexionsgrad ist material-, wellenlängen- und
winkelabhängig.
Typische Werte für den Reflexionsgrad ρ im➚VIS sind:
Ag, poliert
90%
Papier
75%
Al, poliert
65%
Cu/Stahl, poliert
55%
Holz typ.
20 ... 30%
Ziegel
20%
Schwarzer Samt
< 5%
Reflexionsmindernde Schichten ➚Vergütung
69
Q
R
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 85
Refraktion
R
Refraktion ➚Brechung
Regelkreis In Regelkreisen nehmen Bildverarbeitungssysteme meist die zentrale Rolle des Messgliedes sowie
des Reglers ein. Die Führungsgröße wird von der Bildverarbeitung erfasst und unter Berücksichtigung von
Störgrößen wird vom Bildverarbeitungssystem das Steuersignal gebildet. Das Steuersignal beeinflusst die Stellglieder, die auf den Prozess rückwirken.
Region of Interest ➚Prüffenster
Relative Positionierung ➚Lagenachführung
Restart Fähigkeit von ➚Progressive Scan Bildaufnehmern
auf ein externes Ereignis hin (Trigger-Impuls) das laufende Taktregime zu unterbrechen und nach sehr kurzer
Zeitverzögerung eine neue Bildaufnahme zu starten.
Retroreflexion Retroreflektierende Materialien reflektieren das Licht in Richtung des einfallenden Lichts zurück.
Makroskopisch gesehen gilt damit nicht mehr das ➚Reflexionsgesetz.
Mikroskopisch gibt es mehrere Möglichkeiten der Erzeugung: Mikroprismen oder statistisch verteilte in
durchsichtigen Kunststoff eingebettete winzige Glaskugeln. Makroskopisch tritt Retroreflexion am Tripelprisma
auf. Materialspezifische Kennziffer ist der Rüchstrahlwert (winkelabhängig).
Retroreflexive Folien werden zum Teil bei ➚koaxialer
eingespiegelter Beleuchtung durch das Objektiv genutzt, wenn aus Platzgründen keine ➚Durchlichtbeleuchtung unterzubringen ist. Alltäglich bekanntes Beipiel für die Anwendung retroreflektiver Folien sind Verkehrszeichen.
RGB Abkürzung für die Farben Rot, Grün, Blau.
RGB-Farbraum Rot, Grün, Blau-Farbraum ➚Farbraum
RGB-Signal ➚Videosignal, das die 3 Farbkanäle Rot, Grün,
Blau getrennt überträgt, wodurch sich eine bessere
Farbwiedergabe ergibt als beim ➚FBAS oder ➚Y/CComposite-Signal. Wird von hochwertigen ➚Farbkameras als Videosignal geliefert.
Richtcharakteristik ➚Abstrahlcharakteristik
Ringblitz ➚Ringlichtbeleuchtung
Ringlichtbeleuchtung Universalbeleuchtung im ➚Auflicht
für ➚Prüfobjekte, die aus anlagentechnischen Gründen
nicht mit ➚Durchlichtbeleuchtung beleuchtet werden
können. Sie sind zur gleichmäßigen Ausleuchtung von
flachen, diffus reflektierenden Oberflächen geeignet. An
strukturierten Prüfobjekten ergeben sich lageabhängige
Schatten und an glänzenden Oberflächen, wird die Lichtquelle abgebildet. Die Lichterzeugung erfolgt durch ringförmige ➚Leuchtstofflampen, ➚Kaltlichtquellen mit
➚Querschnittswandlern oder ➚LED-Beleuchtungen, selten ➚Diodenlaser mit ➚Strahlformungsoptik. Ringlichtbeleuchtungen sind einfach zu handhaben und können
am ➚Filtergewinde des Objektives oder separat ange-
70
bracht werden. Modelle mit eingebauter ➚Fresnellinse
bündeln durch die Richtwirkung das Licht auf einen begrenzten Leuchtfleck. Damit verbunden ist die Einhaltung eines durch die Fresnellinse vorgegebenen ➚Beleuchtungsabstandes. Außerhalb dieses Abstandes lässt
sich durch Herstellung eines ungleichen Helligkeitsprofiles (innen dunkler als außen) eine beleuchtungstechnische Kompensation der natürlichen ➚Vignettierung erreichen. (s. auch Sektorenringlicht, polarisierte Beleuchtung)
RLC Run length coding ➚Lauflängencodierung
RLE Run Length Encoding ➚Lauflängencodierung
Robot Guidance ➚Roboterführung
Robot Vision Synthesewort aus Robot und Machine Vision.
Kennzeichnet das Zusammenwachsen der beiden Technologien. Beinhaltet die Identifikation von Objekten anhand ihrer Geometrie, Positionsbestimmung, Ermittlung
des Greifpunktes und präzises Positionieren. Das Vision
System arbeitet mit dem Roboter in einer Regelschleife.
Auf Grund der vom Bildverarbeitungssystem gelieferten
Daten werden Teile erkannt, ➚Lagen und ➚Drehlagen
nachgeführt und Korrekturen in der Positionierung des
Roboters vorgenommen. International Federation of
Robotics: www.ifr.org (s. auch Roboterführung)
Roboterführung durch Bildverarbeitungssysteme wird bei
vollautomatischen Montage- und Bearbeitungsvorgängen mit Industrierobotern eingesetzt. Dadurch werden
hohe Passgenauigkeiten erreicht und Unterschiede zwischen einzelnen Bauteilen können kompensiert werden
wie auch Abweichungen bei der Bauteil-Positionierung
in Arbeitsstationen. Das Bildverarbeitungssystem erfasst
die tatsächliche Lage und Ausrichtung des Bauteils und
seiner Umgebung. Aus diesen Daten wird die NullpunktKorrektur des Roboterkoordinatensystems berechnet
und vor dem Montagevorgang an die Robotersteuerung
übertragen.
Beispiele für robotergeführte Arbeitsvorgänge sind:
Einbau von Türen in der Automobilindustrie, Nahtabdichtung, Positionsoptimiertes Lochstanzen, Bolzenschweißen usw.
Roboterkommunikation Zur Kommunikation zwischen
Bildverarbeitungssystem und Industrieroboter werden
standardisierte und auch herstellerspezifische Kommunikationsprotokolle genutzt, die vielfach über die ➚serielle Schnittstelle abgewickelt werden. Kommunikationsprotokolle sind u.a.: ➚3964-R zur Übertragung von
HEX-Werten (standardisiert und herstellerneutral). Kuka, EPSON, Kawasaki, Yamaha.
In den Kommunikationsprotokollen werden Listen von
Punkten und Ergebnissen übertragen. Vorkehrungen
zum wiederholten Verbindungsaufbau oder zur wiederholten Übertragung machen die Protokolle störsicher.
Lexikon der industriellen Bildverarbeitung
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 86
Schärfentiefe
Roboterkoordinatensystem Je beweglicher Achse des
Roboters wird ein eigenes Koordinatensystem verwendet. Durch ➚Koordinatentransformation werden die Koordinatensysteme ineinander umgerechnet. Daher müssen Bildverarbeitungssysteme für die ➚Robot Vision zur
Koordinatentransformation fähig sein, um ➚Kamerakoordinaten in Roboterkoordinaten zu transformieren. Das
gemeinsame Bezugssystem zwischen Roboter- und Kamerakoordinaten bildet das ➚Weltkoordinatensystem.
(s. auch Bildkoordinatensystem, Weltkoordinatensystem, Koordinatentransformation)
ROI region of interest ➚Prüffenster
RS-170 In den USA üblicher ➚EIA-Standard zur Codierung
von Schwarz/weiß-Videosignalen. RS-170 arbeitet mit
30 Vollbildern pro Sekunde bei 484 sichtbaren Zeilen.
Maximalamplitude 1,4 V. Bildformat 640 · 480 Pixel.
RS-232, auch V24. Serielle Schnittstelle, die in der Industrie
als Direktverbindung zwischen zwei Geräten weit verbreitet ist. Besitzt zwei getrennte Leitungen zum Senden und Empfangen. Arbeitet asynchron ggf. mit Handshakesignalen. Maximale Leitungslänge zur sicheren
Datenübertragung: 15 m.
RS-422 Serielle Schnittstelle. Nutzt Differenzsignale, dadurch sehr störunempfindlich. Datenübertragungsrate
bis 10 Mbit/s. Geeignet für Übertragung über größere
Entfernungen bis 1200 m. Bis zu 10 Empfänger können
an einen Sender angeschlossen werden.
RS-485 Serielle Schnittstelle. Weiterentwicklung von RS422. Nutzt Differenzsignale. Dadurch sehr störunempfindlich. Datenübertragungsraten bis 10Mbit/s. Geeignet für Übertragung bis 1200 m. Mehrpunktverbindungen sind möglich mit Anschluss von bis zu 32 Teilnehmern.
Rückführbarkeit ➚Rückverfolgbarkeit
Rückverfolgbarkeit Tracebility DIN EN ISO 8402, Möglichkeit, den Werdegang eines Produktes/einer ➚Kalibrierung anhand dokumentierter Daten verfolgen zu
können. Für die Kalibrierung bedeutet die Rückverfolgbarkeit die Herstellung einer lückenlosen Verbindung zu
einem national oder international gültigen Standard.
Run Length Coding ➚Lauflängencodierung
Run Length Encoding ➚Lauflängencodierung
Rundheit ➚Bestkreis
S
Sättigung 1.) Merkmal eines ➚CCDs, bei ➚Überbelichtung
von ➚Pixeln Ladungen in benachbarte Pixel überlaufen
zu lassen. Entsteht durch die endliche Speicherkapazität
der Pixel für durch Lichteinfall erzeugte Elektronen.
Lexikon der industriellen Bildverarbeitung
Beim Auftreten von Sättigung gehen Informationen
über den ➚Kantenübergang verloren, die ➚Kante wird
unsymmetrisch. Um Sättigung zu vermeiden, sollte der
maximal im Bild auftretende ➚Grauwert 10% unter
dem maximal möglichen Grauwert (➚Digitalisierungstiefe) liegen.
2.) Farbsättigung (➚Farbraum) (s. auch Blooming)
Sättigungsbeleuchtungsstärke Diejenige ➚Beleuchtungsstärke, die auf einem ➚Bildaufnehmer zur ➚Sättigung führt. Durch Dotierung der Sensormaterialien werden die Bildaufnehmer immer lichtempfindlicher, d.h.
die Sättigungsbeleuchtungsstärke sinkt mit fortschreitender Sensorentwicklung. Kleinere Sättigungsbeleuchtungsstärken erlauben kürzere ➚Belichtungszeiten.
Schärfenebene Ebene, bei der die ➚Objektebene die
schärfestmögliche Abbildung erreicht. Diese Ebene kann
mit guter Näherung durch die Beziehungen der ➚paraxialen Optik bestimmt werden.
Schärfentiefe, auch Tiefenschärfe. Verschiebebereich eines ➚Prüfobjektes entlang der ➚optischen Achse, ohne
dass sich die ➚Bildschärfe „merklich ändert“ (Herkunft
der Definition aus der Fototechnik).
Begrenzt wird die Schärfentiefe durch die vordere und
hintere Schärfentiefengrenze, den Schärfentiefenbereich. Der Schärfentiefebereich ist zur ➚Objektebene,
unsymmetrisch vom optischen System weg, verschoben.
Die begrenzte ➚Auflösung des ➚Bildaufnehmers verursacht die Erscheinung 'Schärfentiefe'. Zur Berechnung
muss bekannt sein, wie unscharf das Bild sein darf.
Näherungsweise gilt:
S = u’ · 2k · (ß’-1) / ß’2
mit S = Schärfentiefebereich, u’ = zulässige Unschärfe im
Bild, k = ➚Blendenzahl, ß’ = ➚Abbildungsmaßstab (< 0).
oder: S = u’ · (ß’-1) / (A’ · ß’2)
mit A’ – bildseitige ➚numerische Apertur
Variable Parameter sind:
a) Abbildungsmaßstab ß’: i. A. nicht, denn ß’ legt die
Größe des ➚Gesichtsfeldes fest. Ein kleinerer Abbildungsmaßstab, hat einen größerer Schärfentiefebereich.
Hinweis: Mikroskopische Aufnahmen bei großem Abbildungsmaßstab haben nur wenige µm Schärfentiefebereich.
b) Blendenzahl k: bei genügend Licht. Große Blendenzahl – großer Schärfentiefebereich. Dabei sind die Grenzen der ➚förderlichen Blende zu beachten.
c) Zulässige Unschärfe im Bild u`: Großer zulässiger Unschärfe folgt ein großer Schärfentiefebereich. Größte
Einflussmöglichkeit bei Kenntnis der Funktion der ➚Antastalgorithmen. Tolerante Algorithmen lassen kantenformunabhängige ➚Antastungen auch bei unscharfen
➚Kanten zu, was zu einer softwaretechnischen Vergrößerung des Schärfentiefebereiches führt.
71
R
S
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 87
Schärfentiefebereich
S
Schärfentiefebereich ➚Schärfentiefe
Scharfeinstellung ➚Fokussierung
Schattenbild ➚Durchlichtbeleuchtung
Schattenfreie Beleuchtung auch Cloudy day-Beleuchtung. Sonderform einer räumlich ➚diffusen Auflicht-Beleuchtung, ausschließlich als ➚LED-Beleuchtung ausgeführt. Emittiert sehr gleichmäßiges Licht in fast den
ganzen Halbraum (➚Raumwinkel) über der ➚Objektebene.
Schattenfreie Beleuchtungen unterdrücken dreidimensionale Strukturen/➚Texturen an glänzenden, rauen
und geknitterten Oberflächen. Selbst Teile mit großen
Unebenheiten und räumlich stark geformte Teile (Kugeln) können sehr gleichmäßig ausgeleuchtet werden.
Anwendung z.B. zur Risserkennung an Schmiedeteilen,
➚OCR/OCV an geknitterten Folienverpackungen, Oberflächenkontrolle an Tiefziehteilen.
Funktionsbedingt muss die schattenfreie Beleuchtung
sehr nah bzw. über den Prüfobjekten angeordnet sein,
was deren Handhabung erschweren kann.
Verschiedene Prinzipien zur Erzeugung schattenfreier
Beleuchtung werden genutzt. Auf Grund der Notwendigkeit eines leuchtenden Hohlraumes für die homogene Beleuchtung sammeln schattenfreie Beleuchtungen
Schmutz im Inneren. So zeichnen sich industrietaugliche
schattenfreie Beleuchtungen durch eine einfache reinigungsfreundliche Innengeometrie sowie geschlossene
Beleuchtungskörper und Freiheit von Lüftern aus.
Schlieren Schlieren sind Inhomogenitäten der ➚Brechzahl. Schlieren in den Linsen eines Objektives können
die Abbildungsleistung von Objektiven merklich beeinflussen. Bei extremen Einsatzfällen der Bildverarbeitung
können Schlieren in Luft die Aufgabenlösung unmöglich
machen, z. B. durch Hitzeflimmern an heißen Luftströmungen.
Der Zusammenhang zur Brechzahl ist wie folgt:
n = (n0 - 1) · p · T0 / (p0 · T) + 1
mit n0 = Brechzahl bei der Bezugstemperatur, p0 =
Druck bei der Bezugstemperatur, T0= Bezugstemperatur.
Schnittstelle Interface. Verbindungsstelle zwischen Geräten. Über Schnittstellen werden Daten-, Adress- und
Steuersignale ausgetauscht. Zur Definition von Schnittstellen gehören das verwendete ➚Protokoll, die elektrischen Pegel sowie die mechanischen Bedingungen
(Steckerbelegung, -art). Je nach Art der Übertragung
gibt es ➚serielle Schnittstellen und ➚parallele Schnittstellen. Genormte Schnittstellen machen es möglich,
verschiedenste Systeme ohne Anpassungsarbeiten miteinander zu verbinden.
Schnittweite Die bildseitige oder hintere Schnittweite bezeichnet den Abstand zwischen dem Scheitel der letzen
optischen Fläche Richtung ➚Bildaufnehmer und dem
72
projizierten Bild. Die objektseitige Schnittweite dementsprechend den Abstand zwischen Linsenscheitel und
➚Prüfobjekt. (s. auch Arbeitsabstand)
Schnittweitenänderung ➚Optische Weglänge
Schrifterkennung ➚OCR/OCV, ➚OCP, ➚OCI
Schutzart ➚IP-Schutzklasse
Schutzgehäuse dienen der Umhausung empfindlicher Kameraelektronik/-sensorik, Optik und Beleuchtung für
den Einsatz von Bildverarbeitung unter widrigen ➚Umgebungsbedingungen in der Produktion. Schutzgehäuse
werden in verschiedenen ➚IP-Schutzklassen angeboten. Extremste Ausführungen für Umgebungstemperaturen bis 450° Celsius mit Wasserkühlung und Schutzklasse IP68 sind möglich.
Schutzglas Vor das ➚Objektiv, in das ➚Filtergewinde geschraubte, gefasste ➚planparallele Platte. Zum Schutz
gegen Staub, Ölnebel und mechanische Beschädigungen des Objektives werden in der Machine Vision meist
➚UV-Sperrfilter eingesetzt. Bei schrägem Vorsatz von
Schutzgläsern vor das Objektiv kommt es zu ➚Parallelversatz. Das Vorsetzen von Schutzgläsern ändert die
➚optische Weglänge.
Schutzgrad ➚IP-Schutzklasse
Schwarzreferenz-Pixel Pixelgruppen in ➚Bildaufnehmern, die nicht zur ➚lichtempfindlichen Fläche (➚Bildaufnehmergröße) gehören. Die Schwarzreferenz-Pixel
sind mit einer Metallschicht bedeckt. Die in ihnen erzeugten Ladungen rühren nur vom ➚Dunkelstrom her
und werden als Referenz für die Größe des Dunkelstroms
genutzt. So kann zur Dunkelstromkompensation für jedes lichtempfindliche ➚Pixel der mittlere Wert des Dunkelstroms abgezogen werden. Schwarzreferenz Pixel dienen als Bezugswert für Schwarz, also ➚Grauwert 0.
Schwelle ➚Schwellwert
Schwellwert Der Schwellwert gibt das Kriterium für das
Trennen eines Wertebereich (➚Grauwerte, ➚Farbwerte)
in zwei Teilmengen an. Schwellwerte werden u.a. zur
➚Binarisierung von Bildern genutzt (Binärschwelle). Dabei wird eine ➚Histogramm-Analyse genutzt, um den
optimalen Schwellwert zu berechnen. Schwellwerte
können fest vorgegeben sein, variabel (➚dynamische
Schwelle), sich auf das gesamte Bild beziehen (globaler
Schwellwert) oder nur auf Bildausschnitte beziehen (lokaler Schwellwert). (s. auch Schwellwertverfahren, Look
up Tabelle)
Schwellwertverfahren Das Schwellwertverfahren trennt
Bereiche von Pixeln großer Helligkeit (➚Grauwerte,
➚Farben) von Bereichen geringer Helligkeit gemäß einem vereinbarten ➚Schwellwert. So ist eine einfache
Trennung von Objekten vom Hintergrund möglich. Das
Schwellwertverfahren wandelt durch ➚Binarisierung
ein ➚Farbbild oder ➚Grauwertbild in ein ➚Binärbild
Lexikon der industriellen Bildverarbeitung
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 88
Shutter
um. Das Schwellwertverfahren kann in Software oder in
Hardware (➚Look up Tabelle) ausgeführt werden. (s.
auch dynamische Schwelle, Histogramm)
Sechs, Sigma. ➚Prozessfähigkeit
Segmentfläche Quantitätskriterium für den ➚Krümmungstest an ➚Konturen. Die Segmentfläche wird gebildet
aus dem zu betrachtenden Konturausschnitt sowie der
Verbindungsgeraden aus Konturstart- und -endpunkt.
Segmenthöhe Quantitätskriterium für den ➚Krümmungstest an ➚Konturen. Die Segmenthöhe wird gebildet aus
dem maximalen Lotabstand über der Verbindungsgeraden zwischen Konturstart- und -endpunkt sowie dem
Konturausschnitt.
Segmentierung trennt nach erfolgter ➚Bildvorverarbeitung Bilder in Vordergrund/Hintergrund bzw. in ➚Objekt
und Umgebung. Sich berührende Objekte werden getrennt und vereinzelt. Grundlage sind ➚Grauwertdifferenzen. Eine einfache und effektive Segmentierung wird
durch die Anwendung einer Grauwertschwelle
(➚Schwellwert) erreicht. Der Segmentierung folgt i.A.
die ➚Merkmalsextraktion. Segmentierung ist die
Grundlage für Schrifterkennung (➚OCR/OCV) die Auswertung von biologischen Zellen oder Luftbildern usw.
Zur Segmentierung von ➚Konturen eignet sich besonders die Hough-Transformation.
Segmentlänge Quantitätskriterium für den ➚Krümmungstest an ➚Konturen. Die Segmentlänge gibt an,
wie lang (in Pixeln) ein Konturausschnitt zwischen Konturstart- und Konturendpunkt ist.
Seitenverhältnis, auch aspect ratio. Verhältnis von Höhe
zu Breite. Tritt sowohl bei der ➚Sensorgröße als auch
bei Monitoren auf. Aus der klassischen Videotechnik
kommend, herrscht heute noch ein Seitenverhältnis von
4:3 (Breite zu Höhe) vor. Hochaufgelöstes Fernsehen
(➚HDTV) hat ein Seitenverhältnis von 16:9. Durch die
Nutzung digitaler Bildübertragung haben moderne
hochauflösende ➚Sensoren (z.B. Größe 1k · 1k) meist
ein Seitenverhältnis von 1:1.
Sektorenringlicht Sonderform einer ➚Ringlichtbeleuchtung mit LEDs. Sektorenringlichter ermöglichen das in
Helligkeit und Dauer unabhängige Ein-/Ausschalten einzelner Sektoren des Ringlichtes, daher wird es fast ausschließlich als ➚LED-Beleuchtung ausgeführt. Üblich
sind 4 oder 8 Sektoren.
Mit Sektorenringlichtern ist es mit einer einzigen Beleuchtungskomponente möglich, die ➚Lichteinfallsrichtung zu verändern. Sie werden dazu genutzt, richtungsabhängige, aber in ihrer Drehlage nicht bekannte Merkmale am feststehenden ➚Prüfobjekt zu beleuchten. Zu
jedem leuchtenden Sektor muss ein gesondertes Bild
aufgenommen werden.
Sensor ➚Bildaufnehmer
Lexikon der industriellen Bildverarbeitung
Sensorebene ➚Bildebene
Sensorempfindlichkeit ➚Spektrale Empfindlichkeit
Sensorformat ➚Bildaufnehmergröße
Sensorgröße ➚Bildaufnehmergröße
Sensorraster ist die durch die Zeilen-/Spaltenstruktur des
➚Bildaufnehmers aufgespannte Matrix. (s. auch Pixelzahl, Sensorgröße, Pixelgröße)
Serielle Schnittstelle ➚Schnittstelle, zur seriellen Datenübertragung. Ein Byte wird somit bitweise (bitseriell)
übertragen. Im PC-Bereich sind die als COM bezeichneten Schnittstellen ➚RS-232-Schnittstellen. (s. auch RS422, RS-485, Ethernet, USB)
Shading Inhomogenes Hintergrundsignal, das der Bildinformation überlagert ist. Verursacht wird Shading durch
die ungleiche Helligkeitsempfindlichkeit (➚Photo Response Non Uniformity) der Pixel eines ➚Bildaufnehmers
oder durch ungleichmäßige Beleuchtung.
Shadingkorrektur behebt Shading dadurch, dass jedem
➚Pixel ein individueller Korrekturfaktor zugeteilt wird.
Realisierung mittels ➚Look-up-Tabelle. Mittels Shadingkorrektur können Inhomogenitäten der Beleuchtung
oder natürliche ➚Vignettierung kompensiert werden.
Shadingkorrektur ➚Shading
Shrink ➚Erosion
Shutter Elektronischer Verschluss, der die ➚Belichtungszeit einer Halbleiter-Kamera regelt. Im Normalmodus
wird die Belichtungszeit (➚Integrationszeit) in Halbleiter-Kameras nach einem festen Raster über einen internen Taktgenerator (interne Synchronisierung) gesteuert. Viele Kameras bieten auch die Möglichkeit der
asynchronen Shutterfunktion (➚Progressive Scan). Damit verbunden ist die Möglichkeit von Kurzzeit-Belichtung (Kurzzeitshutter) und Langzeit-Belichtung (Langzeitshutter).
Langzeitshutter (slow scan): Spezieller Modus des elektronischen Kameraverschlusses bei ➚CCDs. Erlaubt das
Aufsummieren von Bildinformationen über mehrere
➚Integrationszeiten. Damit wird der ➚Bildaufnehmer
sehr lichtempfindlich und liefert auch noch unter extrem ungünstigen Beleuchtungsbedingungen gute Bilder. ➚Bildrauschen kann dadurch gemittelt werden.
Während der Belichtungszeit des Langzeitshutters darf
sich das Objekt allerdings nicht bewegen, sonst kommt
es zur ➚Bewegungsunschärfe.
Kurzzeitshutter: Der Kurzzeitshutter realisiert Verschlusszeiten, die unterhalb ➚Integrationszeit liegen
bis herab zu 1/100.000s. Die Belichtung erfolgt nur für
einen Teil der Standard-Integrationszeit. Der Kurzzeitshutter wird zum „Einfrieren“ der Bewegung schnell
bewegter Prüfobjekte genutzt. Gewöhnlicherweise arbeiten alle modernen Halbleiter-Sensoren (➚Progressive Scan) mit einem Vollbildshutter. Ältere Sensoren
73
S
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 89
Shutterspeed
S
(➚interlaced) haben einen Halbbildshutter, so dass bei
Shutterbetrieb in vertikaler Bildrichtung nur die Hälfte
der Bildpunktauflösung zur Verfügung steht. Der Einsatz von Kurzzeit-Shuttern zieht die Verwendung leistungsstarker Beleuchtungen nach sich, um im Bild noch
ausreichenden ➚Kontrast zu erreichen.
Shutterspeed ➚Shutterzeit
Shuttersynchronisation ➚Blitzsynchronisation, ➚Shutter,
➚Progressive Scan
Shutterzeit Zeit, für die der ➚Bildaufnehmer lichtempfindlich ist (➚Shutter). Je kürzer die Shutterzeit ist, desto größer muss die Lichtleistung der Beleuchtung sein.
Lange Shutterzeiten bergen durch Bewegung und Vibration die Gefahr von ➚Bewegungsunschärfe in sich.
Die notwendige zu wählende Shutterzeit steht in Verbindung mit der ➚Bildpunktauflösung (über den ➚Abbildungsmaßstab), Bewegungsgeschwindigkeit des Prüfobjektes, zulässigen ➚Bewegungsunschärfe, notwendigen ➚Blendenzahl (➚Schärfentiefe), notwendigen
➚Beleuchtungsstärke. Zur Ermittlung der geeigneten
Shutterzeit sind umfassende, o.g. Faktoren beachtende
Betrachtungen notwendig. (s. auch Blitzzeit, Blitzsynchronisation)
Sichtbares Licht Wellenlängen-Bereich des Lichtes, das
durch das menschliche Auge und ➚Bildaufnehmer wahrgenommen werden kann (ca. 380 ... 780 nm). Sichtbares
Licht ist nur ein Teil dessen, was als Licht bezeichnet wird
(➚Wellenlänge). Verschiedene Wellenlängenbereiche
des sichtbaren Licht werden mit Farbbezeichnungen versehen:
Violett
380 - 460 nm
Indigo
460 - 475 nm
Blau
475 - 490 nm
Grün
490 - 565 nm
Gelb
565 - 575 nm
Orange
575 - 600 nm
Rot
600 - 780 nm
(s. auch Weißlicht)
Signal-Rausch-Verhältnis Kenngröße eines ➚Bildaufnehmers, die das Verhältnis des Nutzsignals zum Rauschsignal angibt. Das Signal-Rausch-Verhältnis hat Einfluss
auf die Gleichmäßigkeit der Bildinformation. Signal/
Rauschen = Elektronenzahl (Signal)/Elektronenzahl
(Rauschen)
Simplex Datenübertragung in nur einer Richtung.
Skalierbarer Zeichensatz ➚Zeichensatz
Skelettierung Erzeugung einer ein ➚Pixel breiten Skelettlinie um ein flächenhaftes ➚Objekt. Die Skelettlinie verläuft in der Mitte der Objektumrandung. Wird durch Anwendung der ➚Erosion und anderer ➚morphologischer
Operationen erreicht. Typische Anwendung in Algorithmen der Zeichenerkennung (➚OCR/OCV).
74
Slow scan ➚Shutter
Slot-SPS Board für PCs, das die Funktion einer ➚speicherprogrammierbaren Steuerung übernimmt. Ein
Dual-Part-RAM ermöglicht, dass das Prozessabbild sowohl von der PC-Seite als auch von der Feldebene verfügbar ist.
Smart Camera Auch intelligente Kamera. Automatisierungsgerät, das in seinem (Kamera-)Gehäuse folgende
Baugruppen integriert: ➚CCD-/CMOS-Kamera; ➚Framegrabber mit ➚Digitalisierung und ➚Look up Tabelle;
Bildverarbeitungsrechner (i.A. ➚digitaler Signalprozessor), Schnittstellen (meist ➚digitale Ein-/Ausgänge,
➚serielle Schnittstelle, ➚Ethernet); ➚SVGA-Videoausgang.
Meist sind Bedienung und Bildverarbeitung bei Smart
Cameras getrennt, so dass unter einer Windows®-Bedienoberfläche das System angelernt werden kann. Smart
Camera können als Stand-alone-System betrieben werden, da sie keine Bilddaten über Kabel transferieren
müssen, sondern nur Ergebnisse direkt ausgeben. Durch
die erreichten Rechenleistungen von bis zu 1200 MIPS
(Jahr 2002), Bildfrequenzen von bis zu 120 Hz (CCD)
und die vielfältige erhältliche Funktionalität stehen
Smart Cameras PC-basierten Systemen kaum nach.
Smart Camera Sensor komplexer optischer ➚Sensor, der
als rechentechnische Basis eine ➚Smart Camera nutzt.
Smart Camera Sensoren sind auf bestimmte Anwendungsfelder (Branchenlösung) hin optimierte und vorprogrammierte Sensoren für einfache Bildverarbeitungsaufgaben. Der Anwender muss sie nur durch geringe Anpassungen an seinen Anwendungsfall adaptieren. Das Anpassen erfolgt entweder über die digitalen
Eingänge, eine kleine Handtastatur (key pad) oder durch
Anpassungen im mitgelieferten Prüfprogramm. Smart
Camera Sensoren können u.a.: sehr schnell Druckbilder
kontrollieren, ➚Data Matrix Codes oder Klarschrift
(➚OCR/OCV) lesen, Montagekontrolle an Kugellagern
vornehmen, Bohrlöcher inspizieren, Fingerabdrücke
identifizieren u.v.m. Durch die Nutzung von ➚Korrelation
und ➚Mustererkennung sind diese einfachen und einfach anzulernenden Bildverarbeitungssysteme erstaunlich leistungsfähig, auch was die Erkennung komplex
strukturierter ➚Prüfobjekte anbelangt.
Smart Matching ➚Mustererkennung
Smear Effekt im Bild von CCD-Sensoren. Das durch Smear
fehlerhafte Signal macht sich durch vertikale Streifen an
überbelichteten Bildregionen bemerkbar. Smear kann
auftreten bei:
a) ➚Frame-Transfer-Sensoren durch die Verschiebung
des gesamten Bildes in einen anderen Bereich des Bildaufnehmers. Dabei wird die Überbelichtung in Verschieberichtung „kopiert“.
Lexikon der industriellen Bildverarbeitung
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 90
Spreizen
b) Bei ➚Interline-Transfer-Sensoren wird Smear erzeugt
durch starken Lichteinfall, so dass Licht in abgedeckte
Bereiche der Schieberegister eintreten kann. Smear tritt
verstärkt bei größeren ➚Wellenlängen auf, da dieses
Licht tiefer in das Siliziumsubstrat eindringt (➚PixelÜbersprechen). (s. auch Blooming)
SNR Signal to noise ration ➚Signal-Rausch-Verhältnis
Sobel-Filter Richtungsorientierter digitaler Bandpassfilter
(➚Bildfilter). Bestimmt die 1. Ableitung mit Glättung
parallel zur Kante. Die Wirkung ist ähnlich wie beim Prewitt-Filter. Wirkt am stärksten auf horizontale und vertikale ➚Grauwertunterschiede sowie auf in 45-Grad dazwischenliegenden Richtungen.
Soft-SPS Speicherprogrammierbare Steuerung, deren
Funktionalität auf einer Software- und nicht auf einer
Hardwarelösung basiert. Ein ➚IPC dient in der Regel als
Hardwarebasis für eine Soft-SPS.
Sollwert Wert einer Größe, der als fehlerfrei gilt. Auch
Nennmaß.
SPC Statistical Process Control ➚Statistische Qualitätskontrolle
Speckles Fleckenartige Lichtverteilung im Lichtfeld von
➚Lasern. Entsteht durch ➚Beugung des kohärenten Laserlichtes an Körperkanten. Speckles sind durch ihre ungleiche Intensitätsverteilung ein schwierig zu handhabendes Phänomen für die Bildverarbeitung.
Speicherbild Das im ➚Bildspeicher abgelegte, vom ➚Bildaufnehmer erzeugte Helligkeitsabbild eines ➚Prüfobjektes.
Speicherprogrammierbare Steuerung Elektronische
Steuerung, die abhängig von einem Anwenderprogramm
Signale und Zustände von Maschinen abfragt, diese verarbeitet und anschließend zur Steuerung der Maschine
wieder ausgibt. Sie führt ständig wiederkehrend einen
Zyklus aus, bestehend aus dem Einlesen der aktuellen
Sensorwerte (Bedienelemente, Positionsschalter, Lichtschranken, Messfühler, Wegaufnehmer...), dem Berechnen neuer Werte gemäß der geladenen Software und
dem Ausgeben dieser Werte an die Aktoren (Schalter, Relais, pneumatische und hydraulische Aggregate,...).
Das Anwenderprogramm wird mit einer genormten
Fachsprache (IEN1131-3 bzw. DIN EN 61131-3) entwickelt: Anweisungsliste (AWL), Kontaktplan (KOP),
Funktionsbausteine (FBS).
Speicherprogrammierbare Steuerungen sind die meisten in der Industrie eingesetzten Steuerungen von der
einfacher Steuerung eines einzelnen Magneten bis zur
Steuerung gesamter Industrieanlagen.
Spektrale Empfindlichkeit Abhängigkeit der Hellempfindung eines Empfängers von der bestrahlenden Wellenlänge. Die Helligkeitswahrnehmung (spektrale Empfindlichkeit) des menschlichen Auges und von ➚Bildaufnehmern differieren.
Lexikon der industriellen Bildverarbeitung
1.) Für die Empfindlichkeit des Auges (➚Wellenlängen
von 380 ... 780 nm) gilt die ➚V-Lambda-Kurve.
2.) Für ➚Bildaufnehmer: Maß für die wellenlängenbezogene Energie, die zum Hervorrufen eines bestimmten
Helligkeitswertes auf dem Bildaufnehmer nötig ist.
➚CCDs und ➚CMOS-Sensoren sind im Bereich zwischen
ca. 350 und 1100 nm lichtempfindlich. Bei der Auswahl
der ➚Beleuchtungseigenschaften und ➚Beleuchtungswellenlänge muss auf die Wirkung der von verschiedenfarbigen Beleuchtungen auf die spektrale Empfindlichkeit des Bildaufnehmers geachtet werden. Mutliplizert
man die Werte der ➚spezifischen spektralen Ausstrahlung einer Lichtquelle mit denen der spektralen Empfindlichkeit des Bildaufnehmers, so erhält man Angaben
zum Helligkeitseindruck auf dem Bildaufnehmer. Die
spektrale Empfindlichkeit von Bildaufnehmern kann erweitert werden, wenn für Wellenlängenbereiche, für die
der Bildaufnehmer nicht empfindlich ist, auf den Sensor
➚Fluoreszenzschichten aufgebracht werden.
Beispiel: Fluoreszenzbeschichtung Lumogen® auf dem
Deckglas eines CCD-Chips macht Licht bis herab zu Wellenlängen von 90 nm sichtbar.
Schlussfolgerungen: verschiedene empfindliche Sensoren sehen eine Wellenlänge verschieden hell. Verschiedene Beleuchtungsfarben werden bei gleicher Energie
unterschiedlich hell wahrgenommen. Für einen ➚CCDChip rot, weiß, blau, grün, IR (Helligkeitseindruck abnehmend). Die spektrale Empfindlichkeit (Wirksamkeit
der Wellenlänge) hängt stark von der Wechselwirkung
mit dem Prüfobjekt ab (Farbe ➚Komplementärfarbe).
Spektrum beschreibt die Zusammensetzung einer Strahlung, welche ➚Wellenlängen mit welchen Anteilen vertreten sind. Je nach spektraler Zusammensetzung kann
das Spektrum des ➚Lichtes auf ➚Sensoren (➚spektrale
Empfindlichkeit) sehr verschieden wirken.
Kontinuierliche Spektren (z.B. Glühlampe) besitzen Anteile aller Wellenlängen, Linienspektren (z.B. Gasentladungslampen) nur einzelne ausgewählte Wellenlängen.
Spezifische spektrale Ausstrahlung charakterisiert den
pro Strahlerfläche ausgesandten Strahlungsfluss bezüglich seiner Wellenlängen: Me = dφ / (dA · dλ). Die Fläche
unter der Kurve der spezifischen spektralen Ausstrahlung ist ein Maß für das Strahlungsangebot unabhängig
von der Empfängerwahrnehmung. (s. auch Spektrale
Empfindlichkeit)
Sphärische Aberration ➚Öffnungsfehler
Sphärische Linse ➚Linsenform
Spreadsheet Tabellenbasierte Bedienoberfläche für Bildverarbeitungssysteme. Beinhaltet alle Parameter, Ergebnisse und Einstellungen.
Spreizen Beim Spreizen von Grauwerten wird ein ausgewählter Grauwertbereich auf den entsprechend der
75
S
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 91
Spritzwasserschutz
S
➚Digitalisierungstiefe gesamt möglichen Umfang an
Grauwerten, erweitert. Das Spreizen von Grauwerten
dient der ➚Kontrastverstärkung und wird per Software
oder mit ➚Look up Tabellen vorgenommen.
Spritzwasserschutz ➚IP-Schutzklasse
Sprung ➚bedingter Sprung
SPS ➚Speicherprogrammierbare Steuerung.
SPS-Kommunikation wird von Bildverarbeitungssystemen vorrangig über ➚digitale Ein-/Ausgänge sowie
über die ➚serielle Schnittstelle realisiert. Über entsprechende Kommunikationsprotokolle ist auch die Verbindung über ➚Profibus oder ➚Interbus möglich.
Sr ➚Steradiant
Stabilität Abweichung zwischen den Mittelwerten von
mindestens zwei Messwertsätzen, die bei Messung derselben Teile mit demselben Messmittel zu verschiedenen Zeitpunkten bestimmt wurden.
Statische Beleuchtung Beleuchtung, die im Dauerbetrieb
betrieben wird. Kann zu übermäßiger Erwärmung
führen, weshalb häufig ➚gepulste - oder ➚Blitzlichtbeleuchtung vorgezogen wird.
Statistische Qualitätskontrolle umgangssprachlich: statistische Prozess-Kontrolle. Prozessüberwachung und
-regelung durch statistische Auswertung der von einem
Prüfsystem gelieferten Daten. Das Instrument der statistischen Prozess-Kontrolle ist die Qualitätsregelkarte
(QRK). Auf der Basis von Stichproben aus dem laufenden Produktionsprozess werden statistische Kenngrössen (z.B. MAX, MIN, Mittelwert, Standardabweichung,
Streuung) des Prozesses ermittelt und in die QRK eingetragen. Bei der Überschreitung vorgegebener Grenzen
können Warnungen an übergeordnete Systeme generiert werden. Qualitätsregelkarten werden zur Prozessbeobachtung eingesetzt; mit ihnen lässt sich nachweisen, dass sich ein Prozess unter statistischer Kontrolle
befindet. (s. auch Cg/Cgk-Werte)
Statuswort In der Buskommunikation (Profibus, Interbus,
SPS, ...) für das ➚Prozessabbild verwendetes Datenwort
(z.B. an das Gateway), das den aktuellen Zustand (externes/internes Verhalten) und Meldungen eines Automatisierungsgerätes angibt, z.B. Betriebsbereitschaft,
Störung, beschäftigt, ...
Staub erschwert die zuverlässige Inspektion mit Bildverarbeitung, da im Bild nicht mehr getrennt werden kann,
ob die Verschmutzung Teil des ➚Prüfobjektes ist,
Schmutz am Prüfobjekt ist oder aus Schmutz im optischen Kanal resultiert.
a) Staub auf der Beleuchtung: Bei Bewegung der Beleuchtung bewegt sich der Schmutz mit. Vermeidung:
Beleuchtung außerhalb des ➚Schärfentiefebereiches
anordnen.
b) Staub in/auf dem Objektiv: Staub dreht sich beim
76
Drehen des Objektives mit. Hinweis: Abbildung von
Staub in/auf dem Objektiv tritt nur bei sehr starker Verschmutzung und großer ➚Blendenzahl auf.
c) Staub auf dem Bildaufnehmer: Zu weit geschlossene
➚Blende führt zu bildseitiger Beugung an Staubpartikeln (➚Abbildungstiefe, ➚förderliche Blende). Beseitigung: Reinigung mit ölfreier Druckluft, Reinigungsfluid.
Keine Lösungsmittel oder fusselige Tücher!
Der beste Staubschutz besteht darin, Objektive möglichst sofort an die Kamera zu schrauben und nicht wieder zu entfernen. Objektseitig sollten ➚Schutzgläser
verwendet werden.
Steradiant Abkürzung sr. Maßeinheit zur Kennzeichnung
des ➚Raumwinkels analog zur Bezeichnung Grad oder
Radiant beim ebenen Winkel. Hat die physikalische Dimension 1 (Verhältnis von Kugelfläche zum Quadrat des
Radius)
Steuerspannung wird in ➚LED-Beleuchtungen mit Ansteuerschaltung zur Einstellung der Helligkeit genutzt.
Übliche Pegel sind 0 ... 10V (aus ... maximale Helligkeit).
Über die Abstimmung der Steuerspannungen mehrerer
Beleuchtungen lassen sich komplexe Beleuchtungsszenarien, auch mit wechselnden Helligkeiten erzeugen.
Steuerwort In der Buskommunikation (Profibus, Interbus,
SPS, ...) für das ➚Prozessabbild verwendetes Datenwort
(z.B. vom Gateway), das zur Steuerung eines Automatisierungsgerätes eingesetzt wird, z.B. für die Übergabe
eines Gut-/Schlecht-Ergebnisses, Ansteuerung einer Sortierklappe, ...
Störfilter ➚Antastparameter. Der Störfilter gibt die Anzahl
der ➚Pixel entlang eines ➚Antaststrahles an, deren
➚Grauwert beim Kantensuchen oberhalb des ➚Schwellwertes liegen darf, die aber ignoriert werden, und nicht
als ➚Kante interpretiert werden. Störfilter dienen dem
Ausblenden kleiner Störungen im Bild wie Staub, Fusseln u.ä. beim ➚Antasten und machen so die Antastung stabiler. Zu beachten ist, dass die Größe des Störfilters nicht größer ist als die Breite der kleinsten zu findenden Strukturen.
Störlicht ➚Fremdlicht
Strahldichte ➚Leuchtdichte
Strahlenbündel ➚Geometrische Optik
Strahlenmodell ➚Geometrische Optik
Strahlenoptik ➚Geometrische Optik
Strahlformungsoptik wird zur Formung des räumlichen
Intensitätsprofils von Laserstrahlen genutzt. Für ➚strukturierte Beleuchtung werden vor Diodenlaser optische
Baugruppen (➚Zylinderlinsen, Lochblenden, ➚Beugungsgitter) angeordnet, die Lichtstrukturen erzeugen:
Punkt; Punktraster; Linie; parallele Linien; Kreis; konzentrische Kreise; Quadratraster.
Strahlstärke ➚Lichtstärke
Lexikon der industriellen Bildverarbeitung
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 92
Synchronisationssignal
Strahlteiler Optisches Bauelement zur Aufteilung von
Strahlengängen. Wird als Strahlteilerfolie, -platte oder
-prisma ausgeführt. Anwendung in der Bildverarbeitung
für Abbildungs-/Beleuchtungskombinationen, die das
koaxiale Einspiegeln eines Beleuchtungsstrahlenganges
in den Beobachtungsstrahlengang (➚koaxial eingespiegelte Beleuchtung) realisieren. Nachteil ist die notwendige Aufteilung der durchgehenden Intensitäten. Meist
erfolgt die Aufteilung nach 50% für die Beleuchtung
und 50% für die Optik. In ➚Farbkameras werden Strahlteiler genutzt, um das Licht spektral in die Anteile rot,
grün und blau aufzuteilen und den jeweiligen ➚Bildaufnehmern zuzuführen.
Strahlumlenkung ➚Prismenvorsatz
Strahlungsfluss ➚Lichtstrom
Strahlungsleistung ist die durch den Strahlungsfluss
(➚Lichtstrom) von einer Lichtquelle abgestrahlte Lichtleistung und gibt die pro Zeiteinheit abgegebene Energie (➚Lichtenergie) an.
Strahlungsphysikalische Größen beschreiben das elektromagnetische Strahlungsfeld hinsichtlich seiner Energie. Sie erfassen alle Formen elektromagnetischer Strahlung. Der Bereich des sichtbaren Lichtes wird durch
➚lichttechnische Größen beschrieben.
Strahlversatz ➚Parallelversatz
Streiflichtbeleuchtung ➚Dunkelfeld-Auflichtbeleuchtung
Streuung Diffuse ➚Reflexion von einfallendem Licht durch
die Ablenkung an Oberflächenstrukturen und -teilchen.
Auf die Streuung hat die Rautiefe entscheidenden Einfluss. Ab Rautiefen < λ/4 tritt keine Streuung mehr auf,
sondern nur noch gerichtete ➚Reflexion.
Stroboskopbeleuchtung Beleuchtung, die im Unterschied zu einer ➚Blitzbeleuchtung eine kontinuierliche
Folge von Lichtblitzen erzeugt. Die ➚Blitzfrequenz (bis
mehrere Tausend Blitze/s) ist einstellbar, so dass auf
schnelle Vorgänge synchronisiert werden kann, wodurch scheinbar stehende Bilder entstehen. Wird zur
Auflösung schneller Bewegungsfolgen (Drehbewegungen und Schwingungen) genutzt. Als Lichtquellen werden sowohl ➚Gasentladungslampen als auch ➚LEDs
genutzt sowie modulierte ➚Laser(dioden).
Strukturierte Auflichtbeleuchtung Nutzt die ➚Beleuchtungseigenschaft, der ➚Lichtquelle ein Helligkeitsmuster
aufzuprägen. Derartige Strukturen können sein: Punkt,
Linie, Linienschar, Punktraster, Gitter, konzentrische Kreise,… (➚Diodenlaser ➚Strahlformungsoptiken). Die Lichtstruktur wird auf das ➚Prüfobjekt abgebildet. Betrachtet
aus einer verschiedenen Richtung erscheint die Lichtstruktur deformiert, was die Erfassung räumlicher Informationen ermöglicht. Charakteristische Fälle sind:
a) 0-dimensionale Lichtstruktur (Lichtpunkt): ➚Triangulationsverfahren (punktförmige Höheninformation);
Lexikon der industriellen Bildverarbeitung
b) 1-dimensionale Struktur (Lichtlinie): ➚Lichtschnittverfahren (topografische Linie; „Schnitt“);
c) 2-dimensionale Struktur (Lichtgitter): ➚Gitterprojektionsverfahren (dichte Rauminformation).
Strukturierte Beleuchtung ➚Strukturierte Auflichtbeleuchtung
Subpixel-Antastung Subpixeling. Lokalisierung von
➚Kanten, genauer als es das Bildpunktraster durch die
➚Bildpunktauflösung ermöglicht. Die Steigerung der
➚Auflösung eines Antastalgorithmus unterhalb der Pixelrastergröße wird durch Kombination verschiedener
Vorverarbeitungs- und Auswerteverfahren erreicht. Subpixel-Verfahren arbeiten i. A. zweistufig. In der ersten
Stufe wird die Kante pixelgenau detektiert. In der zweiten Stufe erfolgt die Feinanalyse. Dazu wird nicht nur
der ➚Kantenort, sondern auch die Umgebung der Kante (in Richtung des ➚Antaststrahls, als auch parallel
zum Antaststrahl (➚Antastbreite)) und die ➚Kantenform mit in die Betrachtungen einbezogen und ausgewertet. Gemäß dem ➚Kantenortskriterium sind verschiedene mathematische Ansätze dabei möglich. Im
Ergebnis kann der Kantenort innerhalb von Bruchteilen
eines Pixels lokalisiert werden. Maß für die Feinheit der
erreichbaren Subpixel-Auflösung ist der ➚Interpolationsfaktor.
Subpixeling ➚Subpixel-Antastung
Subtraktive Farbmischung ➚Farbmischung
Suchfenster eingeschränkter Bereich in dem bei ➚Mustererkennung/➚Konturantasten das ➚Muster/die ➚Kontur
gesucht wird. Das macht a) die Verarbeitung schneller;
b) können nicht zulässige Bereiche für das Suchen ausgeschlossen werden.
Suchrichtung Parameter für das ➚Kontur antasten. Beschreibt, in welcher Richtung (N, O, S, W) von der Mitte
des ➚Suchfensters aus mit der Suche nach einer ➚Kante der Kontur begonnen werden soll.
Suchstrahl, auch Suchpfeil, ➚Antaststrahl
Superweitwinkelobjektiv, auch Fisheye-Objektiv, ➚Weitwinkelobjektiv
SVGA Super Video Graphics Array. Weiterentwicklung von
➚VGA. Grafikformat für Computer mit einer Bildpunktauflösung von 800 x 600 Pixeln und 16 Millionen darstellbaren Farben. Viele Kameras mit ➚Progressive
Scan-Sensoren nutzen zur Darstellung der Kamerabilder
auf Monitoren das SVGA-Format.
SXGA Super Extended Video Graphics Array. BildschirmStandard mit einer Auflösung von 1280 x 1024 Pixeln.
Wird für die Darstellung von hochaufgelösten Bildern
von ➚Megapixel-Matrixkameras genutzt.
Symmetrische Kantenform ➚Kantenform
Synchronisationssignal Signalanteil des ➚Videosignals,
das den Bildaufbau steuert. Das horizontale Synchron-
77
S
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 93
Systematische Fehler
signal kennzeichnet den Beginn einer neuen Zeile im
Bild, das vertikale Synchronsignal gibt den Beginn eines
neuen (Halb-)Bildes an.
Systematische Fehler sind Fehler, die erkennbar, quantisierbar und damit kompensierbar sind. Die Bestimmung
der einzelnen Fehlereinflüsse kann sehr zeitaufwendig
sein. Systematische Fehler in Anlagen mit Bildverarbeitung können u.a. sein: ungeeignete Beleuchtungswellenlänge (Beleuchtung); veränderte Teileeigenschaften
(Prüfling); unpräzise Handhabungstechnik/Halterung
(Mechanik); Verzeichnung des Objektives (Optik); mechanisch-elektrisch unsaubere Kamerakonstruktion
(Mechanik, Elektronik); unsynchroner Bildeinzug im Framegrabber (Elektronik); Art, Programmierung, Parametrierung des Bildverarbeitungssystems (Software).
Die Measurement Systems Analyse (MSA) von DaimlerChysler, Ford und GM (März 2003) besagt: „Systematische Fehler sind grundsätzlich durch Änderungen am
Messsystem (z.B. ➚Justierung) zu korrigieren. Sollte dies
nicht möglich sein, kann die systematische Abweichung
durch Korrektion bei jedem Messergebnis berücksichtigt
werden. Dazu ist allerdings die Zustimmung des Kunden
erforderlich.“ (s. auch Korrekturfaktor)
Systemintegrator Eine Einzelperson oder eine Firma, die
eine kundenbezogene Aufgabe durch Auswahl bzw.
Kombination verschiedener Hard- und Softwarekomponenten realisiert. In der Bildverarbeitung bezieht sich
diese Tätigkeit vor allem auf die aufgabengerechte Zusammenstellung von Kamera, Optik, Beleuchtung und
Bildverarbeitungssoftware. (s. auch Original Equipment
Manufacturer)
Szene Eine Szene repräsentiert einen Ausschnitt der dreidimensionalen Umwelt, die mit der digitalen Bildverarbeitung anhand von zweidimensionalen Projektionen
(Abbildern) untersucht wird (Quelle: VDI/VDE).
S
T
T
Tageslicht Auf der Erde durch die Atmosphäre gefilterte
Temperaturstrahlung der Sonne. Kontinuierliches
➚Spektrum mit ➚Wellenlängen von ca. 300 ... 12000 nm
mit einer mittleren ➚Farbtemperatur von 5000 K. Häufiger Störeinfluss für Machine Vision. (s. auch Fremdlicht,
Lichtenergie)
Tageslichtsperrfilter Langpassfilter. Sperrt Licht mit ➚Wellenlängen < 780 nm (sichtbares Licht). Tageslichtsperrfilter sind im infraroten Bereich des ➚Spektrums zu mehr
als 99% durchlässig. Da ➚Bildaufnehmer der Bildverarbeitung für diesen Spektralbereich empfindlich sind
(➚spektrale Empfindlichkeit), werden Tageslichtsperrfilter
78
häufig zusammen mit ➚Infrarotbeleuchtungen eingesetzt, um eine gute Unterdrückung von ➚Fremdlicht zu
erreichen. Eine noch bessere Tageslichtunterdrückung
wird durch ➚Bandpassfilter oder die Kombination zweier
gegenläufiger ➚Kantenfilter erreicht.
Hinweis: Bei Verwendung eines Tageslichtsperrfilters
muss das Infrarotsperrfilter aus der Kamera entfernt
werden. (s. auch Filtergewinde)
Taktfrequenz ➚Taktsignal
Taktsignal Signal, das regelmäßig in der ➚Taktfrequenz
den Beginn eines neuen Zyklus (Datenübertragung, Auslösen einer Blitzbeleuchtung, Schritt eines Rundtakttisches etc.) angibt. An den meisten Maschinen wird das
Taktsignal von der Maschinensteuerung vorgegeben
und die Bildverarbeitung wird vom Taktsignal gesteuert.
Taktzeit ➚Zykluszeit
Taumeln Erscheinung an Objektiven geringer Qualität.
Beim ➚Fokussieren ändert sich nicht nur die ➚Bildschärfe, sondern auch die Lage des ➚Gesichtsfeldes.
Beim Drehen am Entfernungseinstellring wandert der
Bildmittelpunkt aus.
TCP/IP Transport Control Protocol/Internet Protokoll. Das
Internet Protokoll (IP) übernimmt die richtige Adressierung (➚IP Adresse) und Zustellung von Datenpaketen.
Es fasst eine unbestimmt Anzahl von Einzelnetzwerken
zu einem Gesamtnetzwerk zusammen und ermöglicht
so den Datenaustausch zwischen verschiedenen Netzteilnehmern unabhängig von deren physikalischer Ausführung (Ethernet, Token Ring, ISDN, ...). Das Transport
Control Protokoll (TCP) setzt auf das Internet Protokoll
auf und sorgt für den Transport und die Sicherung der
Daten.
TDI ➚Time Delayed Integration
Teileeigenschaft ➚Prüfobjekt
Teileidentifikation Bestimmen der Identität eines ➚Prüfobjekts durch Lesen von Symbolen (z.B. Schrift
➚OCR/OCV, ➚Bar-Code, ➚Data Matrix Code) auf dem
Objekt.
Telekonverter Zerstreuendes Linsensystem, das zwischen
Kamera und ➚entozentrisches Objektiv gebracht wird,
um die Brennweite zu vergrößern. Üblicher Verlängerungsfaktor 2. Verbunden damit sind eine um die Hälfte
reduzierte ➚Lichtstärke sowie eine nicht vergrößerte
➚Verzeichnung, weshalb sie für Machine Vision Anwendungen nicht genutzt werden sollten.
Teleobjektiv Objektive mit einer Brennweite, die deutlich
größer als die Diagonale des Bildaufnehmers ist. Mit Teleobjektiveen können bei großen ➚Arbeitsabständen
kleine ➚Gesichtsfelder realisiert werden.
Telezentrie Optisches Prinzip, bei dem sich bei abbildenden optischen Systemen der ➚Abbildungsmaßstab bei
Änderung der ➚Objektweite des Arbeitsabstandes nicht
Lexikon der industriellen Bildverarbeitung
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 94
Telezentrisches Objektiv
ändert. Erzielt wird das durch den parallelen Haupstrahlengang vor dem optischen System. Telezentrie kann objekt- und bildseitig hergestellt werden.
Einfache Systeme erzeugen Telezentrie durch Anbringen
einer ➚Öffnungsblende im jeweils konjugierten Brennpunkt. Nachteile dabei sind: die Blendenöffnung hat direkt Einfluss auf den Grad der Telezentrie, die große
Länge des Systems, die geringe ➚Lichtstärke, ➚Abbildungsfehler, die nur begrenzt behebbar sind.
Zweiteilige Systeme arbeiten mit einem System zur Telezentrieerzeugung und einem zweiten zur Abbildung auf
den ➚Bildaufnehmer. Vorteile sind: kleine Arbeitsabstände, gute Korrektionsmöglichkeit von Abbildungsfehlern, kleinere Baugröße, Telezentrie von Helligkeitseinstellung getrennt, Lichtstärke.
Die Telezentrie hat keinen Einfluss auf die Größe der
➚Schärfentiefe. (s. auch Telezentrisches Objektiv, Telezentrische Beleuchtung vgl. Entozentrische Objektive)
Telezentriebereich Symmetrischer Bereich entlang der
➚optischen Achse, vor und hinter dem ➚Arbeitsabstand, innerhalb dessen sich bei ➚telezentrischen Objektiven die Größe im Bild bei Verschiebung des ➚Prüfobjektes um weniger als ein Pixel ändert (einige Herstellerangaben 1/10 Pixel). Nicht zu verwechseln mit
➚Schärfentiefebereich.
Ursache für das Auftreten eines Telezentriebereiches
sind verbliebene nicht korrigierte Abbildungsfehler sowie Montage- und Fertigungstoleranzen, was zu einem
nicht vollständig parallelen Hauptstrahlengang führt.
Als Faustregel für den Telezentriebereich gilt: Für eine
Größenänderung um maximal 1 Pixel entspricht der Telezentriebereich etwa der vertikalen Ausdehnung des
➚Gesichtsfeldes.
Telezentrische Beleuchtung Sonderform ➚gerichteter
Beleuchtungen mit starker Richtcharakteristik. Anwendung so gut wie ausschließlich im Durchlicht.
In der Brennebene der Optik der Beleuchtung wird eine
Lichtquelle (meist ➚LED oder ➚Lichtwellenleiter) bekannter, kleiner ➚Beleuchtungsapertur angebracht. Im
Ergebnis liegt ein ➚paralleler Hauptstrahlengang vor.
Telezentrische Beleuchtungen sind keine parallele Beleuchtung (festgelegte Apertur). Dadurch sind sie wesentlich unempfindlicher gegen Schwingungen und Justierfehler (➚Justierung) und weisen im Gegensatz zu
parallelen Beleuchtungen mit Laserlichtquellen keine
➚Speckles auf, da sie ➚inkohärentes Licht nutzen.
Telezentrische Beleuchtungen liefern eine sehr homogene
und kontrastreiche Ausleuchtung des ➚Gesichtsfeldes. Sie
müssen immer in Kombination mit ➚telezentrischen Objektiven angewendet werden, weil für ein ➚entozentrisches Objektiv durch den parallelen Hauptstrahlengang
die Lichtquelle (LED) im Unendlichen zu stehen scheint.
Lexikon der industriellen Bildverarbeitung
Verschiedene Beleuchtungswellenlängen sind möglich:
rot (maximale Helligkeit), blau (maximale Genauigkeit
durch geringe ➚Beugung), infrarot (Fremdlichtunabhängigkeit), Infrarotblitz (sehr kurze und helle Blitze).
Telezentrische Beleuchtungen weisen durch ihre starke
Richtcharakterstik eine sehr gute Fremdlichtunterdrückung auf.
Anwendung: Zusammen mit telezentrischen Objektiven
immer dann, wenn es auf helle, kontrastreiche Beleuchtung ankommt und optisch schwierig zu handhabende
Prüfobjekte (glänzende Teile, Glas, verschieden hohe Teile), die hochgenau erkannt oder vermessen werden
müssen.
Hinweis: Die ausgeprägte Vorzugsrichtung der Lichtausstrahlung benötigt eine exakte Ausrichtung (➚Justierung). Daher muss bei telezentrischen Beleuchtungen für
eine solide und einstellbare Befestigung gesorgt werden.
Die Abstimmung von ➚Beleuchtungsapertur und Abbildungsapertur bestimmt wesentlich die Lage des ➚Kantenortes bei der Anwendung telezentrischer Komponenten.
Telezentrische Perspektive ➚Perspektive
Telezentrisches Großfeldobjektiv Sonderbauform ➚telezentrischer Objektive mit großem ➚Gesichtsfeld. Bei
telezentrischen Objektiven ist die Frontlinsenbaugruppe
ein erheblicher Kostenfaktor. Ab einem Durchmesser
von > 200 mm ist durch klassische Glaslinsen die ➚Industrietauglichkeit nicht mehr gewährleistet. Der mechanische Fassungsaufwand wird unverhältnismäßig
groß. Die Frontlinsengruppe von Großfeldobjektiven
wird deshalb als ➚Fresnel-Linse ausgeführt. Das gesamte Objektiv ist dadurch in Leichtbauweise zu realisieren. Für den industriellen Einsatz telezentrischer Objektive eröffnet das neue Einsatzmöglichkeiten. Trotz
Nutzung von Fresnellinsen ergibt sich eine gute ➚Modulationsübertragung bei Nutzung einer MegapixelKamera bis in die Bildecken hinein. Eine Korrektur der
prinzipbedingten ➚Farbfehler ist nicht möglich. Daher
sind Großfeldobjektive immer zusammen mit ➚monochromatischen Beleuchtungen einzusetzen.
Telezentrische Großfeldobjektive sind bis zu einem Gesichtsfelddurchmesser von ca. 800 mm möglich. Angewendet werden telezentrische Großfeldobjektive u.a.
bei der Inspektion von Kfz-Katalysatoren, Wärmetauschern, Getränkeflaschen und bei Handhabungsaufgaben in der Halbleiterindustrie.
Telezentrisches Messobjektiv ➚Telezentrisches Objektiv
mit besonders geringen ➚Abbildungsfehlern, besonders
➚Verzeichnung, das durch seine Eigenschaften für den
Einsatz in der optischen Messtechnik prädestiniert ist.
(s. auch Justierung)
Telezentrisches Objektiv Objektiv, das die telezentrische
➚Perspektive nutzt. Telezentrische Objektive besitzen
79
T
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 95
Template
T
einen objektseitig und/oder bildseitig parallelen Hauptstrahlengang. Das bedeutet, dass die Eintritts- bzw. Austrittspupille im Unendlichen liegen.
Beim Einsatz von telezentrischen Objektiven ändert sich
der ➚Abbildungsmaßstab nicht bei Änderung der Objektweite (Arbeitsabstand). Perspektive hat keinen Einfluss. Damit werden sie immer dort eingesetzt, wo Abstands- und Lageänderungen des ➚Prüfobjektes die
Messgenauigkeit beeinflussen. Das führt zur Vermeidung von ➚Antastunsicherheiten (siehe VDI-Richtlinie
2617, Bl. 6.1, S. 8). Bei schräger Ansicht wird das Prüfobjekt (überall gleich) in Parallelprojektion betrachtet.
In der Industriellen Bildverarbeitung werden meist objektseitig telezentrische Objektive eingesetzt. Beidseitig
telezentrische Objektive sind möglich. Bildseitig telezentrische Objektive spielen nur eine untergeordnete
Rolle in der industriellen Bildverarbeitung. Telezentrie
hat keinen Einfluss auf die Größe des ➚Schärfentiefebereiches.
Da telezentrische Objektive für einen genau definierten
Abbildungsmaßstab konzipiert sind, wird ihre ➚Lichtstärke durch die ➚numerische Apertur beschrieben. Die
Berechnung der ➚Schärfentiefe erfolgt dementsprechend mittels der numerischen Apertur.
➚Arbeitsabstand und ➚Abbildungsmaßstab telezentrischer Objektive sind meist fix konstruktiv vorgegeben.
Es gibt Objektive mit Innenfokussierung und/oder veränderlichem Abbildungsmaßstab.
Das maximale ➚Gesichtsfeld eines telezentrischen Objektives ergibt sich aus dem konzipierten Abbildungsmaßstab und dem möglichen Bildaufnehmer und ist immer kleiner als der freie Durchmesser der Frontlinse.
Anwendung: Inspizieren, Messen, an beliebigen räumlichen Teilen mit Bohrungen, Nuten, Durchbrüchen, verschiedenen Höhen. Zusammen mit ➚telezentrischen Beleuchtungen sind Präzisionsmessungen möglich.
Hinweise: Geringe Abweichungen des Abbildungsmaßstabes/Arbeitsabstandes können durch nicht exaktes
➚Auflagenmaß, eine nicht exakte Angabe der ➚lichtempfindlichen Fläche (➚Sensorgröße) oder durch ein
aus der Kamera entferntes IR-Sperrfilter auftreten. Beim
➚Verkippen des Prüfobjektes wird auch bei telezentrischen Objektiven die Projektion des Prüfobjektes abgebildet. (s. auch telezentrisches Messobjektiv, telezentrisches Großfeldobjektiv, Verkippung)
Template „Schablone“. Referenzobjekt, nach dem bei
dem ➚Template matching gesucht wird.
Template Matching Form der ➚Korrelation, um den Übereinstimmungsgrad zweier ➚Grauwertbilder zu ermitteln. ➚Objekte werden auf ihre Ähnlichkeit zu gespeicherten Referenzobjekten (➚Template) untersucht. Dazu wird das Template im ➚Prüffenster in eingestellten
80
Schritten von ➚Pixeln bewegt und nach jedem Schritt
das Maß für die Ähnlichkeit zwischen dem Template und
dem aktuellen Bild berechnet. In Bereichen hoher Ähnlichkeit wird eine Feinanalyse durchgeführt und als Ergebnis die Position der größten Ähnlichkeit zurückgegeben. Template Matching benötigt keine zusammenhängenden ➚Konturen und Objekte. (s. auch Mustererkennung)
Testchart Anordnung definierter geometrischer Objekte
zum Nachweis des ➚Auflösungsvermögens eines optischen Systems. Häufig werden Strichmuster (➚Linienpaare/mm) verwendet, deren Abstand nach einer bestimmten Vorschrift immer kleiner wird. Typisch zur Prüfung von Objektiven der industriellen Bildverarbeitung
ist das USAF 1951 Testchart.
Testcharts gibt es für Auflicht (auf weißem Kunststoff)
oder für Durchlicht (als Chrommaske auf Glas). (s. auch
Modulationsübertragungsfunktion)
Testobjekt ➚Testchart
Texel Kunstwort für Texture element, Texturelement ➚Textur.
Textur Anordnung von ➚Pixeln, deren Zusammenhang gewissen geometrischen oder statistischen Gesetzmäßigkeiten folgt. Die statistisch sich wiederholenden Strukturelemente sind die ➚Texel.
Die Beschreibung einer Textur ist von der ➚Auflösung
abhängig. Bei hoher Auflösung unregelmäßig erscheinende Texturen können in geringer Auflösung regelmäßig erscheinen und umgekehrt (➚Moiré). Regelmäßige Texturen (Schachbrett, Ziegelsteinwand) und statistische Texturen (Sand, Laub) sind möglich.
Aus Texturen können Hinweise über die Oberflächenorientierung gewonnen werden. Die Abbildung von Texturen kann durch ➚Fokussierung, ➚Beleuchtungstechniken oder ➚Bildfilter hervorgehoben oder unterdrückt
werden. (s. auch Texturanalyse)
Texturanalyse Untersuchung von ➚Texturen mit dem Ziel
der Texturklassifikation, Textursegmentation und Textursynthese. Typisches Werkzeug der Texturanalyse ist die
Cooccurrence-Matrix, mit deren Hilfe die Grauwertverhältnisse der Textur in der aktuellen Umgebung des betrachteten Pixels beschrieben werden. Die Texturanalyse
nutzt statistische Methoden. (s. auch Klassifikation, Segmentierung)
TFT-Monitor Thin Film Transistor-Monitor. Die digitale Ansteuerung einzelner Pixel erfolgt durch in Dünnschichttechnologie auf die Monitorscheibe aufgebrachte Transistoren. Durch seinen hohen Kontrast und die geringe
Fähigkeit Graustufen (nur ca. 30) darzustellen, eignen
sich TFT-Monitore nur schlecht als Kontroll- und Einrichtbildschirm bei Bildverarbeitungsaufgaben. Besser geeignet dafür sind Monitore mit Kathodenstrahlröhren.
Lexikon der industriellen Bildverarbeitung
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 96
Ultraviolettsperrfilter
Tiefenschärfe ➚Schärfentiefe
Tiefpass-Filter Tiefpass-Filter unterdrücken im Ortsfrequenzbereich hohe Frequenzen. Im gefilterten Bild bedeutet das, dass harte Wechsel der ➚Grauwerte (großer
Grauwertunterschied) innerhalb weniger Pixel unterdrückt werden. Durch Tiefpass-Filter werden Kantenkontraste abgeschwächt, das Bild erscheint unschärfer. Tiefpassfilter können als ➚Lichtfilter (OLPF – optical low
pass filter) oder als ➚Bildfilter ausgeführt sein.
Time Delayed Integration TDI. Spezielle Art von ➚CCDZeilensensoren, die für die Inspektion bewegter Teile genutzt werden. Dazu sind eine Reihe von CCD-Zeilen parallel angeordnet (z.B 96 Zeilen mit je 2048 ➚Pixel). Durch
Synchronisation der Bewegungsgeschwindigkeit des Teiles und dem Verschieben der Ladungen im CCD von einer
Zeile zur nächsten, werden die Ladungen der parallelen
CCD-Zellen jeweils aufsummiert. Durch dieses Prinzip
benötigen TDI-Sensoren wesentlich weniger Licht und
sind wesentlich rauschärmer als normale Zeilensensoren.
Time out Auszeit. Bei einer Reihe von Bildverarbeitungsfunktionen als Parameter einzustellende Zeit, während
derer auf eine Reaktion von außen (Signal an einem digitalen Eingang, bestimmtes Zeichen über die ➚serielle
Schnittstelle u.ä.) gewartet wird und die Prüfprogrammabarbeitung angehalten ist. Nach Verstreichen
dieser Auszeit wird mit der Abarbeitung des ➚Prüfprogramms fortgefahren. Time out ist ein geeignetes Mittel, um von der Maschine abhängige bedingte Entscheidungen (➚bedingter Sprung) zu treffen.
Toleranzbereich, auch Toleranzbreite. Differenz aus
➚oberem und ➚unterem Grenzwert.
Toleranzbreite ➚Toleranzbereich
Tonnenförmige Verzeichnung ➚Verzeichnung
Totalreflexion Vollständige Reflexion von Licht an einer
Grenzfläche von einem Medium mit höherer zu geringerer Brechzahl (z.B. im ➚Prisma: Glas-Luft). Totalreflexion entsteht nur dann, wenn ein Grenzwinkel EG überschritten wird. Der Grenzwinkel errechnet sich nach
EG = arcsin (n'/n) mit n' = Brechzahl der Luft (= 1), n =
Brechzahl des dichteren Mediums. Nach der Totalreflexion ist das Licht i.A. ➚elliptisch polarisiert.
Transmission Durchgang von Strahlung durch ein Medium ohne Änderung der Frequenz der Strahlung. Ein
reales ➚Prüfobjekt ist meist eine unbekannte Mischung
aus ➚Reflexion, ➚Absorption, Transmission. Dabei kann
➚Polarisation auftreten. (s. auch Transmissionsgrad)
Transmissionskurve Grafische Darstellung des ➚Transmissiongrades über die ➚Wellenlänge. Wird zur Beschreibung der Durchlässigkeit von ➚Filtern benutzt.
Transmissionsgrad Kurzzeichen τ. Verhältnis zwischen
durchgehendem und einfallendem ➚Strahlungsfluss.
Transmissionsgrade zwischen 0 und 99% sind möglich.
Lexikon der industriellen Bildverarbeitung
Es gilt der Energieerhaltungssatz: ➚Reflexionsgrad +
➚Absorptionsgrad + ➚Transmissionsgrad = 100%. Der
Transmissionsgrad ist material-, wellenlängen- und winkelabhängig. Der Transmissionsgrad hat bei ➚Durchlichtbeleuchtung einen starken Einfluss auf den ➚Kontrast, der im Bild erreicht wird.
Triangulationsverfahren Einfachstes optisches Verfahren
zur punktförmigen Gewinnung eines Höhendatums. Das
➚Prüfobjekt wird von einen Punktlichtprojektor (z.B.
➚Diodenlaser) beleuchtet. Eine unter abweichendem
Winkel betrachtende Kamera erkennt bei Höhenänderung einen lateralen Versatz des Lichtpunktes. Über einfache trigonometrische Zusammenhänge aus Abständen und Winkeln zwischen Kamera und Beleuchtung
kann so die punktförmige Höheninformation aus der Lage des Lichtpunktes im Bild abgeleitet werden.
Anwendung: Das Triangulationsverfahren wird meist ergänzend bei einer 2-D-Aufgabenstellung genutzt, um
punktuell Teile zur Anwesenheitskontrolle oder Montagekontrolle (höhengerechter Einbau) zu prüfen. (s. auch
strukturierte Beleuchtung)
Trigger, engl. „Auslöser“. Elektrisches Signal, das ein Ereignis auslöst.
U
Überbelichtung ➚Belichtung. (s. auch Sättigung)
UGW ➚Unterer Grenzwert
UKIVA United Kingdom Industrial Vision Association. Bildverarbeitungsvereinigung in Großbritannien. www.
ukiva.org
Ultraviolettes Licht Licht mit ➚Wellenlängen von 15 nm ...
380 nm, die kürzer sind, als die des ➚sichtbaren Lichts.
➚Bildaufnehmer der Bildverarbeitung können durch Beschichtung mit einer Fluoreszenzschicht (➚Fluoreszenz)
für ultraviolettes Licht empfindlich gemacht werden.
Weitere Unterteilung in UV-A-Licht: 320 ... 380 nm, UVB-Licht: 280 ... 320 nm, UV-C-Licht: 280 ... 200 nm.
Ultraviolettes Licht ist durch seine energiereiche Strahlung für den Menschen (Augen und Haut) in hohen Dosen schädlich (➚Augenschutz) und kann aus dem
➚Spektrum von Lichtquellen durch ➚Ultraviolettsperrfilter herausgefiltert werden.
Ultraviolettsperrfilter Langpassfilter. Sperrt Licht mit
➚Wellenlängen < 380 nm. Ultraviolettsperrfilter sind im
sichtbaren Bereich des ➚Spektrums zu mehr als 99%
durchlässig. Da ➚Bildaufnehmer der Bildverarbeitung
kaum für ultraviolettes Licht (➚spektrale Empfindlichkeit) empfindlich sind, werden vorgesetzte Ultraviolettsperrfilter häufig als ➚Schutzgläser genutzt.
81
T
U
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 97
Umgebungsbedingungen
U
Umgebungsbedingungen Die Bedingungen, unter denen
Bildverarbeitungskomponenten funktionieren müssen,
können sehr weit variieren. Dementsprechend robust
müssen die Lösungen aufgebaut werden.
Temperatur: üblich -40° ... +45° (60°) Celsius, in Extremfällen bis 450° Celsius. Gehäuse und Kühlung (Konvektion, gereinigte Luft, gekühlt Gehäuse, extrem Wasser) vorsehen. Anmerkung: Elektronische Komponenten
halbieren ihre Lebenszeit je 7° Celsius Temperaturanstieg.
Luftflimmern führt zu ungleichen Prüfergebnissen.
(➚Schlieren)
Kälte: Beschlagen der Optik, Schwergängigkeit Mechanik (Schmiermittel). Mechanischen Längenausdehnungskoeffizienten beachten. Berücksichtigung bei stark
wechselnden Verhältnissen in der Fertigungsumgebung
(evtl. Temperaturkompensation vorsehen). Material von
➚Kalbrierkörper und ➚Prüfobjekt gleich wählen.
Feuchtigkeit: Beschlagen der Optik, Eindringen in die
Elektronik, Ölnebel, Kühlflüssigkeit (Gehäuse vorsehen,
evtl. zu öffnende Klappe), Reinigungsintervalle festlegen.
Staub, Schmutz: ➚Schutzgläser, Abblasen mit gereinigter Druckluft, Reinigungsintervalle festlegen.
Schwingungen: mechanischer Bruch, Dejustierung, Lösen von Teilen. Konstruktive Maßnahmen zur Schwingungsentkopplung vorsehen, Dämpfung, Lacksicherung
von Verbindungen, Klemmungen.
Elektrische Einflüsse: Übersprechen, Transienten, EMV,
Optoentkopplung vorsehen, Komponenten mit weiten
Ein-/Ausgangsdaten nutzen. (s. auch Industrietauglichkeit)
Umgebungslicht ➚Fremdlicht
Umlenkprisma ➚Prismenvorsatz
Umrüstzeit Zeit, die ein Einrichter benötigt, um eine Maschine von der Produktion einer Teileart zur Produktion
einer anderen Teileart umzustellen.
Umrüstzeiten für Bildverarbeitung sind sehr gering. Vorausgesetzt, es müssen keine Änderungen an Optik und
Beleuchtung vorgenommen werden, beträgt die Umrüstzeit für Bildverarbeitung nur wenige Sekunden, die
zum Laden des neuen Prüfprogramms benötigt werden.
Unbedingter Sprung ➚Programmverzweigungen
Universal Serial Bus USB. Nachfolger für die parallele
und serielle Schnittstelle. Datenübertragungsraten von
bis zu 12 MB/s (Version 1.0) und 480 Mbit/s (Version
2.0) lassen sich realisieren. „Hot plugging“ ist möglich;
Geräte können während des Betriebes entfernt und hinzugefügt werden. Kabellängen bis 5 m. Stromversorgung über das USB-Anschlusskabel. Der USB ist für
Sterntopologie ausgelegt und kann bis zu 127 Geräte
verwalten. Zunehmend werden auch Kameras für die industrielle Bildverarbeitung mit USB-Schnittstelle ausgerüstet.
82
Unschärfe 1.) optisch: Abweichung von der idealisierten
punktförmigen Abbildung. Ein Punkt wird immer nur als
Fleck abgebildet. Ursachen sind: Beugungsunschärfe,
➚Abbildungsfehler des optischen Systems, unscharfe
Fokussierung.
2.) ➚Bewegungsunschärfe: Unschärfe im Bild, die durch
die Bewegung des Objektes relativ zum Bildaufnehmer
während der Bildaufnahme erzeugt wird. Kurze Belichtungszeiten (kurze Shutteröffnung oder Blitzbeleuchtung
der Szene) können die Bewegungsunschärfe minimieren.
3.) Antastparameter: Beschreibt die maximal zu tolerierende ➚Kantenbreite, bei der eine ➚Grauwertdifferenz
noch als ➚Kante interpretiert wird.
Unsymmetrische Kante ➚Kantenform
Unterabtastung engl. Aliasing. Tritt auf, wenn das ➚Abtasttheorem (Abtastfrequenz >= 2 · max. Signalfrequenz) nicht erfüllt ist. Durch Unterabtastung kommt es
zu Informationsverlust. Das gilt sowohl für elektrische
Signale als auch für die ortsdiskrete Abtastung von Bildsignalen auf ➚Bildaufnehmern.
Unterbelichtung ➚Belichtung
Untere Eingriffsgrenze, auch UEG ➚Eingriffsgrenzen
Unterer Grenzwert, auch UGW, unteres Abmaß, „-“ Toleranz. Kleinste (negative) noch zulässige Abweichung
vom ➚Nennmaß/➚Sollwert, die ein ➚Prüfobjekt noch
als gut charakterisiert.
Unteres Abmaß ➚Unterer Grenzwert
Unterprogrammtechnik Element strukturierter Prüfprogrammgestaltung für Bildverarbeitungssysteme. Die Unterprogrammtechnik wird verwendet, wenn Teile eines
➚Prüfprogramms an verschiedenen Stellen im Prüfprogramm benötigt werden.
Die sich wiederholenden Befehle werden in einem Block
abgelegt, der bei Bedarf über seinen Namen aufgerufen
wird.
Verschiedene Arten von Unterprogrammen sind möglich:
a) direkte Programmierung von Unterprogrammen. Diese Unterprogramme springen mit RETURN zum Einstiegspunkt im Hauptprogramm zurück;
b) Aufruf von Unterprogrammen durch Sprünge zu Marken: Für Unterprogramme mit Marken wird eine zusätzliche Marke benötigt, zu der gesprungen wird, nachdem
das Unterprogramm abgearbeitet wurde.
Unterprogramme lassen sich bedingt und unbedingt
aufrufen. Bedingte Aufrufe können durch folgende Ereignisse erfolgen: nach erfolgreichem Befehl; nach fehlgeschlagenem Befehl; nach erfolgreichem ➚Bedingungsblock; fehlgeschlagenem Bedingungsblock.
Verschachtelung von Unterprogrammen sind möglich.
Unterprogrammtechnik macht die zeitliche Abarbeitung
von Prüfprogrammen sehr viel effektiver.
USB ➚Universal Serial Bus
Lexikon der industriellen Bildverarbeitung
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 98
Verkippung
UV-Filter ➚Ultraviolettsperrfilter
UV-Licht ➚Ultraviolettes Licht
UV-Sperrfilter ➚Ultraviolettsperrfilter
UXGA Ultra Extended Graphics Array. Bildschirmstandard
für Rechner mit einer Auflösung von maximal 1600 x
1200 Pixeln.
V
V24 ➚RS-232
V-Lambda-Kurve Kurve der spektralen Hellempfindlichkeit des menschlichen Auges. Im sichtbaren Bereich
werden gleiche spektrale ➚Strahldichten verschiedener
➚Wellenlängen unterschiedlich hell empfunden. Das
menschliche Auge hat danach seine maximale Empfindlichkeit bei etwa 555 nm (grün). Zum Teil werden auch
➚Bildaufnehmer nach dieser Kurve bewertet, da ihre
Hellempfindung der des menschlichen Auges angepasst
wurde. Die V-Lambda-Kurve stellt die Verbindung zwischen ➚strahlungsphysikalischen und ➚lichttechnischen Größen her.
V-SYNC ➚Vertikales Synchronsignal
Vario-Objektiv ➚Zoom-Objektiv
VCWin Universelle Bedienoberfläche für in ihrer Leistungsfähigkeit skalierbare Bildverarbeitungssysteme. Basiert
auf dem Konzept von getrennter Bedienung (➚Bedienoberfläche) und Bildverarbeitung. Nutzt dazu eine allgemeingültige ➚Fernsteuerschnittstelle über die, systemunabhängig, von der Bedienoberfläche die Fernsteuercodes an das Bildverarbeitungssystem gesendet, dort
ausgeführt werden und die Ergebnisse zurückgeliefert
werden.
VDMA Verein Deutscher Maschinen- und Anlagenbauer.
Führende Vereinigung für Bildverarbeitung in Deutschland mit der Fachgliederung Robotik und Automation.
www.vdma.org
Verarbeitungsgeschwindigkeit Maß für die Zeit, die ein
Bildverarbeitungssystem benötigt, um Informationen zu
erfassen, analysieren, zu interpretieren, und die Entscheidungen auszugeben. Häufig in Teile/Sekunde ausgedrückt.
Die Verarbeitungsgeschwindigkeit eines Bildverarbeitungssystems hängt im einzelnen ab von:
a) der ➚Bildaufnahmezeit;
b) der Möglichkeit von ➚Parallelverarbeitung;
c) der ➚Bildeinzugszeit;
d) der Zeit für die Informationsverarbeitung;
e) ➚Verzögerungszeiten (Triggerimpuls-Bildaufnahme;
f) Zeit, Art der Kommunikation (➚Echtzeit);
g) genutzte Hardwarebasis (Rechnerplattform, Prozessor)
Lexikon der industriellen Bildverarbeitung
Je nach Komplexität der Aufgabenstellung, Hard- und
Software-Ausstattung des Bildverarbeitungssystems
(➚Smart Camera Bildaufnehmer bis hin ➚High-end-System) können die Verarbeitungsgeschwindigkeiten sehr
verschieden sein.
Die hochgenaue dreidimensionale Analyse von Freiformflächen mit bis zu 12 Kameras kann mehrere Minuten in
Anspruch nehmen. Die Lageregelung von gelaserten
Strukturen an Endlosmaterialien hingegen kann mit Verarbeitungsgeschwindigkeiten von bis zu 120 Teilen/s erfolgen. (s. auch Zykluszeit)
Verfügbarkeit Kurzzeichen V. Wahrscheinlichkeit, dass
sich eine Anlage zu einem bestimmten Zeitpunkt in
funktionsfähigem Zustand befindet. Berechnet nach:
V = 1/(1 + [MDT/MTBF])
V = Verfügbarkeit; MDT (Mean Down Time) = mittlere
Störungsdauer; MTBF (Mean Time Between Failure) =
mittlere fehlerfreie Betriebszeit.
Hohe Verfügbarkeit wird durch die Verbesserung von
Zuverlässigkeit steigernden Qualitätssicherungsmaßnahmen erreicht. Der Einsatz industrieller Bildverarbeitung steigert die Verfügbarkeit.
Vergleichsgenauigkeit Differenz zwischen den mittleren
Messwerten eines Merkmals an einem Teil, die mit demselben Messmittel aber von verschiedenen Personen
oder an verschiedenen Orten ermittelt wurden.
Vergrößerung ➚Abbildungsmaßstab.
Vergütung Oberflächenbeschichtung an optischen Bauelementen zur Herabsetzung parasitärer Reflexe (Reflexminderung). Reflexe werden durch ➚Interferenz an
einer oder mehreren dünnen ➚dielektrischen Schichten
gemindert. Formen sind die a) Einfachbeschichtungen
(z.B. mit MgF2) oder b) Mehrfachbeschichtung (multi
coating) für verschiedene Wellenlängen.
Vergütete optische Bauelemente liefern kontrastreichere Bilder. Beispiel: Ohne Entspiegelungsschicht werden
typischerweise 4% des Lichtes an jeder Glas/Luft-Fläche
eines optischen Systems reflektiert. Mit Entspiegelungsschicht kann die Reflexion auf < 0,5%/Fläche reduziert
werden.
Verkippung Drehlageabweichung des ➚Prüfobjektes um
eine die ➚Objektebene enthaltene Achse. Verkippung
führt zu projizierter Abbildung (Längenänderung), unabhängig von der ➚Perspektive des optischen Systems.
Bei Verkippung flacher Teile treten Fehler 2. Ordnung
auf (Teile erscheinen kleiner). Ist bei Winkeln < 3° zu
vernachlässigen. Die scheinbare Längenänderung δ ist:
δ = L · (1 - cos α)
mit L = Länge, α = Kippwinkel.
Bei der Verkippung tiefer Teile treten Fehler 1. Ordnung
auf (Teile erscheinen größer). Die scheinbare Längenänderung δ ist: δ = T · sin α
83
U
V
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 99
Verlängerungsfaktor
V
mit T = Tiefe, α = Kippwinkel. Die Verkippung tiefer Teile tritt auch bei kleinen Winkeln auf, umso mehr, je tiefer das Teil ist. Die Kanten im Bild werden dadurch unsymmetrisch (➚Kantenform). (s. auch Justierung)
Verlängerungsfaktor ➚Filterfaktor
Verschluss ➚Shutter
Vertikale Auflösung ➚Auflösung
Vertikaler Gesichtsfeldwinkel ➚Gesichtsfeldwinkel
Vertikales Synchronsignal Bestandteil des ➚Videosignals. Das vertikale Synchronsignal gibt den Beginn eines
neuen Halbbildes (➚Zeilensprungverfahren) im ➚Videosignal an. Auch als V-SYNC bezeichnet.
Verzeichnung Abkürzung V. ➚Abbildungsfehler, der sich
quantitativ nicht mit der ➚Modulationsübertragungsfunktion fassen lässt. Verzeichnung äußert sich durch einen nicht konstanten ➚Abbildungsmaßstab über die
Bildebene. Die ➚Bildgröße ist durch Verzeichnung abhängig vom Bildort: Objekt und Bild sind mathematisch
nicht ähnlich.
V = (ß’ist - ß’soll)/ß’soll
mit ß’ist = Abbildungsmaßstab ß’ im achsfernen Bereich,
ß’soll = Abbildungsmaßstab ß’ auf der optischer Achse.
Angabe in 0/0 oder 0/00.
Positive Verzeichnungswerte bedeuten kissenförmige
Verzeichnung, negative Werte bedeuten tonnenförmige
Verzeichnung. Ausgangspunkt ist ein quadratisches Objekt, das bei verzeichnender Abbildung verzerrt wird.
Die Verzeichnung ist bedeutsam für alle Messaufgaben.
Optiken für messtechnische Anwendungen sollen perspektivfrei (➚telezentrisches Objektiv) und verzeichnungsarm/-frei sein, um Fehlervermeidung vor Fehlerkompensation (Fehlerfortpflanzung!) gehen zu lassen.
Für Applikationen der ➚Anwesenheitskontrolle oder
➚attributiven Merkmalsprüfung kann die Verzeichnung
meist vernachlässigt werden.
Praktische Folgerungen: im achsnahen Bereich der ➚optischen Achse ist die Verzeichnung am kleinsten; bei progressivem Verlauf der Verzeichnung einen kleineren
➚Bildaufnehmer benutzen: Verzeichnung 1/3" Bildaufnehmer < 1/2" Bildaufnehmer < 2/3" Bildaufnehmer;
Verzeichnung kann bei bekannter Korrektionsdarstellung
oder -funktion (meist Polynom) durch Korrekturrechnung
für jedes ➚Pixel des Bildaufnehmers korrigiert werden.
Beispiel für +2% kissenförmige Verzeichnung: Ein Objekt
von 400 Bildpunkten Größe wird mit Verzeichnung nur
mit 392 Bildpunkten Größe abgebildet.
Verzeichnungsfreiheit Die Herstellung völliger Verzeichnungsfreiheit ist bis auf wenige Ausnahmen so gut wie
nicht herstellbar. Daher gilt der pragmatische Ansatz:
Verzeichnungsfreiheit im Sinne der industriellen Bildverarbeitung bedeutet, dass die ➚Verzeichnung mit Mitteln der Bildverarbeitung nicht mehr nachweisbar ist.
84
VGA Video Graphics Array. Grafikformat für Computer mit
einer Bildpunktauflösung von 640 x 480 Pixeln. Die Anzahl der darstellbaren Farben beträgt 256, es lassen sich
bis zu 50 x 80 Zeichen darstellen. Weiterentwicklung
sind ➚SVGA, ➚XGA, ➚UXGA.
Video-Echtzeit ➚Echtzeit
Videoausgang Ausgang von Kameras, über die das ➚Videosignal übertragen wird.
Videonorm ➚CCIR, ➚RS-170, ➚NTSC, ➚PAL
Videosignal Das Videosignal ist die elektrische Information,
die von einem ➚Bildaufnehmer geliefert und in einer Kamera in ein standardisiertes Datenformat gebracht wird.
Zwei hauptsächliche Arten analoger Videosignale gibt
es: Schwarz/weiß-Bild-Austast-Synchron-Signal (BASSignal) und Farb-Bild-Austast-Synchron-Signal (FBASSignal).
Das Schwarz/weiß-Videosignal besitzt ein Helligkeitssignal für jeden Rasterpunkt, sowie Synchronisationsimpulse zur Zeilen- und Bildsteuerung (➚vertikales, ➚horizontales Sychronsignal). Alle Bildinformationen werden i.A. über ein ➚Koaxialkabel übertragen. Farbvideosignale enthalten neben dem Y-Helligkeitssignal (Luminanz) zusätzlich ➚Farbinformationen zu den drei
➚Grundfarben Rot (R), Grün (G), Blau (B), die verschlüsselt als C-Signal (Chrominanz) vorliegen. Das CSignal enthält Y-R- und Y-B-Informationen. Die Grün-Information kann daraus berechnet werden. Berechnet
wird Y nach: Y = 0,30R + 0,59G + 0,11B.
Entsprechend der üblichen Fernsehnormen können diese Signale entsprechend PAL- oder NTSC-Norm codiert
werden in ein Y/C-Composite- oder FBAS-Signal. Digitale Videosignale werden über verschiedene genormte
Schnittstellen übertragen wie ➚USB und ➚Fire Wire
über ➚Camera Link.
Vidikon-Röhre Vakuumbildaufnahmeröhre mit analogem
Spannungsausgang. Die Helligkeitsinformation wird
von einer lichtempfindlichen Fläche mit einem Elektronenstrahl seriell abgetastet. (s. auch Sensorgröße)
Vignettierung Abnahme der Beleuchtungsstärke im Bild
von der Bildmitte zum Bildrand. Man unterscheidet zwei
Arten:
a) Künstliche Vignettierung: Beschneidung des Gesichtsfeldes. Nicht durch ➚Öffnungsblenden verursacht, sondern durch Blenden, die den Bildausschnitt zusätzlich
zum ➚Bildaufnehmer begrenzen. Künstliche Vignettierung tritt zum Beispiel auf, wenn Objektive, die für eine
bestimmte ➚Sensorgröße berechnet wurden, an Kameras mit größeren Sensoren verwendet werden. Dabei
tritt ein Schlüssellocheffekt auf, der das Bild durch optische Fassungsteile einschränkt. Zur Vermeidung muss
auf die vom Objektivhersteller angegebene maximale
Bildaufnehmergröße geachtet werden.
Lexikon der industriellen Bildverarbeitung
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 100
Wellenoptik
b) Natürliche Vignettierung, auch cosinus4-Abfall/cosinus4-Gesetz. Abfall der Bildhelligkeit zum Bildrand hin
bei zunehmender Bildhöhe nach dem cos4-Gesetz. Tritt
besonders bei Weitwinkelobjektiven auf. Zusammenhang für die ➚Beleuchtungsstärke auf dem Bildaufnehmer:
E(w) = E0 · cos4(w)
mit E0 = Beleuchtungsstärke in Bildmitte, w = Einfallswinkel des Lichtes.
Natürliche Vignettierung hat besonders auf die Wirksamkeit von Bildverarbeitungsalgorithmen starken Einfluss. Sie führt zur Ortsabhängigkeit der ➚Antastparameter im Bild. Kann durch spezielle Beleuchtungsanordnungen (z.B. ➚Dunkelfeldbeleuchtung) kompensiert
werden.
VIS Visible light ➚sichtbares Licht
Vision Academy Weiterbildungseinrichtung für die industrielle Bildverarbeitung. Die Vision Academy sorgt für
Training und ganzheitliche Wissensvermittlung für die
Technologie Bildverarbeitung. Praxisbetonte Seminare
für Einsteiger, Anwender, Profis. Von der Technologieübersicht, über Schulung spezieller Themenbereiche bis
hin zum Technologietraining werden eintägige bis 14tägige Schulungen durchgeführt. In-House-Schulungen.
www.vision-academy.org
Vision System ➚Bildverarbeitungssystem
VME-Bus Mikrocomputerbussystem für Anwendungen mit
hohen Ansprüchen an ➚Echtzeit. Bildverarbeitungssysteme im High-end-Bereich nutzen den VME-Bus.
www.vita.org
Vollbild Bild, das als Ganzes aus dem ➚Bildaufnehmer
ausgelesen wird und sich nicht wie beim ➚Zeilensprungverfahren aus zwei Halbbildern zusammensetzt. Kameras mit ➚Progressive Scan-Sensoren liefern Vollbilder.
(s. auch Vollbild-Sensor)
Vollbild-Sensor Full Frame Sensor. Ausführung eines
➚Bildaufnehmers, der nicht im Halbbildmodus arbeitet.
Bei der Bildaufnahme wird die gesamte lichtempfindliche Fläche gleichzeitig belichtet. Die Bildinformation
wird als Ganzes ausgelesen. Vorteil ist, dass es so nicht
zum ➚Halbbildversatz durch bewegte Objekte während
der Integrationszeit kommen kann. (s. auch Progressive
Scan, non-interlaced, Halbbild-Sensor)
Vollbild-Shutter ➚Shutter
Vorsatzlinse ➚Nahlinse
Vorsatzoptik ➚Strahlformungsoptik
Vorschaltgerät ➚Leuchtstofflampenbeleuchtung
Vorverarbeitung ➚Bildvorverarbeitung
Voxel Kunstwort für Volume Element. Erweiterung des
➚Pixelbegriffs auf die 3. Dimension. Voxel werden in
der 3-D-Bildverarbeitung als Beschreibungselement genutzt.
Lexikon der industriellen Bildverarbeitung
W
Weißabgleich Kompensationsmethode für Farbkameras
zur farbgetreuen Wiedergabe. Beim Weißabgleich erfolgt ein Abgleich der Verstärkungen der einzelnen Farbkanäle (➚Farbkomponenten RGB) mit dem Ziel, dass
das betrachtete Weiß keinen Farbstich hat. Weißabgleich ist notwendig, wenn das verwendete ➚Weißlicht
einen von der Norm-➚Farbtemperatur abweichenden
Wert besitzt.
Weißlicht entsteht durch ein kontinuierliches ➚Spektrum
unter Beteiligung aller ➚Wellenlängen des ➚sichtbaren
Lichtes. Weißlicht wird für die ➚Farbbildverarbeitung
benötigt. Weißlicht in der Schwarz/weiß-Bildverarbeitung hat einige Besonderheiten:
Weißlicht kann je nach ➚Korrektion des Objektives chromatische ➚Abbildungsfehler (Farbsaum) erzeugen, die
bei Schwarz/weiß-➚Bildaufnehmern ➚Unschärfe erzeugen. Daher ist es günstig, in der Schwarz/weiß-Bildverarbeitung ➚monochromatisch zu beleuchten. Weißes Licht
kann für ➚Auflichtbeleuchtung bei wechselnden Farben
der ➚Prüfobjekte sinnvoll sein. Das vermeidet starke
Helligkeitsschwankungen durch das Vorkommen von
➚Komplementärfarben. Dabei ist dann eine Steuerung
der Helligkeit der Beleuchtung zum Ausgleich der verschiedenen ➚Grauwerte nötig. (s. auch Farbtemperatur)
Weitwinkelobjektiv Objektive mit einer deutlich kürzeren
Brennweite als die Diagonale des ➚Bildaufnehmers. Somit ist die Bezeichnung Weitwinkelobjektiv von der Sensorgröße abhängig. Als Fisheye-Objektiv bezeichnet
man ein extrem weitwinkliges Objektiv mit bis zu 180°.
➚Gesichtsfeldwinkel. Je weitwinkliger ein Objektiv ist,
desto größer sind tendenziell seine ➚Verzeichnung sowie die natürliche ➚Vignettierung. Mit Weitwinkelobjektiven lassen sich große ➚Gesichtsfelder bei kurzem
➚Arbeitsabstand realisieren.
Weitwinkelobjektive sind fast ausschließlich nicht für
Messaufgaben geeignet, lassen sich aber vielfältig beim
nichtmaßlichen ➚Prüfen einsetzen.
Wellenlänge Formelzeichen λ. Länge der räumlichen Periode einer elektromagnetischen Welle. ➚Licht als elektromagnetische Welle belegt den Wellenlängenbereich
zwischen 15 nm und 800 µm. Die darin eingeschlossenen Bereiche sind ➚ultraviolettes Licht (UV), ➚sichtbares Licht (VIS), ➚infrarotes Licht (IR). Zusammenhang
mit der Lichtgeschwindigkeit (ca. 300.000 km/s): λ =
Lichtgeschwindigkeit/Frequenz.
Wellenoptik Im Gegensatz zur ➚geometrischen Optik
wird Licht durch Ausbreitung elektromagnetischer Wellen beschrieben (mathematisch durch die Maxwellschen
Gleichungen). Erst durch die Wellenoptik lassen sich die
85
V
W
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 101
Weltkoordinatensystem
W
X
Y
Z
Erscheinung von ➚Interferenz, ➚Beugung und ➚Polarisation beschreiben.
Weltkoordinatensystem Gemeinsames Bezugssystem, das
beim Einsatz von mehreren Kameras und bei der Verbindung von Kameras und Robotern (➚Robot Vision) genutzt wird. Ursprung des Weltkoordinatensystems ist
links unten. Durch ➚Koordinatentransformation werden
die Koordinatensysteme ineinander umgerechnet. (s.
auch Bildkoordinatensystem, Koordinatentransformation)
Wendelantastung Besondere Art der ➚Gradientenantastung. Für die Vermessung von Glühlampen, speziell
der Glühwendel, sind besondere Antastverfahren notwendig, die die von der Glühwendel im ➚Durchlicht gebildeten lokalen Maxima berücksichtigen. Bei entsprechender ➚Antastbreite würde das normale Gradientenverfahren ➚Antastalgorithmus) durch die statistische
Mittelung ein verfälschtes Ergebnis liefern.
Wiederholgenauigkeit beschreibt die Unterschiede der
ermittelten Messwerte, wenn eine Person das gleiche
Merkmal an ein und demselben Teil mit ein und demselben Messmittel mehrmals misst.
Winkel Messung von Winkeln ist eine typische Aufgabe für
Bildverarbeitungssysteme. Zur Ermittlung geometrischer
Maße können Winkel zwischen ➚Geometrieelementen
berechnet werden durch:
Schnittwinkel zweier Geraden; Schnittwinkel zwischen
der Verbindungsgeraden zwischen zwei Punkten und
der x-Achse; Schnittwinkel zwischen der Verbindungsgeraden zwischen zwei Punkten und der y-Achse;
Schnittwinkel zwischen zwei Geraden, die aus 3 Punkten gebildet werden; Schnittwinkel zwischen einer Geraden und der x-Achse; Schnittwinkel zwischen einer
Geraden und der y-Achse; Schnittwinkel zwischen zwei
Tangenten an einen Kreis.
Winkelobjektiv Spezialform von ➚entozentrischen oder
➚telezentrischen Objektiven, die einen geknickten objektseitigen Strahlengang aufweisen. Die Strahlumlenkung erfolgt mit ➚Prismenvorsätzen. Winkelobjektive
werden besonders bei platzkritischen Applikationen
angewendet, wenn eine geradlinige Anordnung von
Beleuch-tung, Prüfobjekt, Objektiv, Kamera nicht möglich ist.
Wissensbasierte Systeme, auch Künstliche Intelligenz
(KI), artificial intelligence (AI). Besondere Form von Datenbanksystemen, bei der die Daten nach ihrem Inhalt
interpretiert und verarbeitet werden. Einsatz überall
dort, wo es keine allgemein gültigen Modelle gibt.
Wissensbasierte Systeme benötigen die Übertragung
von Expertenwissen auf das System. Die Bearbeitung
des Wissens erfolgt nach vorgegebenen Regeln. Das System kann sich auch selbst neue Regeln vorgeben (Lernfähigkeit).
86
X
Xenonbogenlampe Typischer Vertreter für ➚Lichtquellen
für ➚Blitzbeleuchtungen in der industriellen Bildverarbeitung. Ist sehr hell und weiß (➚Farbtemperatur: 6250 K)
und blitzbar bis mehrere 100 Blitze/s. Dem stehen der
Betrieb mit Hochspannung, EMV-Probleme, eine aufwendige Elektronik, ein nicht kontinuierliches Spektrum
des ausgesendeten Lichtes sowie die Alterung (Helligkeitsverlust am Ende der Lebensdauer von bis zu 70%) gegenüber. (s. auch Gasentladungslampe)
XGA Extended Video Graphics Array. Weiterentwicklung
von ➚SVGA. Grafikformat für Computer mit einer Bildpunktauflösung von 1024 x 768 Pixeln und 16 Millionen
darstellbaren Farben.
Y
Y-Signal Luminanz-Signal. ➚Videosignal
Y/C-Composite-Signal ➚Videosignal
YUV-Signal ➚Videosignal, das aus dem Luminanzsignal
(➚Y-Signal), dem Farbdifferenzsignal Y-B (Luminanz minus Blau) und dem Farbdifferenzsignal Y-R (Luminanz
minus Rot) besteht. Somit lässt sich ein ➚RGB-Signal in
ein YUV-Signal umrechnen. Diese Umrechnung ist sinnvoll, da so die für die Helligkeit verantwortliche Komponente Y mit höherer Auflösung übertragen werden
kann. Das hat Vorteile bei der visuellen Betrachtung, da
das menschliche Auge für Helligkeitsunterschiede empfindlicher ist als für Farbdifferenzen.
Z
Zähler Funktion in Prüfprogrammen der Bildverarbeitung,
um Ereignisse, Anzahlen von Attributen, Prüfdurchläufe,
Gut-/Schlecht-Teile u.ä. zu zählen. Inkrementierbare und
dekrementierbare Zähler sind üblich, Setzen und Rücksetzen eingeschlossen.
Zeicheneinlernen Vorgang bei ➚OCR/OCV, bei dem vor
dem eigentlichen Zeichenlesen dem Bildverarbeitungssystem mitgeteilt wird, nach welchen ➚Mustern (Zeichen) gesucht werden muss und wie die Bedeutung dieser Muster (Zeichen) ist. Beim Zeicheneinlernen wird eine ➚Merkmalsextraktion durchgeführt, um später beim
Zeichenlesen (OCR/OCV) eine Zuordnung der Zeichen
(➚Klassifikation) vornehmen zu können.
Zeichenlesen ➚OCR/OCV
Lexikon der industriellen Bildverarbeitung
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 102
Zulässige Unschärfe
Zeichenerkennung ➚OCR/OCV
Zeichensatz Vorrat aller zur Darstellung zur Verfügung
stehender Zeichen. Zu einem Zeichensatz im Sinne der
➚OCR/OCV können sowohl Buchstaben, Zahlen als
auch Symbole und Logos gehören. Bevor Zeichenerkennung (➚OCR/OCV) durchgeführt werden kann, muss
dem Bildverarbeitungssystem mitgeteilt werden, nach
welchen ➚Mustern (Zeichen) gesucht werden soll. Dazu
muss der Zeichensatz eingelernt werden.
Feste Zeichensätze werden zur Erkennung von Einzelzeichen gleicher Größe genutzt. Danach richtet sich die
Größe des ➚Prüffensters.
Ineinanderfließende und unterbrochene Zeichen werden erkannt, auch bei schlechtem Kontrast. Nachteil: Jedes Zeichen wird einzeln bearbeitet.
Skalierbare Zeichensätze ermöglichen die Erkennung
mehrerer Zeichen in einem Schritt, auch bei verschiedener Zeichengröße. Allerdings benötigt die Verwendung
skalierbarer Zeichensätze guten Kontrast sowie eine
Trennung zwischen den einzelnen Zeichen.
Zeilenbeleuchtung ➚Linienlicht
Zeilenkamera Industrielle Kamera mit zeilenförmiger Anordnung der lichtempfindlichen Pixel. Meist als CCDZeilenkamera ausgeführt (➚Charge Coupled Device)
mit bis zu 12.000 Pixel und bis zu 80 mm Länge. Der
Bildaufnehmer ist eindimensional. Das Bild, das eine
Zeilenkamera erzeugt, ist ein Helligkeitsschnitt über das
➚Objekt. Um ein zweidimensionales Bild vom ➚Prüfobjekt zu erhalten, müssen die einzelnen Zeilen im ➚Bildspeicher nacheinander abgelegt werden. Problem dabei
ist die Synchronisation mit dem Vorschub des Prüfobjektes (Überlappung oder Lücken) sowie die anfallenden
großen Datenmengen. Häufig reicht jedoch die Auswertung der einzelnen Zeile („Schnitt“) aus.
Das Auslesen der Zeile kann sehr schnell mit bis zu einigen Kilohertz erfolgen, weshalb Zeilenkameras besonders für die Abbildung von schnell laufenden Endlosmaterialien eingesetzt werden. Mit drei nebeneinander liegenden und für die Farben Rot, Grün und Blau empfindlichen CCD-Sensorzeilen gibt es auch Farb-Zeilenkameras. Zeilenkameras benötigen auf Grund der kurzen
➚Integrationszeiten sehr helle und leistungsstarke Beleuchtungen bis hinein in den Kilowatt-Bereich. Objektivseitig gibt es auf Grund der sehr verschiedenen Zeilenlänge keinen einheitlichen ➚Objektivanschluss; sowohl Gewinde als auch Bajonette kommen vor.
Für besondere Anwendungen werden Zeilenkameras
mit ➚Time delayed integration (TDI)-Sensoren ausgeführt. Das macht sie wesentlich empfindlicher und
rauschärmer. Zeilenkameras können auch als ➚Smart
Cameras ausgeführt sein.
Zeilenprofil ➚Kantenverlauf
Lexikon der industriellen Bildverarbeitung
Zeilensprungverfahren, auch interlaced. Traditionelles
Verfahren in analogen ➚Bildaufnehmern und Monitoren für das Abtasten/den Aufbau von Bildern. Zuerst
werden die ungeradzahligen Zeilen gelesen/geschrieben, in einem zweiten Durchlauf die Geradzahligen. Der
Vorteil liegt darin, dass zwar für jedes Halbbild nur die
halbe Auflösung zur Verfügung steht, dafür aber doppelt
so hohe ➚Bildfrequenz an Halbbildern. Für den menschlichen Betrachter wird auf diese Weise die Flimmergrenze des menschlichen Auges von ca. 18 Bildern pro Sekunde weit überschritten und das Auge nicht so stark
ermüdet. Die nur halbe Auflösung/Halbbild wird vom
Auge nicht wahrgenommen. ➚Progressive Scan-Bildaufnehmer sowie digitale Monitore arbeiten mit Vollbildern (➚non-interlaced).
Zerstreuungskreis Unschärfezone um einen Punkt im Bild
herum. Der Zerstreuungskreis entsteht bei der scharfen
Abbildung eines Punktes durch die Bildaufnehmerstruktur und durch die nicht punktförmige Abbildung. Beide
Effekte könne durch die MTF gut quantifiziert werden.
(s. auch Airy-Scheibchen)
Zirkulare Polarisation ➚Polarisation
Zoomobjektiv, auch Vario-Objektiv. Zoomobjektive ermöglichen eine stufenlose Einstellung der Brennweite unter
Beibehaltung des ➚Arbeitsabstandes. Dabei ändert sich
zwangsläufig das ➚Öffnungsverhältnis. Da Zoomobjektive viele empfindliche mechanisch bewegte Teile besitzen, in ihrem ➚Abbildungsmaßstab bei Verstellung nicht
reproduzierbar sind und je nach Einstellung variierende
➚Abbildungsfehler besitzen, sind sie eher für den Einsatz
im Labor als für den industriellen Einsatz vorgesehen.
Zufällige Fehler Nicht bestimmbare und vermeidbare
Fehler. Zufällige Fehler machen das Messergebnis unsicher und können den Effekten der Beleuchtung, dem
Prüfobjekt, der Mechanik, der Optik, der Elektronik, der
Software entstammen. Zufällige Prüfobjekteinflüsse
sind in der Bildverarbeitung erfahrungsgemäß sehr
groß! Zufällige Fehler werden auf Grund statistischer
Verteilung der Messwerte (Anzahl der Messungen > 50)
bewertet und treten statistisch wie folgt verteilt auf:
Einzelfehler im Bereich
0
+/-1s
+/-2s
+/-3s
Anteil der Messwerte im Bereich
40%
24%
5,4%
0,4%
mit s = Standardabweichung
Zulässige Unschärfe 1.) im Sinne der Bildverarbeitung die
Unschärfe auf dem ➚Bildaufnehmer, die hinsichtlich der
sicheren und reproduzierbaren Erkennbarkeit von
➚Kanten zugelassen werden kann. Wie groß die zulässige Unschärfe sein kann (Angabe in Mikro- oder Millimetern), hängt von der Leistungsfähigkeit der bildverarbeitenden Software ab. (s. auch Schärfentiefe)
87
Z
Lexikon ab S. 65/13.10.03
16.03.2004 10:53 Uhr
Seite 103
Zustandstriggerung
2.) Bereich in ➚Pixeln, innerhalb dessen ein ➚Antastalgorithmus eine ➚Grauwertdifferenz noch als ➚Kante
interpretiert. (s. auch Antastparameter)
Zustandstriggerung Auslösen eines Ereignisses durch
Auftreten eines Zustandes (low-Pegel oder high-Pegel)
in einem digitalen Signal. (s. auch Flankentriggerung)
Zweidimensionaler Code ➚Data Matrix Code
Zweimessstellenobjektiv Sonderform eines ➚Objektives, das durch Aufteilung des Abbildungsstrahlenganges die Bilder zweier entfernter ➚Prüfobjekte/-teile auf
einem ➚Bildaufnehmer zusammenführt. Um eine möglichst verlustlose Zusammenführung der beiden Einzelbilder zu erreichen, ist meist ein katadioptrischer Aufbau, d.h. mit Linsen und Spiegeln, notwendig. Die aufgeteilten ➚Gesichtsfelder führen bei großen Prüfobjekten durch Ignorieren der Fläche zwischen den Gesichtsfeldern zu einem hohen ➚Auflösungsvermögen bei
großen Teilen. Der Basisabstand zwischen den beiden Gesichtsfeldern kann zum Teil eingestellt werden. Ein Vorteil gegenüber einer Zweikameralösung besteht darin,
dass bereits beide Gesichtsfelder zueinander in sechs
➚Freiheitsgraden justiert sind.
Anwendung finden Zweimessstellenobjektive bei der
Längenmessung von großen Teilen, die nur gering in
ihrer Länge differieren, oder bei parallelen Prozessen,
bei denen zwei Teile miteinander verglichen werden
müssen.
Zwischenring Tubus, der zwischen ➚Objektiv und Kamera befestigt wird. Mit Zwischenringen lassen sich größere ➚Abbildungsmaßstäbe erreichen sowie die vom Objektiv vorgegebene kürzeste Einstellentfernung
(➚MOD) unterschreiten. Dabei wird der ➚Arbeitsabstand/Objektabstand geringer. Der Einsatz von Zwischenringen verschlechtert die ➚Abbildungsgüte der Objektive, da sie dann in einem Bereich des Arbeitsabstandes/Objektabstandes betrieben werden, für den sie
nicht berechnet wurden. Die Angaben zur Abbildungsgüte aus Datenblättern werden bei Einsatz von Zwischenringen nicht mehr erreicht. Eine bessere Lösung
für die Realisierung kurzer Arbeitsabstände sind ➚Makroobjektive.
Die notwendige Zwischenringlänge L berechnet sich
näherungsweise wie folgt: L = f · Iß`I
mit f = Brennweite des verwendeten Objektives, ß’ = zu
realisierender Abbildungsmaßstab (s. auch Nahlinse)
Zwischenringlänge ➚Zwischenring
Zyan (auch Cyan) entsteht bei additiver ➚Farbmischung
aus Grün und Blau. Blaugrüne Farbe, die resultiert,
wenn der rote Farbanteil aus weißem Licht entfernt
wird. (s. auch Komplementärfarbe)
Zykluszeit Kann in verschiedenen Zusammenhängen genannt werden:
1.) Maschinenzykluszeit: Zeit vom Start der Bearbeitung eines Teils bis zum Start der Bearbeitung des nächsten Teils.
Die mittlere Maschinenzykluszeit ergibt sich aus den pro
Stunde gefertigten Teilen. Im Allgemeinen ist die Maschinenzykluszeit länger als die Bildverarbeitungszykluszeit.
2.) Bildverarbeitungszykluszeit: Zeit vom Startsignal der
Bildverarbeitung bis zur abgeschlossenen Kommunikation der Ergebnisse an externe Geräte. Die Bildverarbeitungszykluszeit besitzt feste und variable Anteile und
muss zeitlich so konzipiert sein, dass sie sich mit Reserven in die Maschinenzykluszeit einpassen lässt. Bestandteile der Bildverarbeitungszykluszeit sind:
Trigger für Teil n:
Verzögerungszeit durch SPS; Sensorabfrage; Prozesse in
SPS; ...; Verzögerungszeit Triggereingang; Bildverarbeitungssystem bis Start Bildaufnahme; Verzögerungszeit
Triggereingang – Blitz; Zeit für Bildaufnahme; Zeit für
Bildverarbeitung; Zeit zur Ergebnisübermittlung (Kommunikation); Zeit für Handhabung (Sortieren, Ventile, ...)
Trigger für Teil n+1
Zylinderlinse nutzt mindestens eine Zylinderflächen als
optisch wirksame Fläche. Kann nur in einer Richtung abbilden. Wird in ➚Linienlichtern zur Erzeugung von Lichtbändern genutzt. Anstelle eines Brennpunktes gibt es
eine „Brennlinie“. Weiterhin bei ➚anamorphotischer
Abbildung genutzt.
Z
88
Lexikon der industriellen Bildverarbeitung
Herunterladen