Hinderniserkennung

Werbung
Hinderniserkennung
Sascha Ries
22.01.2005
Seminar "Mobile Systeme"
Institut für Informatik, Prof. Dr. Zöbel
Universität Koblenz-Landau
Wintersemester 2004/05
Inhaltsverzeichnis
I. Einleitung ……………………………………………………..………………………..…3
II. Radarsysteme ………………………………………………………………..……………3
1. Technik
…………………………………………………………………………..…..3
a. Abstandsmessung …………………………………………………………………..3
b. Positionsbestimmung
………………………………………………………….….4
c. Geschwindigkeitsmessung
……………………………………………………….4
2. Anwendungen ………………………………………………………………….………..5
3. Bewertung …………………………………………………………………….…………5
a. Vorteile …………………………………………………………………………...….5
b. Nachteile …………………………………………………………………….……….5
III.Laserscanner …………………………………………………..…………………………5
1. Technik ………………………………………………………………………………….6
2. Anwendungen …………………………………………………………...………………7
a. PolarBug ……………………………………………………………….…………….7
b. Photon Mixer Device (PMD) …………………………………………..…………….7
c. Weitere Anwendungen ………………………………………………………….……8
3. Bewertung …………………………………………………………...…………………..8
a. Vorteile ………………………………………………………………………………8
b. Nachteile ……………………………………………………………………………..8
IV.Ultraschallsysteme …………………………………………………………………..…..8
1. Technik …………………………….……………………………………………………9
a. Sensor (Sender und Empfänger) ……………………………………………………..9
b. Anordnung der Sensoren ……………………………………………………………..9
c. Entfernungsbestimmung …………………………………..…………………………9
2. Anwendungen …………………………………………………..……………………10
3. Bewertung ………………………………………………...………………………….10
a. Vorteile ……………………………………………...…………………………….10
b. Nachteile …………………………………………….……………………………..10
V. Bildverarbeitung ……………………………………..…………………………………..10
1. Technik(en) …………………………………………………………………………….11
a. Stereobasierte Videosensorik ……………………………………………………….11
b. Widefield Flow Divergence ……………..………………………………………….12
2. Anwendungen ………………………………………………………………………….12
3. Bewertung ……………………………………………………………..……………….12
a. Vorteile ………………………………………………………………….………….12
b. Nachteile ……………………………………………………...…………………….13
VI.Zusammenfassung ………………………………….………………………………….13
Literaturverzeichnis
2
I. Einleitung
Der Einsatz autonomer Systeme gewinnt in der heutigen industrialisierten Gesellschaft
zunehmend an Bedeutung. Der Wunsch nach Maschinen, Robotern oder Fahrzeugen, die sich
in bekannter oder unbekannter Umgebung autonom bewegen können wird immer größer.
Zur kollisionsfreien und selbständigen Navigation ist eine funktionierende Positionsbestimmung und Hinderniserkennung in Echtzeit durch das jeweilige autonome System
unerlässlich. Dazu benötigt das Fahrzeug bzw. der Roboter eine Sensorik (analog dem
menschlichen Auge), die es ihm ermöglicht zu "sehen". Um diesen Anspruch zu erfüllen, gibt
es verschiedene Ansätze bezüglich der Ausstattung der Systeme mit Sensoren. So werden
Radarsysteme, Laserscanner, Ultraschallsystem und Kameras (Bildverarbeitung) zur
Umgebungswahrnehmung eingesetzt.
In der vorliegenden Arbeit sollen die genannten Verfahren zur Hinderniserkennung erläutert
werden.
II. Radarsysteme
Radarsysteme (Radar: Radio Detection And Ranging) machen sich den Echoeffekt von
ausgesendeten elektromagnetischen Wellen zu Nutze, um Objekte (Hindernisse) innerhalb
ihrer Reichweite zu "entdecken".
1. Technik
Bei Radarsystemen befinden sich Sender und Empfänger im Normalfall an der gleichen
Position. Der Sender gibt über eine Antenne elektromagnetische Wellen ab, die sich in etwa
mit Lichtgeschwindigkeit ausbreiten. Werden Objekte von den Wellen getroffen, so
reflektieren sie diese und "senden" ein Echosignal zurück. Die Antenne des Radarsystems
nimmt die reflektierten Signale auf und gibt sie an den Empfänger zur Verarbeitung weiter.
Es gibt zwei Haupttypen von Radargeräten: Dauerstrich- und Pulsradargeräte. Das
Dauerstrichradargerät sendet ein stetes Signal aus. Die hier ausgesendeten Frequenzbereiche
der elektromagnetischen Wellen sind entweder gleichbleibend (Continous-WaveRadar/Doppler-Radar) oder veränderlich (Frequenzmoduliertes-CW-Radar/FM-DopplerRadar). Bei einem FMCW-Radar werden die Sendefrequenzen kontinuierlich verändert (z.B.
sinus- oder sägezahnförmig).
Das Pulsradargerät hingegen sendet nicht kontinuierlich sondern in Form von einzelnen
Impulsen.
a. Abstandsmessung
Zur Messung des Abstands zwischen dem mit Pulsradar ausgestatteten System und einem
Objekt wird die Laufzeit der ausgesendeten Wellen bis zu deren Empfang gemessen. Hierbei
werden vom Sender Wellen gleicher Länge ausgestrahlt. Die getroffenen Objekte reflektieren
die elektromagnetischen Signale in dieser Wellenlänge (bei unbeweglichen Hindernissen).
Die Entfernung lässt sich danach mittels einer einfachen Formel bestimmen:
Abstand =
Ausbreitungsgeschwindigkeit * Laufzeit
2
3
Die Abstandsmessung bei Dauerstrichradargeräten (FMCW-Radar) erfolgt auf andere Weise.
Hier wird nicht die Laufzeit der Signale gemessen, sondern der Unterschied zwischen
empfangener und momentan gesendeter Frequenz. Der Unterschied der beiden Frequenzen ist
proportional zum Abstand zwischen Sender/Empfänger und dem Hindernis, und kann somit
aus ihm berechnet werden.
Abb.1. Funktionsprinzip und Signalverlauf bei einem FMCW-Radar1
b. Positionsbestimmung
Um die Position eines Objektes zu bestimmen2, muss die Antenne des Radars ein
verhältnismäßig schmalen Strahl erzeugen/aussenden. Durch horizontales Abtasten wird ein
Hindernis aufgespürt und dessen horizontale Winkelentfernung (Azimut3) bestimmt.
Soll auch die Höhe des detektierten Objekts/Hindernisses bestimmt werden (z.B. bei der
Flugsicherung), so erfolgt nach dem horizontalen Aufspüren ein vertikales Abtasten (zumeist
mit einer zweiten Radaranlage).
c. Geschwindigkeitsmessung
Zur Bestimmung der Geschwindigkeit von Objekten macht man sich den Doppler-Effekt4
(Abb.2) zu nutze: Bei einer Änderung des Abstandes zwischen Sender und Empfänger
während der Reflexion ist die reflektierte Welle frequenzverschoben. Das Verhältnis
zwischen dem Frequenzunterschied und der gesendeten Frequenz ist gleich dem Verhältnis
zwischen Geschwindigkeit des Objekts und Lichtgeschwindigkeit.
Abb.2 Doppler-Effekt
1
Brumbi, S. 13.
Nur mit Pulsradar oder FMCW-Radar möglich; mittels CW-Radar ist eine Entfernungsbestimmung nicht
möglich.
3
Der Azimut (oder Azimutwinkel) beschreibt die horizontale Richtung: 0 Grad entspricht Nord, 90 Grad
entspricht Ost, 180 Grad entspricht Süd usw.
4
Benannt nach dem österr. Physiker Christian Johann Doppler, der dieses Prinzip 1842 entdeckte.
2
4
2. Anwendungen
Anwendung finden Radarsysteme vorwiegend im Bereich der Flugsicherung und
Wettervorhersage (z.B. Regenradar). Weiterhin werden Radarsysteme zu Verkehrskontrollen
("Radarfallen"), Messung von Verkehraufkommen, Feststellung der Ausbreitungsgeschwindigkeit von Flutwellen, Steuerung, etc. verwendet.
Innerhalb (autonomer) mobiler Systeme wird Radartechnik bereits zur Positionsbestimmung
(z.B. GPS) oder zur Abstandsmessung (z.B. Tempomat) erfolgreich eingesetzt.
Experimente und Tests zur autonomen Steuerung von Fahrzeugen in bekannten/unbekannten
Umgebungen werden durchgeführt5.
3. Bewertung
a. Vorteile
Ein Vorteil der Radarsysteme liegt in der Tatsache, dass sie sichtunabhängig arbeiten können.
Dunkelheit, Schnee, Nebel, Regen, etc. beeinflussen die Arbeit des Radars nicht bzw. nur in
geringem Maße. Weiterhin kann die Detektion von Hindernissen nur auf bewegliche oder nur
auf unbewegliche Objekte beschränkt werden.6 Schließlich ist als Pluspunkt für den Einsatz
von Radarsystemen zur Hinderniserkennung deren hohe Reichweite anzumerken.
b. Nachteile
Ungenauigkeiten ergeben sich durch das von den elektronischen Bauteilen erzeugte
Eigenrauschen des Radarsystems. Auch kann das Radarsignal aufgrund von hohen
Schwankungen der Lufttemperatur und –dichte gebrochen und somit das Messergebnis
beeinflusst werden.
Mehrfachreflektionen des Bodens können die Interpretation der Messungen erschweren.
Zusätzlich können Reflektionen von Bäumen, Gebäuden, etc. bei einer Zielsuche das
eigentliche Ziel (z.B. ein Fahrzeug) verstecken.
III.Laserscanner
Bei einem Laserscanner wird über rotierende Spiegel ein modulierter (gepulster) Laserstrahl
ausgesendet (horizontal und/oder vertikal). Das Laserlicht wird vom getroffenen Objekt
reflektiert und die Zeit zwischen Aussendung des Strahls und Empfang der Reflektion
gemessen. Hieraus wird nun der Abstand zum getroffenen Objekt berechnet.
5
6
Z.B. Apostolopoulos-Chheda-Foessel.
Der Frequenzempfänger ignoriert hier gleiche oder verschobene (Doppler-Effekt) Frequenzen.
5
1. Technik
Am Beispiel des PolarBug-Algorithmus7 soll hier die Hinderniserkennung mittels eines
Laserscanners in einzelnen Schritten dargelegt werden.
Execute
Scan
Obstacle
m_DistList
[obst too close]
m_DistList
Passage Search
m_PassList
[no pass found]
m_PassList
change strategy if
necessary
Approach
IntermedPos
ret
Abb.3 Aufbau des PolarBug-Algorithmus8
Execute
Der Laserscanner sendet Strahlen in einem bestimmten Winkel ab und liefert als
Messergebnis eine Punktwolke in Polarkoordinaten.
Obstacle Growing
Um jeden detektierten Punkt (jedes Hindernis) wird ein Sicherheitskreis mit einem Radius
größer dem des mit dem Laserscanner ausgerüsteten Fahrzeugs gezogen. Zusätzlich wird ein
Zielkreis berechnet. Der Kreis verläuft durch den Zielpunkt und hat das Fahrzeug als
Mittelpunkt.
Für jeden Strahl des Laserscanners werden folgende drei Werte berechnet:
• vorderes Limit des befahrbaren Bereichs (do)
• Unsicherheitszone, d.h. mögliches Ende des Hindernisses (du)
• Ende des Segments (Schnittpunkt mit dem Zielkreis oder einem den Zielkreis
schneidenden Sicherheitskreis) (de)
Passage Search:
Der Schritt "Passage Search" ist nur notwendig, falls ein Hindernis zwischen dem Fahrzeug
und dem Zielpunkt liegt.
Wurde ein Hindernis gefunden, so werden von der direkten Linie zwischen Fahrzeug und
Zielpunkt ausgehend alle Strahlen rechts und links durchlaufen, bis auf jeder Seite ein Strahl
gefunden wurde, auf dem ein Segmentende liegt. Für diese Strahlen gilt, dass ein
Segmentende (de) "sichtbar" ist und kein d0 und kein du existiert. In Abb. 3 gilt dies für die
Strahlen α1 und α7.
7
8
Graf-John-Schraft-Traub.
Graf-John-Schraft-Traub, S. 3.
6
Abb.4 PolarBug – Algorithmus: Obstacle Growing9
Approach
Aus den Ergebnissen des Obstacle Growing und des Passage Search wird nun der beste
(kürzeste) Weg gewählt. Zusätzliches Kriterium bei der Approach-Funktion ist die Einhaltung
eines möglichst großen Sicherheitsabstands zu den detektierten Hindernissen.
Change Strategy
Befindet sich das Fahrzeug/der Roboter zu dicht an einem Hindernis oder wurde bei Passage
Search kein Weg gefunden, so dreht sich das Fahrzeug um die eigene Achse zur Findung
neuer Passagen.
2. Anwendungen
a. PolarBug
Bei mit dem PolarBug-Algorithmus gesteuerten Fahrzeugen handelt es sich um drei Roboter,
die sich im Lichthof des Museums für Kommunikation in Berlin als Teil eines künstlerischen
Gesamtkonzepts mit einer Geschwindigkeit von 0,6 m/s frei bewegen. Sie unterhalten (einer
von ihnen beispielsweise mit Ballspielen) und informieren die Besucher. Nach Angaben der
Entwickler des PolarBug-Algorithmus haben die drei Roboter zusammen schon über 1000 km
kollisionsfrei zurückgelegt.10
b. Photonic Mixer Device (PMD)11
Als zukunftsträchtige Anwendung des Prinzips Entfernungen durch Licht zu messen ist das
Photonic Mixer Device anzusehen. Bei dem PMD handelt es sich um ein neuartiges
Halbleiterbauelement, das es in Zukunft ermöglichen soll, selbst auf Entfernungen von mehr
als einem Kilometer Abstände von zehntel Millimetern zu unterscheiden.
9
Graf-John-Schraft-Traub, S. 4.
Graf-John-Schraft-Traub, S.6.
11
Buxbaum-Schwarte-Zhang.
10
7
Der PMD-Bildsensor vereinigt im Prinzip tausende Laserscanner auf der Größe eines
Mikrochips.
Die 3D-Szene wird durch modulierte Lichtsignale (z.B. Laser, Infrarot) beleuchtet. Das
reflektierte Licht trifft auf den PMD-Sensor, der ebenfalls an die aussendende Quelle
gekoppelt ist. "So werden die in Elektronen gewandelten Photonen in Abhängigkeit vom
Referenzsignal noch im lichtempfindlichen Halbleiterbereich pixelweise mit Hilfe der so
genannten Ladungsträgerschaukel entfernungsselektiv getrennt."12
Das Ausgangssignal (das Bild) enthält somit schon alle Informationen, die für eine 3DDarstellung notwendig sind.
c. Weitere Anwendungen
Laserscanner finden in den verschiedensten Einsatzgebieten Anwendung. So werden
Laserscanner insbesondere in der Baubranche zur exakten Entfernungsbestimmung
angewendet. Auch zur Kontrolle von Sicherheitsbereichen13 sind Laserscanner im Einsatz.
Weiterhin werden Laserscanner im Einzel- und Großhandel (Barcode-Scanner), zur
Erstellung von 3D-Modellen und Datenübertragung verwendet.
3. Bewertung
a. Vorteile
Vorteile der Laserscanner liegen ihrer hohen Reichweite14 und der hohen Messgenauigkeit
(bis zu 0,1mm, abhängig von der Reichweite). Weiterer Vorteil ist die hohe Geschwindigkeit
mit der eine sehr große Zahl von Messpunkten erfasst werden kann.15
b. Nachteile
Probleme der Laserscanner ergeben sich bezüglich der Funktionalität bei schlechten
Sichtverhältnissen (Regen, Schnee, etc.) oder verschmutzter Optik. Auch die (noch) relativ
hohen Kosten erweisen sich als nachteilig.
IV.Ultraschallsysteme
Ultraschallgeräte senden Schallsignale aus, die von Objekten und Hindernissen reflektiert
werden. Ähnlich den Radarsystemen wird auch hier die Laufzeit zwischen dem Aussenden
und Empfangen der Schallwellen gemessen und daraus die Entfernung berechnet.
12
http://pmdtec.com/
Beispielsweise in der Nähe von Fertigungsanlagen/Produktionsmaschinen.
14
Z.B. Sick-Laser LMS 211: 10mm Auflösung in einer Entfernung von 80m (Werkseinstellung)
15
Ca. 100.000 Messpunkte in 10s.
13
8
1. Technik
a. Sensor (Sender und Empfänger)
Die vom Sender des Ultraschallsensors ausgehenden Schallwellen breiten sich kegelförmig
aus. Die Ausbreitung und die Reflektion der Schallwellen sind von verschiedenen Faktoren
abhängig. Sie werden vom Luftdruck, der Umgebungstemperatur, der Luftfeuchtigkeit sowie
vom Sende-/Empfangswinkel und der Oberfläche des im Schallkegel befindlichen Objekts
beeinflusst.
Eine Entfernungsbestimmung durch Messung der Laufzeit zwischen Sendung und Empfang
der Schallwellen ist deshalb nicht direkt möglich. Die gefundenen Messwerte müssen daher
zur Umrechnung in Abstände transformiert werden.
b. Anordnung der Sensoren
Ultraschallwellen breiten sich in einem relativ schmalen Winkel kegelförmig aus (Abb.5). Zur
Abdeckung des gesamten in Frage kommenden Hindernisraums muss das System (Roboter,
Fahrzeug, etc.) mit mehreren Sensoren ausgestattet sein. Auf jeder Seite des Fahrzeugs sollte
Abb.5 Erfassungskeule der Ultraschallsensoren16
sich daher zumindest ein Sensor befinden. Falls das System mit mehreren Sensoren auf jeder
Seite ausgerüstet wird, ist eine Zusammenfassung einzelner Sensoren zu "Knoten" anzuraten,
um die relativ zeitintensiven17 Abfragen teilweise zu kompensieren. Die Sensoren eines
Knotens sollten dabei nicht auf einer Seite des Fahrzeugs liegen, da die Reflektion eines
Objekts sonst mehrere Sensoren beeinflussen kann.
c. Entfernungsbestimmung
Zur Entfernungsbestimmung zwischen System und Objekt werden Sensorwerte und
tatsächliche Abstände zunächst in einer Versuchsanordnung in Beziehung gebracht.18 Die
Abstände können danach aus der erstellten Tabelle ausgelesen oder (nach Aufstellung einer
entsprechenden Formel) direkt aus den Sensorwerten berechnet werden.
2. Anwendungen
Ultraschallsensoren zur Hinderniserkennung werden zurzeit insbesondere in der
Fahrzeugtechnik verwendet; etwa zur Fahrunterstützung eines PKW-Führers. So sind viele
Fahrzeugmodelle mit Rückfahrwarnsystemen oder Einparkhilfen ausgerüstet. Weitere
16
Willhöft.
Aufgrund der geringen Ausbreitungsgeschwindigkeit des Schalls.
18
Um auch die jeweiligen Umgebungsvariablen (Temperatur, Luftdruck, etc.) zu berücksichtigen.
17
9
Anwendung finden die Ultraschallsysteme beim PKW zur "Sicht in den toten Winkel" und
zur Aufprallfrüherkennung.
3. Bewertung
a. Vorteile
Ein gravierender Vorteil der Ultraschallsysteme ist ihr günstiger Preis.19 Dies ermöglicht die
Ausstattung eines Fahrzeuges mit vielen Sensoren, was wiederum zur präzisen Erfassung der
Entfernung zu Hindernissen und Objekten in der Umgebung führt.
b. Nachteile
Die Verwendung von Ultraschallsystemen hat jedoch auch schwerwiegende Nachteile. So
kann ein Hindernis/Objekt nicht genau geortet, sondern nur festgestellt werden, dass es sich in
der gemessenen Entfernung innerhalb des Schallkegels befindet.20 Befinden sich mehrere
Objekte in einem Schallkegel, so wird nur der Abstand zum nächstliegenden gemessen; die
weiter entfernt liegenden werden ignoriert.
Auch die geringe Reichweite (ca. 10m) des Ultraschalls machen einen alleinigen Einsatz
dieses Systems zur autonomen Steuerung (beispielsweise eines PKWs) unmöglich.
Zusätzliche Probleme ergeben sich aus den Reflektionseigenschaften der Schallwellen. Trifft
der Kegel in einem Winkel größer seinem Öffnungswinkel auf eine ebene Wand, so erreicht
die Reflektion den aussendenden Sensor nicht.
Schließlich besteht die Möglichkeit, dass die Reflektion bei einer Ausbreitung des Schalls
über mehrere Oberflächen hinweg von verschiedenen Sensoren empfangen wird, deren Folge
Fehlmessungen sein können.
V. Bildverarbeitung
Eine weitere Möglichkeit zur Hinderniserkennung bietet die Bildverarbeitung. Hier wird die
Umgebung des Fahrzeugs mit (Video-)Kameras aufgenommen. Die entstandenen (Grauwert-)
Aufnahmen werden in Echtzeit mit Mitteln der Bildverarbeitung aufbereitet und so
Hindernisse und Objekte für das Fahrzeug "sichtbar" gemacht.
Im Wesentlichen lassen sich zwei Verfahren zur Hinderniserkennung mittels Bildverarbeitung
unterscheiden: Stereobasierte Videosensorik21 und Auswertung des durch Kamerabewegung
auftretenden optischen Flusses22.
19
Z.B. Rückfahrwarnsystem zur Selbstmontage für ca. 40€ im Elektronik-Versandhandel.
D.h. wo im Schallkegel oder wie groß das Objekt ist, kann nicht gemessen werden.
21
Z.B. Hötter-Kunze-Niehe-Suppes, Brandenburg-Kauff-Schreer.
22
Z.B. Coombs-Herman-Hong-Nashman.
20
10
1. Technik(en)
a. Stereobasierte Videosensorik
Abb.6 Gesamtkonzept einer Stereobasierten Videosensorik23
Für eine Stereobasierte Videosensorik werden zwei Kameras in einem bestimmten Winkel
links und rechts auf das Fahrzeug montiert. Um ein 3D-Modell der Umgebung des mobilen
Systems zu erstellen, werden die Kamerabilder wie folgt verarbeitet:
Rektifizierung
Zunächst müssen die Kamerabilder aus der realen Anordnung in eine Standardanordnung
umgerechnet werden. D.h. die Bilder werden so entzerrt, wie sie sich ergeben würden, wenn
die beiden Kameras parallel zueinander angeordnet wären.
Abb.7 Reale Anordnung
Standardanordnung
Texturanalyse
Innerhalb der Texturanalyse sucht man nun nach Bereichen der Bilder, die aufgrund einer
ausreichend hohen Grauwertänderung die Disparitätsanalyse (im folgenden Schritt) zulassen.
Disparitätsanalyse
In diesem Schritt werden nun in den Bildpaaren Punkte gesucht, die miteinander
korrespondieren. Vollzogen wird dies durch einen blockbasierten24 Vergleich der
Intensitätsverteilungen in den Bildpaaren.
3D-Rekonstruktion
Nach der Disparitätsanalyse werden die gefundenen Punktkorrespondenzen durch
Triangulation in Punkte der 3D-Umgebung umgerechnet.
23
Hötter-Kunze-Niehe-Suppes, S.2.
Die Suche ist nur eindimensional (horizontal), um den Rechenaufwand zu minimieren und höchstmögliche
Stabilität zu erreichen (Hötter-Kunze-Niehe-Suppes, S.4).
24
11
Segmentierung
Schließlich erfolgt eine Zusammenfassung dieser 3D-Punkte zu Objekten im 3D-Raum und so
eine Rekonstruktion der Umgebung des mobilen Systems.
b. Widefield Flow Divergence25
Eine weitere Möglichkeit zur Erkennung von Objekten und Hindernissen mittels
Bildverarbeitung bietet die Berechnung des optischen Flusses zwischen (von einer
Videokamera aufgenommenen) Bildern.
Hier wird eine Videokamera auf das Fahrzeug montiert, deren Blick immer in Fahrtrichtung
weist. Berechnet wird der optische Fluss jeweils zwischen zwei Bildern, die in einem
bestimmten zeitlichen Abstand26 von der Kamera aufgenommen wurden. Man macht sich hier
im Prinzip den Effekt zu nutze, dass sich Objekte, die sich näher am Betrachter befinden
schneller zu "bewegen" scheinen.27
2. Anwendungen
Zurzeit werden Bildverarbeitungssysteme (fast) ausschließlich experimentell verwendet. Voll
funktionsfähige Systeme, die ohne Unterstützung anderer Sensortechniken arbeiten gibt es im
Moment nicht.
Bei den ausgeführten Experimenten handelt es sich zumeist um Roboter, die sich autonom in
einer Innenraumumgebung bewegen.
Anwendung findet die Kameraüberwachte Steuerung beispielsweise beim Lan Guard System
von MAN. Das System erkennt unbeabsichtigte28 Spurabweichungen (bei vorhanden
Fahrbahnmarkierungen) und warnt den Fahrer.
3. Bewertung
a. Vorteile
Aufgrund der Verwendung von Standardkomponenten stellt die Bildverarbeitung eine
preisgünstige Möglichkeit zur Hinderniserkennung dar.
Weiterhin ist die Kamera als passiver Sensor anzusehen, der die (gleichzeitige) Ausstattung
mehrerer Fahrzeuge zulässt, ohne dass die Gefahr der gegenseitigen Beeinflussung besteht.
Weiterhin könnte durch die Übertragung und Überwachung der Kamerabilder eine einfache
zusätzliche Sicherheitsmaßnahme eingeführt werden.29
25
Vgl. Camus-Coombs-Herman-Hong.
Z.B. jedes zehnte Bild einer Videokamera.
27
Vergleichbar etwa mit dem Blick aus einem fahrenden Zug: Näher am Zug befindliche Objekte "rauschen" am
Betrachter vorbei, während weiter entfernte (fast) unbeweglich erscheinen.
28
Abweichung von der Fahrspur, ohne dass der Blinker gesetzt wurde.
29
Etwa im Falle autonomer Transportsysteme in Lagerhallen, etc.
26
12
b. Nachteile
Schwerwiegendster Nachteil der Bildverarbeitung ist ihre Sichtabhängigkeit. Soll etwa ein
PKW autonom gesteuert werden, so ist die Anwendung von Kameras bei Nebel, Regen,
Dunkelheit, etc. völlig ungeeignet. Es könnten aus den gewonnenen Kamerabildern keine
Informationen über die Umgebung des PKW gezogen werden. Objekte und Hindernisse
wären "unsichtbar".
Als Minuspunkt stellen sich auch die notwendigen aufwendigen Berechnungen dar. Die
mögliche Geschwindigkeit eines mobilen Systems wird stark von den bei den Berechnungen
zur Verfügung stehenden Hardwareressourcen beeinflusst.30
VI.Zusammenfassung
In den vorangegangenen Darstellungen wurden verschiedene Möglichkeiten zur
Hinderniserkennung durch (autonome) mobile Systeme mit ihren Vor- und Nachteilen
erläutert. Als Fazit ist festzustellen, dass ein allen anderen überlegenes System zur
Hinderniserkennung im Moment nicht existiert.
So eignet sich beispielsweise ein Ultraschallsystem als Einparkhilfe, aber zur
Hinderniserkennung bei voller Fahrt ist es aufgrund seiner geringen Reichweite ungeeignet.
Die beste Möglichkeit, um ein Fahrzeug kollisionsfrei (autonom) zu steuern ist die
Kombination von verschiedenen Systemen. Als Beispiel für eine solche Kombination, könnte
die Verwendung aller dargestellten Systeme, jeweils für den geeignet Zweck, dienen.31
Zur Fahrerunterstützung sind jedoch alle Systeme gemessen an ihrem bestmöglichen
Einsatzort (Zweck) als geeignet anzusehen.
Für die Zukunft der Hinderniserkennung bei mobilen Systemen bietet die Entwicklung des
Photonic Mixer Device einen äußerst vielversprechenden Ansatz, der größte Beachtung
verdient.
30
Allerdings wird sich dieses Problem mit der fortschreitenden Entwicklung im Bereich der Hardware zumindest
verringern.
31
Was allerdings an den entstehenden Kosten scheitern dürfte.
13
Literaturverzeichnis
Apostolopoulos, D.
Chheda, Sachin
Foessel, Alex
Short-Range Millimeter-Wave Radar Perception in a Polar
Environment
in: Proceedings of the Field and Service Robotics Conference, 1999
http://www.ri.cmu.edu/pubs/pub_2742.html
Brandenburg, N.
Kauff, P.
Schreer, O.
Disparitätsanaylse konvergenter und rektifizierter Stereoansichten:
Eine vergleichende Untersuchung
in: 22. DAGM-Symposium Mustererkennung, Kiel 2000
http://iphome.hhi.de/schreer/pubs.htm
Brumbi, Detlef
Grundlagen der Radartechnik zur Füllstandsmessung
4. Auflage, Krohne 2003
Buxbaum, Bernd
Schwarte, Rudolf
Zhang, Zhigang
Neue 3D-Bildsensoren für das Technische 3D-Sehen
Eingeladener Vortrag auf dem VDE Kongress „Ambient Intelligence“,
18 –20. 10. 2004, Berlin
http://www.uni-siegen.de/~reg-st2/tech3D/doc/Ambient_Intellegence_
fuer_07102004.pdf
Camus, Ted
Coombs, David
Herman, Martin
Hong, Tsai-Hong
Real-Time Single-Workstation Obstacle Avoidance Using Only
Wide-Field Flow Divergence
in: Videre: Journal of Computer Vision Research
Quarterly Journal, Summer 1999, Volume 1, Number 3
http://mitpress.mit.edu/e-journals/ Videre/001/articles/v1n3002.pdf
Coombs, David
Herman, Martin
Hong, Tsai-Hong
Nashman, Marilyn
Real-Time Obstacle Avoidance Using Central Flow Divergence and
Peripheral Flow
in: NIST Internal Report (NISTIR) 5605, 1995
http://www.isd.cme.nist.gov/documents/coombs/Coombs-etaldivergence-n-flow-NISTIR-1995.ps.
Graf, B.
John, D.
Schraft, R. D.
Traub, A.
PolarBug – ein effizienter Algorithmus zur reaktiven Hindernisumfahrung Dauereinsatz
in: Proceedings of AMS, 2000
http://www.care-o-bot.de/Papers/PolarBug-ein_effizienter_
Algorithmus_zur_reaktiven_Hindernisumfahrung_AMS2000.pdf
Hötter, M.
Kunze, E.
Niehe, S.
Suppes, A.
Stereobasierte Videosensorik unter Verwendung ein stochastischen
Zuverlässigkeitsanalyse
in: G. Sommer, N. Krüger, C. Perwass, (Hrsg.),
Mustererkennung 2000,
22. DAGM-Symposium. Kiel, 13.-15. September 2000.
Willhöft
Fortschrittsberichte: Fahrerlose Transportsysteme
Arbeitsbereich Werkzeugmaschinen und Automatisierungstechnik an
der Technischen Universität Hamburg-Harburg
http://www.tu-harburg.de/ft2/Fortschrittsberichte01.htm
14
Herunterladen