Hinderniserkennung Sascha Ries 22.01.2005 Seminar "Mobile Systeme" Institut für Informatik, Prof. Dr. Zöbel Universität Koblenz-Landau Wintersemester 2004/05 Inhaltsverzeichnis I. Einleitung ……………………………………………………..………………………..…3 II. Radarsysteme ………………………………………………………………..……………3 1. Technik …………………………………………………………………………..…..3 a. Abstandsmessung …………………………………………………………………..3 b. Positionsbestimmung ………………………………………………………….….4 c. Geschwindigkeitsmessung ……………………………………………………….4 2. Anwendungen ………………………………………………………………….………..5 3. Bewertung …………………………………………………………………….…………5 a. Vorteile …………………………………………………………………………...….5 b. Nachteile …………………………………………………………………….……….5 III.Laserscanner …………………………………………………..…………………………5 1. Technik ………………………………………………………………………………….6 2. Anwendungen …………………………………………………………...………………7 a. PolarBug ……………………………………………………………….…………….7 b. Photon Mixer Device (PMD) …………………………………………..…………….7 c. Weitere Anwendungen ………………………………………………………….……8 3. Bewertung …………………………………………………………...…………………..8 a. Vorteile ………………………………………………………………………………8 b. Nachteile ……………………………………………………………………………..8 IV.Ultraschallsysteme …………………………………………………………………..…..8 1. Technik …………………………….……………………………………………………9 a. Sensor (Sender und Empfänger) ……………………………………………………..9 b. Anordnung der Sensoren ……………………………………………………………..9 c. Entfernungsbestimmung …………………………………..…………………………9 2. Anwendungen …………………………………………………..……………………10 3. Bewertung ………………………………………………...………………………….10 a. Vorteile ……………………………………………...…………………………….10 b. Nachteile …………………………………………….……………………………..10 V. Bildverarbeitung ……………………………………..…………………………………..10 1. Technik(en) …………………………………………………………………………….11 a. Stereobasierte Videosensorik ……………………………………………………….11 b. Widefield Flow Divergence ……………..………………………………………….12 2. Anwendungen ………………………………………………………………………….12 3. Bewertung ……………………………………………………………..……………….12 a. Vorteile ………………………………………………………………….………….12 b. Nachteile ……………………………………………………...…………………….13 VI.Zusammenfassung ………………………………….………………………………….13 Literaturverzeichnis 2 I. Einleitung Der Einsatz autonomer Systeme gewinnt in der heutigen industrialisierten Gesellschaft zunehmend an Bedeutung. Der Wunsch nach Maschinen, Robotern oder Fahrzeugen, die sich in bekannter oder unbekannter Umgebung autonom bewegen können wird immer größer. Zur kollisionsfreien und selbständigen Navigation ist eine funktionierende Positionsbestimmung und Hinderniserkennung in Echtzeit durch das jeweilige autonome System unerlässlich. Dazu benötigt das Fahrzeug bzw. der Roboter eine Sensorik (analog dem menschlichen Auge), die es ihm ermöglicht zu "sehen". Um diesen Anspruch zu erfüllen, gibt es verschiedene Ansätze bezüglich der Ausstattung der Systeme mit Sensoren. So werden Radarsysteme, Laserscanner, Ultraschallsystem und Kameras (Bildverarbeitung) zur Umgebungswahrnehmung eingesetzt. In der vorliegenden Arbeit sollen die genannten Verfahren zur Hinderniserkennung erläutert werden. II. Radarsysteme Radarsysteme (Radar: Radio Detection And Ranging) machen sich den Echoeffekt von ausgesendeten elektromagnetischen Wellen zu Nutze, um Objekte (Hindernisse) innerhalb ihrer Reichweite zu "entdecken". 1. Technik Bei Radarsystemen befinden sich Sender und Empfänger im Normalfall an der gleichen Position. Der Sender gibt über eine Antenne elektromagnetische Wellen ab, die sich in etwa mit Lichtgeschwindigkeit ausbreiten. Werden Objekte von den Wellen getroffen, so reflektieren sie diese und "senden" ein Echosignal zurück. Die Antenne des Radarsystems nimmt die reflektierten Signale auf und gibt sie an den Empfänger zur Verarbeitung weiter. Es gibt zwei Haupttypen von Radargeräten: Dauerstrich- und Pulsradargeräte. Das Dauerstrichradargerät sendet ein stetes Signal aus. Die hier ausgesendeten Frequenzbereiche der elektromagnetischen Wellen sind entweder gleichbleibend (Continous-WaveRadar/Doppler-Radar) oder veränderlich (Frequenzmoduliertes-CW-Radar/FM-DopplerRadar). Bei einem FMCW-Radar werden die Sendefrequenzen kontinuierlich verändert (z.B. sinus- oder sägezahnförmig). Das Pulsradargerät hingegen sendet nicht kontinuierlich sondern in Form von einzelnen Impulsen. a. Abstandsmessung Zur Messung des Abstands zwischen dem mit Pulsradar ausgestatteten System und einem Objekt wird die Laufzeit der ausgesendeten Wellen bis zu deren Empfang gemessen. Hierbei werden vom Sender Wellen gleicher Länge ausgestrahlt. Die getroffenen Objekte reflektieren die elektromagnetischen Signale in dieser Wellenlänge (bei unbeweglichen Hindernissen). Die Entfernung lässt sich danach mittels einer einfachen Formel bestimmen: Abstand = Ausbreitungsgeschwindigkeit * Laufzeit 2 3 Die Abstandsmessung bei Dauerstrichradargeräten (FMCW-Radar) erfolgt auf andere Weise. Hier wird nicht die Laufzeit der Signale gemessen, sondern der Unterschied zwischen empfangener und momentan gesendeter Frequenz. Der Unterschied der beiden Frequenzen ist proportional zum Abstand zwischen Sender/Empfänger und dem Hindernis, und kann somit aus ihm berechnet werden. Abb.1. Funktionsprinzip und Signalverlauf bei einem FMCW-Radar1 b. Positionsbestimmung Um die Position eines Objektes zu bestimmen2, muss die Antenne des Radars ein verhältnismäßig schmalen Strahl erzeugen/aussenden. Durch horizontales Abtasten wird ein Hindernis aufgespürt und dessen horizontale Winkelentfernung (Azimut3) bestimmt. Soll auch die Höhe des detektierten Objekts/Hindernisses bestimmt werden (z.B. bei der Flugsicherung), so erfolgt nach dem horizontalen Aufspüren ein vertikales Abtasten (zumeist mit einer zweiten Radaranlage). c. Geschwindigkeitsmessung Zur Bestimmung der Geschwindigkeit von Objekten macht man sich den Doppler-Effekt4 (Abb.2) zu nutze: Bei einer Änderung des Abstandes zwischen Sender und Empfänger während der Reflexion ist die reflektierte Welle frequenzverschoben. Das Verhältnis zwischen dem Frequenzunterschied und der gesendeten Frequenz ist gleich dem Verhältnis zwischen Geschwindigkeit des Objekts und Lichtgeschwindigkeit. Abb.2 Doppler-Effekt 1 Brumbi, S. 13. Nur mit Pulsradar oder FMCW-Radar möglich; mittels CW-Radar ist eine Entfernungsbestimmung nicht möglich. 3 Der Azimut (oder Azimutwinkel) beschreibt die horizontale Richtung: 0 Grad entspricht Nord, 90 Grad entspricht Ost, 180 Grad entspricht Süd usw. 4 Benannt nach dem österr. Physiker Christian Johann Doppler, der dieses Prinzip 1842 entdeckte. 2 4 2. Anwendungen Anwendung finden Radarsysteme vorwiegend im Bereich der Flugsicherung und Wettervorhersage (z.B. Regenradar). Weiterhin werden Radarsysteme zu Verkehrskontrollen ("Radarfallen"), Messung von Verkehraufkommen, Feststellung der Ausbreitungsgeschwindigkeit von Flutwellen, Steuerung, etc. verwendet. Innerhalb (autonomer) mobiler Systeme wird Radartechnik bereits zur Positionsbestimmung (z.B. GPS) oder zur Abstandsmessung (z.B. Tempomat) erfolgreich eingesetzt. Experimente und Tests zur autonomen Steuerung von Fahrzeugen in bekannten/unbekannten Umgebungen werden durchgeführt5. 3. Bewertung a. Vorteile Ein Vorteil der Radarsysteme liegt in der Tatsache, dass sie sichtunabhängig arbeiten können. Dunkelheit, Schnee, Nebel, Regen, etc. beeinflussen die Arbeit des Radars nicht bzw. nur in geringem Maße. Weiterhin kann die Detektion von Hindernissen nur auf bewegliche oder nur auf unbewegliche Objekte beschränkt werden.6 Schließlich ist als Pluspunkt für den Einsatz von Radarsystemen zur Hinderniserkennung deren hohe Reichweite anzumerken. b. Nachteile Ungenauigkeiten ergeben sich durch das von den elektronischen Bauteilen erzeugte Eigenrauschen des Radarsystems. Auch kann das Radarsignal aufgrund von hohen Schwankungen der Lufttemperatur und –dichte gebrochen und somit das Messergebnis beeinflusst werden. Mehrfachreflektionen des Bodens können die Interpretation der Messungen erschweren. Zusätzlich können Reflektionen von Bäumen, Gebäuden, etc. bei einer Zielsuche das eigentliche Ziel (z.B. ein Fahrzeug) verstecken. III.Laserscanner Bei einem Laserscanner wird über rotierende Spiegel ein modulierter (gepulster) Laserstrahl ausgesendet (horizontal und/oder vertikal). Das Laserlicht wird vom getroffenen Objekt reflektiert und die Zeit zwischen Aussendung des Strahls und Empfang der Reflektion gemessen. Hieraus wird nun der Abstand zum getroffenen Objekt berechnet. 5 6 Z.B. Apostolopoulos-Chheda-Foessel. Der Frequenzempfänger ignoriert hier gleiche oder verschobene (Doppler-Effekt) Frequenzen. 5 1. Technik Am Beispiel des PolarBug-Algorithmus7 soll hier die Hinderniserkennung mittels eines Laserscanners in einzelnen Schritten dargelegt werden. Execute Scan Obstacle m_DistList [obst too close] m_DistList Passage Search m_PassList [no pass found] m_PassList change strategy if necessary Approach IntermedPos ret Abb.3 Aufbau des PolarBug-Algorithmus8 Execute Der Laserscanner sendet Strahlen in einem bestimmten Winkel ab und liefert als Messergebnis eine Punktwolke in Polarkoordinaten. Obstacle Growing Um jeden detektierten Punkt (jedes Hindernis) wird ein Sicherheitskreis mit einem Radius größer dem des mit dem Laserscanner ausgerüsteten Fahrzeugs gezogen. Zusätzlich wird ein Zielkreis berechnet. Der Kreis verläuft durch den Zielpunkt und hat das Fahrzeug als Mittelpunkt. Für jeden Strahl des Laserscanners werden folgende drei Werte berechnet: • vorderes Limit des befahrbaren Bereichs (do) • Unsicherheitszone, d.h. mögliches Ende des Hindernisses (du) • Ende des Segments (Schnittpunkt mit dem Zielkreis oder einem den Zielkreis schneidenden Sicherheitskreis) (de) Passage Search: Der Schritt "Passage Search" ist nur notwendig, falls ein Hindernis zwischen dem Fahrzeug und dem Zielpunkt liegt. Wurde ein Hindernis gefunden, so werden von der direkten Linie zwischen Fahrzeug und Zielpunkt ausgehend alle Strahlen rechts und links durchlaufen, bis auf jeder Seite ein Strahl gefunden wurde, auf dem ein Segmentende liegt. Für diese Strahlen gilt, dass ein Segmentende (de) "sichtbar" ist und kein d0 und kein du existiert. In Abb. 3 gilt dies für die Strahlen α1 und α7. 7 8 Graf-John-Schraft-Traub. Graf-John-Schraft-Traub, S. 3. 6 Abb.4 PolarBug – Algorithmus: Obstacle Growing9 Approach Aus den Ergebnissen des Obstacle Growing und des Passage Search wird nun der beste (kürzeste) Weg gewählt. Zusätzliches Kriterium bei der Approach-Funktion ist die Einhaltung eines möglichst großen Sicherheitsabstands zu den detektierten Hindernissen. Change Strategy Befindet sich das Fahrzeug/der Roboter zu dicht an einem Hindernis oder wurde bei Passage Search kein Weg gefunden, so dreht sich das Fahrzeug um die eigene Achse zur Findung neuer Passagen. 2. Anwendungen a. PolarBug Bei mit dem PolarBug-Algorithmus gesteuerten Fahrzeugen handelt es sich um drei Roboter, die sich im Lichthof des Museums für Kommunikation in Berlin als Teil eines künstlerischen Gesamtkonzepts mit einer Geschwindigkeit von 0,6 m/s frei bewegen. Sie unterhalten (einer von ihnen beispielsweise mit Ballspielen) und informieren die Besucher. Nach Angaben der Entwickler des PolarBug-Algorithmus haben die drei Roboter zusammen schon über 1000 km kollisionsfrei zurückgelegt.10 b. Photonic Mixer Device (PMD)11 Als zukunftsträchtige Anwendung des Prinzips Entfernungen durch Licht zu messen ist das Photonic Mixer Device anzusehen. Bei dem PMD handelt es sich um ein neuartiges Halbleiterbauelement, das es in Zukunft ermöglichen soll, selbst auf Entfernungen von mehr als einem Kilometer Abstände von zehntel Millimetern zu unterscheiden. 9 Graf-John-Schraft-Traub, S. 4. Graf-John-Schraft-Traub, S.6. 11 Buxbaum-Schwarte-Zhang. 10 7 Der PMD-Bildsensor vereinigt im Prinzip tausende Laserscanner auf der Größe eines Mikrochips. Die 3D-Szene wird durch modulierte Lichtsignale (z.B. Laser, Infrarot) beleuchtet. Das reflektierte Licht trifft auf den PMD-Sensor, der ebenfalls an die aussendende Quelle gekoppelt ist. "So werden die in Elektronen gewandelten Photonen in Abhängigkeit vom Referenzsignal noch im lichtempfindlichen Halbleiterbereich pixelweise mit Hilfe der so genannten Ladungsträgerschaukel entfernungsselektiv getrennt."12 Das Ausgangssignal (das Bild) enthält somit schon alle Informationen, die für eine 3DDarstellung notwendig sind. c. Weitere Anwendungen Laserscanner finden in den verschiedensten Einsatzgebieten Anwendung. So werden Laserscanner insbesondere in der Baubranche zur exakten Entfernungsbestimmung angewendet. Auch zur Kontrolle von Sicherheitsbereichen13 sind Laserscanner im Einsatz. Weiterhin werden Laserscanner im Einzel- und Großhandel (Barcode-Scanner), zur Erstellung von 3D-Modellen und Datenübertragung verwendet. 3. Bewertung a. Vorteile Vorteile der Laserscanner liegen ihrer hohen Reichweite14 und der hohen Messgenauigkeit (bis zu 0,1mm, abhängig von der Reichweite). Weiterer Vorteil ist die hohe Geschwindigkeit mit der eine sehr große Zahl von Messpunkten erfasst werden kann.15 b. Nachteile Probleme der Laserscanner ergeben sich bezüglich der Funktionalität bei schlechten Sichtverhältnissen (Regen, Schnee, etc.) oder verschmutzter Optik. Auch die (noch) relativ hohen Kosten erweisen sich als nachteilig. IV.Ultraschallsysteme Ultraschallgeräte senden Schallsignale aus, die von Objekten und Hindernissen reflektiert werden. Ähnlich den Radarsystemen wird auch hier die Laufzeit zwischen dem Aussenden und Empfangen der Schallwellen gemessen und daraus die Entfernung berechnet. 12 http://pmdtec.com/ Beispielsweise in der Nähe von Fertigungsanlagen/Produktionsmaschinen. 14 Z.B. Sick-Laser LMS 211: 10mm Auflösung in einer Entfernung von 80m (Werkseinstellung) 15 Ca. 100.000 Messpunkte in 10s. 13 8 1. Technik a. Sensor (Sender und Empfänger) Die vom Sender des Ultraschallsensors ausgehenden Schallwellen breiten sich kegelförmig aus. Die Ausbreitung und die Reflektion der Schallwellen sind von verschiedenen Faktoren abhängig. Sie werden vom Luftdruck, der Umgebungstemperatur, der Luftfeuchtigkeit sowie vom Sende-/Empfangswinkel und der Oberfläche des im Schallkegel befindlichen Objekts beeinflusst. Eine Entfernungsbestimmung durch Messung der Laufzeit zwischen Sendung und Empfang der Schallwellen ist deshalb nicht direkt möglich. Die gefundenen Messwerte müssen daher zur Umrechnung in Abstände transformiert werden. b. Anordnung der Sensoren Ultraschallwellen breiten sich in einem relativ schmalen Winkel kegelförmig aus (Abb.5). Zur Abdeckung des gesamten in Frage kommenden Hindernisraums muss das System (Roboter, Fahrzeug, etc.) mit mehreren Sensoren ausgestattet sein. Auf jeder Seite des Fahrzeugs sollte Abb.5 Erfassungskeule der Ultraschallsensoren16 sich daher zumindest ein Sensor befinden. Falls das System mit mehreren Sensoren auf jeder Seite ausgerüstet wird, ist eine Zusammenfassung einzelner Sensoren zu "Knoten" anzuraten, um die relativ zeitintensiven17 Abfragen teilweise zu kompensieren. Die Sensoren eines Knotens sollten dabei nicht auf einer Seite des Fahrzeugs liegen, da die Reflektion eines Objekts sonst mehrere Sensoren beeinflussen kann. c. Entfernungsbestimmung Zur Entfernungsbestimmung zwischen System und Objekt werden Sensorwerte und tatsächliche Abstände zunächst in einer Versuchsanordnung in Beziehung gebracht.18 Die Abstände können danach aus der erstellten Tabelle ausgelesen oder (nach Aufstellung einer entsprechenden Formel) direkt aus den Sensorwerten berechnet werden. 2. Anwendungen Ultraschallsensoren zur Hinderniserkennung werden zurzeit insbesondere in der Fahrzeugtechnik verwendet; etwa zur Fahrunterstützung eines PKW-Führers. So sind viele Fahrzeugmodelle mit Rückfahrwarnsystemen oder Einparkhilfen ausgerüstet. Weitere 16 Willhöft. Aufgrund der geringen Ausbreitungsgeschwindigkeit des Schalls. 18 Um auch die jeweiligen Umgebungsvariablen (Temperatur, Luftdruck, etc.) zu berücksichtigen. 17 9 Anwendung finden die Ultraschallsysteme beim PKW zur "Sicht in den toten Winkel" und zur Aufprallfrüherkennung. 3. Bewertung a. Vorteile Ein gravierender Vorteil der Ultraschallsysteme ist ihr günstiger Preis.19 Dies ermöglicht die Ausstattung eines Fahrzeuges mit vielen Sensoren, was wiederum zur präzisen Erfassung der Entfernung zu Hindernissen und Objekten in der Umgebung führt. b. Nachteile Die Verwendung von Ultraschallsystemen hat jedoch auch schwerwiegende Nachteile. So kann ein Hindernis/Objekt nicht genau geortet, sondern nur festgestellt werden, dass es sich in der gemessenen Entfernung innerhalb des Schallkegels befindet.20 Befinden sich mehrere Objekte in einem Schallkegel, so wird nur der Abstand zum nächstliegenden gemessen; die weiter entfernt liegenden werden ignoriert. Auch die geringe Reichweite (ca. 10m) des Ultraschalls machen einen alleinigen Einsatz dieses Systems zur autonomen Steuerung (beispielsweise eines PKWs) unmöglich. Zusätzliche Probleme ergeben sich aus den Reflektionseigenschaften der Schallwellen. Trifft der Kegel in einem Winkel größer seinem Öffnungswinkel auf eine ebene Wand, so erreicht die Reflektion den aussendenden Sensor nicht. Schließlich besteht die Möglichkeit, dass die Reflektion bei einer Ausbreitung des Schalls über mehrere Oberflächen hinweg von verschiedenen Sensoren empfangen wird, deren Folge Fehlmessungen sein können. V. Bildverarbeitung Eine weitere Möglichkeit zur Hinderniserkennung bietet die Bildverarbeitung. Hier wird die Umgebung des Fahrzeugs mit (Video-)Kameras aufgenommen. Die entstandenen (Grauwert-) Aufnahmen werden in Echtzeit mit Mitteln der Bildverarbeitung aufbereitet und so Hindernisse und Objekte für das Fahrzeug "sichtbar" gemacht. Im Wesentlichen lassen sich zwei Verfahren zur Hinderniserkennung mittels Bildverarbeitung unterscheiden: Stereobasierte Videosensorik21 und Auswertung des durch Kamerabewegung auftretenden optischen Flusses22. 19 Z.B. Rückfahrwarnsystem zur Selbstmontage für ca. 40€ im Elektronik-Versandhandel. D.h. wo im Schallkegel oder wie groß das Objekt ist, kann nicht gemessen werden. 21 Z.B. Hötter-Kunze-Niehe-Suppes, Brandenburg-Kauff-Schreer. 22 Z.B. Coombs-Herman-Hong-Nashman. 20 10 1. Technik(en) a. Stereobasierte Videosensorik Abb.6 Gesamtkonzept einer Stereobasierten Videosensorik23 Für eine Stereobasierte Videosensorik werden zwei Kameras in einem bestimmten Winkel links und rechts auf das Fahrzeug montiert. Um ein 3D-Modell der Umgebung des mobilen Systems zu erstellen, werden die Kamerabilder wie folgt verarbeitet: Rektifizierung Zunächst müssen die Kamerabilder aus der realen Anordnung in eine Standardanordnung umgerechnet werden. D.h. die Bilder werden so entzerrt, wie sie sich ergeben würden, wenn die beiden Kameras parallel zueinander angeordnet wären. Abb.7 Reale Anordnung Standardanordnung Texturanalyse Innerhalb der Texturanalyse sucht man nun nach Bereichen der Bilder, die aufgrund einer ausreichend hohen Grauwertänderung die Disparitätsanalyse (im folgenden Schritt) zulassen. Disparitätsanalyse In diesem Schritt werden nun in den Bildpaaren Punkte gesucht, die miteinander korrespondieren. Vollzogen wird dies durch einen blockbasierten24 Vergleich der Intensitätsverteilungen in den Bildpaaren. 3D-Rekonstruktion Nach der Disparitätsanalyse werden die gefundenen Punktkorrespondenzen durch Triangulation in Punkte der 3D-Umgebung umgerechnet. 23 Hötter-Kunze-Niehe-Suppes, S.2. Die Suche ist nur eindimensional (horizontal), um den Rechenaufwand zu minimieren und höchstmögliche Stabilität zu erreichen (Hötter-Kunze-Niehe-Suppes, S.4). 24 11 Segmentierung Schließlich erfolgt eine Zusammenfassung dieser 3D-Punkte zu Objekten im 3D-Raum und so eine Rekonstruktion der Umgebung des mobilen Systems. b. Widefield Flow Divergence25 Eine weitere Möglichkeit zur Erkennung von Objekten und Hindernissen mittels Bildverarbeitung bietet die Berechnung des optischen Flusses zwischen (von einer Videokamera aufgenommenen) Bildern. Hier wird eine Videokamera auf das Fahrzeug montiert, deren Blick immer in Fahrtrichtung weist. Berechnet wird der optische Fluss jeweils zwischen zwei Bildern, die in einem bestimmten zeitlichen Abstand26 von der Kamera aufgenommen wurden. Man macht sich hier im Prinzip den Effekt zu nutze, dass sich Objekte, die sich näher am Betrachter befinden schneller zu "bewegen" scheinen.27 2. Anwendungen Zurzeit werden Bildverarbeitungssysteme (fast) ausschließlich experimentell verwendet. Voll funktionsfähige Systeme, die ohne Unterstützung anderer Sensortechniken arbeiten gibt es im Moment nicht. Bei den ausgeführten Experimenten handelt es sich zumeist um Roboter, die sich autonom in einer Innenraumumgebung bewegen. Anwendung findet die Kameraüberwachte Steuerung beispielsweise beim Lan Guard System von MAN. Das System erkennt unbeabsichtigte28 Spurabweichungen (bei vorhanden Fahrbahnmarkierungen) und warnt den Fahrer. 3. Bewertung a. Vorteile Aufgrund der Verwendung von Standardkomponenten stellt die Bildverarbeitung eine preisgünstige Möglichkeit zur Hinderniserkennung dar. Weiterhin ist die Kamera als passiver Sensor anzusehen, der die (gleichzeitige) Ausstattung mehrerer Fahrzeuge zulässt, ohne dass die Gefahr der gegenseitigen Beeinflussung besteht. Weiterhin könnte durch die Übertragung und Überwachung der Kamerabilder eine einfache zusätzliche Sicherheitsmaßnahme eingeführt werden.29 25 Vgl. Camus-Coombs-Herman-Hong. Z.B. jedes zehnte Bild einer Videokamera. 27 Vergleichbar etwa mit dem Blick aus einem fahrenden Zug: Näher am Zug befindliche Objekte "rauschen" am Betrachter vorbei, während weiter entfernte (fast) unbeweglich erscheinen. 28 Abweichung von der Fahrspur, ohne dass der Blinker gesetzt wurde. 29 Etwa im Falle autonomer Transportsysteme in Lagerhallen, etc. 26 12 b. Nachteile Schwerwiegendster Nachteil der Bildverarbeitung ist ihre Sichtabhängigkeit. Soll etwa ein PKW autonom gesteuert werden, so ist die Anwendung von Kameras bei Nebel, Regen, Dunkelheit, etc. völlig ungeeignet. Es könnten aus den gewonnenen Kamerabildern keine Informationen über die Umgebung des PKW gezogen werden. Objekte und Hindernisse wären "unsichtbar". Als Minuspunkt stellen sich auch die notwendigen aufwendigen Berechnungen dar. Die mögliche Geschwindigkeit eines mobilen Systems wird stark von den bei den Berechnungen zur Verfügung stehenden Hardwareressourcen beeinflusst.30 VI.Zusammenfassung In den vorangegangenen Darstellungen wurden verschiedene Möglichkeiten zur Hinderniserkennung durch (autonome) mobile Systeme mit ihren Vor- und Nachteilen erläutert. Als Fazit ist festzustellen, dass ein allen anderen überlegenes System zur Hinderniserkennung im Moment nicht existiert. So eignet sich beispielsweise ein Ultraschallsystem als Einparkhilfe, aber zur Hinderniserkennung bei voller Fahrt ist es aufgrund seiner geringen Reichweite ungeeignet. Die beste Möglichkeit, um ein Fahrzeug kollisionsfrei (autonom) zu steuern ist die Kombination von verschiedenen Systemen. Als Beispiel für eine solche Kombination, könnte die Verwendung aller dargestellten Systeme, jeweils für den geeignet Zweck, dienen.31 Zur Fahrerunterstützung sind jedoch alle Systeme gemessen an ihrem bestmöglichen Einsatzort (Zweck) als geeignet anzusehen. Für die Zukunft der Hinderniserkennung bei mobilen Systemen bietet die Entwicklung des Photonic Mixer Device einen äußerst vielversprechenden Ansatz, der größte Beachtung verdient. 30 Allerdings wird sich dieses Problem mit der fortschreitenden Entwicklung im Bereich der Hardware zumindest verringern. 31 Was allerdings an den entstehenden Kosten scheitern dürfte. 13 Literaturverzeichnis Apostolopoulos, D. Chheda, Sachin Foessel, Alex Short-Range Millimeter-Wave Radar Perception in a Polar Environment in: Proceedings of the Field and Service Robotics Conference, 1999 http://www.ri.cmu.edu/pubs/pub_2742.html Brandenburg, N. Kauff, P. Schreer, O. Disparitätsanaylse konvergenter und rektifizierter Stereoansichten: Eine vergleichende Untersuchung in: 22. DAGM-Symposium Mustererkennung, Kiel 2000 http://iphome.hhi.de/schreer/pubs.htm Brumbi, Detlef Grundlagen der Radartechnik zur Füllstandsmessung 4. Auflage, Krohne 2003 Buxbaum, Bernd Schwarte, Rudolf Zhang, Zhigang Neue 3D-Bildsensoren für das Technische 3D-Sehen Eingeladener Vortrag auf dem VDE Kongress „Ambient Intelligence“, 18 –20. 10. 2004, Berlin http://www.uni-siegen.de/~reg-st2/tech3D/doc/Ambient_Intellegence_ fuer_07102004.pdf Camus, Ted Coombs, David Herman, Martin Hong, Tsai-Hong Real-Time Single-Workstation Obstacle Avoidance Using Only Wide-Field Flow Divergence in: Videre: Journal of Computer Vision Research Quarterly Journal, Summer 1999, Volume 1, Number 3 http://mitpress.mit.edu/e-journals/ Videre/001/articles/v1n3002.pdf Coombs, David Herman, Martin Hong, Tsai-Hong Nashman, Marilyn Real-Time Obstacle Avoidance Using Central Flow Divergence and Peripheral Flow in: NIST Internal Report (NISTIR) 5605, 1995 http://www.isd.cme.nist.gov/documents/coombs/Coombs-etaldivergence-n-flow-NISTIR-1995.ps. Graf, B. John, D. Schraft, R. D. Traub, A. PolarBug – ein effizienter Algorithmus zur reaktiven Hindernisumfahrung Dauereinsatz in: Proceedings of AMS, 2000 http://www.care-o-bot.de/Papers/PolarBug-ein_effizienter_ Algorithmus_zur_reaktiven_Hindernisumfahrung_AMS2000.pdf Hötter, M. Kunze, E. Niehe, S. Suppes, A. Stereobasierte Videosensorik unter Verwendung ein stochastischen Zuverlässigkeitsanalyse in: G. Sommer, N. Krüger, C. Perwass, (Hrsg.), Mustererkennung 2000, 22. DAGM-Symposium. Kiel, 13.-15. September 2000. Willhöft Fortschrittsberichte: Fahrerlose Transportsysteme Arbeitsbereich Werkzeugmaschinen und Automatisierungstechnik an der Technischen Universität Hamburg-Harburg http://www.tu-harburg.de/ft2/Fortschrittsberichte01.htm 14