Computational Intelligence: die Natur als Vorbild für

Werbung
Computational Intelligence: die Natur als Vorbild für
technische Automatisierungslösungen
Prof. Dr.-Ing. Bernd Cuno
Fachhochschule Fulda, Fachbereich Elektrotechnik
Marquardstraße 35, 36039 Fulda
Email: [email protected]
1. Einführung
1.1 Aktuelle Probleme der Automatisierungstechnik
Die Erweiterung des Anwendungsspektrums der Automatisierungstechnik, wirtschaftliche Zwänge sowie technologische und umwelttechnische Gründe führen seit Jahren zu
einer anwachsenden Komplexität der Prozesse sowie zu steigenden Anforderungen an
deren Automatisierung. Konventionelle Verfahren der Automatisierungstechnik können
in vielen Fällen - auch bei sorgfältiger Parametrierung - diese Anforderungen nicht
mehr erfüllen [1]. Die tiefergehende Analyse zeigt, daß Probleme besonders bei Automatisierungsaufgaben auftreten, die folgende wesentliche Eigenschaften aufweisen:
• hohe Komplexität, gekennzeichnet durch nichtlineares Verhalten und hohe Systemordnung,
• Anfall großer - einerseits unvollständiger, andererseits stark redundanter - Datenmengen,
• unpräzises, unvollständiges und schwer strukturierbares Prozeßwissen sowie
• hohe Echzeitanforderungen.
Während hinsichtlich der Lösung dieser Probleme die theoretischen und praktischen
Grundlagen der konventionellen Automatisierungstechnik oftmals versagen, bewältigen
das menschliche Hirn und selbst einfache biologische Systeme derartige Probleme teilweise mühelos. Bis heute gelingt es nicht, ein autonomes Fahrzeug zu entwerfen, das
nur annähernd die Effizienz und Eleganz einfachen tierischen Verhaltens besitzt [2].
„Einfache“ Erkennungsvorgänge, wie das Wiedererkennen eines Gesichts „auf den ersten Blick“, das Zurechtfinden im Gelände oder auch das Verstehen von undeutlicher
Sprache erledigt das Gehirn in Sekundenbruchteilen, während technische Einrichtungen
an diesen Aufgaben noch scheitern. In den letzten Jahren wurde es immer augenscheinlicher, daß die alleinige Weiterentwicklung der konventionellen Automatisierungsverfahren nicht ausreicht, um den wachsenden Anforderungen des Marktes zu genügen.
1.2 Suche nach neuen Problemlösungen: die Natur als Vorbild
Die logische Konsequenz der oben dargestellten Erkenntnisse scheint deshalb zu sein,
die Strategie zu kopieren, welche die Natur offensichtlich erfolgreich benutzt, um solche
schwierigen Aufgaben zu lösen. Da die Natur im Vergleich zur Technik gigantische Leistungen vollbringt, steht hier ein unerschöpfliches Ideenpotential zur Verfügung. Im Erfolgsfall könnte der Einsatz naturbasierter, d.h. am Vorbild der Natur orientierter Verfahren zu einer erheblichen Leistungssteigerung der Automatisierungstechnik beitragen.
Daher die Motivation zur Beschäftigung mit dem Thema: High Tech lernt von High
Nature.
Obwohl die Funktionsweise der betreffenden Prinzipien der Natur bisher nur bruchstückhaft bekannt ist, werden bereits seit einigen Jahren Versuche unternommen, diese
in Automatisierungskonzepte umzusetzen. Über entsprechende Anwendungen wird in
fachlich orientierten sowie populärwissenschaftlichen Veröffentlichungen unter folgenden Schlagzeilen - meist euphorisch - berichtet:
/ Die Biologie hilft der Informatik auf die Sprünge / Den Fähigkeiten des menschlichen
Gehirns auf der Spur / Chips mit Grips - autonome Roboter helfen das Gehirn zu verstehen / Fuzzy Logik - näher zur Natur ? / Software züchten, statt sie zu schreiben / Fuzzy
Logic - Computing with words ? / Neuronale Netze - Zukunftsmusik oder Realität ? /
Gehirn und Gespinste: Mensch, Maschine - Kopfgeburten / Gehirnzellen auf einem
Chip / Computer lernen denken /.
Im folgenden sollen die Ursprünge der naturbasierten Verfahren kurz dargestellt und erste Erfolge, aber auch deren enorme bisher noch ungenutzte Potentiale aufgezeigt werden. Dadurch sollen Forscher, aber auch Entwickler und Anwender der industriellen
Automatisierungstechnik für dieses für die zukünftige Wettbewerbsfähigkeit der Industrie bedeutende Thema sensibilisiert und zur innovativen Umsetzung ermuntert werden.
Auch wenn die vorliegende Darstellung teilweise die gewohnte rein technische Ebene
verläßt und für den Anwender einen teilweise noch futuristischen Aspekt aufweist, gilt
es zu bedenken, daß „für die Praxisnähe von übermorgen die sogenannte Praxisferne
von heute ein notwendiger Preis ist“ (Erich Staudt, Professor am Institut für Arbeitswissenschaft der Ruhr-Universität Bochum).
Voraussetzung für eine erfolgreiche Arbeit auf dem Gebiet der naturbasierten Automatisierungsverfahren ist die fachübergreifende Betrachtung. Andererseits leisten das theoretische Gebäude sowie die Methoden der inzwischen zur Systemwissenschaft ausgebauten Regelungstechnik einen wesentlichen Beitrag auf dem Gebiet der Erforschung
der natürlichen Intelligenz (Kognitionswissenschaft) sowie der Evolution. Hier arbeiten
mittlerweile Biologie, Medizin, Mathematik, Informatik, aber auch Philosophie, Psychologie, Linguistik und verschiedene Ingenieurwissenschaften interdisziplinär zusammen. Zu einer Verstärkung der interdisziplinären Arbeit sowie zum Abbau von Hemmschwellen soll folgendes Zitat von Antoine de Saint-Exupery ermuntern:
„Die Maschine trennt den Menschen nicht von den großen Dingen der Natur, sondern
wirft ihn noch tiefer in sie hinein.“
Das angefügte Literaturverzeichnis soll den Leser zum weiteren vertiefenden Studium
anregen.
2. Das Prinzip der Regelung
2.1 Gemeinsamkeiten biologischer und technischer Regelungen
Das Prinzip der Regelung wurde von der Evolution bereits Milliarden von Jahren vor
den Regelungstechnikern „erfunden“. Gemeinsame Merkmale von biologischen und
technischen Regelungssystemen [2], [3] sind
• Informationsfluß innerhalb des Regelkreises,
• rückwirkungsfreie Regelkreiselemente und
• das Konzept der negativen Rückkoppelung.
Im Unterschied zu technischen Regelungen sind biologische Regelungen allerdings
höchst komplexe Mehrgrößensysteme, die oft Millionen von elementaren Ein- und Ausgängen enthalten. Einer Regelaufgabe sind oft unterschiedliche Stellgliedtypen zugeordnet, während ein und dasselbe Stellglied wiederum (mit meist variabler Priorität) verschiedenen Regelaufgaben dient.
2.2 Regeln und Lernen
Ohne die Fähikeit, zu lernen und das erworbene Wissen zu speichern, wären der Mensch
aber auch selbst die einfachsten Tiere, hilflos. Lernen umfaßt jene Abläufe, bei denen
Informationen über die Welt erworben werden, und Gedächtnis steht für den Prozeß, mit
dessen Hilfe das Wissen abrufbar gespeichert wird.
Den Vorgang des natürlichen Lernens beschreibt Konrad Lorenz als Beispiel eines Regelkreises [4]. Er bemerkt, daß durch den Übergang vom Steuer- zum Regelprinzip
„völlig neue Systemeigenschaften des nervlichen Apparates entstanden sind“. Ein Leben
ohne das Prinzip des Regelns ist offensichtlich nur in einem „Milieu von unvorstellbar
großer Konstanz“ (zum Beispiel im Wasser bzw. in der "Ursuppe") möglich. Den meisten Lernvorgängen gemeinsam ist die Rückkoppelungsschleife, bestehend aus: Wahrnehmung des realen Umfelds, Wiedererkennen von wiederholt auftretenden Situationsmerkmalen, Evaluierung (Korrelation zwischen angewandten Verhaltensweisen und ihrem Nutzen bzw. Schaden), Verallgemeinerung oder Abstraktion der Erkenntnis, entsprechende Verhaltensänderung, veränderte Wirkung auf das Umfeld [2].
2.3 Lernen und Simulation
Eine wichtige Fähigkeit des Menschen besteht in der Simulation. Bevor wir eine
Handlung konkret ausführen, simulieren wir sie gewöhnlich mit Hilfe unserer Vorstellungskraft. Wir können so die möglichen Auswirkungen der Handlung analysieren und
entscheiden, ob wir sie wie geplant durchführen, sie ändern oder auf sie verzichten
wollen. Durch Einsatz der Simulation braucht der Mensch nicht den Preis zu zahlen, der
mit den unvermeidlichen Fehlern verknüpft ist oder um mit Karl Popper zu sprechen:
„Die Simulation ermöglicht es, daß nicht wir, sondern unsere Hypothesen sterben“
Die heute fast ausschließlich auf Digitalrechnern durchgeführte wissenschaftliche bzw.
technische Simulation hat mittlerweile alle Gebiete der Naturwissenschaft und der
Technik erfaßt und ist in manchen Bereichen so erfolgreich, daß man gänzlich auf das
Experiment verzichten kann. In anderen Bereichen ist sie der einzige Zugang zur Erfassung genauer Abläufe, weil entsprechende Experimente nicht durchgeführt werden können. Wesentliche Anwendungsgebiete der Simulation in der Automatisierungstechnik
sind:
•
•
•
•
Einsatz von Echtzeitsimulatoren zur Schulung,
Prozeßbeobachtung und Diagnose,
Simulationsgestützte Prognose und
Adaptive Regler.
Durch das vertiefte Studium biologischer Regelkreise können voraussichtlich noch viele
wertvolle Lösungsideen für komplexe technische Regelaufgaben auf dem Gebiet der
lernenden, adaptiven oder autonomen Systeme gewonnen werden.
3. Evolution
Das von Gregor Johann Mendel (1822-1884) aufgestellte dritte Vererbungsgesetz, das
Gesetz der freien Rekombination des Erbguts, besagt, daß das Erbgut zumindest prinzipiell in allen möglichen Kombinationen neu zusammengestellt werden kann. Ferner
hatte Mendel erkannt, daß sich das Erbgut aus bestimmten, diskreten Einheiten zusammensetzt. Wir wissen heute, daß diese wie folgt aufgebaut sind: die im Zellkern befindlichen Chromosomen enthalten die langgestreckten Moleküle der Desoxyribonukleinsäure (DNS), die wiederum aus vier Nukleotiden, den Basen Adenin, Guanin, Cytosin
und Thymin besteht. Diese bilden das genetische Alphabet, ihre jeweilige Reihenfolge in
der DNS die genetische Information in Form des genetischen Codes. Die kleinste Erbeinheit, das Gen, setzt sich typischerweise aus etwa 1000 Nukleotiden zusammen. Der
genetische Code stellt beim Aufbau der Lebewesen die Information zur Eiweiß- oder
Proteinsynthese bereit. Er ist hochgradig redundant ausgelegt und in der Natur universell
gültig: alle Organismen übersetzten die Basensequenzen in der gleichen Weise. Je drei
aufeinanderfolgende Nukleotide codieren eine Aminosäure. Insgesamt sind dabei 43 =
64 Kombinationen möglich. Da nur 20 verschiedene Aminosäuren existieren, ist der
Code also mehrdeutig und somit redundant ausgelegt. Die Reihenfolge der Aminosäuren
bestimmt die Grundstruktur der Proteinmoleküle und damit in letzter Instanz den Aufbau der Zellen und somit des gesamten Organismus [5].
Als zu Beginn dieses Jahrhunderts die Vererbungsgesetze Mendels wiederentdeckt wurden, war man davon überzeugt, daß ein Gen zwangsläufig ein bestimmtes Merkmal
festlegt. Diese Vorstellunmg wurde nach dem zweiten Weltkrieg von der Überzeugung
abgelöst, daß die Gene nur einen gewissen Rahmen bstimmen, die eigentlich formende
Kraft aber die Umwelt sei. In den sechziger Jahren begann sich dann allmählich wieder
die Meinung durchzusetzen, daß die Gene und nicht die Umwelt die wichtigste Rolle bei
der Entwicklung eines Individuums spielen.
Daß der Mensch mehr ist als die Summe seiner Gene, wird heute von den Wissenschaftlern nicht mehr angezweifelt. Tatsächlich wird jede Eigenschaft, Verhalten und
Intelligenz eingeschlossen, durch ein komplexes Zusammenspiel der Gene (mit einem
hohen Grad an Vernetzung) bestimmt. Selbst bei (monogenen) Erbkrankheiten, die bisher auf einen Fehler in nur einer Erbanlage zurückgeführt wurden, können offenbar Regelkreise unüberschaubar ineinandergreifen [28].
Alle Eigenschaften lebender Organismen, wie Anatomie, Nervensystem, Sinne, Gefühle, Bewußtsein sind Ergebnisse der biologischen Evolution. Gemäß der von Charles
Darwin (1809-1882) im Jahre 1859 begründeten Evolutionstheorie beruht der von der
Evolution durchgeführte Suchprozeß auf drei einfachen Prinzipien:
• der zufälligen Mutation des genetischen Materials (Erbgut),
• der Fortpflanzung durch Reduplikation (identische Teilung) bzw. Rekombination
(Crossover) der Erbinformation und
• der Selektion aufgrund der Tauglichkeit eines Individuums (survival of the fittest).
Die für den Ingenieur erstaunlichsten Eigenschaften der Evolution sind die relative Einfachheit ihrer Vorgehensweise und das Zusammenwirken verschiedener Steuerungsmechanismen.
Der von Darwin geprägte Begriff der Fitneß eines Lebewesens setzt sich aus einer Vielzahl verschiedener Eigenschaften zusammen. Er ist eine Variable, die sich über den
Fortpflanzungserfolg unter den jeweiligen Selektionsbedingungen definiert. Die Evolution führt zu Organismen mit spezifischen Eigenschaften, die eine vorläufig stabile
Wechselwirkung mit ihrer Umgebung erlauben. Eine Veränderung oder Erweiterung der
Eigenschaften eines Organismus kann sich entweder als fatal erweisen und somit mit
dem veränderten Organismus verschwinden oder sie erweist sich als vorteilhaft im
Wettbewerb um begrenzte Ressourcen und führt zu einer erweiterten Art mit entsprechend erweiterten Eigenschaften, d.h. zu einem neuen, vorläufig stabilen Gleichgewicht.
Trotz des positiv klingenden Begriffs Evolution muß festgestellt werden, daß im Laufe
der Evolution nicht alle Wege „aufwärts“ zu komplexeren und intelligenteren Lebewesen, sondern viele „abwärts“, zu rückgebildeten vereinfachten Formen geführt haben
[6].
Der praktische Wert der Evolutionstheorie für die Automatisierungstheorie besteht aktuell darin, daß sie einerseits darüber aufklärt, wie natürliche Intelligenz entstand und
andererseits die wissenschaftliche Basis für Konzepte des künstlichen Lebens bildet. Erfolgreiche Anwendungen sind die genetischen Algorithmen ([7] und [8]) sowie die
Evolutionsstrategien ([9] und [10]), die am weitesten verbreiteten Vertreter einer Klasse direkter stochastischer Optimierungsverfahren. Diese Algorithmen benutzen der Rekombination, Mutation und Selektion nachempfundene genetische Operatoren zur qualitativen Höherentwicklung einer Population von Lösungskandidaten für ein gegebenes
Optimierungsproblem. Ihr Potential zum Auffinden guter Näherungslösungen selbst für
schwierige multimodale Optimierungsaufgaben wurde inzwischen in einer Vielzahl von
Anwendungen demonstriert [11].
In beinahe allen Bereichen unserer Umwelt finden sich geniale Schöpfungen der Natur.
Wenn es uns gelängem, besser zu verstehen, wie die Natur ihre Produkte hervorbringt
und an ihre Umwelt anpaßt, so könnten wir versuchen, diese Prozesse nachzubilden und
ebenfalls bessere, umweltverträglichere, biologisch abbaubare, energiesparende und in
vielerlei Hinsicht optimierte Produkte erzeugen [12].
4. Sprache und Logik
Die in dem Zeitraum vor rund 300.000 bis 20.000 Jahren entstandene menschliche
Sprache zählt zu den herausragenden Eigenschaften des Menschen. Mit der Entwicklung
der Sprache hat sich das Gehirn stark weiterentwickelt. Das Wesentliche der Sprachfähigkeit besteht darin, Dinge oder Handlungen zu verallgemeinern, d.h. einer Klasse zuzuordnen und durch ein Symbol zu benennen. Sprache beinhaltet somit ein hochdifferenziertes Vermögen zur Klassenbildung. Menschliche Entscheidungen basieren wiederum auf Aussagen mit sprachlicher Vagheit und evidenzmäßiger Unsicherheit.
Die Vielfältigkeit der menschlichen Sprachen beweist, daß nichts an ihnen absolut und
notwendig ist. Ebenso kann man annehmen, daß Logik und Mathematik historische, zufällige Ausdrucksformen sind, die auch in anderen als den uns bekannten Formen existieren können [24].
Sprechen lernen die Menschen von selbst, Schreiben und Lesen muß man ihnen mühsam beibringen und es wird nicht von allen beherrscht. Dies bedeutet, daß Schreiben
und Lesen nicht zur biologischen Grundausstattung des Menschen gehört, während
Sprechen dem Menschen so natürlich ist wie Gehen ist.; es hat seine biologische
Grundlage in einem „phonetischen Modul“, durch das gesprochene Sprache ohne Umweg einer inneren Übersetzung produziert und rezipiert wird. Das phonetische Modul
bringt mittels motorischer Muster „phonetische Gesten“, die Grundbausteine der gesprochenen Sprache, hervor. Ähnlich werden sprachliche Laute, die gehört werden, verarbeitet.
Die Organe, die mit Lesen und Schreiben zu tun haben, sind weit besser für ihre Aufgabe geeignet als diejenigen, die für das Sprechen und Hören zuständig sind: ein geschriebener oder gedruckter Text kann vom Auge sehr viel präziser wahrgenommen werden
als eine Lautfolge durch das Ohr und die Hand kann genauer Buchstaben zeichnen als
die Zunge die entsprechenden Laute formen [31], [32].
Die klassische Modellierung menschlicher Entscheidungen (d.h. des logisch analytischen Teils des menschlichen Verstands) ist wesentlich durch die Kategorienlehre und
die Lehre von den logischen Schlüssen und Beweisen des Aristoteles (384-322 v. Chr.)
geprägt. Dieser ging von folgenden Axiomen aus:
• Satz vom Widerspruch: A kann nicht zugleich B und Nicht-B sein („... denn es ist
nicht möglich, daß dasselbe demselben in derselben Beziehung zugleich zukomme
und nicht zukomme“)
• Satz vom ausgeschlossenen Dritten: A muß entweder B oder Nicht-B sein („denn zu
behaupten das Seiende sei nicht oder das Nichtseiende sei, ist falsch“).
Während der Satz vom Widerspruch einer Aussage verbietet, zugleich wahr und nicht
wahr zu sein, verbietet es der Satz vom ausgeschlossenen Dritten einer Aussage, etwas
anderes als wahr oder nicht wahr zu sein. Als Folge ist die klassische Logik gezwungen,
jede Aussage so zu „runden“, daß sie entweder wahr oder falsch ist. Obwohl viele Behauptungen des Aristoteles auf dem Gebiet der Naturwissenschaften im Laufe der Zeit
widerlegt wurden und er selbst in späteren Werken in Frage gestellt hatte, ob alle formulierbaren Aussagen einzig und allein mit den Wahrheitswerten wahr oder falsch belegt werden können („Einer der annimmt, daß 4 und 5 gleich seien, liegt immer noch
richtiger, als der, der 4 und 1000 gleichsetzt“ aus Methaphysik), wurde die Modellierung
der menschlichen Wissensverarbeitung durch die klassische Logik über zwei Jahrtausende beibehalten [13].
Die mathematische Basis der klassischen Logik ist durch die Aussagenlogik gegeben,
die neben der Mengenalgebra und der Verknüpfungslogik zu den Modellen der Boolschen Algebra zählt. Da alle Modelle der Boolschen Algebra deren Axiome erfüllen und
die gleiche algebraische Struktur besitzen, können die bestehenden Analogien zur Problemlösung ausgenutzt werden. Dies bedeutet, daß Probleme der Aussagenlogik mit
Hilfe der Mengenalgebra gelöst werden können (so entspricht zum Beispiel einer logischen UND-Verknüpfung der Aussagenlogik die Bildung des Durchschnitts in der Mengenalgebra) [12]. Aufgrund der groben Vereinfachung auf die zweiwertige Wahr/
Falsch-Aussage liefert die klassische Aussagenlogik in vielen Fällen ein ungenügendes
Modell der menschlichen Wissensverarbeitung. Dies trifft besonders bei komplexen
Sachverhalten zu. Sowohl die Lingusitik als auch die Philosophie gelangten zu der Erkenntnis, daß einfache Konzepte eher präzise sind als komplexe, die zu Unbestimmtheiten tendieren: „Je umfassender die Bedeutungsfelder eines Begriffs sind, je weitreichender die Aussagen und Konsequenzen (A. Cornelius Benjamin) [13]. Lofti Zadeh
formulierte das Gesetz der Unvereinbarkeit: „Wenn die Komplexität eines Systems ansteigt, verlieren präzise Aussagen an Sinn und sinnvolle Aussagen an Präzision“ oder
„wenn die Komplexität eines Systems zunimmt, wird unsere Fähigkeit, präzise und
dennoch signifikante Aussagen über dieses System zu machen, entsprechend geringer,
bis eine Grenze erreicht wird, von der an Präzision und Signifikanz (oder Relevanz) zu
sich gegenseitig ausschließenden Merkmalen werden“ [14]. Auch bei der Automatisierung komplexer Prozesse führte die Anwendung der klassischen Logik zu erheblichen
Problemen.
Nachdem im Laufe der Zeit (zum Beispiel durch Lukasiewicz, Gödel, Brouwer und von
Neumann) verschiedene formale Ansätze einer mehrwertigen Logik vorgeschlagen und
an der Entwicklung zugehöriger logischer Systeme gearbeitet wurde [13], brachte erst
die 1965 von Lofti Zadeh formulierte unscharfe Logik (Fuzzy Logic) den Durchbruch.
Der Begriff unscharfe Logik selbst bezieht sich auf eine ganze Familie möglicher
mehrwertiger Logiken mit einem Kontinuum von Wahrheitswerten, die sich wiederum
in der Definition ihrer logischen Operatoren unterscheiden und eine Verallgemeinerung
der klassischen Logik darstellen. Nach dem Vorschlag von Zadeh [15] kann jeder linguistische Wert einer linguistischen Größe durch eine unscharfe Menge (Fuzzy Set) M
beschrieben werden. Er ist dann durch die beiden Angaben Grundmenge G und Zugehörigkeitsfunktion µ mathematisch eindeutig definiert. Die Zugehörigkeitsfunktion gibt für
jedes Element der Grundmenge G (z. B. Zahlenwerte einer Temperaturskala) die Zugehörigkeit zur Menge M (z. B. "warm") in Form eines Zahlenwerts zwischen Null und
Eins an. Ist für einen bestimmten Wert die Zugehörigkeitsfunktion Eins, so trifft die den
liguistischen Wert betreffende Aussage (z.B. „es ist warm“) voll zu, ist sie dagegen
Null, so ist keinerlei Übereinstimmung vorhanden.
Mit Hilfe der Theorie der unscharfen Mengen gelingt die Zuordnung linguistischer Aussagen zu unscharfen Mengen. Entscheidungen, die bisher vom Menschen getroffen wurden, können mit Hilfe von Fuzzy-Methoden wirkungsvoll Rechnern übertragen werden.
Mit Hilfe der Fuzzy-Technologie ist es möglich, das oft nur linguistisch verfügbare Expertenwissen für Automatisierungslösungen zu verwenden. Dies gilt für Anwendungen
auf dem Gebiet der intelligenten Meßwertverarbeitung, Steuerung und Regelung sowie
der Diagnose technischer Prozesse. Besondere Vorteile der Fuzzy Technologie werden
sich bei der Entwicklung leistungsfähiger Expertensysteme ergeben. Diese Anwendung
der künstlichen Intelligenz (KI) ist an der Modellierung durch die zweiwertige Logik gescheitert und gehört zu der „einzigen großen Enttäuschung auf dem Gebiet des Einsatzes
der Digitalrechner“ [13].
Da die Koppelung von Automatisierungssystemen mit den Sensoren und Aktoren eines
industriellen Prozesses im allgemeinen über Analogwerte, d.h. reelle Zahlen erfolgt, hat
E.H. Mamdani Transformationen zwischen den Ein- und Ausgangsgrößen des Prozesses
und der Fuzzy-Welt vorgeschlagen [17]:
• Die in der Fuzzifizierungsphase erfolgende „Vergröberung“ von Prozeßinformation
(zum Beispiel ϑ = 22,5 °C → ϑ ist gleich warm) führt zu einer Informationsreduzierung und damit zu Entscheidungsräumen mit niedriger Dimension, so daß die effektive Ausführung komplexer Entscheidungsprozesse möglich wird.
• In der Entscheidungs- oder Inferenzphase erfolgt der eigentliche Problemlösungsvorgang unter Nutzung der in der Regelbasis niedergelegten linguistisch formulierten
Expertenerfahrung.
• In der anschließenden Defuzzifierungsphase werden die unscharfen Ergebnisse des
Entscheidungsprozesses zusammengefaßt und in die Welt der reellen Zahlen transformiert, so daß an den Prozeß wieder „scharfe“ (d.h. nichtlinguistische) Stellbefehle
ausgegeben werden können.
Die Auswahl, welche Informationen wie zu „vergröbern“ sind, ohne daß wesentliche
Aspekte verloren gehen, setzt allerdings viel Prozeßwissen und Erfahrung voraus.
Zur Beseitigung weit verbreiteter Mißverständnisse sei abschließend auf Gemeinsamkeiten und Unterschiede der Begriffe (sprachlicher) Unschärfe und Wahrscheinlichkeit
hingewiesen: beide beruhen auf Abstufungen; der erste auf der Abstufung von Wahrheit,
der zweite auf der Abstufung von Erwartung.
5. Neuronale Netze
5.1 Informationsverarbeitung durch biologische neuronale Netze
Das gesamte menschliche Nervensystem besteht aus etwa 15 bis 25 Milliarden Neuronen (Nervenzellen), von denen der größte Teil dem Zentralnervensystem zugeordnet ist.
Die Neuronen sind sowohl in ein gemeinsames Ernährungs- und Erneuerungssystem als
auch in ein gemeinsames Informationsnetz eingebaut. Letzteres soll im folgenden betrachtet werden [3], [18].
Während im Gehirn des Menschen stündlich etwa 1.000 Neuronen absterben, entstehen
nach der Geburt im allgemeinen keine neuen Neuronen mehr. Allerdings gibt es Ausnahmen von dieser Regel. Erste Belege dafür, daß im Zentralnervensystem ausgewachsener Säugetiere neue Nervenzellen entstehen können, stammen aus den sechziger Jahren. In den neunziger Jahren hat man dann einen entsprechenden Nachweis auch für das
Gehirn des Menschen erbracht [33]. Danach bleiben Zellen des Hippocampus lebenslang teilungsfähig. Wissenschaftler der Universität Bielefeld haben kürzlich herausgefunden, daß sich bestimmte Vorläuferzellen im Gehirn der Maus durch das Medikament
Haloperidol zur Teilung anregen lassen, während das Medikament Amphetamin die entgegengesetzte Wirkung ausübt. Bei längerer Anwendung begünstigt die Substanz die
Bildung neuer Synapsen. Hirnstrukturen befinden sich im Wechselspiel mit der Umwelt
in einem ständigen Wandel, wobei im Hirn eine „Unruhe“ entsteht: es kommt offensichtlich zur Neuorganisation neuronaler Schaltkreise in mehreren Regionen im Hirn.
Neuronen sind veränderte impulsübertragende Zellen, die typischerweise aus einem
Zellkörper (Soma), etwa 1.000 bis 10.000 Dendriten als Eingangssignalempfänger und
einem Axon zur Weiterleitung der Ausgangssignale bestehen. Über die Verzweigungen
des Axons in die sogenannten Kollaterale ist ein Neuron über die Synapsen mit den
Dendriten anderer Neuronen verbunden, wodurch neuronale Netze entstehen. Die in
Form asynchroner Pulsfolgen auftretenden elektrischen Ausgangssignale der Neuronen
werden durch verstellbare Eingangsgewichte an den Synapsen (und wahrscheinlich auch
verstellbare Zeitverzögerungen) verarbeitet. Überschreitet die Summe der an den Eingängen eines Neurons anliegenden Erregungen einen gewissen Schwellwert, so breitet
sich über seinen Ausgang ein elektrischer Impuls aus: das Neuron „feuert“. Dabei wird
die Stärke des Impulses von der Stärke der Erregungen der Eingänge bestimmt. Wie
stark ein Ausgangsimpuls wiederum auf die nachfolgenden Neuronen wirkt, hängt damit
von Anzahl und Zustand der feuernden Ausgänge der verbundenen Neuronen sowie von
der „Leitfähigkeit“ der Synapsen ab. Diese Leitfähigkeit nimmt zu bzw. ab, wenn die
Synapse häufig bzw. nur selten zur Weiterleitung von Impulsen benutzt wird.
Nach der bisher gültigen Auffassung war das Gedächtnis durch die als Gewichtsfaktoren
wirkenden veränderlichen Leitfähigkeiten der vielen Synapsen repräsentiert. Das Verändern der Leitfähigkeit der Synapsen je nach ihrem Gebrauch und das ständige Nachwachsen von Verbindungen zwischen Neuronen wurden als ein wesentlicher Teil des
Lernprozesses bei Lebewesen angesehen.
Gemäß neuerer Erkenntnisse untergliedert sich das Gedächtnis wiederum in das explizite Gedächtnis, das es ermöglicht, erlerntes Wissen über Menschen und die Welt be-
wußt abzurufen und in das implizite Gedächtnis, das unbewußter Natur ist, und den
Rückgriff etwa auf erlernte motorische Fertigkeiten erlaubt (es umfaßt auch die klassische Konditionierung). Eine elementare Form impilziten Lernens ist die Sensibilisierung: ein Reiz steigert die Reaktionsbereitschaft auf schwächere, nachfolgende Ereignisse. Während die Erinnerung an einen einzelnen Reiz meist schon nach Minuten oder allenfalls Stunden abklingt, gehen wiederholte Reizungen in das Langzeitgedächtnis über.
Die Sensibilisierung hält dann Tage bis Wochen an. Am Studium der Aplysia hat man
festgestellt, daß das Kurzzeitgedächtnis auf der Veränderung bereits vorhandener Eiweißmoleküle beruht (eine Synthese neuer Proteine erfolgt nicht). Beim Langzeitgedächtnis wandert ein Enzym, die Protein-Kinase, in den Zellkern, aktiviert dort spezielle
Eiweißstoffe, die das Ablesen genetischer Informationen ankurbeln (die sogenannten
Transkriptionsfaktoren ) indem sie einen "genetischen Schalte" umlegen. Dadurch werden neue Proteine synthetisiert, die zur Konsolidierung und schließlich zur Stabilisierung des Langszeitgedächtnisses führen. Charakteristisch dafür sind strukturelle Veränderungen, zum Beispiel neu gebildete Synapsen. Um diesen wichtigen biologischen Regelkreis des Lernens gegen Störung zu sichern, ist eine molekulare Feinsicherung eingebaut: im Gegensatz zu dem das Langzeitgedächtnis fördernden Protein ist ein weiteres
Protein eingebaut, welches das Ablesen unterdrückt. Das aktivierende Protein trifft im
Zellkern auf das bereits im Ruhezustand gebildete hemmende Protein. Wiederholte Pulse bewirken, daß die blockierende Wirkung verlorengeht, Ohne das hemmende Protein
würde schon eine einzige Anregung die Nervenzelle auf lange Zeit sensibilisieren [29].
Informationstransport und Informationsverarbeitung erfolgen im Gehirn massiv parallel,
diskret, analog und asynchron, also ohne zentralen Taktgeber. Während bei primitiven
Lebewesen die innere Informationsverarbeitung fast vollständig starr festgelegt ist,
nehmen mit steigender Entwicklungsstufe die Möglichkeiten einer individuellen Gestaltung zu [3]: die feste „Verdrahtung“ wird ersetzt durch die Selbstorganisation während eines Lernvorgangs. Die Informationsspeicherung erfolgt ebenfalls dezentral an
den Synapsen, den Kontaktstellen zwischen den Neuronen (siehe oben).
Weitere wesentlichen Merkmale der neuronalen Organisation sind:
• Redundanz der Bearbeitungslemente (die Beschädigung relativ weniger Neuronen hat
keine spürbaren Auswirkungen auf das allgemeine Verhalten),
• Anpassungsfähigkeit an vielerlei veränderliche Bedingungen.
5.2 Künstliche neuronale Netze
Bereits 1943 veröffentlichten der amerikanische Psychiater Warden McCulloch gemeinsam mir dem Harvard-Studenten Walter Pitts das vereinfachte Modell des menschlichen
Gehirns. Die Neuronen werden dabei durch Funktionen (Rechenelemente), die Synapsen durch die Verkoppelung (Verdrahtung) der Rechenelemente zu künstlichen neuronalen Netzen (KNN) repräsentiert. Die beiden Wissenschaftler zeigten, daß zum Beispiel
Netzwerke von Schwellwert-Kennlinien jede Berechnung durchführen können (Berechenbarkeitsbeweis). Das Modell von McCulloch und Pitt war jedoch noch nicht fähig
zu lernen. Ein Lernalgorithmus wurde 1949 erstmals von Donald Hebb beschrieben.
Hebb formulierte dazu eine Art Selbstorganisationsprozeß. Eine Synapse, die zwei Neu-
ronen miteinander verbindet, wird verstärkt, wenn beide Neuronen gleichzeitig aktiv
sind. Diese einfache Lernregel reicht bereits aus, um aus einer anfänglich zufälligen
Verbindung Strukturen zu schaffen, die denen des menschlichen Gehirns ähnlich sind.
In der Folgezeit wurde eine Vielzahl von Neuronenmodellen (Rechenelemente), Netzstrukturen und Lernverfahren vorgeschlagen. Durch die steigende Leistungsfähigkeit
sowie die fallenden Kosten der Digitalrechner haben künstliche neuronale Netze eine
geeignete Realisierungsbasis und in Folge ein starkes industrielles Interesse gefunden.
Erste Anwendungen zeigen, daß die in diese Technologie gesteckten Erwartungen erfüllt werden [20], [21].
6. Ausblick
Die Hoffnung, daß die notwendigerweise interdisziplinäre Beschäftigung mit den enormen Potentialen des Systems „High Nature“ zu zukünftigen „High Tech“-Lösungen für
Automatisierungssysteme führt, scheint berechtigt.
Allein ein Vergleich der Speicherkapazitäten und Verarbeitungsleistungen verdeutlicht
die heute noch mehr als bescheidene Leistungsfähigkeit moderner informationsverarbeitender technischer Systeme: während das Speichervermögen einer 40 MB Festplatte
bei 3,27⋅108 Bit liegt und es erst kürzlich einer Forschergruppe der University of Minnesota gelungen ist, einen Datenspeicher mit einer Kapazität von etwa 62 Gigabit pro
herzustellen, beträgt die Gedächtniskapazität des menschlichen Hirns etwa 1014 Bit und
das Speichervermögen von 1 cm3 menschlicher DNS 1021 Bit (Anmerkung: das in Büchern abgelegte Gesamtwissen der Menschheit wird auf 1018 Bit geschätzt). Die tägliche
Datenmenge aller Satellitenbilder liegt derzeit bei ungefähr 9⋅1012 Bit, während die unbewußt verarbeitete Informationsmenge des Menschen pro Tag etwa 3,4⋅1024 Bit umfaßt
[19].
Gegen die positive Beantwortung der grundsätzlichen Frage „Können Maschinen denken?“ besteht unter anderem der mathematisch basierte Einwand, daß die Leistungsfähigkeit der mathematischen Logik und damit der auf dieser Logik aufbauenden diskreten
Maschinen Grenzen hat. So zeigt das Gödelsche Theorem auf, daß sich in jedem hinreichend mächtigen logischen System Behauptungen aufstellen lassen, die innerhalb des
Systems weder bewiesen noch widerlegt werden können, solange nicht das System
selbst möglicherweise in sich widersprüchlich ist.
Die Frage, ob der menschliche Intellekt jemals fähig sein wird, die Natur und vor allem
seine eigene Funktionsweise vollständig zu verstehen (d.h. ein vollständiges Modell zu
erstellen, das den Konstrukteur mit einschließt [2]), ist heute noch heftig umstritten
[22]. Während Optimisten anmerken, daß man mit einer Schreibmaschine problemlos
die Beschreibung einer Schreibmaschine erstellen kann und daraus schließen, daß man
mit dem Hirn das Hirn verstehen kann, nimmt Emeron Pugh einen pessimistischen
Standpunkt ein: „Wenn das menschliche Hirn so einfach wäre, daß wir es verstehen
könnten, dann wären wir so einfach, daß wir es nicht könnten“.
Eine weitere Anregung an den Wissenschaftler und Ingenieur zum Nachdenken spannt
den Bogen weiter zu den Künsten:
„Es muß verstärkt zu einem Wechselspiel zwischen den Künsten und den Wissenschaften kommen. ... Die großen, kreativen Wissenschaftler haben alle nach Schönheit gestrebt. ... Faradays Suche nach dem Zusammenwirken von Elektrizität und Magnetismus
war durch das Verlangen ausgelöst, Symmetrie in der Natur zu finden; Es waren vor allem ästhetische Gründe, die Einstein zur Relativitätstheorie führten: ihn störten Widersprüche zwischen Newtons Mechanik und Maxwells Elektrodynamik. Um die Schönheit
der Maxwellschen Gleichungen zu erhalten, änderte er Newtons Annahme, daß Zeit und
Raum absolute Größen sind. Das Ästhetische kann nicht die Logik und die anschließende experimentelle Bestätigung ersetzen. Aber es hilft bei der Theorieentstehung. Der
kreative Akt des Wissenschaftlers gleicht dem des Künstlers" [30].
7. Literatur
[1] Cuno, B.: Der Mensch im Mittelpunkt: Fuzzy und Neuro Control in der industriellen Automatisierungstechnik. Tagungsunterlagen 1. Fuldaer Elektrotechnik Kolloquium 1996.
[2] Papageorgiou, M.: Die Erforschung der natürlichen Intelligenz und ihre Bedeutung
für die Steuerungs- und Regelungstechnik. Automatisierungstechnik at 45 (1997),
Seite 49-57.
[3] Oppelt, W.: Der Automat - das Denkmodell des Ingenieurs für menschliches Verhalten. Elektrotechnische Zeitschrift etz-a Bd. 99 (1979), Seite 105-108 (Teil 1);
Seite 152-155 (Teil 2) und Seite 206-210 (Teil 3).
[4] Lorenz, K.: Vergleichende Verhaltensforschung, Grundlagen der Ethnologie.
Springer Verlag, Wien 1978.
[5] Kahlert, J.: Vektorielle Optimierung mit Evolutionsstrategien und Anwendungen
in der Regelungstechnik (Dissertation an der Universität Dortmund) Fortschr.-Ber.
VDI Reihe 8, Nr.234, VDI Verlag, Düsseldorf 1991.
[6] Geyer, Chr.: Wer überlebt, überlebt. Frankfurter Allgemeine Zeitung vom 04. Juni
1997.
[7] Goldberg, D.E.: Genetic algorithms in search, optimization and maschine learning.
Addison Wesley, Reading, MA 1989.
[8] Holland, J.H.: Adaption in natural and artifical systems. The University of Michigan Press, Ann Arbor, MI 1975.
[9] Rechenberg, I.: Evolutionsstrategie: Optimierung technischer Systeme nach Prinzipien der biologischen Evolution. Frommann-Holzboog, Stuttgart 1973.
[10] Schwefel, H.-P.: Numerische Optimierung von Computer-Modellen mittels Evolutionsstragie, Volume 26 of Interdisciplinary Systems Research. Birkhäuser, Basel
1977.
[11] Bäck, Th.: Grundlagen und Anwendungen genetischer Algorithmen. 3. Anwendersymposium zu Neuro Fuzzy-Technologien, Bochum 1993.
[12] Cuno, B.: Fuzzy-Control in der industriellen Automatisierungstechnik.
Tagungsband SPS/ PC/ Drives. 4. Internationale Fachmesse und Kongreß für SPS,
Industrie-PC und elektrische Antriebstechnik. Nov. 1993. vde-verlag, Berlin und
Offenbach 1993.
[13] McNeill, D. und Freiberger, P.: Fuzzy Logic - die unscharfe Logik erobert die
Technik. Droemersche Verlagsanstalt Th. Knaur Nachf., München 1996.
[14] Zadeh, L.A.: Outline of a new approach to the analysis of complex systems and decision processes. IEEE Transactions on Systems, Man, and Cybernetics SMC-3(1),
Januar 1973, Seite 28 ff.
[15] Zadeh, L.A.: Fuzzy Sets. Information and Control 8 (1965), Seite 338-353.
[16] Zimmermann, H.-J.: Fuzzy Set Theory and its Applications. Kluwer Academic
Publishers, 2. Auflage. Boston/ Dordrecht/ London 1991.
[17] Mamdani, E.H. und King, P.J.: The Application of Fuzzy Control Systems to Industrial Processes. Automatica 13 (1972), Seite 235-242.
[18] Rojas, R.: Theorie der neuronalen Netze: eine systematische Einführung. Springer
Verlag, Berlin, Heidelberg New York 1993.
[19] Hamilton, P.: Künstliche neuronale Netze: Grundprinzipien, Hintergründe, Anwendnungen. vde-verlag gmbh. Berlin/ Offenbach 1993.
[20] Eckmiller, R.: Lernfähige Neuronale Netze für Steuerungs- und Prädikationsaufgaben. 3. Anwendersymposium zu Neuro-Fuzzy-Technologien vom 23. bis 25. November 1993 in Bochum. ZN - Zentrum für Neuroinformatik GmbH und MIT Management Intelligenter Technologien GmbH, Bochum und Aachen 1993.
[21] Hafner, S., Geiger, H. und Kreßel, U.: Anwendungsstand Künstlicher Neuronaler
Netze in der Automatisierungstechnik - Gemeinschaftsbeitrag des GMAAusschusses „Künstliche Neuronale Netze“, Teil 1: Einführung. Automatisierungstechnische Praxis atp 34 (1992), Seite 591- 599.
[22] Kosko, B.: Neural Networks and Fuzzy Systems. Prentice Hall, London 1992.
[23] Maar, C., Pöppel, E. und Christaller, T. (Hrsg.): Die Technik auf dem Weg zur
Seele: Forschungen an der Schnittstelle Gehirn/ Computer. rororo science im Rowohlt Taschenbuch Verlag GmbH, Reinbeck bei Hamburg 1996.
[24] Neumann, J. von: The Computer and the Brain. Yale University Press Inc., New
Haven 1958.
[25] Hofstadter, D.R. und Dennet, D.C. (Hrsg.): Einsicht ins Ich. C.A. Koch’s Verlag
Nachf., Berlin, Darmstadt, Wien 1981.
[26] Baeyer, H.C.: Das All, das Nichts und Achterbahn - Physik und Grenzerfahrungen.
Rowohlt Taschenbuch Verlag GmbH, Reinbeck bei Hamburg 1997.
[27] Baeyer, H.C.:Fermis Weg: Was die Naturwissenschaft mit der Natur macht. Clausen & Bosse, Leck 1994.
[28] Hobom, B.: Gendiagnostik weit überschätzt - Zusammenspiel der Erbanlagen kaum
durchschaubar / Gefahr des Mißbrauchs. Frankfurter Allgemeine Zeitung vom
12.08.1998.
[29] Wandtner, R.: Lernen im Schneckentempo - Aplysia - ein Lieblingstier der Hirnforscher / Einblicke in die Molekulargenetik des Gedächtnisees. Frankfurter Allgemeine Zeitung vom 01.04.1998.
[30] Fischer, E.P.: Das Schöne und das Biest: Ästhetische Momente in der Wissenschaft.
Piper, München 1996
[31] Martin, K.: Das phonetische Modul und die Gesten des Mundes - Warum Schreiben
schwerer ist als Reden. Frankfurter Allgemeine Zeitung vom 19.08.1998.
[32] Liberman, A.M.: When theories of speech meet the real world. Journal of Psycholinguitsic Research, Bd. 27, Heft 2, 1998.
[33] Wandtner, R.: Wachstumsschub für Nervenzellen - Medikament gegen Psychosen
sorgt für Neubildung im Mäusehirn. Frankfurter Allgemeine Zeitung vom
22.07.1998.
Herunterladen