Neuronale Netze (Martin Gritzbach) 1. Einleitung: Mensch, Wissen und Computer 2. Neuronale Netzwerke 2.1. Das biologische neuronale Netz 2.2. Das künstliche neuronale Netz Beispiel: Ein einfaches Netzwerk zur Mustererkennung Die Hebb'sche Lernregel Das Hopfield-Netzwerk Fazit 3. "Die Architektur des menschlichen Geistes" 3.1. Die klassische Symbolverarbeitungstheorie 3.2. Der konnektionistische Ansatz Abbildungsverzeichnis Literaturverzeichnis 1. Einleitung: Mensch, Wissen und Computer Ich möchte Sie weder verblüffen noch schockieren […]. In wenigen Worten ausgedrückt: Es gibt jetzt auf der Welt Maschinen, die denken, lernen und schöpferisch tätig sind. Ihre Fähigkeiten werden sich in kurzer Zeit so steigern lassen, dass in absehbarer Zukunft Probleme bearbeitet werden können, die bislang dem menschlichen Denken vorbehalten waren. Neuronale Netze sind ein Forschungsgebiet der Künstlichen Intelligenz. Künstliche Intelligenz (KI) ist der Versuch einer disziplin-übergreifenden Zusammenschau von Mensch, Wissen und Computer. Am Menschen interessiert die KI, wie seine kognitiven Leistungen, vor allem Bewusstsein und Erkenntnisfähigkeit, zustande kommen. Mit Erkenntnisprozessen und Wissen befasst sich die KI, um herauszufinden, inwieweit auch beides unabhängig vom Wissensträger Mensch vorstellbar ist. Der Computer schließlich ist das Medium, das kognitive Leistungen erlernen soll. Doch der Begriff KI bezeichnet noch mehr: Die eigentliche Bezeichnung Artificial Intelligence ist die sprachliche Vorlage für den deutschen Begriff Künstliche Intelligenz. Mit dieser Übersetzung geht ein wesentliches Sprachspiel verloren. Im Amerikanischen hat intelligence zweifache Bedeutung. Es bezeichnet dort nicht nur die geistig-verstandesmäßige Begabung des Menschen, sondern auch das gezielte Sammeln von Informationen, das Auswerten, Ergänzen, Folgern, Vermuten von Sachverhalten und Zusammenhängen. Die KI beschreibt somit ein breit angelegtes Arbeitsfeld und erstreckt sich über eine Reihe von bestehenden Fachdisziplinen. Bei den Humanwissenschaften sind dies vor allem Neurowissenschaften, Psychologie und Anthropologie. Bei den Geisteswissenschaften gibt es Berührungspunkte mit Philosophie, Wissenschaftstheorie und Linguistik. Organisationswissenschaften wie Operations Research, Logistik und Dokumentationswissenschaft haben durch die KI neue Impulse bekommen. Informatik bildet nun die Brücke zum Computer. Damit führt die KI Fachwissen verschiedener Einzeldisziplinen zusammen, es ist ein eher multidisziplinäres als interdisziplinäres Arbeitsfeld entstanden. Für KI-Systeme wurden besonders gut geeignete Computer entwickelt. Diese Computer zeichnen sich durch besondere Architektureigenschaften aus, die den Ablauf von KI-Software beschleunigen. Dabei wird ja nach Zielrichtung der Hardware-Unterstützung unterschieden: Erstens KI-Maschinen, die auf die Verwendung bestimmter, für KI-Software besonders geeignete Programmiersprachen ausgelegt sind. Zweitens spezielle Hardware zur beschleunigten Erkennung von gesprochener Sprache, Grafik und bewegten Bildern. Drittens schließlich Hardwarestrukturen, die für bestimmte Verfahren der Wissensdarstellung besondere Unterstützung anbieten. Ein besonderer Typ solcher Maschinen sind die Neuronalen Netze, auch konnektionistische Systeme genannt. Der Konnektionismus betreibt die Forschung auf diesem Gebiet. Neuronale Netze eignen sich besonders gut zur Bild- und Spracherkennung. Häufig werden sie auch zur Prognose eingesetzt, z.B. in der industriellen Planung, im Finanzsektor oder im medizinischen Bereich. 2. Neuronale Netzwerke Das menschliche Gehirn ist einem Digitalcomputer in vielen Aufgaben – bspw. der Mustererkennung – weit überlegen. Auch darüber hinaus hat das Gehirn viele Eigenschaften, die in künstlichen Systemen wünschenswert wären: 75924639 - 1 Es ist robust und fehlertolerant. Nervenzellen im Gehirn sterben täglich ab, ohne die Arbeit des Gehirns zu beeinträchtigen. Es ist flexibel gegenüber unterschiedlichen Anwendungen, indem es sich auf die neue Arbeitsumgebung durch Lernen einstellt. Es muss dazu nicht erst programmiert wer-den. Die Informationen können unscharf, vertauscht und inkonsistent sein. Das Gehirn ist höchstparallel. Es ist klein, kompakt und verbraucht verhältnismäßig wenig Energie. Das Gehirn besteht aus ca. 1011 Zellen, den Neuronen. Schon aufgrund dieser Tatsache ist es unmöglich, ein komplettes, künstliches Gehirn nachzubauen. Aber es ist möglich, sich für bestimmte Anwendungen an Gehirnmodellen aus der Neurobiologie zu orientieren. Diese künstlichen neuronalen Netzwerke werden von Hunderten bis Tausenden simulierter Neuronen gebildet, die ähnlich wie Gehirnzellen miteinander verbunden sind. Es gibt also zwei Arten neuronaler Netzwerke: biologische oder natürliche und künstliche Netzwerke. Das biologische neuronale Netz besteht aus den Nervenzellen eines Lebewesens, das künstliche neuronale Netzwerk ist demzufolge ein Modell, das ein biologisches neuronales Netz nachbildet. Beiden Arten neuronaler Netzwerke ist eigen, dass innerhalb dieser hochgradig vernetzten Neuronengruppe die Informationen parallel verarbeitet werden. Der Grundgedanke bei der Konzipierung künstlicher neuronaler Netze ist also der, einen Computer zu konstruieren, der die Arbeitsweise des Gehirns kopiert. T. Kohonen definiert auf dieser Grundlage den Begriff des Neuronalen Netzes (NN) wie folgt: Künstliche NN sind massiv parallel verknüpfte Netzwerke von einfachen (gewöhnlich adaptiven) Elementen und deren hierarchischen Strukturen, welche dazu gedacht sind, mit Objekten der realen Welt so zu wechselwirken, wie biologische Nervensysteme das tun. Im Folgenden muss es also darum gehen, erst einmal die Arbeitsweise des Gehirns zu erläutern, um dann die modellhafte Nachbildung dieses Komplexes im künstlichen neuronalen Netz zu verstehen. 2.1. Das biologische neuronale Netz Aufgabe des Gehirns ist die Aufnahme, die Verarbeitung und die Beantwortung von Reizen, welche z.B. über Sensoren wie die Sinnesorgane aufgenommen werden. Diese Sensoren bezeichnet man als Rezeptoren. Sie codieren Reize wie Licht, Druck Temperatur, Töne etc. so um, dass sie als Signale über die Nervenbahnen an das Gehirn weitergeleitet werden können. Wolfgang Kinnebrock formuliert diesen Sachverhalt wie folgt: Rezeptoren nehmen Reize auf. Diese werden als Signale auf elektrochemischem Wege über die Nervenbahnen an das Gehirn geschickt. Dort erfolgt die Verarbeitung entsprechend vorgegebener Muster und die eventuelle Abgabe eines Reaktionsreizes an die Effektoren. Im Gehirn treffen die Signale von den Rezeptoren des Körpers ein und werden nach gespeicherten Mustern weiterverarbeitet. Der wesentliche Kern der Informationsverarbeitung im Gehirn geschieht in der Hirnrinde (Neokortex). Diese ist beim Menschen ein flächenartiges 2-3 mm dickes Gewebe mit der Ausdehnung von ca. 0,2 m2. Dieses lappenartige Gewebe findet nur zusammengefaltet in der Schädelhöhle Platz. Die elementaren Verarbeitungseinheiten in der Hirnrinde sind die Neuronen, also Zellen, die untereinander auf elektrochemischem Wege Signale austauschen und sich gegenseitig erregen können. Auf einem Quadratmillimeter der Hirnrinde befinden sich etwa 100.000 Neuronenzellen. Jedes Neuron besitzt etwa 10.000 Verbindungen zu Nachbarneuronen, so dass ein menschliches Gehirn im Neokortex bis zu 1015-1016 Verbindungen besitzt. Alle Neuronen mit ihren Verbindungen bilden ein neuronales Netz. Diese Vernetzung beginnt erst mit dem Lernen, nach der Geburt ist das Gehirn praktisch nicht vernetzt. Verhaltensformen, die über längere Zeit nicht trainiert werden, bewirken den Zerfall der entsprechenden Neuronenverbindungen ("Vergessen"). Jedes Training dagegen stärkt die entsprechenden Verbindungen. Die Neuronen sind also die eigentlichen Verarbeitungseinheiten im Gehirn. Wie jeder Prozessor auch besitzen sie Eingabe und Ausgabe. Die Eingabesignale sind elektrochemische Reize, die von anderen Neuronen kommen und über spezielle Leitungen, den Dendriten, an das Neuron 75924639 - 2 herangetragen werden. Ein Neuron besitzt im Durchschnitt 10.000 Dendriten, im Einzelfall mehr als 100.000. Wenn die Summe der Eingabesignale als elektrisches Potential einen Schwellwert überschreitet, wird das Neuron aktiv. Es sendet über eine Ausgabeleitung, dem Axon, einen kurzen elektrischen Impuls an andere nachgeschaltete Neuronen. Man sagt: das Neuron "feuert". Das Axon kann im Extremfall bis zu ein Meter lang sein und sich in viele Zweige aufspalten, die dann weitere Neuronen ansprechen. Zwischen der Eingabe, den Dendriten und dem Prozessor, dem Neuron ist eine Zelle geschaltet, die den ankommenden Potentialwert verstärken oder hemmen kann. Diese Zelle heißt Synapse und befindet sich oft direkt am Zellkörper des Neurons. Wird der Impuls verstärkt, spricht man von einer exzitatorischen, andernfalls von einer inhibatorischen Synapse. Da die Synapsen ihre hemmende oder verstärkende Wirkung im Laufe der Zeit verändern können, spielen sie gerade im Lernverhalten eine wichtige Rolle. 2.2. Das künstliche neuronale Netz Das eben beschriebene Modell eines Neuronennetzes der Hirnrinde kann durch ein mathematisches Modell ersetzt werden, das für Computersimulationen geeignet ist und durch Anwendung mathematischer Formalismen begrifflich fassbar ist. Dieses mathematische Modell funktioniert nach folgenden Prinzipien: Das Neuron ist ein Prozessor, der lediglich zwei Zustände annehmen kann: entweder es feuert oder es ist passiv. Diesen beiden Zuständen werden binäre Werte zugeordnet, z.B. die Zahlen 0 oder 1. Die Eingaben zum Neuron sind die von den Dendriten an das Neuron herangetragenen Reize. Da dies Ausgaben vorgeschalteter Neuronen sind, sind die Eingabewerte ebenfalls entweder 1 oder 0. Das einlaufende Signal wird auch als Input bezeichnet. Die Signale werden, bevor sie das Neuron erreichen, in den Synapsen verstärkt oder gehemmt. Dies lässt sich simulieren, indem die Dendritenwerte mit positiven oder negativen reellen Zahlen multipliziert werden. Der Input wird also durch die Synapsenverbindungsstärke gewichtet, weshalb man auch vom Synapsengewicht spricht. Ist das Synapsengewicht gleich 1, wird der Input vollständig im Sinne einer Aktivierung auf das Neuron übertragen; bei Werten zwischen 0 und 1 wird er entsprechend abgeschwächt. Positive Zahlen stehen für eine Verstärkung des Reizes, negative für eine Hemmung. Die einlaufenden, gewichteten Aktionspotientale führen beim Neuron zu einer mehr oder weniger starken Erregung. Überschreitet die Erregung einen bestimmten Schwellenwert, dann sendet das Neuron seinerseits ein Aktionspotential aus. Mathematisch gesprochen bildet das Neuron die Summe der gewichteten Eingangssignale und vergleicht diese Summe mit einem Schwellenwert. Ist der gewichtete Input größer als der Schwellenwert, feuert das Neuron: die Ausgabe des Neurons (d.h. der Wert des Axons) wird auf 1 gesetzt. Ist der gewichtete Input kleiner, geschieht nichts. Man nennt diesen Vorgang Aktivierungsfunktion. Durch die Inputstärken, die Synapsengewichte und die Aktivierungsfunktion lässt sich also die Funktion eines Neurons beschreiben. Ein neuronales Netz entsteht nun durch die im Prinzip beliebige Zusammenschaltung einzelner Neuronen. Künstliche neuronale Netze lassen sich in drei unterschiedliche Verarbeitungseinheiten, die dem biologischen Vorbild der Neuronen entsprechen, unterscheiden. Man differenziert zwischen Eingabeeinheiten (Eingangsneuronen), Zwischeneinheiten (Verteilungsneuronen) und Ausgabeeinheiten (Ausgangsneuronen): die Eingangsneuronen erhalten Informationen von außerhalb des Systems, die sie innerhalb des Netzes weiterleiten. Verteilungsneuronen haben die Aufgabe, diese Informationen weiterzuleiten. Am Ende eines neuronalen Netzes stehen die Ausgangsneuronen. Ihre Aufgabe besteht darin, die erhaltenen Informationen nach außen zu senden. Diese Outputs können entweder einen Input für ein externes System darstellen oder z.B. direkt ein motorisches System beeinflussen. Beispiel: Ein einfaches Netzwerk zur Mustererkennung Ein Lebewesen steht ständig vor dem Problem, komplexe Muster zu erkennen und spezifisch auf sie zu reagieren. Die Sinneszellen liefern hier uninterpretierte Signale in Form von Aktionspotentialen. Wie generiert ein Organismus aus diesem Strom von Aktionspotentialen eine 75924639 - 3 sinnvolle Erkenntnis über die Außenwelt bzw. eine sinnvolle Reaktion darauf? Auf die Netzhaut des Auges fallen Lichtpunkte, die über den Sehnerv entsprechend raum-zeitlicher Muster elektrischer Aktivität an das Gehirn weitergeleitet werden. Die Frage ist: Wie können diese Muster dekodiert werden, so dass z.B. ein Tier einen Feind erkennt? Stark vereinfacht kann das Prinzip wie folgt erklärt werden: Ausgehend von einer Netzhaut, die aus nur drei Sinneszellen besteht, bilden diese im mathematischen Modell die Inputneuronen des Netzwerks. Weiterhin werden in der Umgebung des Organismus drei Muster angenommen, auf die der Organismus jeweils anders reagieren muss. Beim Sehen dieser Muster werden diese Muster (A, B, C) auf die Netzhaut projiziert. Dadurch werden die entsprechenden Sinneszellen aktiviert und senden ein Aktionspotential aus. Ferner gibt es drei Outputneuronen, die drei mögliche Reaktionen des Organismus kodieren, also z.B. Weglaufen, Angreifen oder einfach Nichtstun. Wie ist das Nervensystem in der Lage, eine Umsetzung der Eingangsmuster in Ausgangsmuster vorzunehmen? Ein herkömmlicher, seriell arbeitender Computer löste die Aufgabe durch folgende serielle Vorschrift: "Gehe zum mittleren Retina-Neuron und stelle fest, ob es feuert oder nicht; feuert es nicht, so handelt es sich um Muster 1, feuert es, so gehe zum oberen Retina-Neuron; feuert dies nicht, so handelt es sich um Muster 3; feuert es, liegt Muster 2 vor. Diese Vorschrift ist einfach, wird jedoch mit jedem zusätzlichen Bildpunkt komplizierter. Damit sind solche seriellen Algorithmen, sofern sie von lebenden Gehirnen durchgeführt werden sollen, um Größenordnungen zu langsam. Des Weiteren sind serielle Algorithmen sehr fehleranfällig: Wird an einer Stelle falsch entschieden, liefert diese Prozedur auch ein falsches Ergebnis. Neuronale Netzwerke führen solche Mustererkennungsleistungen in sehr kurzer Zeit und auf robuste Weise durch. Im Netzwerk ist jedes Neuron der Inputschicht mit jedem Neuron der Outputschicht verbunden. Außerdem sollen alle drei Outputneuronen eine Aktivierungsschwelle von 0,8 aufweisen: Ist der gewichtete Input größer als diese Schwelle, feuert das Neuron, liegt der gewichtete Input unterhalb dieser Schwelle, verharrt das Neuron in Ruhe. Entscheidend für das Funktionieren der gesamten Anordnung ist die Stärke der synaptischen Verbindungen zwischen Input- und Outputschicht. Durch diese Gewichtung geschieht mit den Inputmuster A, B und C folgendes: Wird Muster A wahrgenommen, entspricht die Aktivität der Inputschicht diesem Muster, d.h. das obere und das untere Neuron sind aktiv, das mittlere nicht. Über die Verbindungen der Outputschicht erhalten nun alle Neuronen der Outputschicht diesen Input. Jedes Neuron gewichtet diesen Input jedoch anders, je nachdem, wie die Synapsenstärken der Verbindungen zu den Inputneuronen aussehen. Das obere Neuron der Outputschicht erhält über seine Synapse (Stärke = 0,5) mit dem oberen Neuron der Inputschicht den Input 1. Der gewichtete Input beträgt somit 1 * 0,5 = 0,5. Der Input über die beiden anderen Synapsen ergibt sich entsprechend als 0 * -0,5 = 0 und als 1 * 0,5 = 0,5. Die Summe der gewichteten Inputs für das obere beträgt somit 1. Der Wert liegt über der Aktivierungsschwelle des Neurons von 0,8, d.h. das Neuron wird aktiv. Der entsprechend berechnete gewichtete Input des mittleren Neurons beträgt 0,6, der des unteren Neurons –0,6. Beide Neuronen sind also demnach nicht aktiv. Besteht der Input aus Muster A, ist somit in der Outputschicht nur das obere Neuron aktiv. Die damit geforderte Beziehung zwischen Input und Output ist damit realisiert. Sind die Synapsenstärken wie in der Abbildung dargestellt, werden auch Muster B und C richtig erkannt. Setzt man Muster B, beträgt der gewichtete Input des oberen Neurons der Outputschicht 0,5, der Wert des mittleren Neurons beträgt 0,9 und der des unteren 0,4. Somit liegt nur der Wert des mittleren Neurons der Outputschicht über der geforderten Aktivierungsschwelle von 0,8 und wird somit aktiv. Das Muster B wird somit richtig erkannt. Auch bei Muster C leistet dieses Modell die richtige Zuordnung, denn die gewichteten Eingangssignale des oberen, mittleren und unteren Neurons betragen –0,5, 0,3 und 1, d. h. nur das untere Neuron der Outputschicht wird bei Aktivierung der Inputschicht durch Muster C aktiviert. Dieses einfache Beispiel zeigt, dass sich durch die Vernetzung von zwei Schichten mit jeweils drei Neuronen die Mustererkennung realisieren lässt. Von Bedeutung ist, dass alle drei Outputneuronen gleichzeitig – parallel – arbeiten. Eben hier liegt der Unterschied zu seriellen Rechnern: Es werden nicht einzelne Mustereigenschaften nacheinander (seriell) abgearbeitet, sondern das gesamte Muster. Die Parallelverarbeitung hat 75924639 - 4 gegenüber seriellen Rechenoperationen eine Reihe wesentlicher Vorteile. Das Erkennen des Musters erfolgt in einem einzigen Verarbeitungsschritt, also deutlich schneller als bei serieller Abarbeitung einzelner Musteranteile. Zudem bleibt diese Schnelligkeit erhalten, auch wenn das Muster aus mehr als drei Bildpunkten besteht – das Erkennen komplexerer Bildmuster erfordert lediglich mehr Neuronen. Dabei brauchen auch komplizierte Muster nicht mehr Zeit als einfache, da die Verarbeitung auch größerer Mengen von Eingangsdaten zugleich, d. h. parallel, erfolgt. Die Hebb'sche Lernregel Auch ist das neuronale Netz 'lernfähig' und kann 'trainiert' werden: Lernregeln können beschreiben, nach welcher Strategie ein Netz im Hinblick auf die vorliegenden Daten trainiert wird. So können z.B. über einfache Soll-Ist-Vergleiche beim sogenannten überwachten Lernen Rückschlüsse auf den bisherigen Erfolg des Trainingsprozesses gezogen werden. Diese Vergleiche werden bei der Neuberechnung der Synapsengewichte berücksichtigt. Diesen Sachverhalt beschrieb erstmals Donald Hebb. Er stellte 1949 folgende Regel der Funktionsweise von Nervenzellen auf: Sofern ein Axon der Zelle A einer Zelle B nahe genug ist, um sie immer wieder zu erregen bzw. dafür zu sorgen, daß sie feuert, findet ein Wachstumsprozeß oder eine metabolische Veränderung in einer der beiden Zellen oder in beiden statt, so dass die Effektivität der Zelle A, die Zelle B zu erregen, gesteigert wird. Das neuronale Netzwerk enthält somit im Gegensatz zum regelgeleiteten sprachlogischen System weder vorgegebene Zuordnungsregeln noch Rechenvorschriften. Neuronale Netze enthalten keine Regeln. Ihre Operationen lassen sich jedoch durch Regeln beschreiben. Das Wissen über die richtige Zuordnung steckt vielmehr in der Vernetzung der Neuronen und insbesondere in der Stärke der Neuronenverbindungen, also im Synapsengewicht. Das Hopfield-Netzwerk Ein zur Bilderkennung besonders gut geeignetes neuronales Netz ist das Hopfield-Netzwerk. Der Physiker John Hopfield beschrieb erstmals diesen Netzwerktypus, der sich durch folgende Eigenschaften auszeichnet: Sie sind autoassoziativ; d.h., jedes Neuron dieses Netzwerks ist mit jedem anderen Neuron verbunden, außer mit sich selbst. Des Weiteren bestehen sie aus einer einzigen Schicht, die gleichzeitig als Eingabe- und Ausgabeschicht dient. In Verbindung mit der Hebbschen Lernregel besitzen derartige Netzwerke folgende Eigenschaften: Ein Eingangssignal, d.h. ein räumlich verteiltes Muster von Aktivierung und fehlender Aktivierung, kann im Netzwerk als Aktivierungsmuster gespeichert werden. Durch Veränderung der Synapsenstärken innerhalb des Netzwerks führt ein solches Eingangssignal zu einem insgesamt veränderten Netzwerk. Dies geschieht nicht gleichzeitig, sondern nach einer gewissen Zeit: Werden einige Neuronen des Netzwerks erregt, so geben sie diese Erregung weiter und erhalten ihrerseits Erregung von anderen Neuronen. Das Netzwerk wird sich zu einem stabilen Zustand hin entwickeln. Das Netz kann nicht nur ein einziges Muster speichern. Die maximale Anzahl speicherbarer Muster liegt bei 13% der Zahl der Neuronen des Netzwerks. Der Abruf der gespeicherten Inhalte kann über die teilweise Darbietung des gespeicherten Inhalts erfolgen: Erhält das Netzwerk nur einen Teil des Aktivierungsmusters, wird der Input durch die bestehenden Verbindungen vervollständigt. Ist der Input einem der gespeicherten Muster nur ähnlich, konvergiert der Aktivierungszustand des Netzwerks zu diesem Muster hin, d.h. das Netzwerk generalisiert selbsttätig über eine bestimmte Menge ähnlicher Inputmuster. Das Netzwerk leistet also – im Gegensatz zu herkömmlichen seriellen Computern – die Erkennung von Mustern auch bei teilweise unvollständigem und fehlerhaftem Input. Diese genannten Eigenschaften haben Hopfield-Netzwerke mit biologischen Informationssystemen – Gehirnen – gemeinsam. Charakteristisch für diese Netzwerke ist also, dass sie nach einem Input auf einen bestimmten Outputzustand hin konvergieren. Die gespeicherten Outputzustände sind stabile Aktivierungsmuster der Neuronen im Netzwerk. Stabile Zustände werden als Attraktoren bezeichnet. 75924639 - 5 Nach der Aktivierung durch ein Inputmuster konvergiert das Netzwerk in Abhängigkeit vom Inputmuster zu demjenigen Endzustand, der dem Eingangssignal am ähnlichsten ist. Sämtliche dem Netzwerk möglichen Zustände lassen sich als Matrix oder metaphorisch als Landschaft verstehen, in der die Attraktoren und deren Umgebung als Täler fungieren, instabile Zustände dagegen als Hügel. Fazit Einige der wünschenswerten Eigenschaften des menschlichen Gehirns sind also im neuronalen Netz realisiert: Parallelität Lernfähigkeit: Neuronale Netze passen sich im Laufe des Trainings ihrer Aufgabenstellung an und können diese somit effektiver lösen. Robustheit: Neuronale Netze sind robust gegenüber vertauschten Daten. Diese Eigenschaft macht sie besonders attraktiv für viele 'real-world'-Probleme. Fehlertoleranz: Aufgrund der verteilten Informationsrepräsentation in der Netzstruktur können neuronale Netze fehlertolerant auf Ausfälle einzelner Subkomponenten reagieren. Generalisierungsfähigkeit: Neuronale Netze können durch geeignete Trainingsbeispiele und entsprechende Lernstrategien Entscheidungsregeln ausbilden, deren Gültigkeit über die Trainingsdaten hinausgeht und somit von allgemeinerer Bedeutung sind. 3. "Die Architektur des menschlichen Geistes" Es ist möglich, den Menschen selbst als informationsverarbeitendes System zu betrachten: Die Sinnesorgane sind Transduktoren, die Außenweltereignisse in Systemereignisse umwandeln. Sie werden zu Eingangskanälen, mit deren Hilfe Information aus der Umgebung 'aufgenommen' werden kann. Das zentrale Nervensystem verarbeitet diese Information. Einen Teil davon speichert es in seiner eigenen physischen Struktur. Die menschlichen Handlungsorgane sind Effektoren, die den kausalen Eingriff in die äußere Wirklichkeit ermöglichen. Die Kulturtechnik des Rechnens wurde so in der zweiten Hälfte des zwanzigsten Jahrhunderts auf dem Umweg über das 'Computermodell des menschlichen Geistes' schrittweise zu einer anthropologischen Metapher. Die Kognitionswissenschaft ist ein interdisziplinärer Forschungsansatz der Natur- und Geisteswissenschaften, insbesondere der Künstlichen-Intelligenz-Forschung und der Neurowissenschaften. Ihr Kernproblem besteht darin zu verstehen, wie aus Informationsverarbeitung Intelligenz und Wissen über die Welt entstehen kann. Je nachdem, welche Hintergrundannahmen man über die repräsentative Architektur des menschlichen Geistes und die von ihm verwendeten Datenformate macht, erhält man sehr unterschiedliche anthropologische Schlussfolgerungen. Zwei der wichtigsten Ansätze der Kognitionswissenschaft ist die Symbolverarbeitungstheorie sowie der Konnektionismus. Die Symbolverarbeitungstheorie fasst das Denken als symbolischen Prozess auf. So kann man z.B. die Struktur von Gedanken, die als inneres Sprechen erlebt werden, durch Annahme formaler Verknüpfungen von Erinnerungsbildern und Symbolen erklären. Diese Bilder und Symbole werden durch Denk-, Gefühls-, und Willensprozesse aktiviert und neu verknüpft, woraus dann die sich in Erleben und Verhalten äußernde Tätigkeit des Geistes resultiert. Entsprechend werden geistige Tätigkeiten durch Flussdiagramme nachgeahmt. Mit der Erkenntnis der Neurowissenschaft jedoch, das Gehirn als neuronales Netz zu betrachten, hat sich jedoch auch die Vorstellung vom Prozess des Denkens geändert. Da das Gehirn als konnektionistisches System anders als das serielle System arbeitet, wurden geistige Prozesse nicht mehr unbedingt als das regelhafte Hantieren mit Symbolen verstanden, sondern als ein mit Regeln nur schwer beschreibbarer subsymbolischer Prozess, in dessen Verlauf interne Repräsentationen sich beständig verändern. 3.1. Die klassische Symbolverarbeitungstheorie Die klassische Symbolverarbeitungstheorie von Allen Newell und Herbert Simon besagt, dass kognitive Prozesse regelgeleitete Vorgänge in einem physikalischen Symbolsystem sind. Dieser Ansatz griff – wohl eher unbeabsichtigt – klassische Motive der Philosophie des Geistes auf. So formulierte Hobbes bspw. als Erster die syntaktische Vorstellung vom Denken als einen Rechenvortrag: 75924639 - 6 Denken heißt nichts anderes als sich eine Gesamtsumme durch Addition von Teilen (oder einen Rest durch Subtraktion einer Summe von einer anderen) vorstellen. […] Wo Addition und Subtraktion am Platze sind, da ist auch Vernunft am Platze. Leibniz entwickelte eine erforderliche unzweideutige formale Sprache, mit deren Hilfe dieser rein syntaktische Rechner, das Gehirn, arbeiten konnte. Er glaubte, ein universales und exaktes Darstellungssystem gefunden zu haben, eine Algebra, eine "Universalcharakteristik", mit deren Hilfe "man jedem Gegenstand seine bestimmte charakteristische Zahl beilegen kann." Auf diese Weise konnten alle Begriffe in eine kleine Anzahl ursprünglicher und nicht weiter definierter Ideen zerlegt werden; alles Wissen ließe sich in einem einzigen deduktiven System unterbringen und ausdrücken: Sind nun die charakteristischen Zahlen einmal für die meisten Begriffe festgesetzt, so wird das Menschengeschlecht gleichsam ein neues Organ besitzen, das die Leistungsfähigkeit des Geistes weit mehr erhöhen wird, als die […] Vernunft dem Gesichtssinn überlegen ist. Wie Hobbes nahm auch George Boole an, schlussfolgerndes Denken sei dasselbe wie eine Berechnung. Also untersuchte er "die fundamentalen Gesetze jener Operationen im Denken, […] mit deren Hilfe Schlüsse gezogen werden, um sie in der Symbolsprache eines Kalküls zum Ausdruck zu bringen." Die Boolsche Algebra ist nun eine binäre Algebra zur Darstellung elementarer logischer Funktionen. Sind "a" und "b" Variablen und steht "·" für "und", "+" für "oder", "1" für "wahr" und "0" für "falsch", dann können die logischen Verknüpfungsregeln in algebraischer Form wie folgt ausgedrückt werden: a+a=aa+0=aa+1=1 a ·a = a a · 0 = 0 a ·1 = a Alle diese Systeme verwenden also Symbole mit einer Konstituentenstruktur. Sie erweisen sich als vorteilhaft, wenn höhere kognitive Leistungen wie begrifflich-propositionales Denken erklärt werden soll. Jerry Fodor und auch Zenon Pylyshyn behaupten, dass diese Systeme über eine Language of Thought mit kombinatorischer Syntax und Semantik verfügen. Ist dies der Fall, lassen sich die Produktivität und Systematizität von Denkvorgängen sowie die Kohärenz von Ableitungen sehr gut erklären. Fodor und Pylyshyn behaupteten zudem, dass konnektionistische Systeme diese Erklärungen nicht anbieten können. Wäre dies richtig, dann könnten z.B. neuronale Netze viele der kognitiven Leistungen, die den Menschen auszeichnen, nicht hervorbringen. Für die klassische Kognitionswissenschaft ist das Medium der Symbolverarbeitung das Nervensystem des Menschen oder der Zentralprozessor eines Rechners. Dieses Medium besitzt zunächst keinen Netzwerkcharakter bzw. keine intersubjektive Dimension. Deshalb lässt sich etwas wie Bewusstsein und qualitatives, subjektives Erleben in diesem System nur schwer beschreiben. Das "symbolische Universum" wird zu einem exklusiv internen Milieu: Es entsteht in einem physikalischen Symbolsystem. Der Mensch habe nie der Wirklichkeit un-mittelbar gegenübergestanden, er kennt die Wirklichkeit – wie auch sich selbst – nur vermittelt durch mentale Operationen auf rein syntaktisch spezifizierten symbolischen Repräsentationen. Kognitive Aktivität hat demnach rein monologisierenden Charakter, sie wird ausschließlich durch interne Syntax generiert. Dabei erreicht die symbolische Tätigkeit des individuellen menschlichen Geistes ein neues Komplexitäts- und Organisationsniveau, nämlich die Ebene physikalisch realisierter Intelligenz. Die Beziehung zwischen Geist und Körper ist dieser Auffassung nach in etwa dieselbe wie die Beziehung zwischen Soft- und Hardware, also die der Implementation. 3.2. Der konnektionistische Ansatz Der Konnektionismus rückte in den achtziger Jahren wieder verstärkt ins Blickfeld. Er ist zum zweiten großen Paradigma für kognitivistische Theorien des Geistes geworden. Die Modellierung kognitiver Leistungen auf subsymbolischer Ebene ist sein Ziel. Konnektionistische Systeme sind distribuiert und nicht-regelgeleitet. Die begriffliche Unterscheidung zwischen Syntax und Semantik lässt sich nicht mehr aufrechterhalten. Wegen der fehlenden Konstituentenstruktur wird es unmöglich, den Begriff der Repräsentation hier im Sinne klassischer philosophischer Modelle noch als geistiges Einzelding zu interpretieren. Das konnektionistische Modell ist – in gewissem Ausmaß – neurobiologisch realistisch und bildet so die Schnittstelle zwischen Neuro- und Kognitionswissenschaft. Die konnektionistische Beschreibungsebene hat "erstmals präzise begriffliche Instrumente geschaffen", die zeigen, "was der menschliche Geist auch ist: Er ist ein holistisches Medium, mit einer flexiblen Gesamtdynamik, 75924639 - 7 in dem sich auf 'flüssige' Weise eine permanente und eher bildhafte Entwicklung repräsentationaler Inhalte vollzieht, die in hohem Maße kontextsensitiv ist." Die in Bezug auf das Hopfield-Netzwerk benutzte Metapher einer "Landschaft" wurde bspw. von Psychologen und Psychiatern immer wieder zur Erklärung kognitiver Prozesse aufgegriffen. Diese "Landschaft" besitzt stabile Maxima sowie instabile Minima. Anderson kommentiert die HopfieldNetzwerke wie folgt: Diese Idee klingt sehr plausibel. So glauben wir aus unserem subjektiven Erleben heraus, dass Bedeutung tragende geistige Zustände irgendwie fest, zusammenhängend und überdauernd sind. Diese Eigenschaften werden von vielen Netzwerkmodellen nahegelegt. Psychologische Messungen zeigen, dass die meisten geistigen Leistungen 100 Millisekunden oder länger dauern, d.h. sich über einen Zeitraum erstrecken, in dem Netzwerke ganz offensichtlich Integrationsleistungen über die Zeit hinweg vollbringen und insgesamt zeitlich stabil sind. Der Beitrag des Konnektionismus für die kognitive Anthropologie besteht unter anderem darin, dass er ein genaues Verständnis dafür vermitteln kann, was es heißt, dass Menschen erfolgreich in Metaphern und Analogien denken können. Dass sie Wesen sind, die nicht nur perzeptuelle, sondern auch situative Muster schnellstens erkennen und vervollständigen können. Wesen, deren Geist plastisch und in hohem Maße lernfähig ist; Wesen, deren Wissen über die Welt direkt in ihrer eigenen physischen Struktur (der Konnektivitätsmatrix oder der "Landschaft" ihres Gehirns) verkörpert ist. Der Konnektionismus hat die Metapher des syntactic engine – das Bild vom menschlichen Geist als deterministische Rechenmaschine – ersetzt durch eine Vielzahl subtilerer Metaphern: Den Input aus den Sinnesorganen zu interpretieren – "die Welt zu verstehen" – kann jetzt z. B. heißen, sich in den unter den gegebenen Umständen energieärmsten Zustand zu begeben, ein inneres Harmoniemaximum anzustreben oder punktuelle Vertikalität zugunsten von globaler Kohärenz zu opfern. Der Konnektionismus hat zu einer semantischen Anreicherung des Repräsentationsbegriffs durch biologische Elemente und des Intelligenzbegriffs durch prärationale Prinzipien geführt. Der Konnektionismus kann erklären, warum der Mensch auch unter stark epistemischen Begrenzungen (z.B. "verrauschter Input") noch erfolgreich operieren kann. Er erklärt, weshalb auch schwere körperliche Schäden beim Menschen oft zu einem nur langsamen Abbau geistiger Fähigkeiten führen. Konnektionistische Systeme haben neue Ideen darüber vermittelt, was eigentlich Intuition ist und was Lebenserfahrung sein könnte. Die Konnektionisten gehen davon aus, dass nach heutiger naturwissenschaftlicher Sicht gewisse Vorgänge im Gehirn nicht berechenbar oder vorhersehbar sind – u.a. auf der Ebene der Quantenmechanik. Diese Unvorhersehbarkeit ist möglicherweise eine Eigenschaft des Gehirns, die sich aus seiner Komplexität ergibt. Nach Meinung der Konnektionisten sind viele Eigenschaften des Gehirns (z.B. eben Intuition oder Bewusstsein) Emergenzphänomene: sie entstehen aus dem komplexen Zusammenspiel der Milliarden von Neuronen. Diesen Sachverhalt beschreibt auch Hopfield: "Viele Geheimnisse des Gehirns sind das, was wir in der Physik 'Emergenzeigenschaften' nennen würden […]. Sie entstehen aus der Wechselwirkung zwischen sehr vielen Elementen. Obwohl Emergenzeigenschaften durch Millionen von mikroskopisch kleinen Verbindungen zustande kommen, scheinen sie vielfach ein Eigenleben zu gewinnen." aktualisiert: 19.04.2001 http://waste.informatik.hu-berlin.de/koubek/netze/nn/nn.html 75924639 - 8