Neurokognition Vorlesung an der Technischen Universität Chemnitz Wintersemester 2006/07 Prof. Dr. Werner Dilger Neurokognition Seite 2 Inhalt 1. Einleitung.................................................................................................................................................................... 4 1.1. Computermodelle und Neurokognition .............................................................................................................. 4 1.2. Motivation für die Verwendung von Computermodellen in der Neurokognition ............................................... 4 1.3. Einige wichtige kognitive Phänomene und ihre biologischen Grundlagen ......................................................... 7 2. Neuronen .................................................................................................................................................................. 11 2.1. Überblick .......................................................................................................................................................... 11 2.2. Detektoren als Modelle von Neuronen ............................................................................................................. 11 2.3. Die Biologie des Neurons ................................................................................................................................. 13 2.4. Die Elektrophysiologie des Neurons ................................................................................................................. 18 2.5. Modellierung und Implementation der neuronalen Aktivierungsfunktion ........................................................ 25 2.6. Hypothesen testende Analyse eines neuronalen Detektors ............................................................................... 32 2.7. Selbstregulierung: Erschlaffung und Hysterese ................................................................................................ 37 3. Netze von Neuronen ................................................................................................................................................ 39 3.1. Überblick .......................................................................................................................................................... 39 3.2. Allgemeine Struktur kortikaler Netze ............................................................................................................... 39 3.3. Unidirektionale exzitatorische Interaktionen: Transformationen ...................................................................... 43 3.4. Bidirektionale exzitatorische Interaktionen ...................................................................................................... 47 3.5. Inhibitorische Interaktionen .............................................................................................................................. 49 3.6. Constraint Satisfaction ...................................................................................................................................... 55 4. Hebbsches Modelllernen.......................................................................................................................................... 59 4.1. Überblick .......................................................................................................................................................... 59 4.2. Biologische Lernmechanismen ......................................................................................................................... 59 4.3. Berechnungstheoretische Ziele des Lernens ..................................................................................................... 61 4.4. Hauptkomponentenanalyse ............................................................................................................................... 64 4.5. Bedingte Hauptkomponentenanalyse ................................................................................................................ 66 4.6. Renormierung und Kontrastverstärkung ........................................................................................................... 71 4.7. Selbst organisierendes Modelllernen ................................................................................................................ 74 5. Fehler getriebenes Aufgabenlernen ......................................................................................................................... 75 5.1. Überblick .......................................................................................................................................................... 75 5.2. Die Verwendung des Fehlers für das Lernen: Die Deltaregel........................................................................... 75 5.3. Fehlerfunktionen, Gewichtsbeschränkung und Aktivierungsphasen ................................................................ 77 5.4. Die verallgemeinerte Deltaregel: Backpropagation .......................................................................................... 80 5.5. Der verallgemeinerte Rückkreislauf-Algorithmus ............................................................................................ 83 5.6. GeneRec aus biologischer Sicht ........................................................................................................................ 86 6. Kombination von Modell- und Aufgabenlernen und andere Lernmechanismen ..................................................... 91 6.1. Kombination von Hebbschem Lernen und Fehler getriebenem Lernen ........................................................... 91 6.2. Verallgemeinerung in bidirektionalen Netzen .................................................................................................. 94 6.3. Erlernen der Re-Repräsentationen in tiefen Netzen .......................................................................................... 95 6.4. Erlernen von Folgen und zeitlich verzögertes Lernen ...................................................................................... 96 6.5. Kontextrepräsentationen und sequentielles Lernen........................................................................................... 97 6.6. Reinforcement Learning für zeitlich verzögerte Ergebnisse ........................................................................... 100 7. Die großräumige funktionale Organisation der Gehirnareale ................................................................................ 109 7.1. Überblick ........................................................................................................................................................ 109 7.2. Allgemeine Berechnungs- und funktionale Prinzipien ................................................................................... 109 7.3. Allgemeine Funktionen der kortikalen Lappen und subkortikaler Areale ...................................................... 114 7.4. Dreigeteilte funktionale Organisation ............................................................................................................. 118 7.5. Ein Ansatz zu einer kognitiven Architektur des Gehirns ................................................................................ 120 7.6. Allgemeine Probleme ..................................................................................................................................... 123 8. Wahrnehmung und Aufmerksamkeit ...................................................................................................................... 129 8.1. Die Biologie des visuellen Systems ......................................................................................................... 129 8.2. Ein Modell der primären visuellen Repräsentationen ..................................................................................... 133 Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition 8.3. 8.4. Seite 3 Objekterkennung und der visuelle Form-Pfad ................................................................................................ 136 Ein Modell der räumlichen Aufmerksamkeit .................................................................................................. 142 Literatur Gazzaniga, M.S., Ivry, R.B., Mangun, G.R.: Cognitive Neuroscience. The Biology of the Mind. 2. W.W. Norton & Company, New York, 2002. Posner, M.I., Raichle, M.E.: Bilder des Geistes. Hirnforscher auf den Spuren des Denkens. Spektrum Akademischer Verlag, Heidelberg, 1996. O’Reilly, R.C., Munakata, Y.: Computational Explorations in Cognitive Neuroscience. Understanding the Mind by Simulating the Brain. MIT Press, Cambridge, MA, 2000. M. Spitzer: Geist im Netz. Modelle für Lernen, Denken und Handeln. Spektrum Akademischer Verlag, Heidelberg, 2000. Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition 1. 1.1. Seite 4 Einleitung Computermodelle und Neurokognition Die Vorlesung, unterstützt durch die Experimente mit den Programmen von O’Reilly und Munakata, soll eine Einführung in verschiedene Gebiete der Neurokognition geben, darunter die folgenden: Visuelle Kodierung: Ein neuronales Netz sieht natürlich Bilder und entwickelt mit Hilfe von Lernmechanismen Arten der Kodierung die visuellen Szenen in ähnlicher Weise wie das Gehirn, um der visuellen Welt Bedeutung zu geben. Räumliche Aufmerksamkeit: An den Interaktionen zwischen verschiedenen Strömen der visuellen Eingabe kann man beobachten, wie das Modell seine Aufmerksamkeit auf verschiedene Orte im Raum fokussiert um z.B. eine visuelle Szene zu erfassen. Das Modell kann dann dazu benutzt werden, die Aufmerksamkeitsleistung gesunder und hirngeschädigter Personen zu simulieren. Episodisches Gedächtnis: Stattet man ein Neuronales Netz mit einem Modell des Hippocampus aus, dann kann es neue Gedächtnisinhalte aus alltäglichen Erfahrungen und Ereignissen erzeugen und somit menschliche Erinnerungsleistung simulieren. Arbeitsgedächtnis: Spezielle biologische Mechanismen können das Arbeitsgedächtnis eines Netzes verbessern. Man kann simulieren, wie eine geschickte Steuerung des Arbeitsgedächtnisses durch Erfahrung gelernt werden kann. Lesen: Ein Netz kann lernen, beinahe 3000 englische Wörter zu lesen und auszusprechen. Das Netz kann sogar neue Buchstabenfolgen (nicht unbedingt Wörter), die es vorher nicht gesehen, aussprechen. Damit wird gezeigt, dass es die Regeln der englischen Aussprache gelernt hat und nicht nur die Beispiele auswendig kann. Indem man das Modell beschädigt, kann man dann verschiedene Formen von Legasthenie simulieren. Semantische Repräsentation: Ein Netz kann ein ganzes Buch lesen und daraus ein überraschend gutes Verständnis der darin benutzten Wörter gewinnen, indem es prüft, welche Wörter oft gemeinsam oder in ähnlichen Kontexten vorkommen. Aufgabenorientiertes Verhalten: Man kann ein Modell des „Ausführungsteils“ des Gehirns, dem präfrontalen Kortex, entwickeln und beobachten, wie es die Aufmerksamkeit auf die aktuelle Aufgabe fokussiert und davon abhält, von anderen Dingen abgelenkt zu werden. Überlegte, explizite Wahrnehmung: Viele Vorgänge im Gehirn laufen relativ automatisch ab, man kann aber auch in absichtlicher, expliziter Form denken und handeln. An einem Netzmodell kann man beide Formen der Kognition im Kontext einer einfachen Kategorisierungsaufgabe untersuchen. Das Modell zeigt somit die biologische Basis für Bewusstsein. 1.2. Motivation für die Verwendung von Computermodellen in der Neurokognition 1.2.1. Physikalischer Reduktionismus Es hat in der Vergangenheit viele Versuche gegeben, die menschliche Kognition mit unterschiedlichen Sprachen und Metaphern zu erklären. Zum Beispiel wurde versucht, Kognition als auf Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 5 einfachen logischen Operationen beruhend aufzufassen oder als in der Art eines sequentiellen Standardcomputers operierend. Das hat zwar manche Einsicht vermittelt, aber der bessere Weg ist, das Gehirn selbst und seine Funktionsweise zu betrachten um die menschliche Kognition zu erklären. So betrachtet ist das Wesen der Neurokognition nicht nur Reduktionismus, sondern auch die Forderung, dass die Komponenten, auf die reduziert wird, Komponenten des Gehirns als Träger der Kognition sind. Viele frühere und zum Teil noch heute benutzte Theorien über menschliche Kognition beruhen auf Konstrukten wie „Aufmerksamkeit“ und „Arbeitsspeicher“; diese haben aber ihre Grundlage in der Analyse von Verhalten oder Denken, nicht in den physikalischen Entitäten, die gemessen werden können. Neurokognition unterscheidet sich von der gängigen Kognitionswissenschaft dadurch, dass sie kognitive Phänomene auf der Basis und in der Begrifflichkeit der zugrunde liegenden neurobiologischen Komponenten zu erklären versucht; diese können im Prinzip unabhängig gemessen und lokalisiert werden. Andere Theorien der Kognition können teilweise dazu passen, andere nicht. 1.2.2. Rekonstruktionismus Bloßer Reduktionismus führt dazu, dass man zwar die Teile eines Systems identifizieren und lokalisieren und ihre Funktionsweise verstehen kann, aber man versteht damit noch nicht, wie die Teile zusammenwirken und wie daraus die Gesamtleistung des Systems entsteht. Zur Reduktion eines Systems um die Teile zu verstehen gehört auch die anschließende Rekonstruktion. Das Verständnis der Funktionsweise der Neuronen erklärt noch nicht, wie aus den Interaktionen der Neuronen im Gehirn Bewusstsein entsteht. Im Rekonstruktionsprozess bekommt der Ansatz der Computermodellierung in der Neurokognition entscheidende Bedeutung, denn es ist sehr schwierig, mit verbalen Beschreibungen die menschlichen Kognition aus der Aktion einer großen Zahl interagierender Komponenten zu rekonstruieren. Stattdessen kann man aber das Verhalten der Komponenten implementieren und testen, ob sie in der Lage sind, die gewünschten Phänomene zu reproduzieren. Solche Simulationen sind wesentlich um zu verstehen, wie die Neuronen Kognition erzeugen. Das ist insbesondere der Fall, wenn es emergente Phänomene gibt, die erst aus den Interaktionen entstehen und an den einzelnen Komponenten nicht zu beobachten sind, d.h. wenn das Ganze größer ist als die Summe seiner Teile. Die Bedeutung des Rekonstruktionismus wird oft in der Wissenschaft übersehen, er konnte aber erst mit der Entstehung leistungsfähiger Computer angegangen werden. 1.2.3. Analyseebenen Der Prozess der Reduktion und der anschließenden Rekonstruktion erscheint sinnvoll, löst aber nicht alle Probleme. Der Grund dafür liegt in der extremen Komplexität und dem Mangel an Wissen sowohl über das Gehirn als auch über die Kognition, die es erzeugt. Aus diesem Grund wurde in der Forschung vorgeschlagen, Analyseebenen zur Bewältigung der Komplexität einzuführen. Zur Erklärung der menschlichen Kognition erscheinen manche Analyseebenen einleuchtender als andere, z.B. erscheint es sinnlos, die Kognition auf der Ebene der Atome und einfachen Moleküle oder auch auf der Ebene der Proteine und DNA erklären zu wollen, statt dessen sollten Mechanismen höherer Ebenen benutzt werden. Welches aber die richtige Ebene ist, lässt sich schwer entscheiden und hängt vom aktuellen Wissensstand ab. Deshalb ist die hier gewählte Analyseebene nur diejenige, die derzeit als beste erscheint. Die Idee der Analyseebenen wurde von David Marr in der Kognitionswissenschaft eingeführt; er sprach von einer Berechnungs-, einer algorithmischen und einer Implementationsebene und betonte damit die Analogie zum Computer. Ein anderer Ansatz der wissenschaftlichen Analyse ist die Optimalität oder rationale Analyse, die in vielen „Wissenschaften der Komplexität“ wie Biologie, Psychologie oder Ökonomie benutzt wird Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 6 (Anderson). Auch sie betont die Berechnungsebene und nimmt an, es sei möglich, die optimale Berechnung oder die optimale von einem Menschen oder einem Tier in einem bestimmten Kontext ausgeführte Funktion zu identifizieren, und dass das Gehirn, egal was es tut, irgendwie diese optimale Berechnung durchführe und deshalb ignoriert werden könne. Zum Beispiel behauptet Anderson, dass das Erinnerungsvermögen optimal an die Häufigkeit und die Abstände für das Abrufen von Gedächtnisinhalten angepasst sei. So gesehen spielt es keine Rolle, wie das Erinnerungsvermögen tatsächlich funktioniert, denn die treibende Kraft dahinter ist letztlich das Optimalitätskriterium für das Abrufen von Inhalten bei Anfragen, und dieses folgt allgemeinen Gesetzmäßigkeiten. Das Problem des Optimalitätsansatzes ist allerdings, dass die Definition der Optimalität oft von verschiedenen Annahmen abhängt, unter anderem solchen über die Natur der zugrunde liegenden Implementierung, die keine unabhängige Grundlage haben. Optimalität kann also kaum mit rein „objektiven“ Begriffen definiert werden, deshalb hängt es oft von den einzelnen Umständen ab, was optimal ist. Beide Ansätze, die Analyseebenen und das Optimalitätskriterium, suggerieren, dass die Implementationsebene weitgehend irrelevant ist. In Standardcomputern und –sprachen trifft dies auch zu, denn sie sind effektiv äquivalent auf der Implementationsebene, deshalb beeinflussen Implementationsdetails die algorithmische und die Berechnungsebene nicht und Algorithmen können vollständig automatisch durch Compilation in Implementierungen umgesetzt werden. Beim Gehirn kann aber die neuronale Implementierung nicht automatisch von irgendeiner höheren Beschreibungsebene abgeleitet werden, deshalb kann es nicht so einfach auf einer höheren Ebene beschrieben werden. Die beiden erwähnten Ansätze haben eine allgemeine Form der Implementierung vorausgesetzt, ohne sich darum zu kümmern, wie sie aussehen könnte. Durch die Entwicklung paralleler Computer ist aber ein neues Berechnungsparadigma entstanden mit einer ganz neuen Klasse von Algorithmen und neuen Denkweisen um die Vorteile der parallelen Berechnung zu nutzen. Das Gehirn lässt sich am ehesten mit einem massiv parallelen Computer vergleichen mit Milliarden von Rechenelementen, deshalb sind von Standardcomputern abgeleitete Vorstellungen hier nicht adäquat. Umgekehrt haben verschiedene Forscher betont, die Implementationsebene sei die primäre und kognitive Modelle müssten dadurch aufgebaut werden, dass man sehr detaillierte Nachbildungen von Neuronen macht um so zu garantieren, dass die entstehenden Modelle alle wichtigen biologischen Mechanismen enthalten. Aber ohne ein vorab vorhandenes klares Verständnis davon, welche Eigenschaften funktional bedeutsam sind und welche nicht, entsteht bei diesem Ansatz das Problem, dass man komplizierte und schwer verständliche Modelle bekommt, die wenig Einsicht in die wesentlichen Eigenschaften der Kognition geben. Außerdem schaffen es diese Modelle niemals, alle biologischen Mechanismen im letzten Detail abzubilden, deshalb kann man nie ganz sicher sein, dass nicht doch etwas Wichtiges fehlt. Um den Problemen zu entgehen, die mit der Bevorzugung einer Ebene über eine andere verbunden sind, wird hier ein konsequent interaktiver, gleichgewichtiger Ansatz befolgt. Bei ihm werden Verbindungen zwischen Daten über alle relevanten Ebenen hinweg gebildet und ein vernünftiger Kompromiss zwischen dem Wunsch nach einem einfachen Modell und dem Wunsch, so viel wie möglich von den bekannten biologischen Mechanismen zu integrieren, eingegangen. Es wird also sowohl ein bottom-up- als auch ein top-down- als auch ein interaktiver Ansatz gemacht, bei dem gleichzeitig Constraints auf der biologischen und der kognitiven Ebene berücksichtigt werden. Im Folgenden wird die in Abbildung 1.1 dargestellte Hierarchie von Analyseebenen verwendet. Sie besteht im Kern aus zwei Ebenen, die nach dem Prinzip des physikalischen Reduktionismus und des Rekonstruktionismus miteinander verbunden sind. Die untere Ebene bilden die neurobiologiTechnische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 7 schen Mechanismen, die obere Ebene die kognitiven Phänomene. Letztere werden auf Operationen der neurobiologischen Mechanismen reduziert und mittels Simulationen wird gezeigt, wie diese Mechanismen emergente kognitive Phänomene erzeugen. Die Simulationen stützen sich auf vereinfachte, abstrakte Wiedergaben der neurobiologischen Mechanismen. Die Zwischenebene der allgemeinen Prinzipien ist eine Art Hilfsebene, die die Verbindung zwischen den beiden anderen unterstützt. Weder das Gehirn noch die Kognition können vollständig durch die allgemeinen Prinzipien beschrieben werden, diese dienen aber dazu, die Verbindungen zwischen bestimmten Aspekten der Biologie und Aspekten der Kognition deutlich zu machen. 1.2.4. Skalierung Die Skalierung bezieht sich auf die Art und Weise, wie ein herunterskaliertes Modell des Gehirns konstruiert werden kann. Natürlich ist die Notwendigkeit der Skalierung zumindest teilweise durch die Beschränktheit der verfügbaren Computerhardware bedingt, die sich in der Zukunft abschwächen wird. Andererseits sind aber herunterskalierte Modelle auch leichter zu verstehen und deshalb für die Forschung in der Neurokognition ein guter Ausgangspunkt. Das Skalierungsproblem wird auf folgende Weise zu lösen versucht: Das beabsichtigte kognitive Verhalten, das von den Modellen erwartet (und erreicht) wird, wird in ähnlicher Weise herunterskaliert im Vergleich zu der Komplexität der tatsächlichen menschlichen Kognition. Es wird gezeigt, dass ein simuliertes Neuron das Verhalten vieler realer Neuronen approximieren kann, so dass also Modelle mehrerer Gehirnbereiche gebaut werden können, wobei die Neuronen in diesen Bereichen von wesentlich weniger Einheiten simuliert werden. Es wird angenommen, dass die Informationsverarbeitung im Gehirn fraktale Eigenschaften hat, wobei dieselben grundlegenden Eigenschaften in unterschiedlichen physikalischen Maßstäben gelten. Diese grundlegenden Eigenschaften sind die der einzelnen Neuronen, die auch auf höheren Ebenen durchscheinen und somit auch für das Verständnis des Verhaltens des Gehirns im großen Maßstab relevant sind. 1.3. Einige wichtige kognitive Phänomene und ihre biologischen Grundlagen 1.3.1. Parallelismus Menschen können viele Dinge parallel zueinander tun, z.B. beim Gehen etwas essen, beim Autofahren reden, verschiedene Laute gleichzeitig hören usw. Jeder dieser einzelnen Prozesse ist aber seinerseits ein Produkt einer großen Zahl von Prozessen, die gleichzeitig ablaufen. Das menschliche Gehirn besteht aus 10 bis 20 Milliarden Neuronen, und jedes trägt einen kleinen Teil zum gesamten Bewusstsein bei, deshalb muss Kognition aus der parallelen Aktivität aller dieser Neuronen entstehen. Dieses Phänomen, dass die Ausführung jeder kognitiven Funktion über eine große Zahl individueller Prozesselemente parallel verteilt ist, nennt man parallele verteilte Verarbeitung (parallel distributed processing, PDP). Der Parallelismus kommt auf verschiedenen Ebenen vor, von Gehirnarealen über kleine Gruppen von Neuronen bis zu den Neuronen selbst. Die parallele Verarbeitung kann es zu einer Herausforderung machen, die Kognition zu verstehen, d.h. um herauszufinden, wie alle diese Teilprozesse sich miteinander koordinieren um so etwas Sinnvolles zustande zu bringen. Wäre Kognition ein Bündel diskreter sequentieller Schritte, dann wäre die Aufgabe einfacher, man müsste nur die Schritte und ihre Folge identifizieren. Parallelismus hat dagegen eine Ähnlichkeit mit dem Mehrkörperproblem in der Physik: Die Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 8 paarweise Interaktion zweier Dinge kann einfach sein, so bald aber mehrere Dinge vorhanden sind, die gleichzeitig aktiv sind und sich gegenseitig beeinflussen, wird es schwierig herauszufinden, was vor sich geht. Hier wird konsequent auf PDP gesetzt, die mächtige mathematische und intuitive Werkzeuge zum Verständnis der Interaktion zwischen einer großen Zahl von Prozesseinheiten bereitstellt. 1.3.2. Abgestuftheit Im Gegensatz zur diskreten Booleschen Logik und den binären Speicherinhalten von Standardcomputern arbeitet das Gehirn von Natur aus abgestuft und analog. Neuronen integrieren Informationen von einer großen Zahl verschiedener Eingabequellen und produzieren im Wesentlichen eine stetige, reelle Zahl, die in etwa die relative Stärke der Eingaben repräsentiert. Sie senden dann ein weiteres abgestuftes Signal (die Feuerrate oder Aktivierung) an andere Neuronen als Funktion dieser relativen Stärke. Diese abgestuften Signale können so etwas wie das Ausmaß oder den Grad, zu dem eine Sache wahr ist, übermitteln. Aktivierung Abgestuftheit ist von entscheidender Bedeutung für Wahrnehmungs- und motorische Phänomene, die auf stetigen Werten wie Position, Winkel, Kraft oder Farbe beruhen. Das Gehirn behandelt diese Werte so, dass verschiedene Neuronen unterschiedliche „prototypische“ Werte entlang eines Kontinuums repräsentieren und mit abgestuften Signalen reagieren, die wiedergeben, wie nahe das gerade wahrgenommene Exemplar dem bevorzugten Wert ist, vgl. Abbildung 1.2. Diese Art der Repräsentation, die auch grobe Kodierung oder Basisfunktions-Repräsentation genannt wird, deutet genau einen bestimmten Ort in einem Kontinuum an, indem sie eine gewichtete Schätzung auf der Basis der abgestuften Signale abgibt, die zu jedem Basiswert gehört. Stetige Dimension Abbildung 1.2 Abgestuftheit hat noch einen anderen wichtigen Aspekt, der damit zusammenhängt, dass jedes Neuron Eingaben von vielen Tausenden anderer Neuronen erhält. Auf Grund dieser Tatsache ist ein einzelnes Neuron nicht entscheidend für das Funktionieren anderer, vielmehr trägt es nur als Bestandteil eines abgestuften Gesamtsignals etwas bei, das die Zahl der zum Signal beitragenden Neuronen sowie die Stärke ihres Beitrags widerspiegelt. Aus diesem Sachverhalt entsteht das Phänomen der allmählichen Abschwächung, bei der sich eine Funktion mit zunehmendem Ausmaß der Schädigung im Nervengewebe allmählich abschwächt. Der Ausfall von Neuronen vermindert die Stärke des Signals, zerstört aber die Funktion nicht vollständig. Ein dritter Aspekt der Abgestuftheit hängt mit der Art der Informationsverarbeitung im Gehirn zusammen. Sie tritt in Erscheinung, wenn man versucht sich an etwas zu erinnern, es einem aber trotz Nachdenken nicht einfällt. Es ist das Phänomen des „Auf der Zunge Liegens“. Das Gehirn lässt dabei ein Bündel relativ schwach ausgeprägter Ideen kreisen um zu sehen, welche sich verstärken, indem sie in Resonanz geraten miteinander oder mit anderen Inhalten, und welche sich abschwächen und verschwinden. Ähnlich funktioniert die Intuition: eine Menge relativ schwacher Faktoren addieren sich und unterstützen eine Idee gegen eine andere, aber es gibt keinen klaren, eindeutigen Grund dafür. Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 9 Ein Äquivalent zu diesem Phänomen auf der Berechnungsebene ist das Bootstrapping und multiple Constraint Satisfaction. Durch Bootstrapping kann ein System selbstständig einen Zustand erreichen indem es aus einer schwachen, unvollständigen Information ein gültiges Ergebnis erzeugt. Durch multiple Constraint Satisfaction können parallele, abgestufte Systeme gute Lösungen für Probleme finden, die eine Anzahl von Constraints involvieren. Die Idee dieser Methode ist, dass jedes Constraint so viel zur Lösung beiträgt, wie es in etwa seiner Stärke oder Wichtigkeit entspricht. Die resultierende Lösung stellt eine Art Kompromiss dar, der die Konvergenz derjenigen Constraints verstärkt, die ungefähr in dieselbe Richtung zeigen, und die Zahl der nicht erfüllten Constraints vermindert. 1.3.3. Interaktivität Das Gehirn unterscheidet sich von einem seriellen Standardcomputer noch in der Hinsicht, dass die Verarbeitung zu einem Zeitpunkt nicht nur in einer Richtung verläuft. Sie ist also nicht nur parallel, sondern auch noch vor- und rückwärts zugleich. Dieses Phänomen nennt man Interaktivität, Rekurrenz oder bidirektionale Verknüpfung. Man kann sich das Gehirn als aus hierarchisch angeordneten Verarbeitungsgebieten zusammengesetzt denken. Eingaben, z.B. visuelle Reize, werden in dieser Hierarchie stufenweise verarbeitet, beginnend auf sehr einfacher Stufe (z.B. Orientierung von Linien) und fortschreitend auf immer höheren Stufen, auf denen komplexere Merkmale herausgearbeitet werden (z.B. Kombinationen von Linien, Objekte, Szenen usw.). In diesem System erfolgt die Verarbeitung gleichzeitig bottom-up und top-down, d.h. der Informationsfluss verläuft in beide Richtungen. Zusammen mit dem Parallelismus und der Abgestuftheit liefert die Interaktivität gute Erklärungen für Phänomene, die ansonsten nicht verständlich wären. 1.3.4. Wettbewerb Der Wettbewerb zwischen den Neuronen im Gehirn hat zur Folge, dass bestimmte Repräsentationen ausgewählt und stärker aktiv werden, während andere abgeschwächt oder unterdrückt werden. In Analogie zum Prozess der Evolution ist das Prinzip des „survival of the fittest“ eine wichtige Kraft bei der Ausformung des Lernens und der Verarbeitung. Durch dieses Prinzip werden Neuronen darin verstärkt, sich besser an besondere Situationen, Aufgaben Umgebungen usw. anzupassen. Besonders in den für die Kognition zentralen Gehirnbereichen gibt es ausgedehnte Schaltkreise inhibitorischer Interneuronen, die den Mechanismus des Wettbewerbs bewirken. 1.3.5. Lernen Die menschliche Intelligenz wird sowohl durch die genetische Veranlagung bedingt als auch durch das individuelle Lernen beeinflusst. Ein wichtiges Ziel der Neurokognition ist zu erklären, wie beide Faktoren zusammenwirken um die menschliche Kognition zu erzeugen. Mit Hilfe von Simulationen können die komplexen und feinen Abhängigkeiten untersucht werden, die zwischen bestimmten Eigenschaften des Gehirns und dem Lernprozess bestehen. Zusätzlich zum evolutionären Lernen geschieht das Lernen ständig in der menschlichen Kognition. Könnte man einen relativ einfachen Lernprozess identifizieren, der auf der Basis einer geeignet instanziierten Architektur die Milliarden von Neuronen im menschlichen Gehirn so organisiert, dass die ganze Vielfalt der kognitiven Funktionen entsteht, dann wäre dies der „heilige Gral“ der Neurokognition. Deshalb wird die Untersuchung der Eigenschaften eines solchen Lernmechanismus, der biologischen und kognitiven Umgebung, in der er arbeitet, und den Ergebnissen, die er erzeugt, das Hauptgewicht haben. Damit soll aber nicht di Bedeutung der genetischen Grundlage der Kognition vermindert werden, vielmehr können die genetischen Parameter erst im Kontext eines solchen Lernmechanismus vollständig verstanden werden. Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 10 Das Problem des Lernens kann als Problem der Veränderung betrachtet werden. Durch das Lernen wird die Art und Weise verändert, wie Informationen im System verarbeitet werden. Deshalb ist es leichter zu lernen, wenn das System auf die Veränderungen in abgestufter, proportionaler Form reagiert, statt seine Verhaltensweise radikal umzustellen. Die abgestuften Veränderungen ermöglichen es dem System verschiedene neue Ideen (d.h. Arten der Verarbeitung von Dingen) auszuprobieren und eine Art abgestufter, proportionaler Andeutung dafür zu bekommen, wie die Veränderungen die Verarbeitung beeinflussen. Indem es sehr viele kleine Änderungen untersucht, kann das System diejenigen auswerten und verstärken, die die Performanz verbessern, und die anderen verwerfen. Es gibt auch andere Lernprozesse, die von Natur aus diskreter sind als diese abgestuften, nur mit kleinen Änderungen verlaufenden. Einer davon ist das Lernen durch Versuch und Irrtum. Dabei führt man auf der Basis einer Hypothese einen Versuch aus und aktualisiert die Hypothese abhängig vom Ergebnis des Versuchs. Obwohl diese Art des Lernens diskreteren Charakter hat, kann es am besten mit denselben Arten abgestufter neuronaler Mechanismen implementiert werden, wie sie bei den anderen Arten des Lernens verwendet werden. Ebenfalls ein Lernprozess mit diskreterem Charakter ist das Auswendiglernen einzelner diskreter Fakten oder Ereignisse. Das Gehirn hat einen spezialisierten Bereich, der für diese Art des Lernens besonders geeignet ist, den Hippocampus. Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition 2. 2.1. Seite 11 Neuronen Überblick Das Neuron stellt die grundlegenden informationsverarbeitenden Mechanismen bereit, die die Grundlage der menschlichen Kognition sind. Biologische Neuronen sind winzige aber sehr komplexe elektrochemische Systeme. Will man simulierte Neuronen in Modellen der kognitiven Phänomene benutzen, dann muss man das Neuron stark vereinfachen und dabei seine grundlegenden funktionalen Eigenschaften beibehalten. Aus der Perspektive des Berechnungsparadigmas kann man sich die wesentliche Funktion eines Neurons als die eines Detektors vorstellen. Es integriert Informationen aus verschiedenen Quellen (Eingaben) zu einer einzigen reellen Zahl, die ausdrückt, wie gut die Informationen zu dem passen, auf dessen Entdeckung das Neuron spezialisiert ist, und sendet Ausgabe, die das Ergebnis der Auswertung wiedergibt. Man nennt dieses Modell das integriere-und-feure-Modell der neuronalen Funktion. Die Ausgabe wird als Eingabe für andere Neuronen benutzt, wodurch ein kaskadenartiger Prozess durch das Netz der verknüpften Neuronen zustande kommt. In diesem Kapitel wird ein Überblick über die Beschreibung von Neuronen auf der Berechnungsebene und die biologischen Mechanismen, die ihnen zugrunde liegen, gegeben. Als Muster wird das pyramidale Neuron im Kortex verwendet. Die Summe dieser biologischen Mechanismen wird als Aktivierungsfunktion und die resultierende Ausgabe des Neurons als Aktivierungswert bezeichnet. Für die Modellierung wird eine Punktneurons-Aktivierungsfunktion verwendet, die dieselbe Dynamik der Informationsverarbeitung verwendet wie reale biologische Neuronen, aber die räumliche Ausdehnung des Neurons auf einen Punkt schrumpft. Dadurch wird die Implementierung erheblich vereinfacht. Die beschriebenen Simulationen illustrieren die elementaren Eigenschaften der Aktivierungsfunktion und wie sie aus den zugrunde liegenden biologischen Eigenschaften der Neuronen entsteht. Es wird gezeigt, wie die Aktivierungsfunktion in den Begriffen einer mathematischen Analyse auf der Grundlage des Bayesschen Hypothesentestens beschrieben werden kann. 2.2. Detektoren als Modelle von Neuronen In einem Standardcomputer sind sie Speicherung und die Verarbeitung auf verschiedene Module verteilte Prozesse. Die Verarbeitung erfolgt zentralisiert in der CPU. Die Information muss aus dem Speicher geholt, der CPU übergeben und das Ergebnis in den Speicher gebracht werden. Im Gehirn dagegen erfolgt die Informationsverarbeitung nach dem PDP-Paradigma. Der Speicher (das Gedächtnis) ist ebenso wie die Verarbeitung über das ganze Gehirn verteilt. Das Modell eines Neurons muss deshalb erklären können, wie ein Neuron Speicher- und Verarbeitungsfunktionen verteilt bereitstellt, aber in Verbindung mit den anderen Neuronen etwas Nützliches produziert. Die Arbeitsweise eines Neurons wird durch die Vorstellung eines Detektors erklärt. Vereinfachend kann man sich ein Neuron als etwas vorstellen, das die Existenz einer Menge von Bedingungen entdeckt und darauf mit einem Signal reagiert, das mitteilt, bis zu welchem Grad die Bedingungen zugetroffen haben. Die Reaktion eines Neurons ist oft kontextsensitiv, d.h. sie hängt von anderen Dingen ab, die man sonst nicht bemerkt hätte. Zum Beispiel kann es passieren, dass ein Streifendetektor in den unteren Stufen des visuellen Systems bei einer bestimmten Szene nicht reagiert, obwohl er es nach der Lage der Streifen müsste. Er wird dann von anderen Aspekten der Szene, also dem Kontext, übersteuert. Es kann auch vorkommen, dass der Detektor zum einen Zeitpunkt, an dem die Szene gesehen wird, Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 12 reagiert, und am nächsten nicht, wegen dynamischer Änderungen im Netz, die den Fokus der Aufmerksamkeit bestimmen. Die Fähigkeit, etwas zu entdecken, passt am besten zur Verarbeitung von Sensorinformationen, trotzdem kann sie aber auch zur Beschreibung der Arbeitsweise anderer Neuronen benutzt werden. Ein Neuron des motorischen Systems kann z.B. entdecken, wann eine bestimmte motorische Reaktion ausgeführt werden sollte und seine Ausgabe führt dann zur Ausführung der Reaktion. Auch interne Aktionen, z.B. die Fokussierung der Aufmerksamkeit oder das Suchen nach einem Wort um einen Sachverhalt zu beschreiben, können als Entdecken der Bedingungen zur Ausführung der gewünschten Aktionen beschrieben werden. Ein Vorteil des Detektormodells ist, dass es auf einfache Weise die ganze Komplexität und Feinheit in einem elementaren Rahmen unterbringen kann, der trotzdem zunächst in sehr einfachen und intuitiven Begriffen verstanden werden kann durch die Analogie mit einfachen Geräten wie dem Rauchdetektor. Das Detektormodell eines Neurons betont mehrere wichtige Eigenschaften. Es betont, dass Neuronen bestimmten Zwecken gewidmete, spezialisierte Prozessoren sind und keine universellen Speicherzellen wie in einem Computer, die mit beliebigen Inhalten gefüllt werden können. Durch die Art, wie jedes Neuron mit anderen Neuronen im Netz verbunden ist, wird es der Entdeckung einer bestimmten Menge von Dingen gewidmet. Diese Widmung befähigt das Neuron, gleichzeitig Speicher- und Verarbeitungsfunktionen auszuführen. Durch den Speicher kann es die Bedingungen in Erinnerung rufen, die es auf seine Eingaben anwendet um zu entdecken, was es entdecken kann, und seine Verarbeitung ist die Art und Weise wie es diese Bedingungen auswertet und die Ergebnisse anderen Neuronen mitteilt. Unter der Repräsentation eines Neurons versteht man meistens das, was es entdeckt. Zum Beispiel ein Neuron, das einen Streifen mit einer bestimmten Orientierung und an einer bestimmten Position entdeckt, repräsentiert genau diesen Streifen. Weil die Neuronen gewidmet und spezialisiert sind, kann man sich diese Repräsentation als eine permanente Eigenschaft jedes Neurons vorstellen. Trotzdem muss aber das Neuron aktiv werden um die Aktivierung anderer Neuronen zu beeinflussen, deshalb ist es zweckmäßig, zwischen einer Bedeutung von Repräsentation, die eine relativ permanente Spezialisierung eines Beurons bezeichnet (latente oder gewichtsbasierte Repräsentation), und der aktiven Repräsentation, die von den gerade aktiven Neuronen erzeugt wird, zu unterscheiden. 2.2.1. Erklärung der Bestandteile des Neurons mittels des Detektormodells Eine der am meisten genutzten Vereinfachungen des Neurons ist das integriere-und-feure-Modell. Abbildung 2.1 stellt dar, dass das Detektormodell sich sehr gut in das integriere-und-feure-Modell des Neurons abbilden lässt. Ein Detektor benötigt zunächst Eingaben, die ihm die für seine Aufgabe notwendige Information liefern. Ein Neuron erhält seine Eingaben über die Synapsen an den Dendriten. Diese sind Verzweigungen, die sich über größere Entfernungen vom Zellkörper weg erstrecken. Im menschlichen Gehirn sind verhältnismäßig wenige Neuronen direkt mit der Sensoreingabe verbunden, alle anderen erhalten ihre Eingaben aus vorangegangenen Stufen der Verarbeitung. Die Verkettung mehrerer Ebenen von Detektoren kann zu leistungsfähigeren und effizienten Entdeckungsfähigkeiten führen als die direkte Verarbeitung der Sensoreingabe. Allerdings ist es dadurch auch schwieriger herauszufinden, auf welcher Art von Eingabe ein Neuron seine Entscheidung über einen entdeckten Inhalt durchführt, wenn es so indirekt mit den Sensoreingaben verbunden ist. Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 13 Ausgabe Axon Zellkörper, Membranpotenzial Integration Dendriten Eingaben Synapsen Detektor Neuron Abbildung 2.1 Anschließend verarbeitet der Detektor seine Eingaben. Im Detektormodell des Neurons wird der relative Beitrag der verschiedenen Eingaben zur gesamten Entdeckungsentscheidung mittels der Gewichte gesteuert, die im Neuron der relativen Effizienz entspricht, mit der eine Synapse dem Neuron eine Eingabe übermittelt. Beim Neuron heißt dieser Effekt synaptische Wirksamkeit oder synaptische Stärke. Die Gewichte sind entscheidend um zu bestimmen, was ein Neuron entdeckt. Neuronen können Aktivitätsmuster über ihren Eingaben entdecken, wobei diejenigen Eingabemuster, die am besten dem Gewichtsmuster entsprechen, die stärkste Entdeckungsreaktion erzeugen. Die Eingaben werden nicht als einzelne Muster analysiert, sondern als Teil des gesamten Eingabemusters. Dies geschieht dadurch, dass die einzelnen Eingaben zu einem Gesamtwert integriert werden, der ein aggregiertes Maß dafür ist, wie gut das Eingabemuster zu dem erwarteten, d.h. zu dem, worauf das Neuron spezialisiert ist, passt. Die Integration der Eingaben wird durch die elektrischen Eigenschaften der Dendriten realisiert, aus denen ein Membranpotenzial am Zellkörper entsteht, das das Ergebnis der Integration wiedergibt. Das Neuron kann also als ein kleines elektrisches System betrachtet werden. Nach der Integration der Eingaben muss ein Detektor die Ergebnisse seiner Verarbeitung in Form einer Ausgabe mitteilen. Viele Detektoren haben zusätzlich einen Schwellenwert oder ein Kriterium, das noch vor der Ausgabe angewendet wird um zu entscheiden, ob eine Ausgabe erzeugt wird oder nicht. Das Neuron hat auch einen Schwellenmechanismus, wodurch es inaktiv bleibt, so lange es nicht etwas mit ausreichender Stärke und Zuverlässigkeit entdeckt, was es wert ist, den anderen Neuronen mitzuteilen. Ein Neuron benötigt Stoffwechselressourcen um mit anderen Neuronen zu kommunizieren, deshalb ist es sinnvoll, den Kommunikationsprozess für wichtige Ereignisse zu reservieren. Wenn die integrierte Eingabe den Schwellenwert überschreitet, dann sagt man, das Neuron feuert. Der Schwellenwert wird am Beginn einer langen, vom Zellkörper ausgehenden verzweigten Faser angewendet, dem Axon. Das Axon bildet Synapsen an den Dendriten anderer Neuronen und liefert ihnen Eingaben. 2.3. Die Biologie des Neurons Abbildung 2.2 zeigt ein Neuron, und zwar ein pyramidales Neuron aus dem Kortex. Trotz dieser differenzierten Struktur handelt es sich um eine einzige Zelle. Die Zelle hat einen Körper mit einem Kern, ist mit Flüssigkeit und zellulären Organellen gefüllt und von einer Membran umgeben wie andere Körperzellen. Das Neuron ist aber einzigartig in der Hinsicht, dass es fadenartige Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 14 Auswüchse besitzt, die Dendriten und das Axon. Die meisten Eingaben in das Neuron kommen über die Dendriten, die Ausgabe erfolgt über das Axon. Abbildung 2.2 Damit die Neuronen miteinander kommunizieren können, obwohl sie in Membrane eingeschlossen sind, gibt es in der Membran kleine Öffnungen, die so genannten Kanäle. Die elementaren Mechanismen der Informationsverarbeitung (Integration der Eingaben, Schwellenwerttest und Erzeugung von Ausgaben) beruhen auf der Bewegung von Ionen durch die Kanäle in die Zelle hinein und aus ihr heraus und innerhalb der Zelle selbst. Die Ionen bewegen sich nach den grundlegenden Prinzipien der Elektrizität und der Diffusion. Mit diesen Prinzipien und den mit ihnen verbundenen Gleichungen kann man eine mathematische Beschreibung dafür entwickeln, wie ein Neuron auf Eingaben von anderen Neuronen reagiert. Ein zentraler Bestandteil des elektrischen Modells des Neurons ist die Ladungsdifferenz zwischen dem Neuron und seiner Umgebung. Diese Differenz heißt Membranpotenzial, denn die Membran trennt das Innere von der Außenseite des Neurons, weshalb an der Membran die Differenz der Ladung anliegt. Der Ionenfluss in und aus der Zelle verändert das Membranpotenzial. Diese Veränderungen werden zu anderen Teilen des Neurons propagiert und integrieren sich mit anderen dort befindlichen Potenzialen. Diese Propagierung und Integration kann damit erklärt werden, dass man die Dendriten als Kabel betrachtet und ihre Kabeleigenschaften untersucht. Wenn also die Ionen durch Kanäle in die Dendriten hineinfließen, propagieren sie in den Zellkörper und werden dort integriert. An der Stelle, wo der Zellkörper in das Axon übergeht, bestimmt das Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 15 Membranpotenzial, ob das Neuron feuert. Die Schwelleneigenschaft des Feuerprozesses wird durch eine Menge spezieller Kanäle realisiert, die zu dem Membranpotenzial führen. Die Kanäle öffnen sich nur, wenn das Membranpotenzial ausreichend erhöht ist. Diese Kanäle werden spannungsgesperrt (voltage gated) genannt. Es gibt mehrere Typen solcher Kanäle. Außer den elektrischen Prozessen werden auch chemische Prozesse benötigt, um die Informationsverarbeitung im Gehirn zu ermöglichen. Viele Typen von Neuronen benutzen bestimmte chemische Stoffe statt eines elektrischen Signals, um ihre Ausgaben anderen Neuronen zu übermitteln. Andere Neuronen benutzen aber direkt elektrische Signale. Die kortikalen Neuronen benutzen die chemische Übertragung. Diese chemischen Stoffe, genannt Neurotransmitter, werden an den Synapsen abgegeben. Die Abgabe wird durch einen elektrischen Impuls ausgelöst, der durch das Axon kommt, das so genannte Aktionspotenzial, und nachdem sie abgegeben sind, diffundieren die Stoffe zu den Dendriten und binden dort chemisch an Rezeptoren, wodurch die Kanäle geöffnet werden. 2.3.1. Das Axon Die Aktion des Feuerns durch ein Neuron wird verschiedentlich Spiking genannt oder einen Spike feuern oder ein Aktionspotenzial auslösen. Der Spike wird am Beginn des Axons initiiert, einer Stelle, die Axonhügel heißt, vgl. Abbildung 2.3. Hier sind zwei Arten von spannungsgesperrten Kanälen stark konzentriert,die nur aktiv werden, wenn das Membranpotenzial einen bestimmten Schwellenwert erreicht. Das Spiking des Neurons wird also durch den Wert des Membranpotenzials am Axonhügel bestimmt. Wenn sich eine Art von spannungsgesperrten Kanälen öffnet, steigert sich die Erregung des Neurons. Das veranlasst die andere Art von Kanälen sich zu öffnen und diese Kanäle hemmen das Neuron. Das Ergebnis ist ein Spike von Erregung gefolgt von einer Hemmung. Wenn das Membranpotenzial durch die inhibitorischen Kanäle wieder vermindert worden ist tendiertes dazu, dass Ruhepotenzial geringfügig zu unterschreiten. Dies verursacht eine Hemmungsperiode nach einem Spike, in der das Neuron so lange keinen weiteren Spike feuern kann, bis das Membranpotenzial wieder bis zum Schwellenwert angestiegen ist. Die Hemmungsperiode kann auch durch die anhaltende Inaktivität der spannungsgesperrten Kanäle verursacht werden. Die Hemmungsperiode bewirkt eine feste maximale Feuerrate des Neurons. Propagierung des Aktionspotenzials Ranvier-Knoten Myelin Axonhügel Abbildung 2.3 Der Spike wird das Axon entlang geschickt mittels eines aktiven und eines passiven Mechanismus. Der aktive Mechanismus baut eine Kettenreaktion auf, an der dieselbe Art von spannungsgesperrten Kanälen entlang des Axons beteiligt ist. Der Spike, der am Anfang des Axons ausgelöst wird, steigert das Membranpotenzial ein kleines Stück abwärts entlang des Axons und löst dort wieder einen Spiking-Prozess aus usw., wie bei einem Dominoeffekt. Dieser aktive Mechanismus benötigt Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 16 aber relativ viel Energie und ist außerdem langsam, weil er das Öffnen und Schließen von Kanälen erforderlich macht. Deshalb haben die meisten Neuronen Abschnitte am Axon, in denen der Spike mittels des passiven Mechanismus propagiert wird. Dieser ist im Wesentlichen derselbe wie der in den Dendriten verwendete, er ist ein rein elektrischer Prozess und ist wesentlich schneller als der aktive. Der passive Prozess hat wie alle elektrischen Leitungen den Nachteil, dass er sich abschwächt über die Entfernung hinweg. Deshalb hat das Neuron gewissermaßen Relais-Stationen am Axon, an denen der aktive Spiking-Mechanismus das Signal wieder auffrischt. Diese Relais-Stationen heißen Ranvier-Knoten. Um die passive Leitung effektiver zu machen, ist das Axon zwischen den RanvierKnoten mit einer isolierenden Scheide umgeben, die Myelin heißt. Mittels dieser Kombination von Propagierungsmechanismen kann das Neuron effizient Signale über relativ lange Entfernungen (mehrere cm) in relativ kurzer Zeit schicken (im Millisekundenbereich). 2.3.2. Die Synapse Die Synapse ist die Verbindung zwischen dem Axon des Senderneurons und einem Dendrit des Empfängerneurons. Die Abbildungen 2.4 und 2.5 zeigen eine Mikroskopaufnahme und ein Schemabild einer Synapse. Der Endpunkt des Axons, der zur Synapse gehört, heißt Axonende oder Axonknopf. Das Gegenstück dazu ist bei manchen Synapsen ein synaptischer Dorn an dem Dendrit, bei anderen ist es direkt die Membran des Dendrits. Abbildung 2.4 Abbildung 2.5 Wenn der elektrische Impuls den Axonknopf erreicht, aktiviert er Calciumionen (Ca++), indem er spannungsgesperrte Kanäle öffnet, so dass die Ca++-Ionen in das Axonende einströmen können, zusätzlich können noch interne Speicher von Ca++-Ionen geöffnet werden. Die Calciumionen veranlassen die Neurotransmitter enthaltenden Vesikel, sich an die Membran des Axonknopfs zu binden. Dadurch scheiden sie den Neurotransmitter in den synaptischen Spalt aus. Der Neurotransmitter diffundiert durch den Spalt und bindet sich an die postsynaptischen Rezeptoren. Diese reagieren darauf in unterschiedlicher Weise. Die ionotropen Rezeptoren öffnen Kanäle, die Ionenflüsse ermöglichen, die metabotropen Rezeptoren stoßen verschiedene chemische Prozesse innerhalb des postsynaptischen Neurons an. Es gibt verschiedene Arten von Neurotransmitterstoffen, die von verschiedenen Typen von Senderneuronen ausgeschieden werden, und diese binden an verschiedene Rezeptoren und lösen damit unterschiedliche Reaktionen im Empfängerneuron aus. Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 17 Um ein kontinuierliches Ausscheiden von Neurotransmitter über mehrere Spikes hinweg zu ermöglichen, wird das Vesikelmaterial, das an die Membran gebunden wird, später recycelt um neue Vesikel zu produzieren, und neuer Neurotransmitter und andere wichtige Moleküle werden über Mikroröhren in die Vesikel eingebracht. Auch der in den Spalt ausgesonderte Neurotransmitter muss zur Wiederverwendung zurück gebracht werden (reuptake). Verbleibt der Neurotransmitter im Spalt (durch Unterdrückung des Reuptake-Mechanismus), dann aktiviert er die Rezeptoren dauernd, was Probleme verursachen kann. Viele Drogen beeinflussen diesen Ablauf, unter anderem blockieren sie die Rezeptoraktivierung, das Reuptake und die postsynaptischen chemischen Prozesse, die von den Rezeptoren angestoßen werden. Sie eignen sich deshalb zur Untersuchung des gesamten Ablaufs. Die Synapse hat einige dynamische Eigenschaften, die ihr Verhalten nach einer vorangegangenen Aktivität beeinflussen. Eine davon ist die Unterstützung gepaarter Pulse. Dabei ist der zweite Spike, wenn er dicht genug auf den ersten folgt, stärker als der erste. Dieser Effekt kann durch im Axonende verbleibende Calciumionen oder durch weiter bestehende Bindungen von Vesikeln an die Membran als Folge des vorangegangenen Ausscheidungsvorgangs zustande kommen. Ebenso ist es wahrscheinlich, dass anhaltende hohe Feuerraten die synaptischen Ressourcen erschöpfen, z.B. Neurotransmitter und Ca++, was eine erhöhte Zahl von Ausscheidungsfehlern zur Folge hat, bei denen während eines Spikes kein Neurotransmitter ausgeschieden wird. Dies kann zu einer sättigenden Nichtlinearität der neuronalen Ausgabefunktion führen. Einige wichtige Merkmale der Biologie der Synapse sind die folgenden: Die verschiedenen Komponenten der Synapse können auf mehrere Arten die Stärke der Informationsübertragung vom Sender zum Empfänger beeinflussen. Im Berechnungsmodell wird diese Stärke durch das Gewicht zwischen den Einheiten repräsentiert. Die Modifikation eines oder mehrerer dieser Faktoren können Lernen erzeugen. Die wichtigsten präsynaptischen Komponenten der Synapsenstärke sind die Zahl der Vesikel, die sich bei jedem Aktionspotenzial entleeren, die Menge an Neurotransmitter in jedem Vesikel und die Wirksamkeit des Reuptake-Mechanismus. Die wichtigsten postsynaptischen Faktoren sind die Gesamtzahl der Rezeptoren, die Anordnung und Nähe der Rezeptoren zu den präsynaptischen Ausscheidungsstellen und die Wirksamkeit der einzelnen Kanäle bezüglich des Ionenflusses. Es kann auch sein, dass die Form des dendritischen Dorns einen Einfluss auf die Übertragung des elektrischen Signals von der Synapse zu dem Dendriten hat. Derzeit ist es noch Gegenstand der Forschung, welche dieser Faktoren beim Lernen modifiziert werden, vermutlich tragen aber mehrere Faktoren zum Lernen bei. 2.3.3. Der Dendrit Biologische betrachtet sind die wichtigsten Teile eines Dendriten die Rezeptoren. Es gibt viele unterschiedliche Typen von Rezeptoren, im Kortex sind zwei davon die wichtigsten, besser gesagt: zwei Neurotransmitter/Rezeptor-Kombinationen. Die eine Kombination bindet den Neurotransmitter Glutamat an die Rezeptoren AMPA, NMDA und mGlu. Der von AMPA aktivierte Kanal stellt die primäre exzitatorische Eingabe her, denn sie ermöglicht Natriumionen (Na+) in den Dendrit einzuströmen. Diese Ionen erhöhen das postsynaptische Membranpotenzial so dass das Neuron eventuell feuern kann. Wenn die exzitatorischen Kanäle geöffnet sind heißt das entstehende Membranpotenzial „exzitatorisches postsynaptisches Potenzial“ (EPSP). Der von NMDA aktivierte Kanal ist ebenfalls exzitatorisch, ist aber wahrscheinlich wichtiger wegen seiner Wirkung auf das Lernen, denn er ermöglicht den Calciumionen einzuströmen, die chemische Prozesse auslösen können, die zum Lernen führen. Der mGlu-Rezeptor (metabotropisches Glutamat) löst im postsynaptischen Neuron verschiedene chemische Prozesse aus, die ebenfalls Auswirkung auf das Lernen haben können. Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 18 Die andere wichtige Neurotransmitter/Rezeptor-Kombination benutzt den Neurotransmitter GABA, der an verschiedene GABA-Rezeptoren binden kann. Diese öffnen Kanäle, durch die Chloridionen (C1) einströmen können, die inhibitorische Wirkung im postsynaptischen Neuron haben, denn sie Vermindern die Wahrscheinlichkeit, dass das Neuron feuert. Diese inhibitorischen Eingaben werden „inhibitorische postsynaptische Potenziale“ (IPSP) genannt. Es gibt zwei verschiedene Typen von GABA-Rezeptoren, GABA-A und GABA-B, die sich in ihrer zeitlichen Dynamik unterscheiden. Die GABA-B-Kanäle bleiben länger offen, deshalb diese Rezeptoren eine stärkere inhibitorische Wirkung. Ein bestimmter Typ von Neuronen scheidet nur einen Typ von Neurotransmitter aus, und dieser aktiviert nur bestimmte Typen von Rezeptoren. Das bedeutet, dass ein kortikales Neuron nur exzitatorische oder inhibitorische Signale aussendet, aber nicht beides. Das betrifft aber nur die Ausgabe des Neurons, es kann sowohl exzitatorische als auch inhibitorische Signale empfangen. Es ist in der Tat eine der wichtigsten Funktionen eines Neurons und eines Netzes von Neuronen, ein Gleichgewicht zwischen exzitatorischen und inhibitorischen Eingaben herzustellen. 2.4. Die Elektrophysiologie des Neurons 2.4.1. Elementare Elektrizität Elektrizität kommt durch die Ladung und Bewegung elementarer Teilchen zustande. Die elementarsten Ladungsträger sind die Elektronen und die Protonen, die gleich an Masse aber entgegengesetzt geladen sind. Normalerweise besitzen Atome gleiche Anzahlen von Elektronen und Protonen, manche allerdings haben ein oder zwei Ladungsträger der einen Sorte weniger, diese heißen Ionen. Je nachdem, welche Ladungsträger fehlen, sind die Ionen positiv oder negativ geladen. Für die neuronalen Prozesse sind die Natrium- (Na+), Chlor- (Cl), Kalium- (K+) und Calcium- (Ca++) Ionen von besonderer Bedeutung. Die Anziehung entgegengesetzt geladener Ionen und die gegenseitige Abstoßung gleich geladener Ionen verursacht Strom, d.h. fließende Ladung. Sind die Ionen beweglich wie in einer Flüssigkeit, dann kann derselbe Typ von Strom durch abfließende positive Ladungen oder durch einfließende negative Ladungen hervorgerufen werden, nämlich negativer Strom, im umgekehrten Fall, bei abfließender negativer Ladung oder einfließender positiver Ladung entsteht positiver Strom. Die Ungleichheit der Ladungsverteilung in einem bestimmten Bereich ruft dort ein elektrisches Potenzial hervor. Es spiegelt die Menge entgegen gesetzter Ladung wider, die potenziell angezogen werden kann. Werden Ladungen angezogen, dann nimmt das Potenzial gleichzeitig ab, d.h. das Potenzial eines bestimmten Bereichs verändert sich in Abhängigkeit vom Strom, der in diesen Bereich fließt. Dieser Zusammenhang spielt für die Funktionsweise der Neuronen eine wichtige Rolle. Die Ionen müssen bei ihrer Bewegung normalerweise einen Widerstand überwinden, der durch andere Flüssigkeitsteilchen oder durch eine Membran mit Poren, durch die die Ionen durchtreten können, verursacht sein kann. Je größer der Widerstand ist, desto größer muss das Potenzial sein, um die Ionen zu bewegen. Das ist das Ohmsche Gesetz I V R Die Inverse des Widerstands wird als Leitfähigkeit bezeichnet und geschrieben als G. Es ist also G R1 . Mit G kann man das Ohmsche Gesetz in der folgenden Form schreiben: Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 19 I = VG Die Art, wie Neuronen Information integrieren, wird auf der Basis des Ohmschen Gesetzes beschrieben. Das Öffnen und Schließen der Membrankanäle bestimmt die Leitfähigkeit G für jeden Typ von Ion als Funktion der Eingabe, die das Neuron erhält. Das Potenzial V ist gerade das Membranpotenzial. Das Potenzial kann aktuell mit Hilfe des Ohmschen Gesetzes berechnet werden, indem der Strom I bestimmt wird. Durch iterative Anwendung des Ohmschen Gesetzes können die Potenzialänderungen im Zeitverlauf berechnet werden. Jedes Ion reagiert auf ein vorliegendes Membranpotenzial in spezifischer Weise, mit bestimmt durch die Diffusion, und trägt so auf je eigene Weise zum Gesamtstrom bei. 2.4.2. Diffusion Ähnlich wie beim Strom ist auch für die Diffusion die Ursache eine unausgeglichene Verteilung von Teilchen. Die Diffusion veranlasst Teilchen irgendeines Typs sich gleichmäßig im Raum zu verteilen. Sobald also eine starke Konzentration einer bestimmten Teilchenart an einem Ort vorliegt, bewirkt die Diffusion die Ausbreitung und gleichmäßige Verteilung der Teilchen im ganzen Raum. Die Ursache der Diffusion ist der Sachverhalt, dass Atome in einer Flüssigkeit oder in einem Gas sich ständig hin und her bewegen und dies hat einen Mischprozess zur Folge, der dafür sorgt, dass alles gleichmäßig verteilt ist. Diffusion ist also keine direkte Kraft wie das elektrische Potenzial, sondern eher ein indirekter Effekt der sich bewegenden Materie. Eine wichtige Eigenschaft der Diffusion ist, dass sie für eine gleichmäßige Verteilung individuell für jede einzelne Teilchenart sorgt. Deshalb kann eine starke Konzentration einer Teilchenart nicht durch eine starke Konzentration einer anderen Teilchenart kompensiert werden, selbst wenn die Ladung der beiden Arten gleich ist (z.B. Na+ und K+). Bei der Elektrizität dagegen spielt die Teilchenart keine Rolle, es kommt nur auf die Größe der Ladung an. Da die Diffusion ähnliche Wirkung hat wie die Elektrizität und wie eine Kraft wirkt, auch wenn sie eigentlich keine ist, wird sie trotzdem durch eine Kraftgleichung beschrieben. Sie beschreibt, was mit Ionen als Folge eines Konzentrationsunterschieds geschieht (bei der Elektrizität als Folge eines Ladungsunterschieds). In einem Behälter sei eine Flüssigkeit durch eine Trennwand in zwei Bereiche unterteilt. Die Trennwand kann entfernt werden. Nun gibt man in einen der beiden Bereiche eine größere Menge eines bestimmten Typs von Ionen. Dadurch entsteht eine Konzentrationsdifferenz oder ein Gradient zwischen den beiden Bereichen und dieser bewirkt eine Art Konzentrationspotenzial, das die Ionen dazu veranlasst, in den anderen Bereich zu fließen. Wird die Trennwand entfernt, dann entsteht ein Diffusionsstrom der abfließenden Ionen, wie bei der Elektrizität, und das Konzentrationspotenzial nimmt ab. Der Diffusionskoeffizient entspricht hierbei der Leitfähigkeit bei der Elektrizität und es gilt eine Entsprechung zum Ohmschen Gesetz I = DC Diese Gleichung heißt das erste Ficksche Gesetz. I ist der Diffusionsstrom, D der Diffusionskoeffizient und C das Konzentrationspotenzial. 2.4.3. Elektrisches Potenzial versus Diffusion: Das Gleichgewichtspotenzial Um den Strom zu berechnen, den eine bestimmte Art von Ionen erzeugt, muss man die Wirkung der elektrischen und der Diffusionskräfte auf die Ionen in geeigneter Weise addieren. Zu diesem Zweck muss man den Gleichgewichtspunkt bestimmen, an dem sich die beiden Kräfte gegenseitig in ihrer Wirkung neutralisieren, so dass die Konzentration der Ionen genau so bleibt, wie sie ist. An diesem Punkt ist der durch diese Ionenart verursachte Strom null. Würde es nur elektrische Kräfte geben, Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 20 dann wäre der Gleichgewichtspunkt dort, wo das elektrische Potenzial null ist. Wegen der Konzentrationsdifferenz der Ionen zwischen der Innenseite und der Außenseite eines Neurons ist der Gleichgewichtspunkt aber nicht dort. Die absoluten Werte der Stromstärke, die hier vorkommen, sind relativ klein, deshalb kann man den Ansatz machen, dass die relativen Konzentrationen eines Ions innerhalb und außerhalb der Zelle, die typischerweise stark voneinander abweichen, relativ konstant bleiben. Außerdem verfügt das Neuron über einen speziellen Mechanismus um eine ziemlich feste Menge relativer Konzentrationen aufrecht zu erhalten. Der Gleichgewichtspunkt kann also durch die Größe des elektrischen Potenzials ausgedrückt werden, das zum Ausgleich für die ziemlich konstante Diffusionskraft erforderlich ist. Dieses Potenzial wird als Gleichgewichtspotenzial oder Umkehrungspotenzial (weil der Strom auf beiden Seiten des Nullpunkts das Vorzeichen wechselt) oder Treibpotenzial (weil der Ionenfluss das Membranpotenzial zu diesem Wert treibt) bezeichnet. Das Gleichgewichtspotenzial E kann als Korrekturfaktor im Ohmschen Gesetz verwendet werden, indem man es von dem elektrischen Potenzial V subtrahiert, wodurch das Nettopotenzial V – E entsteht. Das resultierende Gesetz wird Diffusions-korrigierte Version des Ohmschen Gesetzes genannnt. Es kann für jede Ionenart einzeln verwendet werden und liefert den durch die jeweilige Art erzeugten Anteil am Gesamtstrom. Die Diffusions-korrigierte Version ist I = G(V – E) 2.4.4. Die neuronale Umgebung und die Ionen Um die Funktionsweise eines Neurons auf der Basis der elektrischen und Diffusionsprozesse zu verstehen, muss man die interne und externe Umgebung des Neurons betrachten, insbesondere unter dem Aspekt der Konzentrationen verschiedener Ionen. Die Neuronen befinden sich im Gehirn in einer flüssigen Umgebung, die eine ähnliche Zusammensetzung wie Meerwasser hat. Man nennt diese Umgebung den extrazellulären Raum. Wie im Meerwasser ist darin eine gewisse Menge an Kochsalz gelöst, wodurch eine beträchtliche Konzentration an Na+- und Cl-Ionen gegeben ist. Die anderen Ionen, die noch von Bedeutung sind, sind K+ und Ca++. Wenn die Ionen ungehindert durch offene Membrankanäle fließen könnten, dann wäre die Konzentration der verschiedenen Ionen im Innern der Zelle gleich groß wie außerhalb. Dies wird aber durch zwei Mechanismen verhindert, so dass ein Ungleichgewicht der Konzentrationen an der Membran entsteht. Der erste Mechanismus ist eine so genannte Natrium-Kalium-Pumpe, die aktiv für ein Ungleichgewicht der Konzentrationen von Natrium und Kalium sorgt. Sie pumpt Na+-Ionen aus der Zelle hinaus und eine kleinere Menge von K+-Ionen in die Zelle hinein. Der zweite Mechanismus ist die selektive Durchlässigkeit der Kanäle, aufgrund derer ein Kanal nur einer Art oder einigen wenigen Arten von Ionen das Passieren erlaubt. Viele der Kanäle sind außerdem normalerweise geschlossen, wenn sie nicht speziell aktiviert werden, z.B. durch einen Neurotransmitter. Die Natrium-Kalium-Pumpe erzeugt also ein Ungleichgewicht der Ionenkonzentrationen und die selektiven Kanäle erhalten dieses Ungleichgewicht und ändern es dynamisch. Die Natrium-Kalium-Pumpe verbraucht Energie, sie lädt gewissermaßen die Batterie auf, die das Neuron antreibt. Die Herstellung von Ungleichgewichten bei zwei Ionenarten hat andere Ungleichgewichte zur Folge. Eine unmittelbare Konsequenz der verhältnismäßig geringen internen Konzentration an Na+-Ionen ist das negative Ruhepotenzial des Neurons. Dieses ist das Potenzial, das besteht, wenn keine Eingaben in das Neuron gemacht werden. Es beträgt typischerweise -70 Millivolt (-70mV). Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 21 Im Folgenden werden für die vier wichtigsten Ionen die internen und externen Konzentrationen angegeben, die elektrischen und Diffusionskräfte bestimmt und die Kanäle untersucht, durch die sie in das Neuron hinein oder aus ihm hinaus fließen können. In Abbildung 2.6 ist die Beschreibung grafisch für drei Arten der Ionen dargestellt. Inhibitorische synaptische Eingabe Cl Exzitatorische synaptische Eingabe Na+ -70 Leck Cl + Vm +55 Vm K+ + Na/KPumpe Na K -70 Vm -70 mV Vm 0 mV Abbildung 2.6 Na+ Da die Konzentration an Natrium wegen der Natrium-Kalium-Pumpe außerhalb des Neurons größer ist als innerhalb, drückt die Diffusionskraft die Ionen in das Neuron hinein. Um diese Kraft durch eine elektrische Kraft auszugleichen würde das Neuron eine positive Ladung im Innern benötigen. Deshalb ist das Gleichgewichtspotenzial von Na+ positiv mit einem Wert von ungefähr +55 mV. Es gibt zwei Haupttypen von Kanälen, durch die Na+ fließen kann. Der wichtigste ist in diesem Zusammenhang der exzitatorische synaptische Eingabekanal, der normalerweise geschlossen ist, aber durch das Binden des Neurotransmitters Glutamat geöffnet wird. Es gibt außerdem einen spannungsgesperrten Na+-Kanal, dessen Öffnen und Schließen vom Membranpotenzial abhängt. Allgemein spielt Na+ eine wesentliche Rolle für die Aktivierung des Neurons, denn die Diffusionskräfte drücken es tendenziell in das Neuron hinein, was zu einer Erhöhung des Membranpotenzials führt. Die Aktivierung wird deshalb auch Depolarisation genannt, denn sie vermindert die Polarisation des Membranpotenzials, d.h. bringt sie an den Wert null heran. Cl Durch das von der Natrium-Kalium-Pumpe hergestellte negative Ruhepotenzial werden die ClIonen aus dem Neuron hinausgedrückt, was zu einem Ungleichgewicht der Konzentration mit mehr Chlorionen außerhalb als innerhalb des Neurons führt. Deshalb drückt die Diffusionskraft die Chlorionen in das Neuron hinein. Die Diffusionskraft wird aber genau durch das negative Ruhepotenzial ausbalanciert; insgesamt ergibt sich ein Gleichgewichtspotenzial von -70 mV. Der Hauptkanal für die Chlorionen ist der inhibitorische synaptische Eingabekanal, der durch den Neurotransmitter GABA geöffnet wird. Da das Gleichgewichtspotenzial für Cl dasselbe ist wie das Ruhepotenzial, hat die Inhibition bei diesen Neuronen so lange nur einen geringen Effekt, bis das Neuron erregt wird und sein Membranpotenzial ansteigt. Dieses Phänomen wird oft als verschobene Inhibition bezeichnet. K+ Die Konzentration von Kalium hängt direkt und indirekt mit der Natrium-Kalium-Pumpe zusammen. Die direkte Wirkung ist, dass eine gewisse Menge Kalium in die Zelle gepumpt wird. Da die Pumpe ein negatives Ruhepotenzial herstellt, wird sekundär das positiv geladene Kaliumion noch Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 22 zusätzlich in die Zelle hineingedrückt. Deshalb gibt es in der Zelle eine wesentlich größere Kaliumkonzentration als außerhalb. Deshalb drückt die Diffusionskraft die Ionen wieder aus der Zelle hinaus. Die Diffusionskraft wird größtenteils durch das Ruhepotenzial ausbalanciert, aber weil das Ion aktiv in die Zelle hineingepumpt wird, ist seine innere Konzentration sogar höher als von dem Ruhepotenzial allein zu erwarten wäre, deshalb ist sein Gleichgewichtspotenzial etwa -90 mV. Es gibt viele verschiedene K+-Kanäle, der wichtigste in diesem Kontext ist der Leck-Kanal, der immer offen ist und kleine Mengen von Kalium austreten lässt. Dieser Kanal lässt aber auch kleine Mengen von Na+ einströmen, deshalb ist das Gleichgewichtspotenzial für die Leitfähigkeit dieses Kanals nicht genau dasselbe wie für das K+-Ion, es ist vielmehr dasselbe wie das Ruhepotenzial, nämlich -70 mV. Es gibt auch einen spannungsgesperrten K+-Kanal, der der Wirkung der Erregung, die durch das Aktionspotenzial entsteht, entgegenwirkt, indem er eine größere Menge an Kalium ausströmen lässt, wenn das Neuron stark erregt wird. Ein dritter Typ von K +-Kanal öffnet abhängig von der Menge des im Neuron vorhandenen Calciums, das ausgedehnte Perioden von Aktivität anzeigt. Dieser Kanal erzeugt also eine Anpassung oder einen ermüdungsartigen Effekt, indem es überaktive Neuronen hemmt. Insgesamt kann man sagen, dass K+ weitgehend eine regulative Funktion im Neuron hat. Ca++ Calcium ist im Innern des Neurons nur in geringen Konzentrationen vorhanden. Das liegt teils an einer anderen Pumpe, die Calcium aus der Zelle hinauspumpt, und teils an intrazellulären Mechanismen, die Calcium absorbieren oder puffern. Die Diffusionskraft für Ca++ ist also nach innen gerichtet, deshalb ist ein positives elektrisches Potenzial im Innern erforderlich, das das Calcium hinausdrückt. Die Größe dieses Potenzials ist etwa +100 mV wegen der hohen Konzentrationsunterschiede. Wegen der doppelten Ladung des Ca++-Ions wirkt ein elektrisches Potenzial auf das Ion doppelt so stark wie auf ein Ion mit einfacher Ladung. Der wichtigste Kanal, der Ca ++ leitet, ist der NMDA-Kanal, der durch Glutamat von exzitatorischen Neuronen aktiviert wird. Dieser Kanal ist von entscheidender Bedeutung für Lernprozesse. Auch der Anpassungseffekt und sein Gegenstück, der Sensitivierungseffekt, hängen von der Anwesenheit von Ca++-Ionen im Neuron als einem Maß für neuronale Aktivität ab. Die Ionen gelangen in das Neuron durch spannungsgesperrte Kanäle, deshalb weist ihre Anwesenheit auf erst kurz zurück liegende neuronale Aktivität hin und sie sind in so kleinen Mengen vorhanden, dass ihre Konzentration einen guten Hinweis auf die durchschnittliche Größe der neuronalen Aktivität in der letzten Zeitperiode gibt. Dadurch sind sie auch für das Auslösen anderer Prozesse im Neuron nützlich. 2.4.5. Integration Die verschiedenen Effekte für die einzelnen Ionen und Kanäle werden nun zusammengefasst in eine Gleichung, die die neuronale Integration der Information wiedergibt. Diese Gleichung beschreibt die Aktualisierung des Membranpotenzials Vm. Zu diesem Zweck müssen mittels des Ohmschen Gesetzes der Strom für jeden Ionenkanal berechnet und dann alle diese Werte zusammenaddiert werden. Für jeden Typ von Ionenkanal (der Index c bezeichnet den Kanal) werden drei Angaben benötigt: 1. Das Gleichgewichtspotenzial Ec, 2. der Bruchteil der Kanäle gc(t) von der Gesamtzahl der Kanäle für das betreffende Ion, die zur Zeit offen sind, 3. die maximale Leitfähigkeit g c , die sich ergeben würde, wenn alle Kanäle offen wären. Das Produkt von gc(t) und g c ergibt die gesamte Leitfähigkeit. Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 23 Der Strom für einen Kanal ist durch das Diffusions-korrigierte Ohmsche Gesetz gegeben. Es ist das Produkt aus der Gesamtleitfähigkeit g c t g c und dem Nettopotenzial Vm t Ec : I c g c t g c Vm t Ec (2.1) Die drei grundlegenden Kanäle, die den größten Beitrag zur Aktivität des Neurons leisten, sind: a) Der exzitatorische synaptische Eingabekanal, der durch Glutamat aktiviert wird und Na+-Ionen befördert (bezeichnet durch Index e), b) der inhibitorische synaptische Eingabekanal, der durch GABA aktiviert wird und Cl-Ionen befördert (bezeichnet durch Index i), c) der Leck-Kanal, der immer offen ist und K+-Ionen befördert (bezeichnet durch Index l). Der gesamte oder auch Nettostrom für diese drei Kanäle ist I net g e t g e Vm t Ee gi t gi Vm t Ei gl t g l Vm t El (2.2) Der Nettostrom beeinflusst das Membranpotenzial, weil die Bewegung der Ladungen die Ladungsdifferenz vermindert, was das Potenzial verursacht. Die Aktualisierung des Membranpotenzials wird durch die folgende Gleichung beschrieben: Vm t 1 Vm t dt vm I net Vm t dt vm g e t g e Vm t Ee g i t g i Vm t Ei g l t g l Vm t El (2.3) Die Zeitkonstante dtvm (0 < dtvm < 1) verlangsamt die potenzielle Veränderung, wodurch die Verlangsamung der Änderung im Neuron wiedergegeben wird. Sie ist hauptsächlich auf die Kapazität der Zellmembran zurück zu führen. Um das Verhalten eines Neurons zu verstehen ist es zweckmäßig, sich das Ansteigen des Membranpotenzials als Folge eines positiven Stroms, d.h. als Erregung, vorzustellen. Gleichung (2.3) zeigt aber, dass nach den Gesetzen der Elektrizität das Ansteigen des Membranpotenzials eine Folge negativen Stroms ist. Um die intuitive Vorstellung damit in Einklang zu bringen, wird das Vorzeichen des Stroms im Modell umgekehrt, also Inet = Inet, und der Strom zum vorherigen Membranpotenzial addiert statt von ihm subtrahiert. Das ergibt die Gleichung Vm t 1 Vm t dt vm I net Vm t dt vm g e t g e Ee Vm t g i t g i Ei Vm t g l t g l El Vm t (2.4) Die Gleichungen (2.3) und (2.4) sind mathematisch äquivalent, aber (2.4) wird der intuitiven Vorstellung der Relation zwischen Potenzial und Strom besser gerecht. Zur Vereinfachung der Notation wird im Folgenden statt Inet nur Inet geschrieben. Um eine punktweise Beschreibung der Ausbreitung des Membranpotenzials zu vermeiden, wird der Vorgang der Ausbreitung approximiert. Die Approximation beruht auf dem Sachverhalt, dass die elektrischen Signale bei ihrer Fortpflanzung von den Dendriten zum Zellkörper gemittelt werden. Deshalb kann man den durchschnittlichen Bruchteil der offenen Kanäle der verschiedenen Typen entlang des ganzen Dendrits als eine sehr grobe aber effiziente Approximation der gesamten Leitfähigkeit eines bestimmten Typs von Kanal benutzen und diese Zahl in Gleichung (2.4) verwenden, die das Verhalten des ganzen Neurons zusammengefasst beschreibt. Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 24 Diese Approximation ist der wesentliche Aspekt an der Punktneuron-Approximation, bei der das Neuron auf einen einzigen Punkt geschrumpft wurde, dessen Verhalten durch eine einzige Gleichung beschrieben werden kann. Um zu illustrieren, wie sich ein Punktneuron bei unterschiedlich starken exzitatorischen Eingaben verhält, kann man die Ergebnisse wiederholter Verwendungen von Gleichung (2.4) aufzeichnen, die zur Aktualisierung des Membranpotenzials als Reaktion auf fest Eingabeniveaus, bestimmt durch spezifizierte Werte der verschiedenen Leitfähigkeiten, benutzt werden. Abbildung 2.7 zeigt einen Graphen für den Nettostrom und das Membranpotenzial, beginnend bei Stromstärke 0 und Ruhepotenzial -70 mV, als Reaktion auf zwei verschiedene Eingaben mit ge(t) = 0.4 und ge(t) = 0.2, beginnend bei Zeitschritt t = 10, mit g e 1 . g l ist konstant 2.8, gl(t) = 1, da der Leck-Kanal immer offen ist, es gibt keine inhibitorische Leitfähigkeit und dtvm = 0.1. -40 40 30 -45 20 -50 10 I_net 0 -55 -10 g_e = 0.4 -20 -60 g_e = 0.2 -30 -65 -40 V_m -50 -70 -60 39 36 33 30 27 24 21 18 15 9 12 6 -70 3 0 -75 Abbildung 2.7 Der Wert von Inet repräsentiert das Maß der Veränderung des Werts von Vm, d.h. Inet ist die Ableitung von Vm. 2.4.6. Das Gleichgewichts-Membranpotenzial Innerhalb einer relativ kurzen Zeitspanne nachdem exzitatorische und/oder inhibitorische Kanäle geöffnet werden, erreicht das Membranpotenzial immer einen neuen stabilen Wert, der das neue Gleichgewicht der auf das Neuron wirkenden Kräfte widerspiegelt. An diesem neuen Gleichgewichts-Membranpotenzial geht der Nettostrom auf null zurück, selbst wenn die individuellen Ströme einzelner Kanäle ungleich null sind. Ein Nettostrom tritt also nur auf, wenn Veränderungen stattfinden, nicht wenn das Membranpotenzial konstant ist. Um das Gleichgewichts-Membranpotenzial zu berechnen kann man die Gleichung (2.4) für das Membranpotenzial nutzen, denn das Gleichgewichtspotenzial muss etwas damit zu tun haben. Man setzt eine Konfiguration konstanter Leitfähigkeiten voraus. Gleichung (2.4) ist eine rekursive Gleichung mit der sich das aktuelle Membranpotenzial aus dem vorherigen berechnen lässt. Setzt man konstante Eingaben in das Neuron voraus, dann bedeutet das, dass der Nettostrom null ist. Dann ist das Membranpotenzial konstant, denn es ändert sich nach Gleichung (2.4) ja nur, wenn Strom fließt. Damit kann man aus Gleichung (2.4) eine Gleichung für das GleichgewichtsMembranpotenzial ableiten. Man braucht nur Inet auf null zu setzen. Das ergibt Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 25 Vm g e g e E e g i g i Ei g l g l El ge ge gi gi gl gl (2.5) Setzt man die in einer bestimmten Konfiguration vorliegenden Werte für die Variablen gc und Ec ein (c {e, i, l}), dann erhält man den jeweiligen Wert des Gleichgewichts-Membranpotenzials. Man sieht, dass das Gleichgewichts-Membranpotenzial ein gewichteter Durchschnittswert ist, beruhend auf der Größe der Leitfähigkeit für jeden Kanaltyp. Durch die folgende Umschreibung von Gleichung (2.5) wird dies noch deutlicher: Vm ge ge gi gi gl gl Ee Ei El ge ge gi gi gl gl ge ge gi gi gl gl ge ge gi gi gl gl (2.6) Das Membranpotenzial bewegt sich also in Richtung auf das Treibpotenzial eines Kanals c (Ec), direkt proportional zu dem Bruchteil des Stroms dieses Kanals vom Gesamtstrom, vgl. Abbildung 2.8. Gleichgewicht V_m bei g_e (g_l = 0.1) 1 0,8 V_m 0,6 0,4 0,2 0 0 0,2 0,4 0,6 0,8 1 g_e (exzitatorische Nettoeingabe) Abbildung 2.8 2.5. Modellierung und Implementation der neuronalen Aktivierungsfunktion In der ANN-Aktivierungsfunktion gibt es zwei Gleichungen. Die erste beschreibt die Nettoeingabe in die Einheit (Summe der gewichteten Eingaben): j xi wij (2.7) i Die andere Gleichung beschreibt, wie aus der Nettoeingabe der eigentliche Wert der Aktivierungsfunktion berechnet wird, der gleichzeitig die Ausgabe der Einheit ist: yj Technische Universität Chemnitz 1 1 e j (2.8) Wintersemester 2006/07 Neurokognition Seite 26 Es handelt sich also um die Sigmoidfunktion als Aktivierungsfunktion. Die Sigmoidfunktion besitzt eine Sättigungs-Nichtlinearität, d.h. wachsende Eingabewerte nähern sich an eine feste obere Grenze der Aktivierung an, entsprechend fallende Eingabewerte (inhibitorische Nettoeingaben) an eine untere Grenze. Die Nichtlinearität ist eine wichtige Voraussetzung für die Funktionsweise hintereinander geschalteter Einheiten, bei linearer Aktivierungsfunktion würde durch das Hintereinanderschalten kein zusätzlicher Effekt entstehen. Zur Implementierung der neuronalen Aktivierungsfunktion wird das Punktneuron-Modell als brauchbare Approximation an das biologische Neuron verwendet. Mit Gleichung (2.4) wird ein Wert für das Membranpotenzial Vm berechnet. Auf der Basis dieses Werts wird die Ausgabe der Aktivierungsfunktion berechnet. Der wichtigste Unterschied zwischen der neuronalen Aktivierungsfunktion und der in ANN verwendeten ist, dass die Aktivierungsfunktion des Punktneurons eine explizite Trennung von exzitatorischen und inhibitorischen Eingaben erfordert, da diese in verschiedene Ausdrücke für die Leitfähigkeit in Gleichung (2.4) eingehen. In ANN werden dagegen alle Eingabeterme mit positiven und negativen Gewichten direkt addiert. Die Gewichte entsprechen auch nicht dem biologischen Sachverhalt, dass alle Eingaben eines sendenden Neurons das gleiche Vorzeichen haben, d.h. sie sind alle entweder exzitatorisch oder inhibitorisch. Die Gewichte können das Vorzeichen wechseln und tun das auch während des Lernens. Im hier verwendeten Modell wird dem biologischen Sachverhalt dadurch entsprochen, dass nur die exzitatorischen Neuronen (pyramidale Zellen) direkt simuliert werden, während die inhibitorischen Eingaben von den Interneuronen in effizienter Weise approximiert werden. Die Leitfähigkeit der exzitatorischen Eingabe ge(t) ist im Wesentlichen ein Durchschnitt über alle gewichteten Eingaben in das Neuron und ist insofern der Berechnung der Nettoeingabe in ANN ähnlich, nur dass sie noch mit der Gesamtzahl der Eingaben normiert wird: g e t xi wij 1 xi wij n i (2.9) Ein weiterer wichtiger Unterschied zwischen der ANN-Aktivierungsfunktion und dem Punktneuron-Modell ist, dass im ANN aus der Nettoeingabe in einem Schritt mittels der Sigmoidfunktion die Aktivierung berechnet wird, während im Punktneuron-Modell ein Zwischenwert berechnet wird, der die integrierte Eingabe in Form des Membranpotenzials Vm wiedergibt. Dieses repräsentiert ein Gleichgewicht zwischen den aggregierten exzitatorischen und inhibitorischen Eingaben. In einem zweiten Schritt wird die Ausgabe der Aktivierung als Funktion von Vm berechnet. Mit dieser Methode ist es einfacher inhibitorische Wettbewerbsdynamik effizient zu implementieren. Im biologischen Neuron ist die Aktivierungsfunktion im Wesentlichen eine Schwellenwertsfunktion, d.h. das Neuron feuert, wenn Vm den Schwellenwert überschreitet. Diese lässt sich leicht durch eine diskrete Ausgabefunktion mit Spikes als Ausgabewerten simulieren. In den hier verwendeten Modellen wird aber meist eine ratenkodierte Approximation an das diskrete Feuern verwendet. Dabei ist die Ausgabe des Neurons eine reelle Zahl, die die momentane Rate wiedergibt, mit der das Neuron gerade feuert. 2.5.1. Berechnung von Eingabe-Leitfähigkeiten Exzitatorische Eingaben in ein Neuron kommen über die synaptischen Kanäle, die über die Dendriten verteilt sind. Es kann 10000 oder mehr synaptische Eingaben in ein Neuron geben, und jede Eingabe hat viele Na+-Kanäle. Typischerweise erhält ein Neuron Eingaben aus unterschiedlichen Gehirnbereichen. Diese verschiedenen Gruppen von Eingaben werden Projektionen genannt. Eingaben von verschiedenen Projektionen sind oft an verschiedenen Teilen des dendritischen Baums Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 27 gruppiert. Die Berechnung der exzitatorischen Eingabe berücksichtigt diese Projektionsebenen, indem die Projektionen verschieden starken Einfluss auf ein Neuron haben und indem gewährleistet wird, dass die Unterschiede in der Aktivität der verschiedenen Projektionen automatisch kompensiert werden. Im Modell wird eine Bias-Eingabe verwendet, um die Differenzen in der Erregbarkeit zwischen verschiedenen Neuronen zu repräsentieren. Neuronen weisen wahrscheinlich Unterschiede in der Höhe ihrer Leck-Ströme oder andere Unterschiede auf, die die Ursache für diese Differenzen sein können. Deshalb benötigen manche Neuronen starke Eingaben um feuern zu können, andere dagegen nur schwache Eingaben. Da beide Typen von Neuronen und alle Abstufungen dazwischen zur Lösung bestimmter Aufgaben nützlich sein können, müssen sie modelliert werden, was durch den Bias geschieht. Die Bias müssen auch trainierbar sein, so dass sie an gegebene Probleme geeignet angepasst werden können. Der Bias wird wie bei ANN üblich als zusätzlicher BiasEingabeausdruck in der Eingabegleichung implementiert. Dazu wird ein Bias-Gewicht eingeführt, das die Höhe der Bias-Eingabe bestimmt und beim Lernen modifiziert werden kann. Es wird weiterhin eine Mittelwertbildung über die Zeit in die Berechnung der Nettoeingabe eingeführt, die die Trägheit beim Propagieren und Aggregieren synaptischer Eingaben über die gesamte dendritische Membran wiedergibt. Durch die zeitliche Mittelwertbildung können auch dicht aufeinander folgende Spikes in einer zeitlichen Summierung zu einem größeren exzitatorischen Effekt zusammengefasst werden als wenn sie über einen größeren Zeitraum verteilt sind. Zeitliche Mittelwertbildung bügelt rasche Übergänge oder Fluktuationen aus, die sonst das Netz zum Oszillieren bringen oder es hindern würden, die Aktivierung effektiv zu propagieren. Die Berechnung von Eingabe-Leitfähigkeiten im Einzelnen An jeder synaptischen Eingabe wird der Bruchteil der offenen exzitatorischen Eingabekanäle durch das Produkt aus der Aktivierung des Senderneurons und dem Gewicht berechnet, also xiwij. Die synaptischen Leitfähigkeiten, die von derselben Eingabeprojektion k kommen, werden gemittelt: xi wij k 1 xi wij n i (2.10) Der Faktor 1n ist meistens, aber nicht immer, gleich der Zahl der Verbindungen, die eine Einheit innerhalb einer Projektion hat. Ist eine Projektion nur partiell mit einer sendenden Schicht verbunden, dann werden die fehlenden Verbindungen als Verbindungen mit dem konstanten Gewicht 0 betrachtet. Deshalb wird der Faktor 1n generell als die Zahl der Einheiten in der sendenden Schicht gesetzt und nicht die Zahl der wirklich vorhandenen Verbindungen. Auf diese Weise können Mechanismen für das automatische Konfigurieren von Netzverbindungen als einfache Methode für das Setzen von Gewichten verwendet werden. Der Wert der exzitatorischen Leitfähigkeit einer Projektion k, geschrieben g ek , ist der Durchschnitt der einzelnen Eingaben, multipliziert mit einem Normierungsfaktor auf der Basis des erwarteten Aktivierungsniveaus der sendenden Projektion, geschrieben k: g ek Technische Universität Chemnitz 1 k xi wij k (2.11) Wintersemester 2006/07 Neurokognition Seite 28 In den meisten Fällen kann nun die gesamte exzitatorische Leitfähigkeit ge(t), auch Nettoeingabe genannt, als Durchschnitt der Projektions-Leitfähigkeiten zusammen mit dem Bias-Gewicht und einer zeitmittelnden Konstanten dtnet folgendermaßen berechnet werden: 1 g e t 1 dt net g e t 1 dt net n p g ek k 1 1 dt net g e t 1 dt net n p 1 k N xi wij k k (2.12) N Dabei ist np die Zahl der Projektionen. Der Defaultwert von dtnet ist 0.7, wodurch eine relativ schnelle zeitliche Integration erreicht wird. Der Bias wird wie eine zusätzliche Projektion behandelt und würde dadurch einen zu großen Einfluss im Verhältnis zu anderen Eingaben bekommen. Deshalb wird er durch Division mit der Gesamtzahl der Eingabeverbindungen herunterskaliert. So erhält das Bias-Gewicht ungefähr denselben Einfluss wie eine normale synaptische Eingabe. Differenzierendes Skalieren der Projektionsniveaus In manchen Fällen werden Skalierungskonstanten benötigt um das Gleichgewicht der Einflüsse zwischen den verschiedenen Projektionen zu ändern. Bei den kortikalen Neuronen unterscheidet man zwischen den distalen und den proximalen Teilen der Dendriten, d.h. den Teilen, die weiter weg vom Zellkörper sind und denen die näher dran sind. Je nachdem, mit welchen Teilen der Dendriten eine Projektion verbunden ist, kann sie deshalb schwächeren oder stärkeren Einfluss auf das Neuron haben. Die Skalierungskonstanten werden in Gleichung (2.11) eingeführt: g ek s k rk 1 r k p p xi wij k (2.13) sk ist ein absoluter Skalierungsparameter für die Projektion k und rk ein relativer Skalierungsparameter, der mit Bezug zu den Skalierungsparametern aller anderen Projektionen normiert ist. Werden diese Parameter alle auf 1 gesetzt, wie es meist gemacht wird, dann erhält man Gleichung (2.11). Abbildung 2.9 zeigt schematisch, wie die exzitatorische Eingabe mit diesen Skalierungsparametern berechnet wird. ge s 1 N a 1 xi wij ab s a 1 xi wij ab xiwij xiwij A B Projektionen Abbildung 2.9 Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 29 2.5.2. Parameterwerte des Punktneurons Für die Gleichgewichtspotenziale der verschiedenen Kanäle, die in Gleichung (2.4) vorkommen, sowie für einige andere Parameter werden nun Werte eingeführt. Im Modell werden Werte zwischen 0 und 1 verwendet, die durch 0/1-Normierung aus den biologischen Werten entstanden sind. Die normierten Werte sind leichter auf einer gemeinsamen Achse darzustellen, sind intuitiv aussagekräftiger und einfacher zu Wahrscheinlichkeitswerten in Beziehung zu setzen. Tabelle 2.1 zeigt alle elementaren Parameter, die im Modell verwendet werden, mit den biologischen und den normierten Werten. Für die Normierung wird das Minimum (90) subtrahiert, dieser Wert durch den Wertebereich (90 bis 55, also 145) dividiert und das Ergebnis zum nächsten 0.05-Wert gerundet. Parameter Ea (K+) El (K+, Na+) Vrest Ei (Cl) Ea (Na+) Eh (Ca++) mV 0/1 0.00 0.15 0.15 0.15 0.25 1.00 1.00 90 70 70 70 55 +55 +100 g 0.50 0.10 1.00 1.00 0.10 Tabelle 2.1 2.5.3. Die Ausgabefunktion mit diskreten Spikes In einem realen Neuron wird das Feuern durch die Wirkung zweier entgegen gesetzter Typen von spannungsgesperrten Kanälen verursacht. Der eine lässt das Membranpotenzial ansteigen durch Einlassen von Na+-Ionen, der andere senkt das Membranpotenzial und stellt das negative Ruhepotenzial wieder her durch Ausströmen lassen von K+-Ionen. Im Modell wird ein einfacher Schwellenmechanismus verwendet, der den Aktivierungswert 1 liefert, wenn das Membranpotenzial den Schwellenwert = 1 überschreitet, andernfalls 0. In dem auf den Spike unmittelbar folgenden Zeitschritt wird das Membranpotenzial auf einen Wert unterhalb des Ruhepotenzials zurückgesetzt, was dem refraktorischen Effekt in realen Neuronen entspricht, vgl. Abbildung 2.10. Um die möglichen zeitlich ausgedehnten Wirkungen eines einzelnen Spikes auf ein postsynaptisches Neuron zu simulieren (auf Grund zeitlich gedehnter Aktivierung der Rezeptoren durch Neurotransmitter und einem verzögerten Schließen der Kanäle), kann die Spike-Aktivität auf mehrere Zyklen ausgedehnt werden. Es wird weiterhin eine über die Zeit gemittelte Version der Feuerrate benötigt, sie wird Ratencode äquivalente Aktivierung genannt, geschrieben y eqj . Sie wird über eine festgelegte Periode von Aktualisierungen (Zyklen) folgendermaßen berechnet: y eqj eq N Spikes N Zyklen (2.14) Dabei ist NSpikes die Zahl der Spikes, die während der Periode gefeuert wurden, NZyklen die Zahl der Zyklen und eq ein Faktor, der den Wert so skaliert, dass er den Wertebereich zwischen 0 und 1, der bei der Ratencode äquivalenten Aktivierung benutzt wird, besser ausfüllt. Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 30 30 30 20 20 10 10 V_m 0 0 Aktivität Ratencode 40 36 32 28 24 20 -30 16 -30 12 -20 8 -20 4 -10 0 -10 Abbildung 2.10 2.5.4. Die Ratencode-Ausgabefunktion Die Ratencode-Ausgabefunktion liefert eine geglättete Aktivierungsdynamik und eine brauchbare Approximation an eine Population von Neuronen. Um sie zu berechnen benötigt man eine Funktion, die aus dem Membranpotenzial die erwartete Feuerrate berechnet. Das Membranpotenzial wird nicht zurückgesetzt, da es keine Spikes gibt, deshalb spiegelt es kontinuierlich das Gleichgewicht der Eingaben in das Neuron wider, wie es in der Aktualisierungsgleichung für das Membranpotenzial definiert ist. Bei der Ausgabefunktion mit diskreten Spikes ist der wichtigste Faktor zur Bestimmung der Feuerrate die Zeit, die das Membranpotenzial benötigt um nach dem Rücksetzen wieder den Schwellenwert zu erreichen, vgl. Abbildung 2.10. Simulationen zeigen, dass diese Zeit ausreichend genau durch eine Funktion vom Typ X-über-X-plus-1 (XX1) wiedergegeben werden kann: yj Vm Vm 1 (2.15) Hierbei ist yj die Aktivierung, der Schwellenwert und ein Gain-Parameter (dient zur Skalierung). Der Ausdruck [x]+ ist gleich x, falls [x]+ > 0, sonst 0, für alle x. Die Gleichung kann auch in folgender Form geschrieben werden: yj 1 1 Vm 1 (2.16) In dieser Formulierung ist die Beziehung zwischen der Funktion und der sigmoidalen Aktivierungsfunktion gut zu erkennen. Gleichung (2.16) ist noch keine sehr gute Näherung an die tatsächlichen diskreten Feuerraten, weil sie kein Rauschen berücksichtigt. Das simulierte Neuron feuert zwar in vollkommen regelmäßigen Intervallen, wie in Abbildung 2.10 dargestellt, aber die genaue Feuerzeit ist sehr empfindlich gegen kleine Schwankungen des Membranpotenzials. Wenn also in einem Netz feuernder Neuronen Rauschen vorkommt, dann tendieren die sich ergebenden Schwankungen des Membranpotenzials dazu, das Rauschen durch das Netz zu propagieren. Der genaue Zeitpunkt des Feuerns erscheint als Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 31 zufällig, trotzdem kann die über eine geeignete Periode gemittelte Feuerrate relativ konstant sein. Das Rauschen kann die Wirkung haben, dass ein Neuron manchmal sogar feuert, wenn sein durchschnittliches Membranpotenzial unterhalb des Schwellenwerts liegt. Die scharfe Schwelle, die in Gleichung (2.15) und (2.16) verwendet wird, müsste also bei Rauschen abgeschwächt werden. Aktivität Für die Wiedergabe des Rauschens wird eine modifizierte Aktivierungsfunktion verwendet, in die die durchschnittliche Wirkung des Rauschens bereits eingebaut ist. Dadurch behält man die deterministischen Einheiten bei, diese reflektieren aber die erwartete Wirkung des Rauschens. Die Durchschnittsbildung über das Rauschen wird durch Überlagerung einer Gauss’schen Rauschfunktion über die XX1-Aktivierungsfunktion von Gleichung (2.16), wie in Abbildung 2.11 dargestellt. Die neue Funktion wird Rauschen-X-über-X-plus-1- oder Rauschen-XX1-Funktion genannt. V_m Abbildung 2.11 Abbildung 2.12 zeigt, dass die Rauschen-XX1-Funktion gut zu der Rate diskreter Spikes in einer Einheit mit verrauschtem Membranpotenzial passt. Deshalb kann man die Rauschen-XX1-Funktion verwenden, um die durchschnittlichen oder erwarteten Effekte eines feuernden Neurons zu simulieren oder um die gemeinsamen Effekte einer Population feuernder Neuronen zu repräsentieren. 1,2 60 1 50 0,8 40 Feuerrate 0,6 30 Rauschen-XX1 0,4 20 0,2 10 0 -0,005 0 -0,0002 0,0046 0,0094 0,0142 Abbildung 2.12 Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition 2.6. Seite 32 Hypothesen testende Analyse eines neuronalen Detektors Die hier benützte Methode der Statistik ist das Testen von Hypothesen. Die Idee ist, dass Hypothesen und einige relevante Daten oder Evidenzen gegeben sind, und man möchte bestimmen, wie gut die Hypothesen durch die Daten unterstützt werden. Genau dasselbe macht der Detektor: die Daten sind die Eingabe und der Detektor evaluiert die Hypothese, ob die Dinge, die der Detektor entdeckt, in der Eingabe vorliegen oder nicht. Zwei Hypothesen sind von besonderer Bedeutung, sie stellen die Randfälle dar: 1. Die Hypothese, dass die zu entdeckenden Dinge wirklich vorhanden sind, bezeichnet mit h; 2. die Nullhypothese, dass die Dinge nicht vorhanden sind, bezeichnet mit h . Es sollen die relativen Wahrscheinlichkeiten dafür, dass diese Hypothesen wahr sind, verglichen und eine Ausgabe erzeugt werden, die wiedergibt, bis zu welchem Grad h gegenüber h bei der aktuellen Eingabe gewinnt. Das kann als bedingte Wahrscheinlichkeit von h bei gegebenen Daten d ausgedrückt werden. Bei der Analyse ergibt sich, dass diese sich mit Hilfe einer Funktion f ausdrücken lässt, die eine Beziehung zwischen h bzw. h und d herstellt: Ph d f h, d f h, d f h d (2.17) Diese Wahrscheinlichkeiten kann man auch als subjektiv auffassen, d.h. als Grad der Überzeugtheit von der Wahrheit einer Hypothese. Oft ist die Bestimmung objektiver Wahrscheinlichkeiten schwierig, und selbst wenn sie erhältlich sind, führt ihre Weiterverwendung häufig zu kombinatorischer Explosion, so dass man doch auf subjektive Wahrscheinlichkeiten angewiesen ist. 2.6.1. Objektive Wahrscheinlichkeiten Die Betrachtung geht vom Beispiel eines Detektors für senkrechte Linien aus, wie er in Abbildung 2.13 dargestellt ist. Eingaben 1/0 1/0 1/0 Abbildung 2.13 Der Detektor erhält (visuelle) Eingaben aus drei Quellen. Ist eine senkrechte Linie, dann werden wahrscheinlich alle drei Eingaben aktiviert. Der Detektor repräsentiert also die Hypothese, dass es eine senkrechte Linie in der Welt gibt, die wahrgenommen wird., sie wird mit h bezeichnet. Es ist also h = 1, falls die Hypothese wahr ist, sonst ist h = 0. Für die Nullhypothese gelten dann die komplementären Werte h = 0 bzw. h = 1. h und h schließen sich gegenseitig aus, die Summe ihrer Wahrscheinlichkeiten ist immer 1. Zur Berechnung der objektiven, häufigkeitsbasierten Wahrscheinlichkeiten benötigt man eine Tabelle aller möglichen Zustände der Welt und ihrer Häufigkeiten. Die für das hier verwendete Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 33 Beispiel des Detektors von Abbildung 2.13 sind die Werte in Tabelle 2.2 angegeben. Jeder Zustand besteht aus einem Wertetupel aus allen Variablen, die in der Beispielwelt vorkommen: die beiden Hypothesen, die drei Eingabevariablen und die Häufigkeit, die angibt, wie oft der Zustand in der Welt vorkommt. Die Häufigkeiten können als einfache Wiedergaben der objektiven Wahrscheinlichkeiten der entsprechenden Ereignisse betrachtet werden. Hat z.B. ein Ereignis die Häufigkeit 3, dann ist seine Wahrscheinlichkeit 3/24 = 0.125. Häufigkeit 3 2 2 2 1 1 1 0 0 1 1 1 2 2 2 3 24 h 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 h 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 1 0 1 0 0 1 1 0 1 0 1 0 0 1 1 0 1 Daten 2 3 0 0 0 0 1 0 0 1 1 0 0 1 1 1 1 1 0 0 0 0 1 0 0 1 1 0 0 1 1 1 1 1 Tabelle 2.2 Aus der Tabelle können nun die Wahrscheinlichkeiten verschiedener Ereignisse berechnet werden. Der einfachste Fall ist die Gesamtwahrscheinlichkeit von h. Die Summe der Häufigkeiten, für die h = 1 ist, ist 12. Daraus ergibt sich P(h) = 12/24 = 0.5. Um die Wahrscheinlichkeit der aktuellen Eingabedaten zu berechnen, muss man für ein Tripel, das ein solches Datum darstellt, die Häufigkeiten seines Vorkommens addieren und daraus die Wahrscheinlichkeit berechnen. Sei z.B. d = 110, die aktuelle Eingabe. In der Tabelle kommt das Datum zweimal vor, einmal mit h = 0 und einmal mit h = 1. die Summe der Häufigkeiten ist 3, also ist P(d) = 3/24 = 0.125. Die Wahrscheinlichkeit einer Konjunktion zweier Ereignisse (kombinierte Wahrscheinlichkeit) lässt sich ebenfalls direkt aus der Tabelle bestimmen. Zum Beispiel ist P(h = 1, d = 110) oder kurz P(h, d) = 2/24 = 0.083. Um das Zutreffen der Hypothese bei Vorliegen eines bestimmten Ereignisses (Evidenz), konkret: der Eingabe bestimmter Daten, auszudrücken, verwendet man bedingte Wahrscheinlichkeiten. Für die Hypothese h und die Evidenz d ist die bedingte Wahrscheinlichkeit definiert durch Ph d Ph, d Pd (2.18) Gleichung (2.18) kann mit Hilfe der bedingten Wahrscheinlichkeit für d bei Vorliegen von h umgerechnet werden. Nach Definition ist Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 34 Pd h Ph, d Ph (2.19) Die Gleichung beschreibt wie wahrscheinlich die Daten bei gegebener Hypothese vorhersagbar sind. Durch Umformen von Gleichung (2.18) kann man nun die umgekehrte bedingte Wahrscheinlichkeit dazu benutzen, die ursprüngliche bedingte Wahrscheinlichkeit zu berechnen. Aus (2.19) erhält man Ph, d Pd hPh (2.20) Eingesetzt in Gleichung (2.18) ergibt sich daraus Ph d Pd h Ph Pd (2.21) Das ist die Bayessche Regel. Ihre wesentliche Aussage ist, dass man die bedingte Wahrscheinlichkeit P(h|d) mit Hilfe der unbedingten Wahrscheinlichkeit P(h) berechnen kann. Unbedingte Wahrscheinlichkeiten werden oft benutzt um einfachere Hypothesen zu bilden. Im hier vorliegenden Kontext sind sie oft Konstanten, die aus den zugrunde liegenden biologischen Sachverhalten zumindest näherungsweise bestimmt werden können. Die unbedingte Wahrscheinlichkeit P(d) in der Bayesschen Regel kann ebenfalls noch ersetzt werden durch Normalisierung. Dazu muss die Nullhypothese h verwendet werden. Da sich h und h gegenseitig ausschließen und zu 1 addieren, kann man die Wahrscheinlichkeit der Daten als Summe der Wahrscheinlichkeiten des Teils, der mit h überlappt, und des Teils, der mit h überlappt, ausdrücken: Pd Ph, d Ph , d (2.22) In Tabelle 2.2 müsste man dazu die Wahrscheinlichkeiten von P(d) in der oberen und in der unteren Hälfte getrennt berechnen und die Werte addieren. Mit Gleichung (2.19) für h und h angewandt erhält man aus (2.22) Pd Pd h Ph P d h P h (2.23) Eingesetzt in die Bayessche Regel ergibt dies Ph d Pd h Ph Pd h Ph P d h P h (2.24) Das ist genau die Gleichung (2.17) mit f h, d Pd hPh . Sie spiegelt das Gleichgewicht der Wahrscheinlichkeiten für die Hypothese und gegen sie wider und entspricht den biologischen Eigenschaften des Neurons. 2.6.2. Subjektive Wahrscheinlichkeiten Durch die Verwendung der Umkehrung der bedingten Wahrscheinlichkeit (Wahrscheinlichkeit von d bei gegebener Hypothese h) kann man die Wahrscheinlichkeit direkt aus den Eingabedaten und Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 35 der Spezifikation der Hypothese berechnen. Man macht dabei Annahmen über die Beschaffenheit der Hypothese und ihrer Beziehung zu den Daten und berechnet dann die Wahrscheinlichkeit der Daten. Die Annahmen können nicht validiert werden, das würde die vollständige Wahrscheinlichkeitsverteilung erfordern, deshalb muss stattdessen die Plausibilität der Annahmen und ihrer Beziehung zu den Hypothesen geschätzt werden. Eine plausible Annahme ist, dass ein Detektor direkt (linear) proportional zur Zahl der Eingaben ist, die das matchen, was der Detektor zu entdecken versucht. Es wird also eine Menge von Parametern dazu benutzt festzustellen, in welchem Grad jede Eingabequelle für die Hypothese repräsentativ ist, dass etwas Interessantes vorliegt. Diese Parameter sind die üblichen Gewichtsparameter w. Zusammen mit der Annahme linearer Proportionalität erhält man so die normierte gewichtete Eingabe als Wahrscheinlichkeit der Daten: Pd h 1 d i wi z i (2.25) di ist der Wert der i-ten Eingabe, er ist 1, falls die Quelle etwas entdeckt hat, sonst 0. Durch den Normierungsfaktor 1/z wird daraus ein Wahrscheinlichkeitswert zwischen 0 und 1. Die Gleichung kann man so interpretieren, dass Eingabemuster d wahrscheinlicher werden, wenn Aktivität an Eingabequellen di vorhanden ist, von denen man annimmt, dass sie etwas von Interesse in der Welt wiedergeben, parametrisiert durch die Gewichte wi. Ist wi = 1, dann ist die Eingabe relevant ist wi = 0, spielt sie keine Rolle. Die sich ergebende Gesamtwahrscheinlichkeit ist die normierte Summe aller Beiträge aus den Quellen, d.h. Interaktionen zwischen den Eingaben spielen keine Rolle. Mit dieser Definition der bedingten Wahrscheinlichkeit P(d|h) kann man nun mittels der Bayesschen Regel die Wahrscheinlichkeit der Hypothese bei gegebenen Daten berechnen. In Gleichung (2.25) werden Wahrscheinlichkeiten definiert, nicht berechnet, deshalb sind diese Wahrscheinlichkeiten subjektiv. Sie entsprechen nicht mehr Häufigkeiten von objektiv gemessenen Ereignissen in der Welt. Durch ihre Verwendungsweise im Zusammenhang mit der Bayesschen Regel werden sie aber auf die am rationalsten möglichen Art und Weise behandelt. Die objektive Welt, die durch Tabelle 2.2 definiert ist, entspricht der Definition der Wahrscheinlichkeit in Gleichung (2.25), denn die Häufigkeit jedes Eingabezustands, wenn die Hypothese zutrifft, ist proportional zur Zahl der aktiven Eingaben in diesem Zustand, und das drückt die Definition (2.25) aus. Die Gleichung für die Wahrscheinlichkeit in der objektiven Welt ist Pd h 1 xi wi 12 i (2.26) wobei die Gewichte aller drei Eingabequellen als 1 angenommen werden, vgl. Abbildung 2.14. Eingaben Gewichte 1/0 1 Integration 1/0 1 12 1 1/0 Abbildung 2.14 Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 36 Um die Bayessche Regel in der Form der Gleichung (2.24) verwenden zu können, benötigt man die Wahrscheinlichkeit der Nullhypothese h . Die Nullwahrscheinlichkeit P(d| h ) dient als Gegengewicht zur Stärke der Wahrscheinlichkeit P(d|h) um eine vernünftige Gesamtwahrscheinlichkeit zu gewährleisten. Eine mögliche Definition der Nullwahrscheinlichkeit ist, dass sie linear proportional zu der Zahl der Eingaben, die aktiv sein sollten, es aber nicht sind. Diese Definition entspricht der Zustandstabelle: Pdh 1 1 xi wi 12 i (2.27) Setzt man die so bestimmten Wahrscheinlichkeiten sowie P(h) = P( h ) = 0.5 in Gleichung (2.24) ein, dann erhält man Ph d Pd h Ph Pd h Ph P d h P h 0.5 12 0.5 12 xw i i i xw . 1 x w i i 05 12 i i i i xw x w 1 x w i i i i i i i i (2.28) i 2.6.3. Die Ähnlichkeit von Vm und P(h|d) Die Gleichung für das Gleichgewichts-Membranpotenzial (2.5) und der Wert von P(h|d) nach Gleichung (2.24) werden nun miteinander verglichen. Gleichung (2.5) war Vm g e g e E e g i g i Ei g l g l El ge ge gi gi gl gl (2.5) Die Idee dabei ist, dass die exzitatorische Eingabe die Rolle der Wahrscheinlichkeit oder der Unterstützung für die Hypothese spielt, während die inhibitorische Eingabe und der Leckstrom zusammen die Rolle der Unterstützung für die Nullhypothese spielen. Um die beiden Gleichungen vergleichbar zu machen, werden die Werte für das Membranpotenzial auf das Intervall [0, 1] normiert. Das heißt, exzitatorische Eingaben bringen das Potenzial auf 1 (Ee = 1), inhibitorische auf 0 (Ei = El = 0). Die Idee dabei ist, dass vollständige Unterstützung für die Hypothese, d.h. wenn nur Erregung vorliegt, die Wahrscheinlichkeit 1 ergeben sollte und völliges Fehlen von Unterstützung, d.h. wenn nur Hemmung vorliegt, die Wahrscheinlichkeit 0. Setzt man diese Werte in Gleichung (2.5) ein und fasst man außerdem Leckstrom und Inhibition zusammen, dann erhält man folgende Beziehungen: Vm Ph d Pd h Ph ge ge ge ge gi gi Pd h Ph P d h Ph (2.29) Die Gleichungen sind identisch, wenn man die folgenden Annahmen macht: 1. Die Erregung kann mit der Hypothese, dass das Neuron etwas entdeckt, gleichgesetzt werden und die Hemmung mit der Nullhypothese. 2. Der Bruchteil der offenen Kanäle liefert die entsprechenden bedingten Wahrscheinlichkeiten, nämlich ge P(d|h) für die Erregung und gi P(d| h ) für die Hemmung. Das entspricht der Berechnung der Wahrscheinlichkeit als Funktion der sendenden Aktivitäten mal den Gewichten. 3. Die Basisströme g e und g i repräsentieren die unbedingten Wahrscheinlichkeiten P(h) und P( h ). Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 37 Die vollständige Gleichung für Vm mit dem Leckstrom gibt den Fall wieder, dass zwei verschiedene, voneinander unabhängige Nullhypothesen vorliegen, die die Hemmung und den Leckstrom repräsentieren. Sie haben auch unterschiedliches Verhalten, die Hemmung verändert sich dynamisch, abhängig von der Aktivität anderer Einheiten im Netz, während der Leckstrom konstant ist. 2.7. Selbstregulierung: Erschlaffung und Hysterese Neuronen führen nicht nur einfache Schwellenfunktionen aus, ihr Verhalten, d.h. ihre Ausgabe auf bestimmte Eingaben bei einer Folge von Eingaben kann auch durch eine Aktivierungsgeschichte gesteuert sein. Dieser Zusammenhang kann als eine Art Selbstregulierung des Neurons betrachtet werden. Teilweise wird sie in den hier verwendeten Modellen eine Rolle spielen, teilweise wird sie aus Gründen der Einfachheit weggelassen. Eine der wichtigsten Ursachen für die selbstregulierende Dynamik sind die spannungs- und Calcium-gesperrten Kanäle. Diese Kanäle öffnen und schließen sich in Abhängigkeit von der momentanen Aktivität (spannungsgesperrt) oder von gemittelten früheren Aktivitäten. Die zugrunde liegenden biologischen Mechanismen werden zu zwei Kategorien selbstregulierender Effekte zusammengefasst: Erschlaffung und Hysterese. Der Begriff Erschlaffung bezeichnet irgendeinen Eingabestrom (typischerweise einen K+-Kanal), der meist durch ansteigende Calciumkonzentrationen geöffnet wird und eine Hemmung des Neurons zur Folge hat. Auch der länger wirksame, durch GABA-B bewirkte inhibitorische synaptische Kanal kann bei der Anpassung eine Rolle spielen. Ein Neuron, das eine Zeitlang aktiv war, erschlafft oder ermüdet und wird immer weniger aktiv bei derselben Größe der exzitatorischen Eingabe. Im Gegensatz dazu bezeichnet Hysterese exzitatorische Ströme (bewirkt durch Na+- oder Ca++-Ionen), die typischerweise durch erhöhte Membranpotenziale geöffnet werden und dafür sorgen, dass das Neuron eine Zeitlang aktiv bleibt, selbst wenn sich die exzitatorische Eingabe abschwächt oder verschwindet. Das Gegeneinander der beiden Kräfte Erschlaffung und Hysterese bewirkt aber nicht, dass sie sich gegenseitig aufheben, vielmehr wirken sie unterschiedlich lang. Die Hysterese, die auf dem Membranpotenzial beruht, ist eine kürzere Zeit wirksam, während die Erschlaffung, die auf Calciumkonzentrationen beruht, längere Zeit wirksam ist. Einige Hysterese-typische Kanäle werden sogar durch ansteigende Calciumkonzentrationen geschlossen. 2.7.1. Implementierung von Erschlaffung und Hysterese Bei der Implementierung werden einige Vereinfachungen gemacht. Für beide Effekte, Erschlaffung und Hysterese werden dieselben elementaren Gleichungen verwendet, die Unterschiede zwischen beiden ergeben sich aus den Parametern. Die Verzögerungseffekte für beide werden durch eine Basisvariable b wiedergegeben, die das graduelle Nachlassen des Aktivierungsdrucks für die relevanten Kanäle repräsentiert. Die aktuelle Aktivierung eines der Kanäle ist also eine Funktion von b. Übersteigt b einen Aktivierungsschwellenwert a, dann steigt die Leitfähigkeit des Kanals mit einer spezifischen Zeitkonstanten dtg an. Fällt b unter einen Deaktivierungsschwellenwert d, dann fällt die Leitfähigkeit wieder ab mit derselben Zeitkonstanten. Die Erschlaffungs-Leitfähigkeit ga(t) mit der Basisvariablen ba(t) wird durch die folgende Funktion berechnet: g a t 1 dt g a 1 g a t 1 falls ba t a g a t g a t 1 dt g a 0 g a t 1 falls ba t a (2.30) ga(t) wird dann in einer Diffusions-korrigierten Stromgleichung verwendet: Technische Universität Chemnitz Wintersemester 2006/07 Neurokognition Seite 38 I a t g a t g a Vm t Ea (2.31) die dann zu den anderen Standardleitfähigkeiten (Erregung, Hemmung, Leckstrom) addiert wird und den Nettostrom ergibt. Die Erschlaffung hat eine hemmende Wirkung, weil Ea auf den Wert des Ruhepotenzials gesetzt wird. Zum Schluss wird noch die Basisvariable abhängig vom Aktivierungsgrad des Neurons aktualisiert: ba t ba t 1 dt ba y j t ba t 1 (2.32) Dabei ist yj(t) der Aktivierungsgrad des Neurons. Der Wert der Basisvariablen ist also der Durchschnitt des Aktivierungsgrads über die Zeit mit der Zeitkonstanten dt ba . Die Hysterese wird in derselben Weise berechnet, nur dass die Zeitvariable einen größeren Wert hat (ein typischer Wert ist dt bh 0.05 , verglichen mit dt ba 0.01 ) und das Umkehrungspotenzial Eh exzitatorisch ist. Technische Universität Chemnitz Wintersemester 2006/07