Dynamik Neuronaler Netze Ausarbeitung von Ercan Elitok nach „Theoretical Neuroscience” von Peter Dayan, L. F. Abbott, p. 260273 Inhalt Dynamik Neuronaler Netze........................................................................................................ 1 Netzwerkstabilität ................................................................................................................... 2 Assoziatives Gedächtnis/Speicher......................................................................................... 3 Exzitatorisch-Inhibitorische Netzwerke .................................................................................. 7 Homogene Exzitatorische ond Inhibitorische Populationen .............................................. 8 Der Bulbus olfaktorius ...................................................................................................... 11 Oszillatorische Verstärkung ............................................................................................. 14 Legende τ s = Zeitkonstante bis Erreichen des stationären Zustands des Neurons S, v = F ( I s ) = Netzwerkfeuerrate, mit I s als Vektor des gesamten synaptischen Stroms des Neurons S, u = Inputvektor, v = Outputvektor, h = gesamter vorwärts gekoppelter Input, w = Inputgewichtsvektor, W = Gewichtsmatrix des Inputs, M = Gewichtsmatrix des Outputs bzw. der Rückwärtskopplung, t = Zeit. Zusammenfassung Die Dynamik neuronaler Netze kann mit unterschiedlichen Techniken analysiert werden. Mit der Theorie der Lyapunovfunktionen kann untersucht werden, ob ein Netzwerk Fixpunktverhalten zeigt. Hierbei wird deutlich, dass die Gewichtsmatrizen eines neuronalen Netzwerks Stabilitätskriterien erfüllen müssen, die sich von eine r Lyapunovfunktion ableiten. Am Beispiel eines assoziativen Speichernetzwerks wird deutlich, dass zur Herleitung eines Modells die Eigenschaften der zugehörigen symmetrischen Gewichtsmatrix wesentlich durch die zu bewerkstelligenden Aufgaben des Netzwerks bestimmt sind. Das Netzwerkmodell muss zum Auslesen bestimmter Muster passende Fixpunkte besitzen. Modelle exzitatorischinhibitorischer Neuronenpopulationen, die eine asymmetrische Gewichtsmatrix besitzen zeigen neben einem Fixpunktverhalten auch oszillierende Aktivität. Die Beurteilung, ob es sich um stabile bzw. instabile Fixpunkte oder um oszillatorisches Netzwerkverhalten handelt kann mittels Phasenebenen- und Stabilitätsanalyse untersucht werden. Hierbei sind die (komplexen) Eigenwerte der Gewichtsmatrix die entscheidenden Kriterien für die Analyse. Ein Beispiel für ein exzitatorischinhibitorisches Modell stellt die Simulation des Bulbus olfaktorius dar. Hier können Modell- und biologische Daten miteinander verglichen werden. Ein Beispiel für oszillierende Aktivität eines exzitatorich-inhibitorischen Netzwerkmodells findet sich bei auf bestimmten Input spezialisierten Neuronenpopulationen, deren Aktivität durch abgestimmten Input selektiv verstärkt werden kann. 1 Netzwerkstabilität Wenn ein Netzwerk bei einem konsta nten Input zu einem stationären Zustand übergeht mit dv/dt=0, dann spricht man davon, dass das Netzwerk ein FixpunktVerhalten (fixed-point behavior) zeigt. Dies ist zwar nicht die einzige Form einer Langzeitaktivität, die ein Netzwerkmodel annehmen kann, aber beim Vorliegen bestimmter Bedingungen erreicht ein Netzwerk als Antwort auf einen konstanten Input unausweichlich einen Fixpunkt. Die Theorie der Lyapunovfunktionen kann dazu benutzt werden um dieses Netzwerkverhalten nachzuweisen was im Folgenden einführend informal beschrieben wird. Zur Diskussion der Lyapunovfuktionen betrachten wir zunächst die Dynamik der Feuerrate τs dI s = − I s + w ⋅ u , mit v = F ( I s ) , dt (1) In einem Netzwerkmodell stellt v = F (I ) den Vektor der Feuerrate dar, mit F ' ( I ) > 0, ∀ I . I befolgt die Dynamik der Formel dI τs = − I + h + M ⋅ F (I ) , dt (2) die die verallgemeinerte Form der Gleichung 1 für ein Netzwerkmodell darstellt. Die Gleichung 2 kann auch dafür verwendet werden um das Feuerratenmodell von rückwärtsgekoppelten Netzwerken darzustellen. Cohen und Grossberg (1983) haben für diese Form des Feuerratenmodells (Gleichung 2 mit einer symmetrischen rückwärtsgekoppelten Gewichtsmatrix M ) gezeigt, dass durch N Ia 1 v L( I ) = ∑ ∫ dz a z a F ' ( z a ) − ha F ( I a ) − ∑ F ( I a ) M aa' F ( I a ' ) 2 a '=1 a =1 0 Nv eine Lyapunovfunktion gegeben ist. Um das nachzuvollziehen setze man die dL Ableitung der Gleichung 3 in die Gleichung 2 ein. Dies ergibt: dt 2 dL( I ) 1 Nv dI a = − ∑ F ' ( I a ) dt τ s a=1 dt (3) (4) Es gilt: dL / dt < 0 solange dI / dt ≠ 0 und F ' > 0. Ferner ist L ist nach unten beschränkt und kann somit nicht beliebig kleiner werden. Daher muss I = h + M ⋅ v zu einem Fixpunkt konvergieren. Hieraus folgt, dass v = F (I ) ebenfalls zu einem Fixpunkt konvergieren muss. Wir haben hierfür vorausgesetzt, dass F ' ( I ) > 0 , ∀I . Jedoch können wir zeigen, dass die oben gezeigte Lyapunovf unktion ebenfalls gültig ist für den Fall der Rektifizierung der Aktivierungsfunktion F ( I ) = [I ]+ , mit [I ]+ = max{ 0, I } . Weiterhin ist es notwendig zu zeigen, dass die Lyapunovfunktion eine untere Schranke hat. Eine Möglichkeit wäre eine sättigende Aktivierungsfunktion F zu benutzen, die bei 2 I → ∞ eine Schranke F * = lim F ( I ) hat und eine zweite Möglichkeit wäre die I→∞ Gewichtsmatrix so zu wählen, dass ihre Eigenwerte genügend klein sind. Assoziativer Speicher Die Netzwerkmodelle für Gedächtnis, die mittels anhaltender Aktivität Informationen speichern werden Arbeits- bzw. Kurzzeit-Gedächtnis gena nnt. In biologischen Systemen scheint es so zu sein, dass die anhaltende Aktivität dazu dient Informationen über einen Zeitraum von Sekunden bis Minuten zu speichern. Die Informationsspeicherung im Langzeitgedächtnis, d.h. Speicherung über einen Zeitraum von Stunden bis Jahren, scheint mehr über die Stärke der synaptischen Verbindung als über anhaltende Aktivität zu erfolgen. Eine allgemeine Idee ist die synaptische Gewicht in einem rückwärtsgekoppelten Netzwerk beim Speichervorgang eines Gedächtnisinhaltes so zu setzen, dass das Netzwerk zu einem späteren Zeitpunkt von sich heraus das Aktivitätsmuster des Speicherinhaltes wiederherstellen kann. In solchen Netzwerken wird die persistente Aktivität sowohl zur Signalisierung des Speicheraufrufs als auch zum Anzeigen der Identität des aufgerufenen Speicherinhaltes benutzt und nicht für die Langzeitspeicherung der möglichen Speichermuster. Das Aktivitätsmuster der Netzwerkneuronen bestimmt zu Beginn des Speicheraufrufs welcher Informationsinhalt aufgerufen wird und zwar vermittelt durch die Beziehung bzw. Assoziation des Aktivitätsmusters mit dem Muster des Speicherinhalts. Diese assoziativen Netzwerke wurden benutzt, um Gehirnregionen von Säugern mit unterschiedlichen Gedächtnisformen einschließlich der Area CA3 des Hippokampus und des präfrontalen Kortex zu modellieren. In einem assoziativen, genauer autoassoziativen Speicher, wird ein Teil oder eine annähernd gleiche Repräsentation eines gespeicherten Elements dazu benutzt um das ganze Element abzurufen. Anders als bei einem Computer basiert in einem assoziativen Gedächtnis der Speicherabruf mehr auf dem Inhalt als auf der Adresse der Speicherstelle. Beispielsweise würde in einem Netzwerkmodell eines assoziativen Speichers eine komplette Telefonnummer dadurch aufgerufen, dass anfänglich nur einige Ziffern der Nummer als Anhaltspunkt angegeben werden. In solchen Netzwerken sind die rückwärtsgekoppelten synaptischen Gewichte so eingestellt, dass das Netzwerk ein Menge von diskreten Fixpunkten hat, die (fast) identisch mit dem Speicherinhaltrepräsentierenden Aktivitätsmuster sind. In vielen Fällen wird die Dynamik des Netzwerks durch die Lyapunovfunktion (Gleichung 2) bestimmt, vorausgesetzt Fixpunkte existieren. Um nicht unnötig viele Informationen zu speichern, entsprechen die Fixpunkte genau oder zumindest annähernd genau dem Muster der Informationen. Während eines Speicheraufrufs wird in einem assoziativen Gedächtnisnetzwerk die Mustererkennung derart berechnet, dass die Fixpunkte gefunden werden die dem Anfangszustand des Netzwerkes am ähnlichsten sind. Jedes Speichermuster hat einen Einzugsbereich (basin of attraction), welcher durch die Menge der anfänglichen Aktivitätsmuster, die zu dem jeweiligen Fixpunkt konvergieren, definiert ist. Dieser Einzugsbereich bestimmt die Ausleseeigenschaften des Netzwerks. 3 Assoziative Gedächtnisnetzwerke könne durch Neuronen hergestellt werden, deren Aktivität entweder mit stetigen oder mit binären (on/off) Werten charakterisiert wird. Wir betrachten ein Netzwerk mit Neuronen stetiger Aktivitätswerte welches durch τr dv s = −v + F ( h + M ⋅ v) mit h = 0 , ( h = W ⋅ u) dt (5) beschrieben wird. Um dieses Modell für die Informationsspeicherung nutzen zu können, definieren wir eine Mustermenge mit der Bezeichnung v m , ( m = 1,2,..., N mem ), der sowohl für die Speicherung als auch für den Speicheraufruf genutzt wird. Hierbei stellt v m den Vektor mit der Nummer m dar. Ein assoziativer Speicheraufruf erfolgt indem das Netzwerk in einem Anfangszustand gestartet wird, der einem der Informationsmuster ähnlich ist. D.h. v (0) ≈ v m für ein m, wobei das „ ≈" bedeutet, dass der Startwert v (0) in der Nähe von v m liegt. Das Netzwerk verhält sich entsprechend der Gleichung 5. Wenn der Datenaufruf erfolgreich ist, dann konve rgiert die Dynamik des Netzwerks zu einem Fixpunkt, der dem Informationsmuster gleich oder zumindest bedeutend ähnlicher als der Anfangsstatus v (0) ist, d.h. v (t ) → v m für große t . Ein Datenaufruf misslingt entweder wenn der erreichte Fixpunkt v m nicht gleicht oder ein Fixpunkt erst gar nicht erreicht wird. Für einen genauen Datenaufruf ist es notwendig, dass v m ein Fixpunkt der Netzwerkdynamik ist bzw. v m = F (M ⋅ v m ) (6) erfüllt. Die Kapazität eines Netzwerkes ist beispielsweise durch die Anzahl verschiedener Vektoren bestimmt, die bei geeigneter Wahl von M gleichzeitig Gleichung 6 erfüllen. Bei großen N v (= Anzahl Neuronen im Netzwerk) ist die Netzwerkkapazität typischerweise proportional zu N v . Neben der Kapazität des Netzwerks ist auch die Anzahl der Fixpunkte für die Leistungsfähigkeit eines assoziativen Speichernetzwerks von Bedeutung. Die Leistungsfähigkeit des Netzwerks wird durch Fixpunkte, die nicht durch Speichermuster entstanden sind, herabgesetzt. Für effiziente Musterabgleichung ist für jeden der Fixpunkte ein geeignet große r Einzugsbereich notwendig. Im Folgenden gehen wir von Neuronen im Netzwerk aus, die sich binär verhalten (aktiv/inaktiv) obwohl sie stetige Werte des Aktivitätszustandes liefern könnten. Inaktive Neuronen entsprechen Nullen und aktive Neuronen einer Konstanten c in den Komponenten von v m . Zur Vereinfachung nehmen wir an, dass das Muster genau α N v aktive und (1 − α ) N v inaktive Neuronen besitzt. Die Auswahl der aktiven Neuronen ist zufällig und unabhängig von anderen Mustern. Hierbei stellt α die Spärlichkeit (sparseness) dar. Je kleiner α ist, desto spärlicher sind die Muster. Hierdurch können zwar mehr Muster gespeichert werden, jedoch nur auf Kosten eines geringeren Informationsgehaltes pro Muster. Um ein assoziatives Speichernetzwerk herzustellen konstruieren wir eine Matrix so, dass die Informationsmuster die Gleichung 6 erfüllen. Zunächst gehen wir davon aus 4 eine Matrix K zu kennen, für die alle Muster degenerierte Eigenvektoren mit dem Eigenwert λ darstellen, K ⋅ v m = λv m , ∀m . (7) Danach betrachte n wir die Matrix M =K− nn 1 oder M aa ' = K aa' − αN v αN v (8) Hierbei ist n = (1,1,...,1) der 1-Vektor mit N v Einsen. Der Term nn stellt die gleichförmige Inhibition zwischen Netzwerkneuronen dar. M erfüllt für jedes Informationsmuster v m die M ⋅ v m = λv m − cn . (9) Die rechte Seite des Terms folgt aus der Tatsache, dass n ⋅ v m = cαN v ist. Bearbeitet man die Gleichung 6 komponentenweise für diese Matrix, so bilden sich zwei Bedingungen: die erste für die Komponenten i mit v im = 0 die Null und die andere für die Komponenten i von v im = c sind, F ( −c ) = 0 und c = F (c (λ − 1)) . (10) Es ist vergleichsweise einfach Bedingungen zu finden, für die diese Gleichungen eine Lösung haben. Für positive c ist die erste Bedingung, mit einer rektifizierende Aktivierungsfunktion F ( I ) = 0 , mit I ≤ 0 , automatisch erfüllt. Für alle F ' ( I ) = 0 , mit positiven I wird die zweite Gleichung (von Gleichung 10) erfüllt und die Gleichung 5 würde für c > 0 einen stabilen Fixpunkt als Lösung haben, wenn beispielsweise λ > 1, ( λ − 1) F ' (0) > 1 und F ( c( λ − 1)) langsamer wachsen als c (für große c ). Das Problem ein assoziatives Speichernetzwerk zu konstruieren besteht darin, die Matrix K aus Gleichung 7 oder zumindest eine mit ähnlichen Eigenschaften zu finden. Sehen wir voraus, dass die Neuronen mit Wahrscheinlichkeit α aktiv sind, d.h. deren Ausgabewert auf c gesetzt ist, so ist die Wahrscheinlichkeit, dass dasselbe Neuron in zwei verschiedenen Informationsmuster n und m aktiv ist gleich α 2 . Daraus folgt, dass v n ⋅ v m ≈ α 2 c 2 N v , für n ≠ m. Würde einem der beiden Informationsmuster entsprechender Vektor v m mit dem Vektor v n − αcn mittels Skalarprodukt multipliziert, so wäre für m = n ( v n − α cn) ⋅ v m = c 2αN v (1 − α ) und für m ≠ n wäre ( v n − αcn ) ⋅ v m ≈ c 2α N v (α 2 − α 2 ) = 0 . Hieraus folgt, dass die Matrix K= Nmem λ v n (v n − αcn) ∑ 2 c αN v (1 − α ) n=1 (11) ähnliche Eigenschaften hat wie die Matrix in Gleichung 7, d.h. K ⋅ v m ≈ λv m , ∀m . 5 Erinnern wir uns noch einmal daran, dass die Lyapunovfunktion in Gleichung 3 nur dann zusichert, dass das Netzwerk Fixpunkte hat, wenn es eine untere Schranke hat und die Matrix M symmetrisch ist. Die Beschränkung der Lyapunovfunktion kann durch Sättigung der Aktivierungsfunktion erreicht werden. Die rückwärtsgekoppelte Gewichtsmatrix K , die man durch das Einsetzen des Ausdrucks aus Gleichung 11 in Gleichung 8 erhält, scheint nicht symmetrisch zu sein. Eine Form des Ausdrucks kann hergestellt werden, in dem man M i, j = Nmem λ nn (vin − αcn)( v nj − αcn ) − ∑ 2 c αN v (1 − α ) n=1 αN v (12) verwendet. Durch das Hinzufügen dieser zusätzlichen Terme in den Summenausdruck (über die Muster) sind die Bedingungen aus Gleichung 10, die für die Nutzung von Gleichung 12 erfüllt sein müssen, verändert zu F ( −c (1 + αλ )) = 0 und c = F (c (λ − 1 − αλ)) . (13) Eine Möglichkeit die rückwärtsgekoppelte Gewichtsmatrix in Gleichung 12 zu betrachten ist die vom Standpunkt einer Lernregel, die dazu benutzt wurde um die Matrix herzustellen. Bei dieser Lernregel wird zur Verbindung zweier Neuronen ein exzitatorischer Beitrag immer dann hinzugefügt, we nn beide Neuronen bei einem bestimmten Informationsmuster entweder aktiv oder inaktiv sind. Ein inhibitorischer Ausdruck wird hinzugefügt, wenn ein Neuron aktiv und die andere inaktiv ist. Die mit Gleichung 12 verbundene Lernregel wird wegen ihrer Beziehung zu der Kovarianzmatrix der Informationsmuster als Kovarianzregel bezeichnet. Abbildung 1: Aufruf eines Informationsmusters in einem assoziativen Speichernetzwerkmodell mit 50 Neuronen. (A) zeigt die Feurungsraten zweier repräsentativer Neuronen (oben Neuronaktivität einer nicht-null- und unten Neuronaktivität einer null-Komponente des Informationsmusters). (B) und (C) zeigen die Feurerungsraten aller 50 Neuronen, wobei die Dicke der Striche proportional zur Feuerrate ist. In beiden Fällen konvergiert die Aktivität nach anfänglich zufälliger Aktivität der Netzwerkneuronen zu dem jeweiligen Muster in (B) und C. Die Endmuster ähneln jeweils dem gespeicherten Informationsmuster. Das Modell benutzt die Matrix aus Gleichung 12 mit α = 0.25, λ = 1.25 und F ( I ) = 150 Hz [tanh(( I + 20 Hz / 150Hz )) ]+ . 6 Die Abbildung 1 zeigt ein assoziatives Speichernetzwerk mit 50 = N v Neuronen unter der Verwendung der Matrix aus Gleichung 12, das vier Muster speichert. Zwei dieser Muster sind zufällig und um sie in der Abbildung leichter zu finden sind die beiden anderen Muster sind nicht zufällig generiert. Ihr Aufruf ist in der Abbildung 1B und 1C gezeigt. Von einem anfänglichen Muster der Aktivität gleicht es nur undeutlich einem der gespeicherten Muster. Das Netzwerk erreicht einen Fixpunkt, der der bestmöglichen Angleichung zu dem gespeicherten Informationsmuster sehr nahe kommt. Wendet man die gleiche Prozedur auf die beiden anderen vom Netzwerk gespeicherten Informationsmuster, so sind sie schwerer in der Abbildung zu erkennen. Die Matrix M von Gleichung 12, die wir als Basis für die Herleitung eines assoziativen Speichernetzwerks benutzt haben, erfüllt die Bedingungen für genaue Speicherung und das Auslesen von Informationsmustern nur annäherungsweise. Diese Matrix führt einige Fehler in den Datenaufruf ein. Mit steigender Anzahl der zu speichernden Muster verschlechtert sich die Approximation sowie die Leistungsfähigkeit des assoziativen Speichers und senkt die Anzahl der Informationen, die gespeichert werden können. Die einfache Beschreibung der Kovarianz der Gewichte in Gleichung 12 ist weit vom Optimum entfernt. Andere Vorschriften zur Erstellung von M können bedeutend höhere Speicherkapazitäten ermöglichen. Die Essenz der Untersuchung von assoziativen Gedächtnis Netzwerken ist, dass große Netzwerke große Anzahl von Mustern speichern können insbesondere wenn sie spärlich sind ( α klein ist) und beim Auslesen einige Fehler toleriert werden können. Die Kapazität von bestimmten assoziativen Speichernetzwerken kann analytisch berechnet werden. Die Anzahl der Informationsmuster, die gespeichert werden können ist in der Größenordnung, wenngleich typischerweise kleiner als der Neuronenanzahl in dem Netzwerk N v sowie abhängig von der Spärlichkeit (sparseness) α . Die Menge der Information, die gespeichert werden kann ist proportional zu N v2 , was annähernd der Anzahl der im Netzwerk befindlichen Synapsen entspricht, wobei die gespeicherte Information je Synapse, d.h. die Proportionalitätskonstante, typischerweise relativ klein ist. Exzitatorisch-Inhibitorische Netzwerke In diesem Abschnitt werden Modelle besprochen, in denen exzitatorische und inhibitorische Neurone voneinander getrennt durch die dv τ E E = −v E + FE (hE + M EE ⋅ v E + M EI ⋅ v I ) und (14) dt dv τ I I = −v I + FI ( hI + M II ⋅ v I + M IE ⋅ v E ) (15) dt beschrieben werden. Diese Modelle sind dynamischer als die Einzelpopulationsmodelle mit symmetrisch gekoppelten Matrizen. In Modellen mit exzitatorisch-inhibitorischen Subpopulationen sind die synaptischen Gewichtsmatrizen nicht symmetrisch, wodurch im Netzwerk Oszillationen entstehen können. Wir analysieren nun ein Modell mit gleichförmig exzitatorisch-inhibitorischen Populationen. Wir betrachten Methoden, die feststellen ob das Modell eine konstante oder oszillierende Aktivität hervorbringt. Danach werden zwei Modelle besprochen, in 7 denen Oszillationen entstehen. Das erste ist ein Modell des Bulbus olfaktorius und das zweite zeigt eine selektive Verstärkung in einem oszillierenden Modus. Homogene Exzitatorische und Inhibitorische Populationen Um die Dynamik in einem exzitatorisch-inhibitorischen Netzwerk zu veranschaulichen analysieren wir ein einfaches Modell in welchem alle exzitatorischen Neurone durch eine einzelne Feuerrate v E und die inhibitorischen mit einer zweiten Feuerrate v I beschrieben werden. Obwohl wir uns dieses Modell als eine Interaktion zwischen Neuronenpopulationen vorstellen, ist es so aufgebaut als ob es sich um nur zwei Neurone handelt. Die Gleichung 14 und 15, zusammen mit den überschwelligen linearen Antwortfunktionen, beschreiben diese zwei Feuerraten mit τE dv E = −v E + [M EE v E + M EI v I − γ E ]+ und dt (16) τI dv I = −v I + [M II v I + M IE v I − γ I ]+ . dt (17) In diesem Modell sind die synaptische n Gewichte M EE , M IE , M EI und M II als Zahlen und nicht als Matrizen zu verstehen. In diesem Beispiel seien M EE = 1.25, M IE = 1, M EI = −1, M II = 0, γ E = −10Hz, γ I = 10Hz, τ E = 10 ms und τ I wird variiert. Der negative Wert von γ E bedeutet hier nur, dass sie eine konstante Hintergrundaktivität darstellt und keinen Schwellenwert. Phase-Plane Methoden und Stabilitätsanalyse Das durch die Gleichung 16 und 17 dargestellte Modell der Interaktion von exzitatorisch und inhibitorischen Populationen bietet sich die Gelegenheit einige Techniken, die zur Untersuchung der Dynamik der nichtlinearen Systeme nötig sind zu veranschaulichen. Dieses Modell weist in Abhängigkeit von den Werten der Parameter sowohl Fixpunkt- (konstantes v E und vI ) als auch oszillierende Aktivität auf. Stabilitätsanalyse dient dazu um herauszufinden welche Parameterwerte zu einem Übergang zwischen den beiden Formen der Aktivität führt. Die Feuerraten v E (t ) und v I (t ) aus den Gleichungen 16 und 17 können als eine Funktion der Zeit dargestellt werden, wie sie in Abbildung 3A und 4A zu sehen sind . Eine andere nützliche Darstellung ist die paarweise Darstellung von v E (t ) und v I (t ) für ein Definitionsbereich von t -Werte n ( Abbildung 3B und 4B). Mit Änderung der Feuerrate zeichnet sich eine Kurve bzw. Trajektorie in der v E - v I -Ebene ab, die als die Phasenebene („phase plane“) des Modells bezeichnet wird. Die grafische Darstellung von Phasenebenen gibt ein geometrisches Abbild der Dynamik eines Modells wieder. Von besonderem Interesse in der Phasenebenenanalyse sind die Werte für v E und vI , für die die rechte Seite der Gleichungen 16 und 17 Null wird. Eine Reihe von dv E dv I Werten für v E und vI (für die gilt = 0 und = 0 ), bilden zwei Linien in der dt dt Phasenebene die als Nullkline bezeichnet werden. Die Nullklinen der Gleichungen 16 und 17 sind die geraden Linien in der Abbildung 2A. Die Nullklinen sind wichtig, weil 8 sie die Phasenebene in Gebiete einteilen mit gegensätzlichen Flussmustern. Das ist dv E dv I so, weil wie in den Gleichungen 16 und 17 nachvollziehbar und auf der dt dt einen Seite ihrer Nullkline positiv und auf der anderen negativ sind. Entlang der dv E Nullkline ist gleich, oberhalb kleiner und unterhalb größer Null. Analog ist dt dv I entlang der Nullkline gleich, rechts kleiner und links größer Null. Diese Werte dt bestimmen die Flussrichtung in der Phasenebene und sind in der Abbildung 2A als vertikale und horizontale Pfeile zu sehen. Typischerweise verringert sich die Flussrate, wenn die Trajektorie der Phasenebene sich einer Nullkline nähert. Abbildung 2: (A) Nullklinen, Flussrichtungen und Fixpunkt des Feuerratenmodells von interagierenden exzitatorisch und inhibitorischen Neuronen. (B) der Real- (oben) und Imaginärteil (unten) des Eigenwertes der die Stabilität des Fixpunkts bestimmt. An einem Fixpunkt eines dynamischen Systems bleiben die Werte der veränderlichen Variablen konstant. In diesem besprochenen Modell entsteht ein dv E dv I Fixpunkt wenn die Feuerraten v E und vI Werte annehmen für die = = 0 ist. dt dt Dieser Fall tritt nur an der Schnittstelle der Nullklinen auf. In unserem Beispiel tritt das bei v E = 26.67 und v I = 16.67 auf (aufgefüllter Kreis in der Mitte der Abbildung 2A). Ein Fixpunkt liefert zwar eine potentiell statische Konfiguration, jedoch ist es von entscheidender Wichtigkeit ob der Fixpunkt stabil oder instabil ist. Wenn ein Fixpunkt stabil ist werden die anfänglich in seiner Nähe befindlichen Werte von v E und vI über die Zeit zu ihm hingezogen. Im Falle eines instabilen Fixpunktes wird das System bei nur annähernd genauen Feuerraten von v E und vI vom Fixpunkt weggedrückt, es sei denn die Feuerraten von v E und vI sind von Anfang an mit unendlicher Genauigkeit auf die Werte des Fixpunktes gesetzt, denn dann bleibt das System unbegrenzt im Fixpunkt. Lineare Stabilitätsanalyse kann dazu benutzt werden um zu bestimmen, ob ein Fixpunkt stabil ist oder nicht. Um diese Analyse durchzuführen benutzen wir dv E dv I Abkömmlinge der Ausdrücke und , die dadurch entstehen indem die rechte dt dt 9 Seite der Gleichung 16 durch τ E und die der Gleichung 17 durch τ I dividiert wird. Danach werden die dem Fixpunkt entsprechenden Werte für v E und vI in diese Ausdrücke eingesetzt. Die auf diese Weise berechneten vier Terme werden dann in einer Matrix angeordnet. ( M EE − 1) / τ E M IE / τ I M EI / τ E ( M II − 1) / τ I (18) Die Stabilität des Fixpunktes ist bestimmt durch die Realteile der Eigenwerte dieser Matrix. Die Eigenwerte berechnen sich nach M − 1 M II − 1 λ = EE + ± τI τE 2 M EE − 1 M II − 1 4 M EI M IE + − τI τ Eτ I τE . (19) Wenn der Realteil beider Eigenwerte kleiner bzw. größer Null ist, dann ist der Fixpunkt stabil bzw. instabil. Wenn der Ausdruck unter der Wurzel positiv ist, so sind die Eigenwerte reell und das Verhalten Nahe dem Fixpunkt ist exponentiell. D.h. es findet eine exponentielle Bewegung zum Fixpunkt hin statt, wenn beide Eigenwerte negativ sind und vom Fixpunkt weg, wenn beide Eigenwerte positiv sind. Im Falle des negativen Radikanden ist die Quadratwurzel eine imaginäre Zahl und die Eigenwerte bilden ein komplex konjugiertes Paar. In diesem Falle ist das Verhalten des Systems in der Nähe des Fixpunktes oszillierend und die Trajektorie windet sich bei negativem Realteil der Eigenwerte spiralförmig zum Fixpunkt hinein oder bei positiven aus dem Fixpunkt heraus. Der Imaginärteil des Eigenwertes bestimmt die Frequenz der Oszillationen Nahe dem Fixpunkt. Der Real- und Imaginärteil von einem der Eigenwerte ist in Abbildung 2B aufgezeichnet. Diese Darstellung zeigt, dass der Fixpunkt bei τ I < 40ms stabil und bei größeren Werten für τ instabil ist. Abbildung 3: Aktivität eines exzitatorisch-inhibitorischen Feuerratenmodells bei stabilem Fixpunkt. (A) Abklingen der Frequenzschwankungen von Phasenebenendarstellung. v E und vI über die Zeit und (B) die zugehörige 10 Abbildung 3 und 4 zeigen Beispiele in denen der Fixpunkt stabil bzw. instabil ist. In Abbildung 3A sind die Oszillationen von v E und vI gedämpft und die Feuerraten bewegt sich zu einem stabilen Fixpunkt. Die zugehörige Phasenebenentrajektorie stellt eine kollabierende Spirale dar ( Abbildung 3B ). In Abbildung 4A wächst die Oszillation an und in Abbildung 4B ist die Trajektorie eine sich nach außen bis zu einem Begrenzungskreis immer weiter ausdehnende Spirale. Ein Begrenzungskreis ist eine geschlossene Umlaufbahn in der Phasenebene, die ein periodisches Verhalten zeigt. Ohne Rektifizierung der Aktivierungsfunktionen würde sich die Trajektorie spiralförmig bis ins unendliche ausdehnen. Die Nichtlinearität der Rektifizierung verhindert, dass die Trajektorie über die Null hinaus expandiert und stabilisiert auf diese weise den Begrenzungskreis. Abbildung 4: Aktivität eines exzitatorisch-inhibitorischen Feuerratenmodells bei instabilem Fixpunkt. (A) periodische Schwankungen der Feuerraten von Phasenebenendarstellung. v E und vI über die Zeit und (B) die zugehörige Es gibt eine Vielzahl von Möglichkeiten wie ein nichtlineares System von einem stabilen Fixpunkt zu einem Begrenzungskreis übergeht. Solche Übergänge werden als Bifurkationen (Gabelungen) bezeichnet. Der zwischen Abbildung 3 und Abbildung 4 zu sehende Übergang ist eine Hopfbifurkation. In diesem Fall wird der Fixpunkt bei Änderung eines Parameters (hier τ I ) instabil, wenn der Realteil des komplexen Eigenwerts sein Vorzeichen ändert. In einer Hopfbifurkation entsteht der Begrenzungskreis bei einer endlichen Frequenz, vergleichbar mit dem Verhalten eines Typ II-Neurons, der anfängt Aktionspotentiale zu feuern. Andere Bifurkationsformen wiederum zeigen ein Typ I-Verhalten mit Oszillationen bei der Frequenz von Null. Ein Beispiel für diese Formen ist eine Sattelpunktbifurkation, die dann entsteht, wenn sich die Parameter derart ändern, dass zwei Fixpunkte, einer stabil und der andere instabil, sich im gleichen Punkt in der Phasenebene treffen. Der Bulbus olfaktorius Der Bulbus olfaktorius und analoge olfaktorische Regionen bei Insekten zeigen Beispiele sensorischer Verarbeitung, die oszillatorische Aktivität zur Folge haben. Der Bulbus olfaktorius ist die erste Stufe der Verarbeitung nach der Geruchsrezeptorebene des Geruchssystems der Vertebraten. Die Geruchsrezeptoren tragenden Neurone reagieren auf Duftstoffe und senden die Information über ihre Axone zum Bulbus olfaktorius. Diese Axone enden in den 11 Mitral-, Pinselzellen und lokalen Interneuronen, die Knötchen bilden. Die Mitral- und Pinselzellen übermitteln die Informationen zur p rimären olfaktorischen Hirnrinde und haben synaptische Verbindungen zu den Körnerzellen, der größeren Gruppe inhibierender Zellen. Die Körnerzellen wiederum inhibieren die Mitral- und Pinselzellen. Abbildung 5: (A) Aufzeichnung des extrazellulären Feldpotentials im Bulbus olfaktorius bei drei aufeinander folgenden Riechvorgängen. (B) schematische Darstellung des Bulbus olfaktorius. Bei vielen Vertebraten ist die Aktivität im Bulbus olfaktorius abhängig vom Riechvorgang. Durch kurze Riechvorgänge gelangen die Duftstoffe zu den Geruchsrezeptoren. Während drei kurzen aufeinander folgenden Riechvorgängen sieht man in der Aufzeichnung des extrazellulär gemessenen Potentials drei entsprechende große Ausschläge ( Abbildung 5). Uns interessieren hier jedoch die kleineren Schwankungen höherer Frequenz, die durch oszillierende neurale Aktivitäten entstehen und jeden der großen Ausschläge umgeben. Einzelne Körnerzellen haben niedrige Feuerraten und feuern nicht bei jedem Zyklus der Oszillation. In die phasensynchronen Oszillationen im Bulbus feuern verschiedene Neurone zwar zu festen Zeitpunkten sind jedoch phasenverschoben zueinander. Weiterhin werden durch verschiedenartige Düfte Unterschiede in den Amplituden und Phasen hervorgerufen. Li und Hopfield haben 1989 die Mitral- und Körnerzellen des Bulbus olfaktorius als einen nichtlinearen inputgesteuerten Netzwerkoszillator modelliert. Abbildung 5B zeigt die Architektur dieses Modells, dass die Gleichungen 14 und 15 (mit M EE = M II = 0 ) benutzt . Diese fehlenden Verbindungen stimmen mit der Anatomie des Bulbus überein und die Feuerraten von v E bzw. vI entsprechen denen von den Mitral- bzw. Körnerzellen. Die Abbildung 6A zeigt die Aktivierungsfunktionen des Modells. Die Zeitkonstanten der Populationen von Körner- bzw. Mitralzellen sind gleich: τ E = τ I = 6.7 ms. h E repräsentiert den von den Geruchsrezeptoren zu den Mitralzellen kommenden und hI den konstanten vom olfaktorischen Kortex zu den Körnerzellen absteigenden Input. 12 Abbildung 6: Aktivierungsfunktionen und Eigenwerte des Modells des Bulbus olfaktorius. (A) Aktivierungsfunktionen der Mitral- ( FE ) und Körnerzellen ( FI ). (B) Real- (links) und Imaginärteil des Eigenwertes, dass bestimmt ob das Modell ein Fixpunkt- oder Oszillationsverhalten annimmt. Das Feldpotential in Abbildung 6A zeigt die Oszillationen während jedes einzelnen Riechvorgangs ohne die dazwischen liegenden Phasen. Um das Model diesem Aktivitätsmuster anzupassen, muss h E einen Übergang zwischen Fixpunkt und schwingender Aktivität induzieren. Vor einem Riechvorgang muss das Netzwerk einen stabilen Fixpunkt mit niedriger Aktivität annehmen. Mit Ansteigen von h E durch einen Riechvorgang muss dieser ausgeglichene Zustand instabil werden und zu einer oszillierenden Aktivität führen. Die Stabilitätsanalyse des Fixpunktes und das Einsetzen der Oszillation ist vergleichbar mit unserer vorherigen Stabilitätsanalyse des Modells verknüpfter exzitatorischer und inhibitorischer Neurone. Die vergleichbarkeit beruht auf den Eigenwerteigenschaften der linearen Stabilitätsmatrix. In diesem Fall umfasst die Stabilitätsmatrix den Beitrag der am Fixpunkt berechneten Ableitungen der Aktivierungsfunktionen. Damit der Fixpunkt instabil wird, muss der Realteil von mindestens einem der in dieser Analyse berechneten Eigenwerte größer als 1 werden. Damit Oszillationen entstehen, muss der Imaginärteil von mindestens einem der destabilisierenden Eigenwerte ungleich Null sein. Diese Anforderungen prägen der Verbindung zwischen den Mitral- und Körnerzellen sowie den Inputs Nebenbedingungen auf. Die Abbildung 6B zeigt die Änderung des Real- und Imaginärteils des releva nten Eigenwertes λ während eines Riechvorgangs. Nach etwa 100 ms wird der Realteil von λ größer als 1. Der zu diesem Zeitpunkt gemessene Imaginärteil zeigt, dass er im Netzwerk etwa 40 Hz hervorruft. Nach etwa 300 ms des Riechvorgangs sinkt der Realteil von λ unter 1 und infolgedessen hören die Oszillationen auf. Der Input h E erhöht bei diesem Vorgang zum einen durch Änderung des Fixpunktortes auf der Aktivierungsfunktion in Abbildung 6A den Eigenwert λ über 1 und zum anderen destabilisiert es ein bestimmtes Neuron, das dann zu oszillieren anfängt. Das endgültige Muster oszillatorischer Aktivität ist sowohl durch den Input h E als auch die Rückkopplungen des Netzwerks bestimmt. Die Abbildung 7 zeigt das Verhalten des Netzwerks während eines Riechvorgangs mit zwei unterschiedlichen Düften, die durch zwei unterschiedliche h E -Werte repräsentiert werden. Die oberen Zeilen zeigen die Aktivität von vier Mitral- und die unteren von vier Körnerzellen an. Die Amplituden und die Phasen der Oszillationen 13 zusammen mit den Erkennungsmerkmalen der beteiligten Mitralzellen zeigen eine Signatur der Identität der gerochenen Düfte. Abbildung 7: Aktivitäten von vier Mitral- (oben) und vier Körnerzellen (unten) während eines Riechvorgangs von zwei unterschiedlichen Duftstoffen. Oszillator ische Verstärkung Zum Schluss betrachten wir ein Beispiel für Netzwerkoszillationen, indem wir die Verstärkung des Inputs in einem rückwärtsgekoppelten Netzwerk betrachten. Zwei Faktoren regeln die Menge von selektiver Verstärkung , die in rückwärtsgekoppelten Netzwerken existieren kann. Die wichtigste Forderung an die rückwärtsgekoppelten Gewichte ist, dass das Netzwerk so stabil ist, dass die Aktivität nicht unbeschränkt anwachsen kann. Eine andere mögliche Anforderung deutet sich durch die Abbildung 8A und B an. Abbildung 8: Selektive Verstärkung in einem rückwärtsgekoppelten Netzwerk mit Rektifizierung. (A) Aufzeichnung von h (θ ), mit θ als den bevorzugten Winkel. (B) Gleichgewichtszustand des Outputs v (θ ) , mit θ als den bevorzugten Winkel. In der Abbildung 8 zeigt der Output eine abgestimmte Antwort obwohl der Input zum Netzwerk eine nur von θ abhängige konstante Funktion ist. Ein abgestimmter Output ohne einen abgestimmten Input könnte als Speicherungsmechanismus benutzt werden. Jedoch ist dieser Mechanismus problematisch, denn würde beispielsweise dieser Mechanismus in dem primär sensorischen Areal auftreten, so würde er eine andauernde Wahrnehmung hervorrufen obwohl der Reiz nicht mehr da wäre. Die Vermeidung dieses Mechanismus im Netzwerk würde die rückwärtsgekoppelten Gewichten sowie das Ausmaß der Verstärkung, das unterstützt werden könnte, begrenzen. 14 Li und Dayan haben 1999 gezeigt, dass diese Einschränkung durch die Benutzung der Dynamik von Netzwerken mit gekoppelten inhibitorischen und exzitatorischen Neuronen wesentlich gelockert werden kann. Die Abbildung 9 zeigt ein Beispiel mit stetiger Neuronenkennzeichnung, das auf eine stetige Version der Gleichung 14 und 15 beruht. Der Input im abgestimmten Fall ist h E (θ ) = 8 + 5 cos( 2θ ) ( Abbildung 9C) und nicht abgestimmten Fall h E (θ ) = 8 im (Abbildung 9C). Rauschen mit einer Standardabeichung von 0.4 stört diesen Input. Der Input ist über die Zeit konstant. Sowohl auf konstanten als auch auf abgestimmten Input oszilliert das Netzwerk. Abbildung 9A zeigt den Durchschnittswert der Oszillationsaktivitäten der Netzwerkneurone über die Zeit als eine Funktion ihrer bevorzugten Winkel zum einen mit Abstimmung des Inputs auf Rauschen (durchgezogene Linie) und zum anderen ohne Abstimmung des Inputs auf Rauschen (gestrichelte Linie). Abbildung 9: Selektive Verstärkung in einem exzitatorisch-inhibitorischem Netzwerk. (A) Über die Zeit gemittelte Antwortaktivität des Netzwerks auf eine abgestimmten (durchgezogene Linie) und nicht abgestimmten Input (gestrichelte Linie). ’x’ und ’o’ markieren die 0° bzw. -37° Punkte die in (B) und (C) dargestellt sind. (B) und (C) zeigen die Aktivitäten der Neurone, die 0° bzw. -37° bevorzugenden. Die auf Gleichung 14 und 15 beruhenden Parameter sind τ E = τ I = 10ms, hI = 0, M EI = −δ (θ − θ ' ) / ρ 0 , M EE = (1/ πρ0 )[5.9 + 7.8 cos( 2(θ − θ ' )) ]+ , M IE = 13.3 / πρ0 , M II = 0 . Auf den abgestimmten Input antworten die Neuronen auf eine hochgradig angepasste und verstärkende Art und Weise. Bis auf die Verstärkung ist die durchschnittliche Antwort der Neuronen auf den nicht abgestimmten Input unabhängig von θ . Die Abbildung 9B und 9C zeigen die Aktivität der einzelnen Neurone mit θ = 0° (´o`) bzw. θ = −37° (´x`) über die Zeit für den abgestimmten bzw. nicht abgestimmten Input. Das Netzwerk bildet keine andauernde Wahrnehmung, weil der Output auf ein nicht abgestimmten Input ebenfalls nicht abgestimmt ist. Im Gegensatz dazu produziert eine nicht-oszi llierende Form dieses Netzwerks mit τ I = 0 ein gleichmäßig abgestimmte n Output als Antwort auf einen nicht abgestimmten Input mit einer rückwärtsgekoppelten Gewichte derselben Stärke. Auf diese Weise kann das oszillierende Netzwerk in einer Ordnung von hochgradig selektiver Amplifikation arbeiten ohne falsch abgestimmte Aktivität zu produzieren. 15