Die Ratte im Labyrinth | Repr asentation und Lernen aus

Werbung
Die Ratte im Labyrinth | Reprasentation und
Lernen aus neurowissenschaftlicher Sicht
Christian W. Eurich
Institut fur Theoretische Neurophysik, Universitat Bremen,
Kufsteiner Str., D-28359 Bremen
[email protected]
In den letzten Jahren sind in den experimentellen und theoretischen Neurowissenschaften erhebliche Fortschritte auf den Gebieten der Signalverarbeitung durch Nervenzellverbande und der
Plastizitat im Nervensystem in Verbindung mit Lernen erzielt
worden.
So lat sich die Reprasentation sensorischer oder motorischer
Signale durch Gruppen von Neuronen mittels der statistischen
Schatztheorie quantitativ charakterisieren. Ein Ansatz besteht
darin, ein Versuchstier einer Reizsituation auszusetzen und aus
den neuronalen Antworten den Reiz zu rekonstruieren. Beispielsweise kann durch Messung und Analyse der Antworten von Nervenzellen im Hippocampus einer Ratte rekonstruiert werden, in
welchem Teil seiner Umgebung sich das Tier jeweils aufhalt. Derartige Methoden geben Hinweise auf allgemeine Prinzipien neuronaler Signalverarbeitung und erlauben Ruckschlusse auf die Art
des verwendeten Codes.
Auf dem Gebiet der Plastizitat lassen sich prazise Bedingungen fur den Signalu auf zellularer und subzellularer Ebene angeben, unter denen sich synaptische U bertragungseigenschaften
selbstorganisiert andern (Hebbsches Lernen). Obendrein ist erst
in jungster Zeit nachgewiesen worden, da die Hebbsche Plastizitat tatsachlich mit Lernvorgangen einhergeht.
1
Einleitung
Im folgenden sollen schlaglichtartig
Dendriten
zwei wichtige Entwicklungen in den
Neurowissenschaften beschrieben werZellkern
den: Das Studium der Verarbeitung
von sensorischen Reizen durch Ner- Soma
venzellverbande und die Charakterisierung selbstorganisierter Hebbscher Plastizitat. Dabei wird besonderer Wert
Axon
auf die Frage gelegt, wie Theorie und
MyelinExperiment ineinandergreifen, um zu
hülle
einem Verstandnis wesentlicher Prinzipien zentralnervoser Signalverarbeitung
Axonale
zu gelangen.
Endigungen
In Kapitel 2 werden einige Grundlagen der Neurobiologie wiederholt und
gangige Modelle von Nervenzellen beschrieben. Kapitel 3 beschaftigt sich
mit der Reprasentation von Reizen
durch Gruppen von Nervenzellen. Kapitel 4 schlielich behandelt neue Aspekte Abbildung 1: Schematische Darstellung
Hebbschen Lernens.
eines biologischen Neurons. Abbildung
aus [6].
2
Grundlagen der
Neurobiologie und
neuronale Modelle
Die Nervenzelle. Biologische Ner-
venzellen (Neuronen ) dienen der Aufnahme, Verarbeitung und Weiterleitung
von Signalen (Abbildungen 1 und 2).
Diese Signale haben die Form raumzeitlicher Spannungsanderungen (Potentialanderungen ) uber der Zellmembran.
Im Ruhezustand ist das Zellinnere negativ gegenuber dem Auenraum, und
die Spannung betragt ca. ;70 mV (sogenanntes Ruhepotential ).
Die Dendriten stellen die Eingangsfasern des Neurons dar. Sie sind be-
setzt mit bis zu 105 Kontaktstellen, den
Synapsen, uber die das Neuron Signale von anderen Nervenzellen empfangt.
Die Signale breiten sich im Dendritenbaum und bis zum Zellkorper (Soma )
aus. U berschreitet durch Depolarisation
der Membran die Spannung am Soma
einen Schwellenwert von ca. ;40 mV, so
wird am Ansatzpunkt der Nervenfaser
(dem Axonhugel ) eine pulsformige elektrische Welle (Aktionspotential , Spike )
ausgelost, die entlang der Nervenfaser
(Axon ) zu den axonalen Endigungen
lauft: das Neuron feuert . Zur Erhohung
der Signalgeschwindigkeit sind manche
Axone von einer isolierenden Proteinschicht, der Myelinhulle , umgeben. An
Wird eine Nervenzelle erregt, so
antwortet sie im allgemeinen mit einer Serie von Aktionspotentialen, einem Spiketrain ; Abbildung 3 zeigt ein
Beispiel. Der Abstand zweier Spikes
kann dabei nicht beliebig klein sein,
da die Zelle nach der Erzeugung eines Spikes fur eine kurze Zeit, die Refraktarzeit , in eine Regenerationsphase
geht. Spiketrains wie der in Abbildung
Abbildung 2: Querschnitt durch das
Mittelhirn eines Schleuderzungensalamanders. Einige Nervenzellen sind
schwarz angefarbt; diese Nervenzellen
Zeit
reagieren auf visuelle Eingaben und
projizieren in den Hirnstamm, wo sie
nachgeschaltete Nervenzellen erregen, Abbildung 3: Spiketrain eines Mitteldie die am Beutefang beteiligten Mus- hirnneurons eines Salamanders als Antkeln ansteuern. Foto: U. Dicke.
wort auf ein schwarzes bewegtes Rechteck, das dem Tier prasentiert wird.
Die Aktionspotentiale sind als Striche
den axonalen Endigungen schlielich dargestellt. Skala: 500 ms. Daten mit
wird das elektrische Signal uber Synap- freundlicher Genehmigung von B. Liensen an nachgeschaltete Neuronen oder stadt. Abbildung aus [6].
Muskelfasern ubertragen.
Die synaptische Signalubertragung 3 gezeigte werden gemessen, indem eine
erfolgt entweder durch direkte elektri- Meelektrode entweder in das Nervensche Kopplung oder auf chemischem zellgewebe zwischen die Neuronen geWege. Bei der chemischen Synapse be- setzt oder in eine Nervenzelle eingestowirkt ein ankommendes Aktionspoten- chen wird (extrazellulare bzw. intrazeltial in der vorgeschalteten Zelle die lulare Ableitung ). Mit einer EinzelelekAusschuttung von Transmitterstoen, trode kann die Aktivitat einzelner oder
die zur nachgeschalteten Zelle diundie- mehrerer Neuronen aufgezeichnet werren und dort aufgenommen werden. Als den. In den letzten Jahren werden verFolge davon kommt es in der nachge- mehrt Multielektroden verwendet, um
schalteten Zelle zu einer A nderung der gleichzeitig die Aktivitat vieler NervenMembranspannung, zu einem postsyn- zellen zu registrieren und auf diese Weiaptischen Potential . Chemische Syn- se Aussagen uber die gemeinsame Verapsen konnen erregend (exzitatorisch ) arbeitung von Signalen zu treen.
oder hemmend (inhibitorisch ) wirken,
je nach Vorzeichen des postsynapti- Neuronenmodelle. Fur das Studium neuronaler Netze und die Modelschen Potentials.
lierung biologischer Nervennetze wird
unterschiedlich stark von den komplexen Eigenschaften biologischer Neuronen abstrahiert.
In Netzen mit diskreter Zeitstruktur
verwendet man das in Abbildung 4 dargestellte, stark vereinfachte Neuronenmodell. Das Neuron bekommt Eingaben
y1
y2
w2
w1
S
wn
yn
f
Feuerrate f
y
ymax (b)
0
h0
Aktivierung h
Abbildung 4: Modellneuron fur Netze
mit zeitdiskreter Dynamik. f ist das
Symbol fur die Ausgabefunktion.
y1 ; : : : ; yn, die entweder von anderen
Neuronen stammen oder auere Eingaben in das Netzwerk darstellen. Die
Eingaben werden durch Multiplikation
mit den Synapsenstarken w1; : : : ; wn gewichtet. Die Aktivierung h des Neurons
betragt
n
X
h = wi yi :
i=1
Fur wi > 0 wirkt die Eingabe yi des
vorgeschalteten Neurons i exzitatorisch,
fur wi < 0 inhibitorisch (i = 1; : : : ; n).
Die Ausgabe y des Neurons wird durch
Anwendung einer Ausgabefunktion f
berechnet: y = f (h). Im einfachsten Fall, dem sog. McCulloch-PittsNeuron , sind die Eingaben und die
Ausgabe binar (y1; : : : ; yn; y 2 f0; 1g)
und werden als "Feuern\ bzw. "NichtFeuern\ interpretiert. Fur McCullochPitts-Neuronen stellt f die HeavisideFunktion dar,
f (h) = (h ; 0 ) ;
wobei 0 der Schwellenwert fur das
Feuern des Neurons ist. Nehmen die
y1 ; : : : ; yn ; y kontinuierliche Werte an,
spricht man von einem Analogneuron ,
und die Ausgabe y wird als mittlere Anzahl von Spikes interpretiert, die das
Neuron pro Zeiteinheit erzeugt (Feuerrate ). Fur Analogneuronen verwendet man eine sigmoide Ausgabefunktion, d.h. eine stetige und monotone
Funktion, die von Null auf einen Maximalwert ymax ansteigt. Als Beispiel sei
die Fermi-Funktion
ymax
f (h) =
(1)
1 + e;(h;h0 )
genannt, wobei h0 die Aktivierung angibt, bei der das Neuron mit der Rate
ymax=2 feuert (Abb. 4).
Das gebrauchlichste Neuronenmodell
fur Netzwerke mit zeitkontinuierlicher
Dynamik ist das Integrate-and-FireNeuron . Die dynamische Variable ist
das Membranpotential V = V (t), wobei das Ruhepotential zumeist auf Null
gesetzt wird. Abbildung 5 zeigt das Ersatzschaltbild des Neurons, das gultig
ist, solange das Membranpotential so
klein ist, da das Neuron nicht feuert.
R ist der Widerstand und C die Kapa-
C
R
V(t)
I(t)
nenmodelle, die die raumliche Struktur des in Abb. 1 dargestellten Neurons
berucksichtigen. Zur Simulation groerer Netzwerke verwendet man wegen
des geringeren Rechenaufwandes jedoch
zumeist die genannten einfacheren Modelle.
Das Gehirn. Das menschliche Ge-
hirn besteht aus mehr als 200 Milliarden
Abbildung 5: Ersatzschaltbild fur ein Nervenzellen, und im Durchschnitt hat
Integrate-and-Fire-Neuron unterhalb jedes Neuron 1000 Kontaktstellen (Synder Feuerschwelle.
apsen) mit anderen Neuronen. Eine eingehendere Beschreibung des Gehirns,
zitat der Zellmembran; die Stromquelle seiner Anatomie und Physiologie wurde
I (t) modelliert die Eingabe des Neurons den Rahmen dieses Beitrags bei weiaufgrund der Spikeaktivitaten der ande- tem sprengen; stattdessen sei auf einen
ren Neuronen im Netzwerk. Fur V < 0 Punkt hingewiesen, der die Komplexitat
gilt die lineare Gleichung
der neuronalen Verarbeitung verdeutlichen soll. Die klassische Sicht auf die
dV V
C + = I (t)
Signalverarbeitung im Gehirn ist in Abdt R
bildung 6 dargestellt. Demnach ist der
mit einer Anfangsbedingung V (t0 ) =
V0 . Erreicht das Membranpotential zu
einer Zeit t1 eine Feuerschwelle 0 ,
sensorische Eingaben
V (t1 ) = 0 , so gibt das Neuron
einen Spike ab, der selber nicht modelliert wird, und das Membranpotential
wird auf Null gesetzt: limt!t+1 V (t) =
interne Verarbeitung
0. Refraktarzeiten konnen durch eine zeitabhangige Feuerschwelle, 0 =
0 (t), berucksichtigt werden. Fur die
auftretenden Strome I (t) wahlt man
Motorische Reaktionen
gema dem Pulscharakter der Spikes
die Delta-Funktion, oder man berucksichtigt postsynaptische Potentiale in
Form einer Alpha-Funktion :
Abbildung 6: Schematische Darstellung
der herkommlichen Sicht auf die SignalI (t) = ce;t ; > 0
verarbeitung im Nervensystem.
mit c > 0 fur Exzitation und c < 0 fur
Inhibition.
Signalu im Nervensystem im wesentNeben den beschriebenen gibt es wei- lichen folgendermaen charakterisiert:
tere, insbesondere komplexere Neuro- Durch unsere Sinnesorgane bekommen
?
wir sensorische (visuelle, auditorische
usw.) Eingaben; diese werden intern
verarbeitet und resultieren schlielich in
einer Antwort in Form von motorischer
Aktivitat. An dieser Sichtweise sind
zwei Punkte irrefuhrend: Erstens wird
der Einu der sensorischen Eingaben
auf die zentralnervose Aktivitat uberbetont. Zweitens ist die mittlere Stufe
der internen Verarbeitung nicht naher
speziziert und suggeriert damit insgesamt eine im wesentlichen vorwartsgerichtete Signalverarbeitung im Nervensystem. Zur Unterstreichung dieser
Aussagen zeigt Abbildung 7 ein von
Felleman und van Essen aus verschiedenen anatomischen Studien zusammengestelltes Diagramm von bis dato bekannten anatomischen Verbindungen innerhalb des visuellen Systems
von Primaten [11]. Jedes Kastchen entspricht einem Gehirnareal (zumeist in
der Grohirnrinde), in dem sich Neuronen benden, die auf visuelle Eingaben reagieren. Die Abbildung veranschaulicht, da die weitaus meisten
Nervenzellen (es sind uber 95%) keinen direkten Kontakt zur sensorischen
Oberache haben, sondern ihre Eingaben ausschlielich von anderen Nervenzellen bekommen. Gleiches gilt fur die
Schnittstelle zu den Muskeln: nur wenige Prozent der Nervenzellen erregen
nachgeschaltete Muskelfasern; die ubrigen geben ihre Signale an andere Nervenzellen weiter. Des weiteren ist das in
Abbildung 7 dargestellte System massiv ruckgekoppelt, was einer einfachen
Charakterisierung der Verhaltensweisen
und der Aufgaben der einzelnen Areale
entgegensteht.
Aus theoretischer Sicht kann man das
Gehirn somit als ein komplexes dyna-
Abbildung 7: Anatomische Verbindungen innerhalb des visuellen Systems eines Primaten. Abbildung nach [11].
misches System charakterisieren, dessen Aktivitat wesentlich seiner internen
Dynamik entspringt und das durch sensorische Eingaben (\Inputs\) lediglich
gestort wird. Dieses Bild ist deutlich
verschieden von der Vorstellung, da
das Gehirn mageblich dadurch zu charakterisieren sei, da es externe Signale
aufnimmt und verarbeitet.
3
Neuronale Repr
asentation
Wie im vorigen Abschnitt angedeutet,
sind im Nervensystem stets sehr viele
Neuronen aktiv, von denen ein groer
Anteil nicht in direktem Kontakt mit
den Umweltreizen steht. Eine auerst
komplexe Signalverarbeitung innerhalb
des Nervensystems geht einher mit der
bewuten oder unbewuten Wahrnehmung der Welt; wir sagen, die Umwelt
sei im Gehirn reprasentiert .
Diese Betrachtung fuhrt unmittelbar
zu der Frage nach der Gute der Reprasentation von Umweltreizen in einer Gruppe (Population ) von Neuronen. Ein experimenteller Zugang besteht darin, einem Tier Reize zu prasentieren und die durch Einzel- oder Multizellableitungen gewonnenen Antworten der Nervenzellen zu charakterisieren
und auf A quivalenz mit den Reizen zu
testen. Ein entsprechendes Vorgehen ist
auch auf der motorischen Seite moglich;
hier stellt sich die Frage nach der Beziehung zwischen den motorischen Aktionen des Organismus und einer entsprechenden Aktivitat von Nervenzellen, beispielsweise im Motorcortex.
Ein geeignetes Werkzeug zur Bestimmung der A quivalenz von neuronaler Aktivitat und sensorischen bzw.
motorischen Signalen ist die informationstheoretische Methode : der klassische Informationsbegri nach Shannon
(die Transinformation) quantiziert die
U bereinstimmung zweier Wahrscheinlichkeitsverteilungen; in diesem Fall
handelt es sich um die Verteilung der
dargebotenen Reize und die Verteilung
der Antworten der Neuronenpopulation. Als Standardwerk fur diese Methode sei das Buch von Rieke et al. [17]
empfohlen.
Eine alternative Methode der Datenauswertung besteht darin, mit Hilfe der Signale der Neuronenpopulation den Reiz zu rekonstruieren oder
mehrere Reize zu diskriminieren. Bei
der Rekonstruktion wird ublicherwei-
se der Schatzfehler ermittelt, der sich
aufgrund der beschrankten Anzahl der
beteiligten Neuronen oder der Stochastizitat der Neuronenantwort ergibt.
Die Schatzung eines Reizes mu hinreichend genau sein, um dem Organismus
ein adaquates Agieren und Reagieren
zu ermoglichen. Eine Methode, die sehr
gute Ergebnisse erzielt, ist die Rekonstruktion mittels Bayesscher Schatzverfahren ; diese wird im nachsten Abschnitt naher erlautert und anschlieend auf die Selbstlokalisation einer
Ratte in einem Labyrinth angewendet.
Bayessche Rekonstruktion. Gege-
ben seien N Neuronen, die auf die
Prasentation eines Reizes reagieren, der
sich an einer Stelle x in einem Reizraum
X bendet. Es kann sich bei x beispielsweise um einen Winkel im Ortsraum, eine Frequenz auf der Frequenzachse oder
die Orientierung eines Balkes im Intervall [0; 180] handeln. Der Einfachheit
halber wird X hier als eindimensional
angenommen, und die moglichen Reize
x aus X nehmen kontinuierliche Werte
an.
Gemessen werden die Spikezahlen
k1 ; : : : ; kN , die in einem Zeitintervall nach Prasentation des Reizes x in der
Population auftreten. Durch wiederholte Darbietung des Reizes gewinnt man
eine Verteilung der Spikezahlen, die sich
als bedingte Wahrscheinlichkeit schreiben lat: P (k1; : : : kN jx). Liegt diese
Verteilung vor, so kann man mittels einer Einzelmessung, die die Spikezahlen
k1 ; : : : ; kN zum Ergebnis habe, den Reizort abschatzen.
Fur diese Schatzung wird die
bedingte
Wahrscheinlichkeitsdich-
te p(xjk1; : : : kN ) benotigt, also die
Wahrscheinlichkeitsdichte dafur, da
sich der Reiz am Ort x bendet,
wenn bei einmaliger Prasentation
in der Population k1; : : : ; kN Spikes
gezahlt werden. P (k1; : : : kN jx) und
p(xjk1 ; : : : kN ) hangen uber den Satz
von Bayes zusammen:
P (k1; : : : kN jx)p(x)
p(xjk1 ; : : : kN ) =
:
P (k1; : : : ; kN )
(2)
p(x) beschreibt die Haugkeitsverteilung fur das Auftreten des Reizes am Ort x; diese Groe ist unabhangig vom neuronalen System und
wird als A-Priori-Wahrscheinlichkeit
(engl. prior ) bezeichnet. Sie wird
vom Experimentator vorgegeben oder
entspricht einer naturlichen Statistik
des Auftretens der Reize. Man nennt
p(xjk1 ; : : : kN ) entsprechend die APosteriori-Wahrscheinlichkeit , da sie
die Verteilung von x nach der Messung
des neuronalen Systems darstellt. Der
Nenner P (k1; : : : ; kN ) in Gleichung (2)
hat die Bedeutung einer Normierung
und kann uber den Satz von der totalen
Wahrscheinlichkeit berechnet werden:
P (k1 ; : : : ; kN ) =
R
P (k1; : : : ; kN jx)p(x) dx : (3)
X
Mittels eines geeigneten Verfahrens
mu zuletzt ein geschatzter Ort x^
aus der A-Posteriori-Verteilung ermittelt werden. Der optimale Schatzwert
(im Sinne eines quadratischen Fehlers) ist der Mittelwert der A-PosterioriVerteilung [14]. Da dieser zumeist nur
unter groem Rechenaufwand ermittelt werden kann, wird der aufgrund
der Messung geschatzte Ort x^ ublicherweise als die Stelle gewahlt, an der
p(xjk1 ; : : : kN ) maximal ist:
x^ = argmaxx2X p(xjk1 ; : : : ; kN ) : (4)
In der Regel wird es bei Experimenten aufgrund der begrenzten Mezeit nicht moglich sein, die Wahrscheinlichkeit P (k1; : : : kN jx) zu ermitteln, da
es sich i. a. um multivariate Verteilungen in hochdimensionalen Raumen handelt. In diesem Fall kann man unter
Zuhilfenahme von zusatzlichen Annahmen P (k1; : : : kN jx) aus einem Modell
bestimmen. Eine bei der Modellierung
haug verwendete Annahme ist, da die
Neuronen ihre Spikes unabhangig voneinander erzeugen. Mathematisch zerfallt P (k1; : : : kN jx) dann in ein Produkt
von Verteilungen fur die einzelnen Neuronen:
N
Y
P (k1; : : : kN jx) = P (kijx) : (5)
i=1
Zur Ermittlung der P (kijx) (i =
1; : : : ; N ) werden die mittleren Feuerraten fi (x), mit der das Neuron i auf
die Prasentation des Reizes x antwortet, als Funktion des Ortes x des Reizes gemessen. Man nennt fi (x) die Tuningkurve des i-ten Neurons. fi (x) ist
dann die im Zeitintervall im Mittel
erzeugte Anzahl von Spikes des Neurons i. Fur P (kijx) wahlt man nun eine
passende Statistik mit dem Mittelwert
fi (x). Das einfachste Modell beruht
auf der Annahme, da das Auftreten eines Spikes zu einer Zeit tj unabhangig
ist von den fruheren Spikezeitpunkten
tj ;1; tj ;2 ; : : : des Neurons; die Abfolge
von Spikes stellt dann einen PoissonProze dar. Die Wahrscheinlichkeit fur
das Auftreten von genau ki Spikes bei
Neuron i wahrend eines Beobachtungszeitraums betragt in diesem Fall
P (kijx) =
(fi(x))k e;f (x) :
ki !
i
i
(6)
Setzt man die Gleichungen (5) und
(6) in den Satz von Bayes (2) ein, so
lat sich der Ort des Reizes als Mittelwert der A-Posteriori-Verteilung oder
mit dem Kriterium (4) abschatzen.
Die Ratte im Labyrinth. Im Hip-
pocampus von Ratten existieren Zellen,
die aktiv werden, wenn sich der Kopf
des Tiers in einem bestimmten Raumbereich seiner Umwelt bendet; diese Raumbereiche werden Place Fields
genannt. Abbildung 8 zeigt die Place
Fields von 25 Zellen; diese sind symbolisch auf ein Labyrinth gelegt, durch das
die Ratte sich bewegt. Die Farbe kodiert
die Feuerrate, die das jeweilige Neuron
hat, wenn sich die Ratte am entsprechenden Ort bendet. Durch Registrierung des von einer Ratte in einem Labyrinth zuruckgelegten Weges und gleichzeitige Multizellableitungen lat sich
die Hypothese uberprufen, da die Aktivitat der Hippocampusneuronen hinreichend fur eine Selbstlokalisation der
Ratte in dem Labyrinth ist. Mit Hilfe der oben beschriebenen (und weiterer) Rekonstruktionsverfahren wird der
Weg der Ratte aus den Spikedaten von
25 Neuronen geschatzt und mit dem
tatsachlichen Weg verglichen.
Das Ergebnis einer Bayesschen Rekonstruktionen ist in Abb. 9 dargestellt.
Die obere Zeile zeigt den tatsachlichen
Weg und die dritte Zeile das Ergebnis
der Bayesschen Rekonstruktion, wie sie
im vorigen Abschnitt beschrieben wur-
Abbildung 8: Falschfarbendarstellung
von 25 Placeelds einer Ratte. Abbildung aus [21].
de. Als ein noch besseres Verfahren erweist sich eine Bayessche Rekonstruktion, die zwei Zeitschritte und eine Stetigkeit des Weges der Ratte einbezieht
(zweite Zeile). Die Resultate zeigen, da
eine kleine Population von Hippocampusneuronen hinreichend fur die Selbstlokalisation der Ratte in ihrem Labyrinth ist: bereits bei Berucksichtigung
von 25 Nervenzellen fallt die Genauigkeit der Rekonstruktion unter die Genauigkeit, mit der im Experiment die
tatsachliche Position der Ratte gemessen wurde.
Eine ernstzunehmende Kritik an
Bayesschen Rekonstruktionsverfahren
ist die Tatsache, da viel Vorwissen in
die Rekonstruktion eingeht: die Modalitat der Sensorik, die Dimensionalitat
des Reizes (d. h. die Anzahl der re-
Abbildung 9: Resultat der Bayesschen
Rekonstruktion. Die obere Zeile zeigt
die wahre Bahn der Ratte, die untere
Zeile die aus der Aktivitat von 25 Neuronen mittels des beschriebenen Verfahrens rekonstruierte Bahn. Die mittlere Zeile schlielich resultiert aus einem Bayesschen Verfahren, das jeweils
zwei aufeinanderfolgende Zeitabschnitte berucksichtigt und die Stetigkeit der
Bahn der Ratte voraussetzt. Abbildung
aus [21].
gistrierten Reizeigenschaften) usw. Eine "absolute\ Rekonstruktion neuronaler Aktivitat ohne jegliche Annahmen ist nicht moglich. Gema dieser
abgeschwachten Auassung kann man
Rekonstruktionsmethoden als (zumeist
einfache) mathematische Verfahren ansehen, die die simultane Aktivitat mehrerer Neuronen quantitativ charakterisieren.
Fisher-Information und neuronale Kodierungsstrategien. Bei Be-
ze fur den Fehler einer Rekonstruktion?
Die Antwort lautet ja; eine solche untere Grenze existiert, und sie ist i. a.
aufgrund der Stochastizitat der ausgewerteten Signale groer als Null. Interessant ist, da sich der minimal mogliche Fehler { ohne die Berucksichtigung
eines konkreten Rekonstruktionsverfahrens { berechnen lat, und zwar mit Hilfe der Fisher-Information .
Gegeben seien N Neuronen, die
bei wiederholter Prasentation eines
Reizes am Ort x im Reizraum X
mit einer Wahrscheinlichkeitsverteilung
P (k1; : : : ; kN ; x) reagieren. Aus einer
Einzelmessung der Spikezahlen der Population gewinnt man mit einem gegebenen Schatzverfahren S (beispielsweise der Bayesschen Methode) eine
Schatzung x^ fur x; bei T Messungen desselben Reizes die Schatzungen
x^1 ; : : : ; x^T . Als Bias bS des Schatzers
S bezeichnet man die mittlere Abweichung von wahrem und geschatztem
Ort:
T
X
1
b = lim
x^ ; x hx^ ; xi :
S
T ;!1 T t=1 t
(7)
Ein erwartungstreuer Schatzer (engl.
unbiased estimator ) ist ein Schatzer, fur
den bS = 0 gilt, der also im Mittel
den korrekten Ort liefert. Alle weiteren
U berlegungen dieses Abschnitts beziehen sich auf erwartungstreue Schatzer.
Der mittlere quadratische Fehler des
Schatzers S ist deniert als
T
1 P
(x)2 = lim
(x^ ; x)2
trachtung der rekonstruierten Wege in
Abb. 9 stellt sich die Frage, ob es nicht
T ;!1 T
t
weitere Rekonstruktionsmethoden gibt,
t=1
die aus dem Feuerverhalten der Neuro h(x^ ; x)2i :
(8)
nenpopulation den Weg der Ratte noch
besser schatzen konnen. Oder anders Die Fisher-Information der neuronaausgedruckt: gibt es eine untere Gren- len Population bzgl. des Reizes x ist de-
niert als
J (x) :=
*
!+
@ ln P (k1; : : : ; kN ; x) 2
@x
(9)
[14]; h: : :i bezeichnet wiederum den Erwartungswert uber die Wahrscheinlichkeitsverteilung P (k1; : : : ; kN ; x), und
ln : : : ist der naturliche Logarithmus.
Die Cramer-Rao-Ungleichung gibt
nun einen Zusammenhang zwischen der
Fisher-Information und dem mittleren
quadratischen Schatzfehler:
h(^x ; x)2 i J (1x) :
(10)
Gleichung (10) besagt, da der mittlere quadratische Fehler eines beliebigen erwartungstreuen Schatzers stets
groer oder gleich dem Kehrwert der
Fisher-Information ist. Das ist eine
weitreichende Aussage! Das Inverse der
Fisher-Information wird als minimaler Schatzfehler bezeichnet. Bei Vorliegen eines konkretes Schatzproblems hat
man stets zwei Dinge im Auge zu behalten: erstens konnen Schatzer mit Bias existieren, deren Fehler noch unterhalb des minimalen Schatzfehlers liegen. Zweitens ist es moglich, da samtliche Schatzer die untere Grenze der inversen Fisher-Information gar nicht erreichen, sondern stets daruber liegen.
Mit Hilfe der Fisher-Information (9)
und der Cramer-Rao-Ungleichung (10)
lassen sich nun Kodierungsstrategien
fur neuronale Populationen untersuchen (z. B. [16, 22, 9, 10]). Dabei stellt
sich die Frage, wie neuronale Populationen reagieren mussen, um eine
moglichst groe Fisher-Information, also einen moglichst kleinen minimalen
Schatzfehler, zu erzielen. Paradiso [16]
betrachtet ein Modell fur eine Population von Nervenzellen in einem visuellen Areal der Grohirnrinde und leitet
die Genauigkeit her, mit der die Orientierung von bewegten Balken reprasentiert ist. Zhang und Sejnowski [22]
beweisen, da identische Nervenzellen,
die unspezisch auf groe Bereiche im
Reizraum reagieren (beipielsweise groe
Place Fields wie die in Abbildung 8 gezeigten), ein hohes Auosungsvermogen
liefern, falls mehr als zwei Reizeigenschaften (Ort, Geschwindigkeit, Helligkeit usw.) kodiert werden. Eurich und
Wilke [9, 10] machen eine Reihe von
realistischeren Annahmen uber neuronale Populationen und ermitteln die
sich jeweils ergebende Reprasentationsgenauigkeit. Untersucht werden unter
anderem Populationen von Neuronen,
die eine Variabilitat in ihren Antworteigenschaften aufweisen, sowie verschiedene Arten der Korrelation in den Antworten der Neuronen. Es stellt sich dabei stets heraus, da gerade diejenigen
neuronalen Eigenschaften, die auch empirisch gefunden werden, eine genaue
Reprasentation von sensorischen Reizen
ermoglichen.
4
Hebbsches Lernen
Das Hebbsche Postulat. Im Jahre
1949 schlug der kanadische Psychologe
Donald Hebb in seinem richtungweisenden Buch "The Organization
of Behavior\ eine Hypothese uber
einen Mechanismus vor, wie Lernen
im Nervensystem auf zellularer Ebene
ablaufen konnte [13]:
"When an axon of cell A is near
enough to excite a cell B and
repeatedly or persistently takes part in firing it, some growth process or metabolic change
takes place in one or both cells
such that A's efficiency, as one
of the cells firing B, is increased.\
Die Hypothese beinhaltet zwei wesentliche Punkte: Erstens entsprechen
Lernprozesse anatomischen oder
physiologischen Veranderungen auf
zellularer oder subzellularer Ebene;
zweitens beruht diese Plastizitat auf
der Aktivitat der Nervenzellen und
ndet somit selbstorganisiert statt.
Demnach gibt es also dynamische Prozesse auf mindestens zwei Zeitskalen:
eine schnelle Dynamik der neuronalen
Erregung und Signalproduktion und
eine langsame Dynamik struktureller A nderungen. Bezuglich letzteren
erwahnt Hebb in seinem Buch die
Moglichkeit gerichteter Wachstumsbewegungen, konzentriert sich dann aber
auf den Vorschlag, da die Synapse der
Ort der plastischen A nderungen sei.
Obwohl es in den 40er Jahren noch
keine empirischen Hinweise auf die
Hypothese von Hebb gab, war sein
Buch der Auftakt fur ein gigantisches
neurowissenschaftliches Forschungsprogramm, das bis heute andauert.
LTP und LTD. Der Nachweis selbstorganisierter Plastizitat im Nervensystem begann in den 80er Jahren mit
der Entdeckung der Long-Term Potentiation (LTP) [3]. Es konnte nachgewiesen werden, da die gleichzeitige, wiederholte starke elektrische Reizung einer vor- und einer nachgeschalteten Zel-
le dazu fuhrt, da die nachfolgende Zelle uber langere Zeit hinweg starker auf
Reizung durch die vorgeschaltete Zelle reagiert, d. h. ein groeres postsynaptisches Potential entwickelt. Nachgewiesen wurde auch der umgekehrte Effekt der Long-Term Depression (LTD),
eine Abschwachung der Synapse, ebenfalls bedingt durch wiederholte gepaarte Reizung eines vor- und eines nachgeschalteten Neurons. LTP und LTD treten in vielen Hirngebieten auf, sind aber
im Hippocampus, einem Teil des Vorderhirns, besonders pronounciert. Der
Hippocampus steht vermutlich im Zusammenhang mit der Einspeicherung
neu erworbenen Wissens.
Auf theoretischer Seite wurden einfache, auf wechselseitiger Aktivitat von
Neuronen beruhende Lernregeln fur
neuronale Netze mit diskreter Zeitstruktur (t = 1; 2; : : :) entwickelt [4].
Die einfachste Variante solcher HebbRegeln lautet
wij (t + 1) = wij (t) + yj (t)hi (t) ; (11)
wobei wij (t) die Starke der Synapse ist,
mit der Neuron j zur Zeit t auf Neuron i einwirkt; stellt eine Lernrate
dar, hi ist die Aktivierung des nachgeschalteten Neurons i, und yj ist die
Feuerrate des vorgeschalteten Neurons
j . Die A nderung der Synapsenstarke
wij (t + 1) ; wij (t) ist proportional zum
Produkt yj hi. Ein Problem der Lernregel (11) besteht darin, da sie zu Instabilitaten in Netzwerken fuhrt: eine bereits groe Synapsenstarke bewirkt eine starke Aktivierung des nachgeschalteten Neurons und damit eine weitere Erhohung der Synapsenstarke. Abhilfe schaen hier eine Begrenzung des
Wertes von Synapsenstarken nach oben
oder die Einfuhrung einer Normierung
aller an einem Neuron sitzenden Synapsen; letzteres fuhrt zu einem Wettbewerb zwischen den Synapsen.
Zeitabhangiges Hebbsches Lernen
Seit 1994 sind auf dem Gebiet des
Hebbschen Lernens sowohl experimentell als auch theoretisch groe Fortschritte erzielt worden. Ein bis dato ungelostes Problem bezieht sich auf Lokalitat der Hebbschen Lernregel: die an
der Synapse beobachteten Veranderungen werden hervorgerufen aufgrund der
korrelierten Aktivitat des vor- und des
nachgeschalteten Neurons. Woher aber
wei \ die Synapse, da das nachge"schaltete
Neuron gefeuert hat? Es mu
ein Signal geben, da diese Information vom Axonhugel, wo die Aktionspotentiale entstehen, zur Synapse tragt.
In der Tat entdeckten Stuart und Sakmann 1994, da Aktionspotentiale nicht
nur entlang des Axons laufen wie bisher
angenommen, sondern auch in den Dendritenbaum zuruckpropagieren, wo sich
die meisten Synapsen benden [20]. Ein
solches ruckpropagierendes Aktionspotential ist ein perfekter Kandidat fur
das gesuchte Signal.
Die exakten zeitlichen Bedingungen
fur das Auftreten von LTP und LTD
wurden seit 1997 in der Reihe von Artikeln aufgeklart [15, 1, 23, 2]. Markram
et al. [15] wiesen nach, da eine
Verstarkung der Synapse durch LTP
stattndet, wenn die vorgeschaltete Zelle wenige Millisekunden vor der nachgeschalteten Zelle ein Aktionspotential produziert, wenn es also eine kausale Einwirkung der vor- auf die nachgeschaltete Zelle gibt. Ist hingegen das
Signal der vorgeschalteten Zelle verspatet, so ndet LTD statt: die zeitliche Korrelation der Signale kann in
diesem Fall nur zufallig sein. Die korrelierten Aktivitaten mussen innerhalb
eines Zeitraums von 100 ms stattnden, ansonsten ndet keine Veranderung statt. Bi et al. [1] und Zhang et
al. [23] schlielich haben die Starke von
LTP bzw. LTD als Funktion des zeitlichen Abstandes zwischen der Aktivitat
der vor- und der nachgeschalteten Zelle, das sog. Lernfenster , exakt vermessen (siehe Abbildung 10). Das Lernfenster zeigt, da die zeitliche Abfolge der
Aktionspotentiale im Nervensystem eine groe Rolle fur plastische Veranderungen spielt.
Eine komplexere neuronale Verschaltung wurde von Bi et al. [2] untersucht: Zwei Nervenzellen, die uber mehrere parallele Leitungen durch andere Nervenzellen miteinander verschaltet waren, wurden zeitlich gepaart elektrisch gereizt. Die unterschiedlichen
Zeitverzogerungen der parallelen Leitungen bewirkten in Kombination mit
der Struktur des Lernfensters, da ein
Teil der beteiligten Synapsen verstarkt
und ein anderer Teil abgeschwacht wurde: die Hebbsche Lernregel fuhrt in
komplexeren Netzwerken zur Ausbildung charakteristischer raumzeitlicher
Strukturen.
Mittlerweile existiert eine Reihe
von theoretischen Arbeiten, die das
zeitabhangige Hebbsche Lernen in
Netzwerken aus spikenden Neuronen
untersuchen (z. B. [12, 7, 8, 19]).
Eine typische Lernregel sieht folgendermaen aus: Betrachtet man eine
Synapse, mit der Neuron j auf Neuron
i einwirkt, dann wird aufgrund eines
Abbildung 10: Hebbsches Lernfenster
fur Mittelhirnneuronen einer Kaulquappe, die Eingaben von Retinaganglienzellen bekommen. Auf der Abszisse ist die Zeitdierenz zwischen den
Aktivitaten der vor- und der nachgeschalteten Zelle aufgetragen, die Or
dinate zeigt die Anderung
des in
die nachgeschaltete Zelle einieenden
Stroms (Excitatory PostSynaptic Current, EPSC) aufgrund von 100 elektrischen Stimulationen. In den Gebieten I
und II wirkt das vorgeschaltete Neuron
kausal auf das nachgeschaltete Neuron
ein, und die Synapse wird verstarkt; in
Gebiet III ist die Wechselwirkung akausal (zufallig), und die Synapse wird abgeschwacht. Abbildung aus [23].
Spikes zur Zeit tj im vorgeschalteten
Neuron und eines Spikes zur Zeit ti im
nachgeschalteten Neuron die Synapse
wie folgt verandert:
wijneu = wijalt + W (tj ; ti ) ; (12)
wobei W beispielsweise das in Abbildung 10 dargestellte Lernfenster ist.
Lernen erfolgt in einem Netzwerk aus
spikenden Neuronen dann zwischen allen Spikepaaren von miteinander ver-
schalteten Neuronen.
Gerstner et al. [12] verwenden eine
zeitsensitive Lernregel, um eine Serie
von Zeitverzogerungsstrecken (realisiert
durch unterschiedliche Signallaufzeiten
in den Axonen verschiedener Neuronen)
selbstorganisiert entstehen zu lassen.
Das verwendete Netzwerk steht modellhaft fur eine Struktur im Mittelhirn der
Eule, wo fein abgestimmte Zeitverzogerungsstrecken zur auditorischen Lokalisation von Beute herangezogen werden [5]. Eurich et al. [7, 8] beschaftigen sich ebenfalls mit der Adaptivitat
von Zeitverzogerungen und leiten Bedingungen an das Hebbsche Lernfenster
her, die dazu fuhren, da raumzeitliche Spikemuster stabil in einem neuronalen Netz gespeichert werden konnen;
solche stabilen Spikesequenzen konnen
gezielt nachgeschaltete Neuronen anregen, und die auf diese Weise etablierten Schaltkreise haben moglicherweise
eine Funktion im Zusammenhang mit
dem Gedachtnis. Song et al. [19] schlielich zeigen unter anderem, da Instabilitaten wie die oben im Zusammenhang
mit der alten Lernregel (11) beschriebenen bei der neuen, zeitsensitiven Lernregel (12) nicht auftreten.
Synaptische Plastizitat und Lernen. Obwohl Neurowissenschaftler
seit der Entdeckung von LTP und LTD
daran geglaubt haben, da synaptische
Plastizitat ein neuronales Korrelat von
Lernvorgangen darstellt, ist dies erst
vor wenigen Monaten (im Oktober
2000) demonstriert worden. RioultPedotti et al. [18] trainierten Ratten
auf eine motorische Aufgabe, dem Herausangeln von kleinen Futterkugeln aus
einer Box mit Hilfe einer Vorderpfote. [6] C. W. Eurich, Neuronale Netze,
Anschlieend wurde nachgewiesen,
in: Lexikon der Physik, Spektrum,
da bei den trainierten Tieren | im
Heidelberg (2000), 81{86.
Vergleich zu einer Kontrollgruppe |
LTP im motorischen Cortex, der fur die [7] C. W. Eurich, J. D. Cowan und
J. G. Milton, Hebbian delay adSteuerung von Bewegungen zustandig
aptation in a network of integrateist, stattgefunden hatte. Mit diesem
and-re neurons, in: W. Gerstner,
Nachweis haben sich die Hebbschen
A. Germond, M. Hasler und J.Ideen uber Lernen und Plastizitat im
D. Nicoud (eds), Articial Neural
Nervensystem mehr als 50 Jahre nach
Networks { ICANN '97, Springerihrer Formulierung ganzlich bestatigt.
Verlag, Berlin (1997), 157{162.
[8] C. W. Eurich, K. Pawelzik,
Literatur
U. Ernst, J. D. Cowan und J. G.
Milton, Dynamics of self-organized
[1] G.-q. Bi und M.-m. Poo, Synapdelay adaptation, Phys. Rev. Lett.
tic modications in cultured hip82 (1999) 1594{1597.
pocampal neurons: dependence on
spike timing, synaptic strength, [9] C. W. Eurich und S. D. Wilke,
Multi-dimensional encoding straand postsynaptic cell type, J. Neutegy of spiking neurons, Neural
rosci. 18 (1998) 10464{10472.
Comp. 12 (2000) 1519{1529.
[2] G.-q. Bi und M.-m. Poo, Distributed synaptic modication in neural [10] C. W. Eurich, S. D. Wilke und
H. Schwegler, Neural representanetworks induced by patterned stition of multi-dimensional stimuli,
mulation, Nature 401 (1999) 792{
in: S. A. Solla, T. K. Leen und
796.
K.-R. Muller (eds), Advances in
Neural Information Processing Sy[3] T. H. Brown, P. F. Chapmann,
stems 12, MIT Press, Cambridge
E. W. Kairiss und C. L. Keenan,
MA (2000), 115{121.
Long-term synaptic potentiation,
Science 242 (1988) 724{728.
[11] D. Felleman und D. C. van Essen,
Distributed hierarchical processing
[4] T. H. Brown, E. W. Kairiss und
in the primate cerebral cortex, CeC. L. Keenan, Hebbian synapses:
rebral Cortex 1 (1991) 1{47.
biophysical mechanisms and algorithms, Annu. Rev. Neurosci. 13 [12] W. Gerstner, R. Kempter, J. L.
(1990) 475{511.
van Hemmen und H. Wagner, A
neuronal learning rule for sub[5] C. E. Carr und M. Konishi, A cirmillisecond temporal coding, Nacuit for detection of interaural time
ture 383 (1996) 76{78.
dierences in the brain stem of the
barn owl, J. Neurosci. 10 (1990) [13] D. O. Hebb, The Organization of
3227{3246.
Behavior, Wiley, New York (1949).
framework with application to hippocampal place cells, J. Neurophysiol. 79 (1998) 1017{1044.
[22] K. Zhang und T. J. Sejnowski,
Neuronal tuning: to sharpen or
[15] H. Markram, J. Lubke, M. Frotbroaden?, Neural Comp. 11 (1999)
scher und B. Sakmann, Regulation
75{84.
of synaptic ecacy by coincidence
of postsynaptic APs and EPSPs,
[23] L. I. Zhang, H. W. Tao, C. E.
Science 275 (1997) 213{215.
Holt, W. A. Harris und M.-m. Poo,
A critical window for cooperation
[16] M. A. Paradiso, A theory for the
and competition among developing
use of visual orientation informaretinotectal synapses, Nature 395
tion which exploits the columnar
(1998) 37{44.
structure of striate cortex, Biol.
Cybern. 58 (1988) 35{49.
[14] S. M. Kay, Fundamentals of Statistical Signal Processing. Volume I:
Estimation Theory, Prentice Hall,
Upper Saddle River, NJ (1993).
[17] F. Rieke, D. Warland, R. de Ruyter van Steveninck und W. Bialek, Spikes - Exploring the Neural
Code, MIT Press, Cambridge, MA
(1997).
[18] M.-S. Rioult-Pedotti, D. Friedman
und J. P. Donoghue, Learninginduced LTP in neocortex, Science
290 (2000) 533{536.
[19] S. Song, K. D. Miller und L. F.
Abbott, Competitive Hebbian
learning through spike-timingdependent synaptic plasticity,
Nature Neurosci. 3 (2000) 919{
926.
[20] G. J. Stuart und B. Sakmann, Active propagation of somatic action potentials into neocortical pyramidal cell dendrites, Nature 367
(1994) 69{72.
[21] K. Zhang, I. Ginzburg, B. L. McNaughton und T. J. Sejnowski, Interpreting neuronal population activity by reconstruction: a unied
Herunterladen