Brainstorms - Eine Einführung in die Computational

Werbung
Brainstorms - Eine Einführung in die
Computational Neuroscience
Version 1.1
16. Oktober 2003
Dominik Schnitzer1
Ein Einstieg in die Computational Neuroscience. Im ersten Teil dieser Arbeit werden
nach einem kurzen neurobiologischen Überblick, verschiedene Typen realistischer Neuronenmodelle vorgestellt, die in der Informatik Verwendung finden. Im zweiten Teil ist
das praktische Anwendungsfeld der Computational Neuroscience Thema - Neuromorphic Engineering. Es werden bereits funktionierende Anwendungen, wie zum Beispiel
eine künstliche Retina oder ein Geruchslokalisierungssystem, vorgestellt.
1
<[email protected]>
Inhaltsverzeichnis
1 Simulation des Gehirns?
1.1 Forschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
3
2 Neurbiologische Grundlagen
2.1 Neuronen . . . . . . . . . . . . . . . .
2.1.1 Typen von Nervenzellen . . . .
2.1.2 Aufbau und Funktionsweise von
2.2 Messen von Neuronaler Aktivität . . .
. . . . . .
. . . . . .
Neuronen
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
4
5
6
3 Neuronenmodellierung
3.1 Integrate and Fire Model . . . . . . . .
3.1.1 Leaky Integrate and Fire Model
3.2 Rate Model . . . . . . . . . . . . . . .
3.3 Conductance Model . . . . . . . . . . .
3.4 Kinetische Modelle von Ionenkanälen .
3.5 Modelle Synaptischer Veränderung . .
3.6 Multikompartmentmodelle . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
8
8
9
9
10
10
11
11
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Neurocomputing
12
4.1 Neuron, Genesis und NSL . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5 Neuromorphic Engineering
5.1 Eine Künstliche Retina . . . . . . . . . . .
5.1.1 Der Aufbau der natürlichen Retina
5.1.2 Implementation . . . . . . . . . . .
5.2 NOSE . . . . . . . . . . . . . . . . . . . .
5.3 Andere Wahrnehmungen . . . . . . . . . .
5.4 Verrückteiten? . . . . . . . . . . . . . . . .
6 Fazit
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13
14
14
15
15
16
17
18
2
1 Simulation des Gehirns?
Das Gebiet der Computational Neuroscience befasst sich mit der Emulation von neuronalen Abläufen am Computer. Es wird versucht Nervennetzwerke zu verstehen, die
Abläufe darin modellierbar zu machen um in Folge die sehr effizient ablaufenden Denkund Signalverarbeitungsprozesse im Gehirn am Computer zu verwenden. Motivation
dafür sind die hervorragenden Datenverarbeitungsqualitäten des Gehirns, die denen moderner Computer in vieler Hinsicht überlegen sind. Zwar scheint eine Emulation eines
Neuronennetzwerks auf den ersten Blick gar nicht so vorteilhaft: Niedrige Verarbeitungsgeschwindigkeit (Ungefähre Taktfrequenz des Gehirns: 300Hz) und manchmal unvorhersehbare Ergebnisse (Irren ist Menschlich) sind Features, die die Verwendung eines
Neuronenmodells zur Problemlösung in der klassischen Informatik vielleicht unbrauchbar erscheinen lassen. Ein zweiter genauerer Blick offenbart aber Vorteile, die in der
modernen Datenverarbeitung sehr hohen Stellenwert besitzen:
ˆ Ausfallssicherheit/Stabilität. Durch den hohen Vernetzungsgrad der Nervennetze
führen Einzelausfälle von Knoten nicht zu einem Gesamtausfall des Netzwerks, und
haben nur sehr geringe negative Auswirkungen auf das Verhalten des Gesamtnetzes.
ˆ Sehr Hohe Parallelität in der Signalverarbeitung. Durch den großen Vernetzungsgrad eines Nervennetzes kann die Datenverarbeitung sehr schnell durchgeführt
werden. Durch den hohen Vernetzungsgrad wird außerdem der Nachteil der relative langsamen Datenübertragung zwischen Nerven wieder wett gemacht, da so
tausende Signale parallel verarbeitet werden können.
ˆ Überlegenheit in der Verarbeitung. In vielen Bereichen wie zum Beispiel im Bereich der Mustererkennung, Informationsspeicherung oder Reizverarbeitung sind
die Lösungen der Natur den aktuellen Techniken weit überlegen und schon mehrere Millionen Jahre erfolgreich im Einsatz.
1.1 Forschung
In der Computational Neuroscience treffen sich zwei Forschungsgebiete: Informatik und
Neurobiologie. Auf der informatischen Seite der Computational Neuroscience stehen Algorithmen und Techniken im Vordergrund, die sich das gewonnene Modellwissen zunutze
machen und in andere Projekte integrieren, die mit der eigentlichen Herkunft des Neuronenmodells oft nicht mehr viel zu tun haben. Beispielsweise wird von Autoherstellern in
Anlehnung an das menschliche Auge an Sensoren geforscht, die das Auto selbstständig
in der Autobahnspur halten können, bzw. Alarm geben können wenn das Auto die Spur
zur Straßengrenze überquert[1].
Vom biologischen Standpunkt aus gesehen sind in der Computational Neuroscience vor
allem möglichst genaue Nachbildungen von Neuronennetzwerken von Interesse - um mit
3
den Erkenntnissen beispielsweise die Effekte von Drogen oder anderen Stoffen auf das
Nervennetz zu simulieren und erforschen zu können[3].
In dieser Ausarbeitung werden Modelle, die sowohl für die informatische als auch biologische Seite wichtig sind vorgestellt. Anhand der Komplexität eines Modells und der
verwendeten Parameterwerte lässt sich ein Modell generell sehr leicht dem informatischen oder biologischen Anwendungsfeld zuordnen - komplexe Modelle sind eher der
Biologie zuordenbar, simple und damit schnell berechenbare Modelle der Informatik.
Natürlich ist diese Zuordnung nicht immer korrekt, verdeutlicht aber sehr gut die für die
einzelnen Gebiete wichtigen Ziele: Hohe biologische Exaktheit steht auf der einen Seite,
gute und schnelle Anwendbarkeit auf der anderen-informatischen Seite gegenüber.
2 Neurbiologische Grundlagen
Um die hier nun vorgestellten Neuronennetzwerkmodelle besser zu verstehen, wird die
den Modellen zugrundeliegende Biologie besprochen. Grundbegriffe werden definiert und
grundlegende Funktionsweisen der Informationsübermittlung in Nervenzellen erläutert.
2.1 Neuronen
2.1.1 Typen von Nervenzellen
Es existieren eine Vielzahl verschiedener Nervenzellentypen. Grundsätzlich unterteilt
man diese in folgende Gruppen:
ˆ Sensorische Nervenzellen. Nehmen Reize (wie z.B. Druck, Temperatur, Schall,
Licht) auf und leiten diese über Nevenfasern elektrisch weiter.
ˆ Motorische Nervenzellen. Steuern die Muskeln.
ˆ Interneuronen. Sind Nervenzellen zur Weiterleitung und Verarbeitung von Informationen. Interneuronen stellen den größten Teil der Neuronen dar.
Abgesehen von den drei gerade vorgestellten Nervenzellengrundtypen unterscheiden diese sich untereinander noch signifikant durch Struktur und Größe. Es existieren innerhalb
der drei vorgestellten Gruppen noch viele verschiedene Nervenzellen. Aus der Vielfältigkeit der Neuronen in der Natur ergeben sich auch in der Modellierung viele verschiedene
Neuronenmodelle. Eine Computermodellierung von Neuronen muss die unterschiedlichen
Parameter der Neuronen in Betracht ziehen.
Abbildung 1 stellt zwei verschiedene Neuronen gegenüber. Die Kleinhirnzelle besitzt gegenüber der Zelle aus der Retina einen hoch verzweigten Dendritenbaum und damit viel
mehr potentielle Anknüpfungspuntkte an andere Nervenzellen.
4
Abbildung 1: Links: Eine Kleinhirnzelle, Rechts: Eine Nervenzelle aus der menschlichen
Retina[1]
2.1.2 Aufbau und Funktionsweise von Neuronen
So viele verschiedene Nervenzellentypen und Untertypen es auch gibt, besitzen sie aber
prinzipiell alle den selben Aufbau. Das Neuron ist in drei unterscheidbare Regionen unterteilt: Den Zellkörper (Soma) mit Zellkern (Nucleus), den Dendritenbaum sowie einen
fadenförmigen Fortsatz, das Axon oder die Nervenfaser. Die Dendriten sind für den Empfang von Signalen zuständig und mit Axonen benachbarter Neuronen verbunden. Das
Axon hat die Aufgabe, Signale zu anderen Neuronen weiterzuleiten, die vom Zellkörper
des Neurons kommen. Es verästelt sich an seinem Ende wieder und jeder dieser Zweige
führt zu einer Synapse.
Die Weiterleitung von Signalen innerhalb einer Nervenzelle passiert auf Basis des selektiven Inonentransports durch die halbdurchlässige Zellmembran[2]. Die Trägerstoffe
sind dabei Na+, Cl- und K+ Ionen. In der Zellmembran existieren Ionenpumpen und
Ionenkanäle durch welche die Ionen die Zellwand durchdringen und Signale weiterleiten
können.
Im sogenannten Ruhezustand einer Nervenzelle sind die Ionenkanäle geschlossen und
die Ionenpumpen erzeugen ein Konzentrationsgefälle, das zu einer Potentialdifferenz
zwischen dem Zellinneren und dem Zelläußeren führt. Diese Potentialdifferenz nennt
man Membranpotential. Im Ruhezustand ergibt sich durch die Ionenkonzentration im
Ruhezustand ein Membranpotential von ungefähr -70 mV (VN a+ = +45mV, VK+ =
−87mV, VCl− = −67mV ). Wird die Zelle über diese -70mV hinaus polarisiert nennt
man das Hyperpolarisation, das Ansteigen der Spannung Depolarisation.
Ein Depolarisationsprozess setzt dann ein, wenn im Zellkörper ein Grenzwert von 45mV überschritten wird. Durch diesen elektrischen Prozess werden die Ionenkanäle
der positiven Na+ Ionen geöffnet und das Potentialgefälle steigt für 0.5ms auf +40mV
5
an. Unmittelbar danach setzt die sogenannte Repolarisationsphase ein, die durch die
Öffnung der K+ Ionenkanäle veranlasst wird. Dieser Vorgang dauert solange, bis sich
wieder ein negatives Potential aufgebaut hat, das mit -80mV kurz einen Wert deutlich
unter dem Ruhepotential erreicht. Der Impuls der durch diesen Prozess entstanden ist
wird Aktionspotential oder Spike genannt.
Die Entstehung eines Aktionspotentials setzt das Überschreiten der -45mV-Grenze voraus. Damit basiert die Signalweiterleitung und -verarbeitung im Neuron auf einem alles
oder nichts Grundsatz, und ist mit der digitalen Signalverarbeitung gut vereinbar und
gut modellierbar. Der Spike hat insgesamt eine Dauer von 1-2ms und wandert als Welle entlang dem Axon. In den nachfolgenden 1-2ms kann kein weiteres Aktionspotential
entstehen. Diese Zeitspanne nennt man Refraktärzeit. In 2-4ms ist das normale Ruhepotential einer Nervenzelle wiederhergestellt.
Während das Signal innerhalb der Nervenzelle elektrisch weitergeleitet wird, wird die
Information zwischen zwei Zellen auf biochemischen Weg weitergegeben - es existieren
keine elektrischen Verbindungen zwischen Axon und dem angewachsenen Dendrit der
nächsten Nervenzelle. Das Axon verästelt sich an seinem Ende und jeder Zweig endet im
sogenannten präsynaptischen Ende, das in den Vesiklen die chemischen Botenstoffe, die
Neurotransmitter, beinhaltet. Ein ankommendes Spike verursacht im präsynaptischen
Ende die Öffnung der Ca+ Kanäle. Dort werden dann Neurotransmitter freigesetzt, diese wandern über den synaptischen Spalt und werden schließlich von den Neurorezeptoren
an einem Dendritenende des Nachbarneurons empfangen. Die Übertragung eines Aktionspotentials in ein postsynaptisches Potential dauert etwa 1ms. Eine Vesikelöffnung
transportiert dabei die kleinste Einheit an Information und wird als Quantum bezeichnet.
Insgesamt wurden hier nach dem schon vorgeschlagenem Parameter Verzweigungsgrad
der Dendriten wieder eine Vielzahl von Parametern vorgestellt, die eine wichtige Rolle
bei der Modellierung von Neuronennetzwerken spielen könnten und damit Neurocomputing wichtig und sein könnten: Die Signallaufzeiten, Spikes, elektrischen Potentiale oder
gar die Funktionsweise der Ionenkanäle/-pumpen.
2.2 Messen von Neuronaler Aktivität
Um Neuronale Abläufe vor der versuchten Modellierung nun auch tatsächlich experimentell zu messen und zu überprüfen stehen Forschern mehrere Methoden zur Verfügung:
1. EEG - Das Elektronenenzephalogramm ist die bekannteste Technik um Gehirnaktivität zu messen. Es werden der Testperson dazu elektrische Kontakte am Kopf
angebracht, die die elektrischen Signale die bei Reizen im Gehrin entstehen aufzeichnen sollen. Es kann beim EEG eine sehr hohe Zeitliche Auflösung erreicht
werden. Leider kann aber nicht genau bestimmt werden wo ein Nervenimpuls
tatsächlich stattgefunden hat. In Kombination mit anderen Techniken kann dieser
Nachteil aber relativ minimiert werden. Abbildung 2 zeigt eine Versuchsperson mit
angebrachter Messhaube.
6
Abbildung 2: Versuchsperson mit Messhaube für das EEG[1]
Abbildung 3: Tracer
Stoff
Calcium Green in einer
Kleinhirnzelle[4]
2. PET - Die Positronenemissionstomographie verwendet radioaktive Stoffe um Nervenaktivität zu messen. Grundgedanke ist, dass Regionen mit stärkerer neuronaler
Aktivität einen höheren Blutdurchlauf besitzen. Das bei der PET meist intravenös
injizierte Radiopharmakon gelangt so relativ schnell in die aktiven Hirnregionen.
Radioaktive Stoffe können sehr leicht gemessen werden. So kann in der PET das
Zentrum Neuronaler Aktivität sehr genau lokalisiert werden. Die Kehrseite davon
ist, dass die Radioparmakone einige Zeit brauchen bis sie im Blutkreislauf an der
angeregten Stelle angekommen sind und dadurch das Ergebnis einer PET zeitlich schlecht aufgelöst ist. Wie schon im vorigen Punkt angesprochen, kann man
durch Kombination von PET und EEG aber insgesamt zeitlich und räumlich hoch
aufgelöste Ergebnisse erzielen.
3. Neuronfärbungen - Neben radioaktiven Tracer Stoffen, wie sie in der PET verwendet werden, werden auch Ladungssensitive Stoffe eingesetzt, die mit Änderung
des Zellmembranpotentials ihre Farbe ändern. Neuronenaktivität wird dann mit
einem hochauflösenden Mikroskop beobachtet. Abbildung 3 zeigt eine Anwendung
des Tracer Stoffs Calcium Green in einer Kleinhirnzelle[4].
4. Elektrische Kontakte - Wenn kleine Neuronennetzwerke beobachtet werden sollen,
werden auch manchmal an die Neuronen Metallnadeln eingesetzt, die dann direkt
zum Messen der elektrischen Signale verwendet werden.
Interessant ist, dass Krankheiten in Gehirnregionen auch bei der Erforschung von Nerofunktionen hilfreich sind. Da bei einer Nervenkrankheit meistens ein Stoff plötzlich
fehlt oder übermäßig produziert wird, kann auf Grund der Auswirkungen einer Krankheit festgestellt werden welche Aufgabe ein Stoff hat oder hätte. Zum Beispiel wird bei
Alzheimer Patienten im Hippokampus eine stark verringerte Glutamat Konzentration
gemessen[3]. Glutamat ist der häufigste Neurotransmitter im Gehirn. Diese Beobachtung
ist damit einer der vielen Erklärungsansätze für die Demenz.
7
3 Neuronenmodellierung
Es gibt viele verschiedene Ansätze, Neuronen und Neuronennetzwerke zu modellieren.
Hier wird von dem einfachsten Modell, dem Integrate and Fire Model, ausgegangen. Mit
jedem weiteren vorgestellten Modell steigt die Komplexität des Modells bis zu Neuronenmodellen, die sehr genau sogar die Ionenkanal-Ladungen der ihnen unterliegenden
Partikel beschreiben. Mit steigender Genauigkeit ändert sich auch das tatsächliche Einsatzfeld des Modells in der Computational Neuroscience. Während es beispielsweise zur
Modellierung eines Problems der Audiosignalverarbeitung absolut ausreichend ist das
einfache Integrate and Fire Model anzuwenden, ist diese Herangehensweise in biologischen Fragestellungen, zum Beispiel der Erforschung von Einflüssen bestimmter Stoffe
auf ein Neuronennetz, unpraktikabel. In so einem Fall wird man auf ein Netzwerk zurückgreifen, dass ein Neuron sehr detailliert beschreibt und beispielsweise die Integration von
Neurotransmittern oder hemmender Signalübertragung im Modell selbst überhaupt erlaubt.
Weiters wird in einem Punkt noch auf Aspekte und Phänomene eingegangen, die für
realistische Neuronennetzwerke von großer Bedeutung sind: Plastische Veränderungen
von Synapsenverbindungen, die die Basis des Lernens und der Erinnerung bilden.
3.1 Integrate and Fire Model
Dem Integrate and Fire Model liegt die Idee zugrunde, dass die Spike Zeit und das
Muster mit dem die Spikes am Neuronennetzwerk austreten, die wichtigsten Faktoren
des Output eines Neuronennetzwerks sind. Mathematisch gesehen wird das Integrate and
Fire Model durch folgende Gleichung beschrieben[5]:
I(t) = Cm
dVm
dt
(1)
Cm ist die Kapazität des Neurons, Vm das Membranpotential. I(t) ist der über die
Zeit aufsummierte Strom, der über die Synapsen von den benachbarten Neuronen hineinkommt. Wird ein vordefinierter Grenzwert überschritten, wird ein Aktionspotential
aufgebaut und das Neuron feuert. Neben der Feuergrenze kann man in das Modell auch
sehr einfach andere Parameter einbauen, die es verbessern. Die wohl wichtigste Erweiterung ist die Einführung der Refraktärzeit, der Zeit in der das Neuron kein weiteres
Mal feuern kann. Das lässt sich sehr einfach mit der Angabe einer maximalen Feuerfrequenz implementieren, die sich ja unmittelbar aus der Länge der Refraktärzeit ergibt:
fmax = 1/tpol
Durch zusammenschalten mehrerer solcher Neuronen, kann leicht ein ganzes Netzwerk
erzeugt werden: Die Ausgänge/Axon-Enden eines Neurons werden mit den Eingängen
anderer Neuronen verbunden. Ein Aktionspotential wird als Funktion repräsentiert und
die Neuronen eventuell vorliegenden Parametern genauer beschrieben. Eine Beispielanwendung, in der ein Integrate and Fire Model angewendet wird wird im Abschnitt über
8
das Neuromorphic Engineering gegeben. Dabei wird ein Geruchssensor-Roboter mit einem Integrate and Fire Model betrieben.
3.1.1 Leaky Integrate and Fire Model
In einer Erweiterung des Integrate and Fire Model wird durch das Einbeziehen eines
Leak-Stroms (”Leak Current”) das Modell erweitert. Dabei wird durch die Erweiterung
um einen Leak-Strom erreicht, dass älterer Eingangsstrom mit der Zeit weniger stark
gewichtet wird. Somit verblassen ältere Neuronenerregungen mit der Zeit immer mehr.
Diese Erweiterung ist sehr einfach durchzuführen und macht das Modell aber durch die
Integration des Abklingens älterer Erregungen, mit einer sehr einfachen Methode sehr
viel realistischer.
Technisch gesehen wird im Schaltplan eines solchen Neurons parallel zum Kondensatorstromkreis, der das normale Integrate and Fire Model beschreibt, ein Widerstand
geschalten. Der Gesamtstrom I setzt sich damit dann aus dem Strom IKondensator und
ILeak−Strom (dem Strom des gerade beschriebenen Leakstromkreises) zusammen[5].
Im = Cm
Vm
dVm
+
dt
Rm
(2)
3.2 Rate Model
In vielen Fällen wird zur Neuronenmodellierung auch das einfache Rate Model herangezogen. Ein Neuron wird durch dessen maximalen Feuerrate beschrieben. Der Output
eines solchen Neurons wird durch eine sigmoide Funktion beschrieben, die Feuerrate und
Membranpotential miteinbezieht. Eine sigmoide Funktion ist eine s-förmige Funktion,
die stetig ansteigt und differenzierbar ist.
Die aktuelle Feuerrate zi (t) eines Neurons i zum Zeitpunkt t berechnet sich dabei normalerweise mit folgender sigmoiden Funktion[5]:
zi (t) =
zmax
1 + e−bVm (t)−θ
(3)
Durch das Einbeziehen der maximalen Feuerrate zmax wird die Repolarisationsperiode
im Modell berücksichtigt. Der Faktor b beeinflusst den Anstieg und den Grenzwert der
Erregung des Neurons. Somit kann man durch Variation dieser Parameter sehr leicht
verschiedene Neuronentypen modellieren. Ein großer Vorteil dieser einfachen Neuronenbeschreibung ist, dass gerade durch die Einfachheit, große Netzwerke effizient beschrieben werden können. Im Gegensatz zu den Integrate and Fire Modellen liegt hier aber die
Überlegung im Vordergrund, dass nicht Spike-Synchronisation oder die genaue Zeit des
Feuerns eines Neurons die im Netzwerk transportierte Information beschreibt, sondern
vielmehr die Feuerrate allein.
9
3.3 Conductance Model
In vielen Arbeiten der Neurowissenschaft, werden Neuronennetzwerke auf Basis der den
Neuronen zugrundeliegenden Ionenkanäle beschrieben. Das kommt von der Tatsache,
dass das bekannteste Conductance Model auch das in der Neurobiologie meist angewandte Modell ist, nämlich das Hodgkin Huxley Modell.
Dieses Modell beschreibt das Neuron durch Modellierung seiner einzelnen Ionenkanäle.
Es wurde in den frühen 50er Jahren von A. L. Hodgkin und A. F. Huxley entwickelt.
Für diese Entwicklung wurde ihnen später auch der Nobelpreis verliehen. Da sich sehr
viele Neurowissenschaftler in ihren Experimenten direkt auf das Hodgkin Huxley Modell
bezogen haben, liegen heutzutage viele echte experimentelle Ergebnisse für Neuronennetzwerke auf Basis des Hodgkin Huxley Modells vor. Durch dieses Faktum ist das
Hodgkin Huxley Modell auch in der Computational Neuroscience sehr wertvoll - Viele
Parameter von Modellen brauchen nur nachgeschlagen werden.
Im Hodgkin Huxley Modell sind die Ionenkanäle als Widerstände oder Kondensatoren
beschrieben, die in einer Parallelschaltung zusammengeschalten werden. Eine grundsätzlich ähnliche Schaltung wurde schon bei den Leaky Integrate and Fire Models vorgestellt.
Hier werden aber zusätzlich zum Leak-Strom weitere Widerstände dazugeschalten, die
die einzelnen Ströme der Ionenkanäle beschreiben. Eine mathematische Beschreibung
einer Thalamuszelle sieht beispielsweise so aus:
Cm
dV
= IT − Ih − IN a − IK − Il − IGABAA − IGABAB
dt
(4)
Die Ströme IT , Ih , IN a , IK und ILeak−Strom sind interne Ströme, IGABAA und IGABAB
sind synaptische Ströme. Weiters werden im Hodgkin Huxley Modell ”Gates” für die
Ionenkanäle verwendet, die festlegen ob ein Ionenkanal durchlässig ist oder nicht. Der
Status eines Gates, also ob der Zustand offen oder geschlossen ist kann aus dem Membranpotential errechnet werden.
3.4 Kinetische Modelle von Ionenkanälen
Die mit dem Hodgkin Huxley Modell vorgestellte Modellierung von Ionenströmen beschreibt die eigentlichen Vorgänge in den Ionenkanälen für manche Anwendungen noch
auf sehr ungenaue Weise. Deshalb geht man in einem weiteren Schritt noch eine Detailstufe tiefer, und probiert die Ionenkanäle durch ihre Gate Partikel und deren Übergangsfunktionen noch genauer nachzubilden[5].
Beispielsweise wird in solchen Modellen ein K-Ionenkanal durch 4 Gates beschrieben.
Jedes dieser Gates kann entweder offen (1) oder geschlossen (0) sein. Erst wenn alle vier
Gates im Zustand 1 sind leitet der Ionenkanal. Damit kann ein einziger Ionenkanal vom
Status (0000) durch 14 verschiedene Stadien gehen, bevor er offen (1111) ist. Das kann
glücklicherweise durch Annahmen, dass es sich bei den Übergängen um einen Markov
Prozess handelt und die manche Zustände kinetisch identisch sind (z.B. 0001 und 1000)
auf 5 verschiedene Stadien reduziert werden.
10
3.5 Modelle Synaptischer Veränderung
Nach der Hebbschen These, wird Lernen durch gezielte Anpassung der Stärke einzelner Synapsen realisiert. Die Idee beruht auf der Annahme, dass ein Neuronennetzwerk
nicht starr ist, sondern sich dynamisch und flexibel auf die gespeicherten Informationen
und den Informationsfluss anpasst. Langzeitige synaptische Veränderungen werden laut
Hebb durch erhöhte Erregung von Neuronenverbindungen verursacht[6]. Diese These
von Hebb wurde mittlerweile schon durch Experimente nachgewiesen. Als Beispiel für
ein primitives Neuronennetz, das nach Hebb lernt, kann man das bekannte Experiment
des Pawlowschen Hundes heranziehen:
Jedes Mal wenn der Versuchshund etwas zu Essen vorgesetzt bekommt, wird eine
Glocke geläutet. Das wird öfters wiederholt. Der Hund lernt, dass das Glockenläuten
mit dem Essen in Zusammenhang steht. Nun wird in dem Experiment die Glocke
geläutet, ohne dass Essen gebracht wird. Trotzdem kein Essen angerichtet wurde, kann
man beim Versuchshund erhöhten Speichelfluss feststellen.
Um das Experiment mit einem Neuronenmodell nachzubilden braucht man 3 Neuronen:
Wahrnehmen-von-Essen, Wahrnehmen-von-Glocke und Speichelfluss-aktivieren. Neuron
Wahrnehmen-von-Glocke und Wahrnehmen-von-Essen sind jeweils mit dem Neuron
Speichelfluss-aktivieren verbunden. Im Normalfall reicht es aus dass der Hund Essen in
Irgendeiner Form wahrnimmt um den Speichelfluss zu aktiveren. Neuron Wahrnehmenvon-Glocke ist nur ganz schwach mit dem Speichelfluss Neuron verbunden, ein Glockenläuten
hat zu Beginn also praktisch gar keine Verbindung mit dem Speichelfluss. Dadurch dass
im Experiment aber gleichzeitig zum Essen auch immer das Neuron Wahrnehmen-vonGlocke aktiviert wird, verstärkt sich dessen Bindung zu Speichelfluss-aktivieren mit jeder
Durchführung des Experiments, bis die Bindung zum Neuron so stark ist dass allein ein
Läuten der Glocke schon den Speichelfluss beim Hund bewirkt.
Abbildung 4 zeigt, wie sich synaptische Verbindungen bei einem Kleinkind entwickeln.
Es existieren mehrere verschiedene Vorschläge zur Implementation von Synapsenmodifikationen. Grundsätzlich wird zwischen kurz anhaltende (Sekunden bis Minuten) und
länger anhaltende Änderungen unterschieden. Ein Modell für kurzzeitige Synaptische
Änderungen wurde von Abbot 1997 vorgeschlagen[5].
3.6 Multikompartmentmodelle
Neuronen bestehen eigentlich aus hochverzweigten Dendriten und Axonbäumen. Modelle, die die Art der Verzweigungen und den Verzweigungsgrad in ihre Modelle miteinbeziehen, fallen in die Kategorie der Multikompartmentmodelle. In dieser Herangehensweise
werden die in den Dendritenästen auftretenden Ionenströme untersucht und das Neuron
daraufhin in mehrere Kompartments unterteilt. Rall beschäftigte sich damit erstmals
1964 in seinen Arbeiten, indem er den Dendritenbaum eines Neurons durch komplizierte
Kabelgleichungen beschrieben hat[5]. Dieser Lösungsweg ist sehr kompliziert und ist in
11
Abbildung 4: Die Entwicklung der synaptischen Verbindungen bei einem Kleinkind.[1]
vielen Anwendungsfällen gar nicht notwendig. Es wurde aber gezeigt, dass manche Neuronennetze, die mit einfachen Kompartmentmodellen fehlerhaftes Verhalten an den Tag
legen, nur mit Multikompartmentmodellen korrekt funktionieren.
4 Neurocomputing
Um ein Neuronenmodell zu implementieren, gibt es generell zwei verschiedene Möglichkeiten: Den analogen oder den digitalen Weg. Eine analoge Implementation eines Neuronennetzwerks, also in Form eines realen elektronischen Schaltplanes, hätte von Haus aus
schon dieselben physikalischen Strukturen wie in der Natur, würde wie in der Natur mit
kontinuierlichen Werten arbeiten und automatisch die im Neuronenmodell vorhandene
Parallelität bieten. Leider ist ein solcher Schaltungsentwurf und Implementation sehr
teuer und zeitaufwändig und damit häufig unpraktikabel. Ein möglicher analoger Schaltungsentwurf für ein einziges Neuron des Thalamus, wie im Kapitel zum Conductance
Model vorgestellt, könnte wie in Abbildung 5 dargestellt aussehen.
Im Gegensatz zur analogen Herangehensweise besitzt die digitale Lösung weniger Vorteile: Hauptargument für digitale Lösung sind aber der Preis und kurze Entwicklungszeiten.
Außerdem existieren schon viele Tools und Programmiersprachen die das digitale Neuronennetz Erstellen sehr vereinfachen und damit auch Argument für eine digitale Lösung
sind. In Folge wird hier kurz auf einige dieser Neuronal Computing Programmierumgebungen eingegangen.
12
Abbildung 5: Ein Schaltungsentwurf für ein einziges Neuron des Thalamus
4.1 Neuron, Genesis und NSL
NEURON [8] ist eine Neurobiologisches Simulationsumgebung, mit der Neuronennetzwerke und Neuronen modelliert werden können. Die Umgebung wird auf der Duke
Universität entwickelt und ist frei verfügbar. Die Webseite von NEURON erwähnt dass
das System vor allem für Probleme geeignet ist, in denen komplexe Neuronen mit beispielsweise einzelnen Ionenkanälen beschrieben werden.
GENESIS [7] ist ähnlich wie NEURON eine Simulationsplattform für neurobiologische
Systeme. Als Einsatzgebiet wird praktisch alles von komplexen Modellen einzelner Neuronen bis große Netzwerksysteme bestehend aus kleinen einfachen Neuronen genannt.
Dieses System wird größtenteils auf der Caltech Universität entwickelt und ist wie NEURON frei verfügbar. Das Programmpaket hat dem Autor sehr gut gefallen, da es viele
kleine Beispielprogramme beinhaltet, mit denen leicht und schnell experimentiert werden
kann.
Neural Simulation Language [9] ist eine weitere Simulationssprache. Dieses Framework bietet vollständige Objektorientierung der Modelle und Unterstützung für C++
und Java. Es eignet sich hervorragend für große Netzwerke und unterstützt einfache und
komplexe Modelle wie zum Beispiel die vorhin beschriebenen Multikompartment Modelle. Auf der Webseite gibt es online Java Demonstrationen einiger Modelle, die ohne
Installation sofort im Browser lauffähig sind.
5 Neuromorphic Engineering
Einer der Punkte an dem sich Technik und Biologie treffen ist das sogenannte Biomorphic
Engineering - Techniken, die die Biologie möglichst gut imitieren. Eine Ebene spezieller,
im Berührungspunkt der Informatik mit der Neurobiologie ist der Begriff Neuromorphic
Engineering anzusiedeln. Hauptziel in diesem Gebiet ist es Techniken zu nutzen, imitieren und entwickeln, die in der Natur in mehreren Millionen Jahren entstanden sind.
13
Dabei geht es im Endeffekt um eine Emulation auf elektrischer oder digitaler - nicht
aber biologischer - Basis.
5.1 Eine Künstliche Retina
Die natürliche Retina ist künstlichen Bildverarbeitungs und Aufnahmesystemen in vielen
Gebieten wesentlich überlegen. Sie besitzt einen sehr großen Helligkeitsdynamikbereich,
komprimiert die Bilddaten sehr effizient und nutzt die ihr zur Verfügung stehende Datenbandbreite im Sehnerv optimal aus. Zwar gibt es schon viele elektronische Möglichkeiten
Bilddaten aufzunehmen und zu verarbeiten, aber gerade in natürlichen Umgebungen ist
die Qualität und Performance der biologischen Lösung noch unerreicht.
Die Retina gehört, durch ihre vom Rest vom Gehirn exponierte Position, zu den best
erforschten Teilen des Gehirns. Sie ist leicht zugänglich für Analysen, außerdem sind
die Eingangssignale und mit dem Sehnerv auch sehr genau die Position des Ausgangssignals bekannt. Da das Sehempfinden zu den wichtigsten Wahrnehmungsfunktionen des
Menschen gehört, gibt es großes Interesse an weiterer Erforschung und Nachbildung der
genauen Arbeitsweise der Retina.
5.1.1 Der Aufbau der natürlichen Retina
Fünf Hauptzellentypen sind in 3 Schichten angeordnet. Die Schicht der Fotorezeptoren,
bestehend aus den sogenannten Stäbchen- und Zapfenzellen, sind auf der dem Lichteinfall abgewandten Seite platziert, werden praktisch also von der Rückseite her beleuchtet. Die Zapfenzellen sprechen auf Reize im Tageslichtbereich an, die Stäbchenzellen
sind auf Dämmerlicht spezialisiert. Generell wandeln die Fotorezeptorzellen Lichtreize
in elektrische Signale um. Die an die Fotorezeptoren angewachsenen Bipolar- Amakrinund Horizontalzellen verarbeiten die empfangenen Lichtsignale analog weiter. Die Zellen
sind sehr stark untereinander gekoppelt, sodass ein von einem Fotorezeptor empfangener Reiz auch von der Umgebung (gedämpft) empfangen und mitverarbeitet wird. Die
Ganglienzellen erzeugen in der dritten Ebene dann fertige Aktionspotentiale, die über
den Sehnerv dann an das Gehirn übermittelt werden.
Auf der Retina existiert ein Punkt, der sogenannte Fovea Centralis, mit einem Durchmesser von einem halben Millimeter, auf dem besonders viele Fotorezeptorzellen sind.
Dort ist die Sehauflösung am größten. Insgesamt gibt es ungefähr 125 Millionen Fotorezeptoren auf der Netzhaut.
Die auf der einen Seite sehr gute Farbunterscheidung und Auflösung des Auges (rund um
die Fovea Centralis) macht es uns möglich sehr detaillierte Betrachtungen zu machen.
Auf der anderen Seite ermöglicht der schlechter auflösende aber stark lichtempfindliche
Rand der Netzhaut ein großes Gesichtsfeld. Weiters verdanken wir der logarithmischen
Charakteristik der Fotorezeptorzellen eine der aktuellen Helligkeit angepasste Kontrastwahrnehmung. Diese Anpassungsfähigkeit machte es aber schwer tatsächliche Helligkeiten abzuschätzen, was sich viele optische Täuschungen zunutze machen.
14
Abbildung 6: Ein Knoten der künstli- Abbildung 7: Ein erfolgreich eingesetzchen Retina von 1970[10]
tes Silikon Retinaimplantat von optobionics[11]
5.1.2 Implementation
Eine der ersten künstliche Retinae wurde 1970 von K. Fukushima et al. vorgestellt. Diese
Retina war eine analoge Nachbildung und bestand aus Elektronik-Standardkomponenten:
Fotosensoren, Widerständen, Kondensatoren und Lampen. Die Fotosensoren haben die
Fotorezeptorzellen emuliert, ein erregendes und hemmendes Widerstandsnetz die Horizontalzellen und die Differenzenverstärker die Ganglienzellen. Auf einer Lampentafel
wurde das das von der künstlichen Retina übertragene Bild dann veranschaulicht. Diese
frühe Emulation einer Retina war ein voll paralleles System, das in Echtzeit lief und
ohne Computer ausgekommen ist. Abbildung 6 stellt den Schaltkreis eines Knotens der
damaligen Retina dar.
Nach 20 Jahren ging man dazu über Retina-Emulationen als integrierte Schaltungen im
bekannten Siliziumprozess herzustellen. Vorteile von siliziumbasierten Schaltungen sind
die geringe Größe, der minimale Stromverbrauch und relative Robustheit. Leider ist es
sehr schwierig die hohe Verknüpfungsdichte der Neuronen untereinander im Siliziumprozess zu erzeugen. Zur Zeit schafft es mit modernen Prozessen einen Quadratzentimeter
Chip mit einer Auflösung von circa 690x630 Pixel auszustatten[10].
Mittlerweile ist die Forschung auf dem Gebiet sogar schon soweit gediehen, dass man
Halbblinden Menschen tatsächlich Seh-Prothesen einpflanzen kann. Die japanische Firma Optobionics [11] erzeugt und implantiert künstliche Retinae. Patienten müssen zwar
einen funktionierenden Sehnerv besitzen, können nach einem erfolgreichen chirurgischen
Eingriff aber tatsächlich wieder Umrisse und Kontraste erkennen!
Abbildung 7 zeigt einen erfolgreich eingesetzten Silikon-Retina Ersatz.
5.2 NOSE
NOSE ist in diesem Fall eine Abkürzung für Neuromimetic Olfactory Sensing und ist
ein Projekt an der Universität Nancy/FR. Im Zentrum der Forschung steht das Erkennen von Gerüchen mit nicht selektiven Chemosensoren, die das Verhalten von Tieren
beim Erschnüffeln einer Geruchsquelle imitieren[13]. Typische Anwendungsgebiet ist das
15
lokalisieren von Drogen, Gas-Austrittsstellen oder Sprengstoff.
Folgende Dinge wurden bei der Entwicklung dieses Roboters beachtet:
ˆ Wie bei Tieren und Menschen besitzt der Roboter zwei Geruchssensoren.
ˆ Um möglichst stabile Analyseergebnisse zu erzielen hat der Roboter auch einem
Schnüffelmechanismus. Luft wird durch die zwei Geruchszylinder angezogen und
dann ohne Gefahr, dass während der Analyse beispielsweise ein Windstoß neue
Gerüche herantreibt oder alte wegträgt, analysiert.
ˆ Jedem nicht selektiven Chemosensor ist ein Integrate and Fire Model nachgeschaltet, dass ohne Eichung auf ein spezielles Gas die Eingaben analysiert.
Die Eigentliche Analyse des Gases passiert automatisch im Neuronennetzwerk. NOSE
nimmt nur die Ausgangszeiten der Aktionspotentiale und damit entstehenden Muster
ab und kann anhand dieser zwei Parameter Gase erriechen. So konnte der Roboter
beispielsweise leicht zwischen Ethanol und Buthanol unterscheiden. Im aktuellen Status
(Abbildung 8) kann der NOSE Roboter tatsächlich schon Gerüche verfolgen, indem man
ihm zu Beginn das zu erschnüffelnde Gas riechen lernt (also Spiking Muster und Zeiten
einlernt) und dann auf Suche schickt.
Abbildung 8: Der NOSE Roboter. Die zwei abstehenden Metallzylinder sind die künstlichen Nasenröhren, die die Geruchssensoren eingebaut haben.[12]
5.3 Andere Wahrnehmungen
Tasten Wie wichtig unsere Haut für die Wechselwirkung mit dem Alltag ist, sieht
man allein an der Anzahl der Sinneszellen die in ihr stecken. In einem Quadratzentimeter Lederhaut sitzen durchschnittlich 200 Schmerzrezeptoren, 100 Druckrezeptoren,
12 Kälterezeptoren und zwei Wärmerezeptoren. Nicht ohne Grund, denn sonst könnte der Mensch feine Oberflächen gar nicht ertasten. Das ist auch das zur Zeit größte
Problem von künstlichen Nachbildungen: Sie erreichen noch bei weitem nicht so hohe
Tast-Auflösung, wie die Haut[1].
16
Hören Ähnlich wie schon am vorgestellten Beispiel Auge/Retina, wird schon länger an
einem neuromorphischen künstlichen Cochlea Ersatz gearbeitet. Es existieren auch hier
schon funktionierende Implantate für Menschen, die fast gar nicht mehr hören können,
oder durch Schockerlebnisse ihr Gehör verloren haben. Beim Implantieren wird ein kleines schneckenförmiges Implantat in das Ohr eingesetzt, das sehr nahe am Gehörnerv
anliegt und für den Gehörnerv verständliche elektrische Reize erzeugt. Im Jahr 1999
wurden weltweit über 3000 solcher Implantate eingesetzt.[15]
Ein anderes Problem, bei dem man sich stark am natürlichen Ohr orientiert, ist Schalllokalisierung. In [14] wird neben einer analogen Cochlea aus Silikon auch ein biologisch
realistisches Neuronennetzwerk zur Schallquellenlokalisierung vorgestellt. Dieser Algorithmus lokalisiert Schallquellen indem er nur die Signallaufzeiten, die der Schall in der
Cochlea benötigt, verwendet.
Im Zuge dieser Arbeit wurde auch ein auf Basis dieses Neuronennetzwerks arbeitender
Roboterkopf entwickelt, der sich autonom einer Schallquelle zuwenden kann.
5.4 Verrückteiten?
Neben den gerade vorgestellten Entwicklungen, gibt es auch Forscher im Gebiet der
Neuroscience, die einen Schritt weitergehen und an vielleicht zur Zeit noch verrückt
klingenden Ideen arbeiten. Einer dieser Forscher ist der nicht gerade medienscheue Professor Kevin Warwick der Universität Reading/UK. Der widmet sich in seiner Arbeit
ganz dem Thema Cyborg, Menschen mit elektronischen Erweiterungen. Seine Meinung
ist, dass sich Menschen in Zukunft nur noch mit direkter Technischer Unterstützung im
Körper weiterentwickeln werden können.
Im März 2002 hat er sich von Chirurgen in einem spektakulären Selbstversuch ein kreditkartengrosses Relais in den Oberarm implantieren lassen. Ungefähr 100 Elektroden
dieses Implantats berühren den Armnerv. Das Implantat ist mit dem PC via Sender
verbunden. Immer wenn Warwick seine Finger bewegt, sollte der Nervenimpuls vom
Rechner aufgezeichnet und verarbeitet werden. Tatsächlich ist es ihm so auch gelungen
eine Roboterhand zu steuern. In Zukunft könnte man so beschädigte Nerven von Behinderten Menschen überbrücken und hochwertige Prothesen aufsetzen.
Mittlerweile besitzt auch seine Frau schon ein Implantat, mit dem sich Warwick erhofft
hatte direkt mit seiner Frau Gefühle austauschen zu können, aber noch nicht so richtig
funktioniert.
17
6 Fazit
Abgesehen von den ethischen Fragen ist ist die ”Cyborg Forschung” von Warwick sicher
ein interessantes und in Zukunft, beispielsweise gekoppelt mit der Medizin, wichtiges
Thema. Doch Warwicks Ideen erinnern stark an die Goldgräberversprechen die man
schon einmal in der gerade aufkommenden Artificial Intelligence gemacht hat. Es wird
das Speichern von Gedanken am PC versprochen, implantierte Computer sollen dem
dem Menschen beim täglichen Leben unterstützen oder Geräte sollen mit Gedanken
gesteuert werden.
Echter Fortschritt wird in Zukunft aber wohl in neuen, verbesserten Nervennetzwerkmodellen oder im Feld ähnlich der hier präsentierten Anwendungen passieren.
Literatur
[1] Begleitpublikation zur Sonderausstellung im Heinz Nixdorf Museumsforum, 2001
Computer.Gehirn: Was kann der Mensch? Was können die Computer?, Verlag Ferdinand Schönigh.
[2] Uwe Krüger, 1995 Neuronale Netzwerke mit zeitverzögerter Signalübertragung, Verlag Harri Deutsch.
[3] Chip Spezial, 1996 Gehirn, Gedächtnis, Neuronale Netze, Vereinigte Motor Verlag.
[4] A. Prasanna de Silvia, Jens Eilers, George Zlokarnik, 1999 Emerging fluorescence sensing technologies: From photophysical principles to cellular applications,
German-American Frontiers of Science Symposium.
[5] Elisabeth Thomas, 2002 Encyclopedia of Cognitive Science, Nature Publishing
Group.
[6] Ralph Morelli, W. Miller Brown, 1992 Computational Models of Cognition, Ablex
Publishing Corporation.
[7] GENESIS Simulation Language, 2003,
http://www.genesis-sim.org/GENESIS/.
[8] NEURON Simulation Language, 2003,
http://neuron.duke.edu/.
[9] Neural Simulation Language, 2003,
http://www.neuralsimulationlanguage.org/.
[10] Jörg Kramer, 1999 Künstliche Retina - Analog-Chips kopieren die Natur, Bulletin
SEV/VSE.
18
[11] Optobionics, 2003,
http://www.optobionics.com/.
[12] NOSE - Neuromimetic Olfactory SEnsing, 2003,
http://www.loria.fr/ rochel/nose/en/.
[13] Oliver Rochel, Dominique Martinez et al., 2002, Stereo-olfaction with a sniffing
neuromorphic robot using spiking neurons, Eurosensors 2002.
[14] Mete Erturk et al., 1999, A Neuromorphic Approach to the Analysis of Monoaureal
and Binaureal Auditory Signals, University of Maryland.
[15] Earsurgery Information Site
http://www.earsurgery.org/cochlear.html
19
Herunterladen