Computer Computer

Werbung
← Computer
Computer →
Julien Wolf
30. Mai 2005
Seminararbeit am St.-Raphael-Gymnasium Heidelberg
Vorwort
Die IT-Branche beeindruckt uns immer wieder mit den rasant voranschreitenden Leistungen der neuesten Elektronengehirne – bald, so die Befürchtung, werden unsere Siliziumchips intelligenter sein als wir selbst, die Krone der Schöpfung. Doch zu dieser
Furcht besteht noch lange kein Anlaß: auch moderne Computer sind schon im Vergleich
zum Gangliensystem eines Wurms noch sehr dumm“, wenn es um eigenständiges Den”
ken geht: sie können nur durch ihre massive Rechenleistung punkten. Ansonsten sind sie
jedoch auf die Kunstfertigkeit ihrer Programmierer angewiesen – und so wiederum auf
deren Hirnmasse.
Wo liegen die entscheidenden Unterschiede, die es es sogar unseren Hochleistungsrechenzentren unmöglich machen, die Abläufe unsereres Gehirns zu verstehen oder nachzuahmen oder gar zu verbessern?
Und wie kann die Technologie“ des Gehirns eingesetzt werden, um beispielsweise die
”
Computersysteme der Zukunft intuitiver und leistungsfähiger zu gestalten?
Inhaltsverzeichnis
1 Rechnen mit 0 und 1
1.1 Binäre Logik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Technische Realisation . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2 Neuronales Denken
2.1 Neuronen . . . . . . . . . . . . . . .
2.2 Neuronale Netzwerke . . . . . . . . .
2.2.1 Struktur . . . . . . . . . . . .
2.2.2 Lernen auf neuronaler Ebene .
3 Das
3.1
3.2
3.3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6
6
8
10
10
15
16
17
Siliziumgehirn?
19
Computersimulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Künstliche Neuronale Netze in der Informatik . . . . . . . . . . . . . . . 20
Nachahmung auf physikalischer Ebene . . . . . . . . . . . . . . . . . . . 20
Ausblick
22
Grenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
. . . und Möglichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4
Abbildungsverzeichnis
1.1 Halbaddierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Volladdierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
8
2.1 Neuron im Kontext des Gehirns . . . . . . . . . . . . . . . . . . . . . . .
2.2 Synapse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Vielfalt der Nervenzellen . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
13
14
3.1 Ein Hagen-Chip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
5
1 Rechnen mit 0 und 1
Bevor sich das Augenmerk auf das Gehirn richtet, sollten noch einige Feststellungen über
die Architektur des herkömmlichen“ Computers gemacht werden, mit der im Folgenden
”
immer wieder Vergleiche angestellt werden.
Was, außer Tastatur und Maus, macht eigentlich den PC aus? Beim Einkaufen schauen
wir vor allem auf die inneren Werte, auf den Prozessor (CPU) und die verschiedenen
Speicher , Prozessorcache, Arbeitsspeicher und Festplatte. Speicher- und Recheneinheit
sind sowohl räumlich als auch strukturell voneinander getrennt. Dieser modularisierte
Aufbau des Rechners liegt im Grundprinzip der digitalen Datenverarbeitung, mit dem
wir uns im Folgenden beschäftigen werden.1
1.1 Binäre Logik
Die Digitaltechnik kennt für elektronische Schaltelemente formal betrachtet nur zwei
Zustände: ein“ und aus“, wahr“ und falsch“, 0 und 1, viel“ und wenig“ einer meß”
”
”
”
”
”
baren Eigenschaft. Der Halbleitertechnik ermöglicht dieses System eine extreme Simplifizierung der kleinsten Komponenten, die dafür jedoch in großer Zahl vorhanden sein
müssen.In diesem primitiven Zahlenraum des Computers eine Addition von Ganzzahlen zu realisieren, erfordert schon eine Reihe von komplizierten Verknüpfungen dieser
Schaltelemente (s. u.).
Da diese logischen Grundeinheiten nur wenige Eingaben (meist zwei) zu einer Ausgabe
weiterverarbeiten können, muß das Problem in kleinste Teile zerlegt werden. Die theoretische Basis dafür liefert die Boolsche Algebra, indem sie Rechenregeln für das Arbeiten
mit nur zwei diskreten Zuständen angibt. So sind beispielsweise diese Grundoperatoren
definiert:
• AND: ergibt einen wahren Wert, wenn beide Eingaben wahr sind
• OR: das Ergebnis ist wahr, wenn mindestens eine seiner Eingaben wahr ist
1
6
Schwerpunkt dieser Arbeit sind die Grundprinzipien im Kleinen; für eine strukturelle Betrachtung
des Computers (Turing-Maschine etc.) ziehe man die Seminararbeit von Jonas Wildermuth heran
1.1 Binäre Logik
• NOT: die Ausgabe ist das Gegenteil der Eingabe
• XOR: ist nur wahr, wenn genau eine der Eingaben wahr ist
Durch Verknüpfung solcher logischen Einheiten entsteht ein ausgeklügeltes System zur
rechnerischen Verarbeitung exakt vorgegebener Eingangswerte. Jedes einzelne Glied in
dieser komplizierten Kette, von der Eingabe bis zur Ausgabe, muß korrekt funktionieren,
sonst wird das Ergebnis nicht einmal mehr näherungsweise genau sein.
Abbildung 1.1: Schaltkreis des Halbaddierers [Wik ]
Als Beispiel für den Einsatz dieser Grundidee im konkreten Anwendungsfall soll hier
die Funktionsweise des Addierwerks moderner Mikroprozessoren dienen,
zunächst am vereinfachten Fall der Addition zweier Bits. Eine solA B S C
che Schaltung wird als Halbaddierer (Abb. 1.1) bezeichnet; im Ge0 0 0 0
gensatz zum Volladdierer kann er nicht mit Überträgen aus voran1 0 1 0
gegangenen Rechnungen umgehen. An den Punkten A und B wird
0 1 1 0
jeweils ein Bit (entweder 0 oder 1) eingegeben, als Ergebnis erscheint
1 1 0 1
dann an S die Summe von A und B, und an C (von englisch “carry”)
der eventuell erforderliche Übertrag. Das XOR-Gatter (in Abb. 1.1 das obere der beiden
Gatter) sorgt dafür, daß S nur dann wahr (also gleich 1) ist, wenn nur eins der beiden
Eingabebits 1 ist. Sind beide 0, so muß auch S 0 sein, sind beide 1, muß S ebenfalls 0
sein, da das Ergebnis – nämlich 2 – dann im Übertrag erscheinen muß.2 Für den korrekten Wert des Übertrags C sorgt das AND-Gatter, indem es C nur dann 1 werden läßt,
wenn A und B beide den Wert 1 haben.
Ein Volladdierer (Abb. 1.2) entsteht durch Verknüpung zweier Halbaddierer: über die
XOR-Gatter wird ohne Berücksichtigung des Übertrags die Summe von A und B berechnet und dann der Übertrag, der am Eingang Ci (“carry-in”) vorliegt, aufaddiert. Die
beiden AND-Gatter stellen fest, ob für eine der beiden Additionen ein Setzen des Übertragsbits erforderlich ist; gibt mindestens eins der Gatter einen wahren Wert zurück, so
2
Zur Erinnerung: alle Rechnungen finden im Binärsystem statt!
7
1 Rechnen mit 0 und 1
Abbildung 1.2: Volladdierer; die einzelnen Halbaddierer sind in unterschiedlichen Farben
markiert (nach [Wik ])
setzt das OR-Gatter – einziger neuer boolscher Operator im Volladdierer – das Ausgangsbit Co (“carry-out”) auf 1.
Indem mehrere dieser Volladdierer so nebeneinandergeschaltet werden, daß sie den
Übertragswert des rechten Nachbarn“ berücksichtigen, können auch Binäradditionen
”
mehrstelliger Zahlen durchgeführt werden. [Wik , Wik ]
1.2 Technische Realisation
Basis der modernen Prozessortechnologie ist die extreme Miniaturisierung des Transistors, der als elektronisches Bauteil die Fähigkeit besitzt, seinen Widerstand (und
damit den Stromfluß) abhängig von der an einer dritten Elektrode anliegenden Spannung zu ändern. Die Schalteigenschaften eines Transistors werden in der Digitaltechnik
ausgenutzt, um auf Basis zweier elektrischer Zustände (“high” und “low”, bezogen auf
Spannung und Stromstärke) boolsche Operatoren zu implementieren.
Moderne Mikroprozessoren enthalten viele einzelne spezialisierte Schaltkreise, die über
bestimmte, vom Prozessortyp abhängige Befehlssätze angesteuert werden. So bieten sie
für viele spezifische Rechenoperationen wie z. B. die Multiplikation von Fließkommazahlen eine sehr gute Hardwareoptimierung.
8
1.2 Technische Realisation
Der genaue Ablauf dieser Operationen wird durch Programme gesteuert, die dem
Prozessor Instruktionen zur Bearbeitung übergebener Binärdaten geben. Die Rechener”
gebnisse“ werden dann wieder an die Speichereinheit ausgegeben. So entsteht ein reger
Datenverkehr zwischen den einzelnen Modulen des Computers, der einer minutiösen
Regelung durch speziell abgesicherte Protokolle bedarf, und damit auch zu Leistungseinbußen führt.
In dieser stark durchkonzipierten Architektur – selbst das relativ Einfache Beispiel
der Binäraddition der herkömmlichen Rechner liegt dann auch ihre größte Schwäche:
sie besitzen eine sehr geringe Fehlerresistenz beispielsweise hinsichtlich falscher Speicherzugriffe, die oft zu unvorhersehbarem Verhalten des selbstgeschriebenen Programms
führen können. Obwohl diese Schwächen heute teilweise überwunden zu sein scheinen
– das Grundprinzip ist unverändert: ein Computer wird immer nur das tun, wofür er
programmiert wurde. Für die Exaktheit, die nur ein Computer zu bieten hat, zahlt man
den Preis eines immer größeren Organisationsaufwandes.
9
2 Neuronales Denken
Seine überragende Leistung bezieht das Gehirn aus seiner
biologischen, durch die Evolution ständig verbesserten Architektur: Schalteinheiten sind die Neuronen, spezielle
Körperzellen, die auf die Verarbeitung elektrischer Signale
spezialisiert sind: durch ihr Zusammenwirken in neuronalen Netzen entfalten sie zusammen ihre Wirksamkeit
und gleichen die Mängel aus, die sie gegenüber einem har”
ten“ Siliziumchip immer noch haben: die Laufzeit der Signale ist vergleichsweise lang,
da sie auf chemischen Prozessen beruht, auch liegt die Taktfrequenz unseres Gehirns
mit höchstens etwa 100 Hz weit unter der eines modernen Desktop-Prozessors (z. B. mit
3 GHz).
Ihr Trumpf ist die hohe Parallelität – während unsere Computerarchitekturen Befehle sequentiell abarbeiten, finden in neuronalen Netzen viele miteinander verknüpfte
Aktivitäten parallel so statt, daß sich am Ende das gewünschte Rechenergebnis aus diesen Teilvorgängen zusammensetzen kann. Genau das macht unser Gehirn so komplex,
und das Verständnis seiner Denkweise“ so schwer.
”
Dieses Kapitel befaßt sich mit den Grundprinzipien neuronalen Denkens, um zu verstehen, was hinter den enormen Leistungen des Gehirns stecken könnte.
2.1 Neuronen
Neuronen stellen als organische Transistoren“ die Grundlage für sämtliche Denkprozesse
”
im menschlichen Gehirn dar: obwohl diese Zellen stark differenziert sind, läßt sich über
ihren grundlegenden Aufbau einiges feststellen. Von außen betrachtet sind sie kleine
Recheneinheiten die mehrere Eingangssignale in Form elektrischer Impulse erhalten und
daraufhin einen Output generieren – oder auch nicht, je nach Beschaffenheit des Inputs.
Neuronen arbeiten nach dem Reizschwellengesetz, d. h. sie feuern“ erst, wenn die
”
Eingangssignale einen gewissen Grenzwert überschritten haben. Dabei muß auch die
zeitliche Auflösung der Signale berücksichtigt werden, da die Bedeutung einer dichten
10
2.1 Neuronen
Abbildung 2.1: Neuron im Kontext des Gehirns [Chu , 40]
Impulsfolge stärker ist als die einer losen. So erweisen sie sich als besonders fehlertolerant
und können effizient mit bedeutungslosem Rauschen umgehen.1 Dieses Prinzip ist tief
im biochemischen Aufbau der Nervenzellen verwurzelt. [Chu , 17 ff.]
Im Zellinneren herrscht eine hohe Konzentration von K+ -Ionen, während außen ein
Übergewicht an Na+ -Ionen herrscht. Durch dieses osmotische Konzentrationsgefälle der
K+ -Ionen im Inneren der Zelle diffundieren diese durch die Membran nach außen und
sorgen so für ein elektrisches Potential von etwa −60 bis −90 mV (von innen nach außen
betrachtet). Dieser Zustand wird durch Membranpumpen unterstützt, die K+ -Ionen dem
Konzentrationsgefälle entgegen ins Zellinnere befördern und Na+ aus dem Zellinneren
1
In der biologischen Realität führen die einzelnen Neuronen je nach ihrem Einsatzgebiet sogar schon
recht komplexe logische Operationen (u. a. Lineare Addition, Analog-Digital-Konverter) auf den
Eingangssignalen durch (vgl. hierzu auch [Chu , 45]. Dennoch ist dieses Prinzip mit gewissen
Abwandlungen allen Nervenzellen gemein
11
2 Neuronales Denken
entfernen. In der anderen Richtung, also in die Zelle hinein, ist die Membran für Na+ Ionen solange undurchlässig, bis die Potentialdifferenz (die ja auch von dem gesamten
elektrischen Zustand des Zellkörpers abhängig ist) einen bestimmten Schwellwert unterschreitet und so das Ruhepotential 2 ins Aktionspotential umschlägt. Bei Öffnung
der Membran für die Na+ -Ionen sinkt die Potentialdifferenz weiter ab, was wiederum eine
höhere Natriumdurchlässigkeit zur Folge hat. Die Potentialdifferenz schlägt sogar kurz
1
s strömen dann wieder K+ -Ionen
in einen positiven Bereich von ca. 30 mV um; nach 1000
nach außen und führen so zu einer Potentialabsenkung, die durch aktive Pumpprozesse in der Membran noch verstärkt wird. Das Aktionspotential macht also nur einen
Spannungsimpuls enorm kurzer Dauer aus; gleich danach herrscht an der betroffenen
Membran wieder das Ruhepotential.
Im Gegensatz zum digitalen Bit stellt das neuronale Aktionspotential keinen dauerhaften Zustand dar; deshalb ist der dargestellte Vorgang nicht zur direkten Speicherung
von Daten und damit Wissen geeignet (vgl. Abschnitt 2.2). [Imp, 45 ff.]
Die nach ihren jeweiligen Einsatzgebieten differenzierten Neuronen haben einen etwa
gleichen strukturellen Aufbau: Um den relativ klein gehaltenen Zellkörper (zum Speichern der Erbinformation und zur Energieversorgung), scheinen sich viele Fäden“ zu
”
gruppieren. Zu unterscheiden sind die Dendriten, die elektrische Impulse anderer Zellen aufnehmen und so das elektrische Potential in der gesamten Zelle verändern, und
das Axon, das die Ausgabe“ der Zelle an andere Neuronen weitergibt.
”
Die Dendriten sind durch Synapsen mit den Axonen anderer, oft weit entfernter Neuronen verbunden. An den Synapsen wird das elektrische Signal durch chemische Übertragungsmechanismen weitergegeben. Je nach Bauart der Synapse kann dieses Signal mit
positiver oder negativer Sinnrichtung übertragen werden – so wird die Bedeutung des
Signals für die Entscheidung der dahinterliegenden Nervenzelle gesteuert, die, sobald die
gewichtete Summe der Eingangspotentiale einen bestimmten Schwellwert überschreitet,
selbst einen elektrischen Impuls auslöst.
Synapsen kontrollieren die Konzentration von K+ , Na+ und Cl− -Ionen in der Zellfüssigkeit des benachbarten Neurons. Kommt ein Signal an einer Synapsen an, so setzten die
Vesikeln im synaptischen Kopf Neurotransmitter frei, die die Durchlässigkeit der
interzellulären Membran für bestimmte Ionenarten verändern. Bei erregenden Synapsen
werden die Kanäle am synaptischen Spalt für alle drei Ionenarten geöffnet, was zu einer Absenkung der Potentialdifferenz führt und so ein Aktionspotential begünstigt. Bei
hemmenden Synapsen führt eine Durchlässigkeit ausschließlich für K+ und Cl− -Ionen zu
2
Der Begriff Ruhepotential ist etwas irreführend, denn die ständig laufenden molekularen Pumpen in
der Zellmembran verbrauchen durchaus Energie
12
2.1 Neuronen
Abbildung 2.2: Synapse [Chu , 46]
13
2 Neuronales Denken
Abbildung 2.3: Diese Skizze aus [Chu , 42] zeigt die enorme Vielfalt der Nervenzellen
im menschlichen Gehirn
14
2.2 Neuronale Netzwerke
einer Verstärkung des Ruhepotentials in der dahinterliegenden Nervenzelle, deren Entscheidung so im negativen Sinne beeinflußt wird. Die Anordnung und Verbindungsstärke
der Synapsen ist ein Schlüssel zum Verständnis des Rechners“ Gehirn.
”
Soweit der noch relativ einfache Grundgedanke. Die chemischen Membranvorgänge
werden jedoch je nach Spezialisierung der Nervenzelle auch für kompliziertere Operationen genutzt, die so in einem Rechenschritt durchgeführt werden können. diese aus
der Evolution hervorgegangene enorme Spezifizierung ist auch mit modernsten Mitteln
kaum nachzuahmen. [Imp, Chu ]
2.2 Neuronale Netzwerke
Formal betrachtet verarbeitet ein neuronales Netz einen Eingabevektor3 zu einem Ausgabevektor üblicherweise gleicher Länge. Aufgebaut ist es aus mehereren Knoten, die
über gewichtete Kanten4 miteinander verbunden sind. Man kann also Erkenntnisse aus
der Graphentheorie 5 auch auf neuronale Netzwerke anwenden.
Im Gegensatz zum ausschließlich eine lineare Abfolge von Befehlen entgegennehmenden Computer besitzt ein neuronales Netz die Fähigkeit zu lernen. Hier unterscheidet
man das relativ einfache Lernen mit Kontrolle von außen und das selbständige Lernen –
beide Formen treten auch im menschlichen Gehirn auf, wenn auch wesentlich komplexer
(so lernen wir aus den Ergebnissen der von uns veranlaßten Handlungen und besitzen
gleichzeitig die Fähigkeit, diese Erkenntnisse zu abstrahieren).
Die stark durchdachte und festgelegte Struktur unserer modernen Rechnerarchitekturen erweist sich mittlerweile oftmals als ineffizient. Neuronale Netze sind prinzipiell
anders konstruiert, Daten werden nicht statisch und damit unabhängig vom Rechner
gespeichert, sondern sind unzertrennbar mit dem dynamischen System eines neuronalen
Netzes verbunden (in der Modellvorstellung in Form erlernter Kantengewichtungen). Die
große Fehlertoleranz neuronaler Systeme ist auf ihren demokratischen“ Aufbau zurück”
zuführen – die Entscheidungsoption, für die am meisten Neuronen aktiv sind, wird auch
als Ergebnis zurückgegeben – und ergibt sich aus der stark parallelisierten Funktionsweise des Netzes. Ebenfalls sehr praktischer“ Nebeneffekt dieser Parallelität ist die hohe
”
3
Ein Vektor ist in diesem Kontext eine lineare Anordnung von Datenwerten
durch diese werden die Synapsen beschrieben, die für ihre Nervenzelle die Bedeutung (Gewichtung)
des eingehenen Signals steuern können
5
Die Graphentheorie beschreibt netzartige Strukturen (von U-Bahn-Netzen bis zu Leiterplatinen)
durch Knoten und (u. U. gewichtete Verbindungen zwischen diesen. Im Zusammenhang mit neuronalen Netzwerken wird das Rechnen mit gewichteten Kanten wichtig, die den logischen Zusammenhang
des Netzes differenziert beschreiben können
4
15
2 Neuronales Denken
Skalierbarkeit, da eine zentrale Regelung (z. B. beim Prozessor durch einen Taktgeber,
der die Schaltfrequenz aller Transistoren synchronisieren muß) entfällt.
Erst die dezentrale Regelung verleiht dem Gehirn seine erstaunliche Flexibilität, mit
der es sogar Systemfehler kleinen bis mittleren Ausmaßes – wie den Tod eines Neurons6
– schnell und ohne merklichen Funktionsverlust ausgleichen kann. Selbst Patienten mit
Kopfverletzungen können so zumindest teilweise die Fähigkeiten wiedererlangen, die
ihnen durch die Beschädigung des Gehirns verlorengegangen sind. Prozessoren der digitalen Welt stehen im krassen Gegensatz dazu, schon der Ausfall eines der Milliarden
Transistoren kann die ganze Recheneinheit unbrauchbar machen.
Als Informationsträger bietet eine zeitliche Abfolge elektrischer Impulse wesentlich
mehr Codierungsmöglichkeiten als eine schlichte Abfolge von Bits (also genau zwei diskreten Zuständen), und ermöglicht eine differenziertere Kommunikation der Nervenzellen, deren hochparalleles Arbeiten sich auch in der enormen Verbindungsdichte der
einzelnen Neuronen manifestiert: etwa 1012 Neuronen stehen im Gehirn 1015 Synapsen
gegenüber; Untersuchungen an der Großhirnrinde von Affen und Katzen belegen eine
Zahl von 4 120 Synapsen pro Neuron [Chu , 51]. Diese Eigenschaften sind wohl am
bedeutsamsten, wenn es darum geht, die Leistungsfähigkeit des Gehirns zu erklären, die
es beim Verarbeiten der Millionen Sinneseindrücke, die es jede Sekunde erreichen an den
Tag legt. [Chu , Imp]
2.2.1 Struktur
Aufgrund ihres Aufbaus unterscheidet man zwei grundsätzliche Arten von neuronalen
Netzen:
• Feedforward Networks, die in verschiedenen Ebenen organisiert sind. Ausgehend von der Input-Ebene erhalten alle Neuronen der folgenden Ebene von jedem
Neuron der darunterliegenden Signale übergeben. Diesen Kanten (in der Graphendarstellung des neuronalen Netzes) ist jeweils eine bestimmte Gewichtung zugewiesen, durch die gegenseitige Beeinflussung der Neuronen präzise zu steuern ist.
Die Neuronen führen also eine gewichtete Addition durch. Die Signale wandern
hierbei nur in eine Richtung: zum Ausgabevektor.
• Bei Recurrent Networks sind diese Regeln aufgelöst: die Information wandert
zwar immer noch von der Eingangs- zur Ausgabeebene, doch bestehen auch rekursive und rückwärtsgerichtete Bezüge zwischen den Neuronen.
6
Schon nach den ersten Lebensjahren wachsen kaum noch Neuronen nach, sie sterben im Normalfall
nur noch langsam ab
16
2.2 Neuronale Netzwerke
Diese Unterscheidung beim Studium neuronaler Netzwerke ist sehr bedeutend, da
Feedforward Networks sehr viel schneller zu realisieren und nachzuvollziehen sind
als Netzwerke, deren interne Rückbezüge eine formale Betrachtung erschweren.
2.2.2 Lernen auf neuronaler Ebene
Die Lernmechanismen komplexer neuronaler Netze stellen auch weiterhin noch ihr größtes
Geheimnis dar: viel Forschungsarbeit wird heutzutage in die Lernforschung investiert,
zufriedenstellende Forschungsergebnisse, welche erklären können, nach welchen Gesetzen
das Lernen im Gehirn abläuft, liegen jedoch nicht vor, da hierauf sehr viele komplexe
Vorgänge einen Einfluß ausüben. Bekannt ist jedoch, daß das Gehirn im Gegensatz
zum Siliziumchip keine feste Verdrahtung hat, sondern seine Gestalt ständig dynamisch
verändert, indem die Verbindungsstärke der Synapsen modifiziert wird und neue Verbindungen entstehen. [Mpg ]
Auf theoretischem Gebiet wurden jedoch schon beträchtliche Erfolge erzielt, indem
Funktionen des menschlichen Gehirns durch künstliche neuronale Netze nachgebaut wurden. Beispiele hierfür sind das räumliche Sehen oder die Umsetzung von geschriebenen
Wörtern in Phoneme (zur anschließenden Aussprache) [Chu , 119].
Lernen bedeutet bei neuronalen Netzen einen Prozeß, der das durch Erfahrung“ er”
worbene Wissen“ in Kantengewichte umsetzt und es in dieser Form speichert.
”
von außen
Formal betrachtet stellt ein neuronales Netz eine mathematische Funktion dar, indem es
einen Eingabevektor durch eine Reihe von Operationen in einen Ausgabevektor umformt.
Das Trainieren eines neuronalen Netzes bedeutet unter dieser Betrachtungsweise, die
Funktion so lange zu verändern, bis sie sich an eine Reihe von vorgegebenen Werten so
nah wie möglich annähert. Es handelt sich also um eine Funktionsanpassung, angewandt
auf den Sonderfall eines neuronalen Netzes. Die Theorie der Künstlichen Neuronalen
Netze hat dafür eine Vielzahl von Methoden entwickelt; am häufigsten wird der Backpropagation-Algorithmus verwendet, der den jeweiligen Fehler durch Veränderung der
Verbindungsgewichte minimiert. Vorteil des externen Lernens sind exaktere Ergebnisse
beim Einsatz des Netzwerks, diese Lernmethode ist jedoch nur nutzbar, wenn bereits
Daten zur Verfügung stehen, um dem neuronalen Netz den richtigen Weg zu zeigen“.
”
17
2 Neuronales Denken
selbstgesteuert
Selbstgesteuertes Lernen verfolgt einen anderen Ansatz: es wird nicht mehr der Fehler
in Bezug auf ein richtiges“ Ergebnis betrachtet, sondern das Netz stellt selbständig
”
eine Vorhersage für den nächsten Eingabevektor auf und vergleicht diesen mit den dann
tatsächlich eintreffenden Werten. Um die Genauigkeit der Vorhersage zu steigern, werden
die Gewichte der Verbindungen im Netz neu ausgerichtet. Dieses Verfahren ermöglicht
ein absolut selbständiges Arbeiten des neuronalen Netzes, geht jedoch zu Lasten der
Genauigkeit und Effizienz.
18
3 Das Siliziumgehirn?
Es wurden bereits verschiedene Versuche unternommen, das Prinzip neuronalen Rechnens in die Welt der Computertechnik zu transferieren. Die Ziele reichen vom Versuch,
ein besseres Verstandnis des Gehirns durch die Simulation seiner Denkvoränge zu erreichen, bis hin zur KI-Forschung. Künstliche Neuronale Netz auf Softwarebasis sind
bereits in der OCR1 in Einsatz, und in (noch wie ferner?) Zukunft sollen elektronische
Schaltkreise, die Neuronen und ihr analoges Rechnen nachahmen die enorme Datenflut
physikalischer Experimente erfassen (was die Tatsache erklärt, das ein solches Projekt
gerade am Heidelberger Kirchhoff-Institut für Physik vorangetrieben wird). [Sch ]
Doch das ist derzeit eher noch als Zukunftsmusik zu betrachten; bis die ersten wirklich
leistungsfähigen Neurochips in Erscheinung treten, können noch einige Jahre vergehen.
3.1 Computersimulation
Der Ansatz der Computational Neuroscience verfolgt das Ziel, die medizinischen
Eigenschaften des Gehirns besser verstehen zu können, strebt aber keine komplette Simulation des menschlichen Gehirns an, da eine derart exakte Simulation selbst kleiner
Bereiche des Gehirns2 die Rechenkapazitäten selbst der modernsten Rechner übersteigt.
Und selbst wenn dies einmal gelänge, wird man immer noch enorme Schwierigkeiten
haben, diese Ergebnisse zu deuten.
Für einzelne Neuronen läßt sich ein Ersatzschaltkreis entwickeln, dessen Verhalten mit
den üblichen Methoden zur Elektroniksimulation zu untersuchen ist. Durch Testen der
Aktivität dieser virtuellen Netzwerke anhand von zufälligen oder realen Eingangssignalen
erhält man ähnliche Werte, wie sie beim tatsächlichen Nachmessen zustande kommen.
Diese Art der Simulation wird genau dann sinnvoll, wenn es um schwer zugängliche
Bereiche des Gehirns geht, die wegen der Ungenauigkeit der aktuellen bildgebenden
Verfahren anders kaum zu erfassen sind. [Gen ]
1
2
Optical Character Recognition – Texterkennung
deren Sinn ohne die Verbindung mit anderen Hirnregionen wiederum fragwürdig ist
19
3 Das Siliziumgehirn?
3.2 Künstliche Neuronale Netze in der Informatik
Die formalen Betrachtungsweisen für neuronale Netze, die im Kapitel über neuronale
Netze erläutert wurden eignen sich recht gut für die Implementation in einer der gängigen
Programmiersprachen. Dies hätte den Vorteil, daß man die Ergebnisse gut in bestehende
Software einbinden könnte. Dennoch ist der entscheidende Vorteil neuronaler Netze, die
Fehlerresistenz, auf einem Computersystem – das über diese Eigenschaft nicht verfügt –
schwierig zu implementieren. Auch geht die Implementierung in einem digitalen System
zu Lasten der möglichen Performance.
3.3 Nachahmung auf physikalischer Ebene
Die analoge Rechenweise von neuronalen Netzwerken versucht man in vielen Projekten
[Sch ] auch in Form von Chips nachzubauen, die im Vergleich zur digitalen Bauweise
eine Bessere Leistung erbringen können. Hier stehen sie mt im Rennen um die Computertechnologie der nächsten Jahre: wie kann die Rechenleistung gesteigert werden, ohne
daß die Abwärme überproportional zunimmt?
Im Hagen-Projekt am Kirchhoff-Institur für Physik in Heidelberg sind schon solche
Neurochips realisiert worden, die über eine digitale Schnittstelle mit herkömmlichen
PCs kommunizieren können und so äquivalent zur 3D-Karte als Logikbeschleuniger“
”
eingesetzt werden könnten, wenn die Technologie einmal Marktreife erreicht.
Abbildung 3.1: Ein Hagen-Chip [Kip ]
20
3.3 Nachahmung auf physikalischer Ebene
Zur Zeit kann ein solches neuronales Netz aus Silizium bei entsprechender Ansteuerung
z. B. aus einer handgemalten Zeichnung ein Verkehrsschild erkennen – auch hier wieder
ein Anwendungsbereich für Neurochips.
Die technische Realisierung beruht hier nicht auf einer exakten Simulation neuronaler Vorgänge, es geht vielmehr darum, das Reizschwellenprinzip des Gehirns und das
analoge Rechnen eines neuronalen Netzes in einem handlichen Bauelement zu verwirklichen. Das bedeutet eine Synthese der herkömmlichen Technik der Chipherstellung (die
mit den modernen Mikroprozessoren eine sehr hohe Entwicklungsstufe erreicht hat) mit
den Rechengesetzen neuronaler Netzwerke, durch die sich bestimmte Klassen von Problemen, vor allem im Bereich der Mustererkennung, wesentlich effizienter lösen lassen.
Die Möglichkeiten des Transistors werden hier weiter ausgeschöpft, indem nicht nur
zwei diskrete Schaltzustände verwendet werden, sondern der ganze fließende Verlauf der
Kennlinie für Berechnungen berücksichtigt wird.
21
Ausblick
Grenzen
Auf keinen Fall sollte man der Täuschung verfallen, daß durch aktuelle Forschungen
in diese Richtung bald das Gehirn als Sitz unserer Persönlichkeit entschlüsselt und gar
erstetzt oder verbessert werden kann. Trotz aller Fortschritte, wird die Technik angesichts
der enormen Komplexität des menschlichen Gehirns als biologisches System (dessen
Verständnis das Wissen aller naturwissenschaftlichen Disziplinen erfordert) an einem
Nachbau des Gehirns scheitern müssen.
Der Einsatz Künstlicher Neuronaler Netze sollte als Ergänzung zum herkömmlichen
Computer verstanden werden, da aufgrund der jeweils unterschiedlichen Grundprinizipien keins der Systeme das andere in absehbarer Zeit komplett ersetzen können wird.
. . . und Möglichkeiten
Durch den Einsatz von Systemen, die sehr effektiv selbst lernen, könnten sich viele Aufgaben der modernen Informationstechnik erheblich vereinfachen. Der Desktop-PC wird
sich möglicherweise immer weiter in Richtung des mitdenkenden Computers entwickeln,
der dem Menschen nicht nur bei bloßen Rechenaufgaben wirkungsvoll helfen kann. Hier
ist vor allem die Mustererkennung zu nennen, in der die aktuelle Entwicklung bald sehr
effiziente OCR- und Spracherkennungssysteme hervorbringen wird.
22
Literaturverzeichnis
[Wik ]
http://de.wikipedia.org: Artikel zum Thema Halbaddierer, Volladdierer.
[Wik ]
http://en.wikipedia.org: Artikel zum Thema Adder (Electronics).
[Chu ] Patricia S. Churchland, Terrence J. Sejnowski, The Computational Brain.
MIT Press, 1992
[Imp]
Impulse Physik 2 – Signal-Wandlung und -Verarbeitung. Klett, ISBN 3–12–
772561–2.
[Mpg ] MaxPlanckForschung, S. 19–42. Ausgabe 1/2005.
[Sch ] Johannes Schemmel, Felix Schürmann, Steffen Hohmann, Karlheinz
Meier, An Integrated Mixed-Mode Neural Network Architecture for Megasynapse ANNs. Heidelberg, 2002.
[Gen ] The Book of Genesis, 2003. Das Buch ist mittlerweile auf
http://www.genesis-sim.org/GENESIS/iBoG/index.html frei verfügbar
(Stand: 29. Mai 2005)
[Wik ]
http://upload.wikimedia.org/wikipedia/commons/7/71/ALU half
adder.png (27. Mai 2005)
[Wik ]
http://upload.wikimedia.org/wikipedia/commons/7/71/ALU full
adder.png (29. Mai 2005)
[Kip ]
http://kip.uni-heidelberg.de (28. April 2005)
23
Selbständigkeitserklärung
Ich versichere hiermit, daß ich die vorliegende Arbeit in allen Teilen selbständig angefertigt habe.
Die Stellen, die wörtlich oder dem Sinn nach der Literatur entnommen sind, habe ich
gekennzeichnet.
Heidelberg, den 30. Mai 2005
24
Herunterladen