Perzeptronen - neuro

Werbung
Perzeptronen
Referat im HS Neuronale Netze
WS 2014/15
14.11.2014 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
1
Gliederung
• Rückblick: McCulloch-Pitts-Neuronen
• Lernfähigkeit und synaptische Plastizität: Die Hebbsche Regel
• Der Perzeptronen-Lernalgorithmus
• Anwendungsbeispiele
• Rosenblatts Konvergenztheorem
• Grenzen des Modells: Das Problem der linearen
Separierbarkeit
• Kompetitives Lernen (Winner-take-all-Netze)
• Selbstorganisierende Karten (Kohonen-Netze)
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
2
Rückblick: McCulloch-Pitts-Neuronen
 können alle aussagenlogischen Operationen
ausführen
  Neuronale Netze als Logikschaltkreise
 Anwendung zur Mustererkennung (binäre
Klassifikation von Eingabemustern)
 Kleenes Theorem: Äquivalenz mit endlichen
Automaten
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
3
Grenzen des McCulloch-Pitts-Modells
• nur binäre Ein- und Ausgaben
• Neuronen fest verdrahtet
( keine Lernfähigkeit!)
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
4
Rosenblatts Perzeptronen

Frank Rosenblatt (1928 –
1971)
•
amerikanischer Psychologe
und Computerwissenschaftler
•
entwickelt ab 1957 das
Perzeptronen-Modell
•
Perzeptronen sind
„lernfähige“ McCulloch-PittsNeuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
5
Donald Hebb (1904 – 1985)
• kanadischer Psychologe und
Gehirnforscher
•
1949 The Organization of
Behavior
•
Fragestellung: Worauf beruht
die Lernfähigkeit des
menschlichen Gehirns?
• Antwort: synaptische
Plastizität
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
6
Neuronale Plastizität
(1) Neurogenese (hauptsächlich während der Schwangerschaft)
(2) Entstehung oder Degeneration von synaptischen Verbindungen
Aber:
– Neuronale Verschaltung ist größtenteils genetisch bestimmt
(Bear, Connors, Paradiso 781)
– Die meisten Verschaltungen entstehen schon vor der Geburt
(a.a.O. 818)
(3) Veränderungen der synaptischen Gewichte (Hebbs Hypothese)
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
7
Die Hebbsche Regel
„When an axon of cell A is near enough to excite cell
B and repeatedly or persistently takes part in firing it,
some growth process or metabolic change takes place
in one or both cells such that A's efficiency, as one of
the cells firing B, is increased.“
Neurons that fire together wire together
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
8
Long-Term-Potentiation
•
1970 Lomo und Bliss führen den Nachweis, dass eine
wiederholte elektrische Reizung der
informationszuführenden Leitungsbahnen, die zum
Hippocampus ziehen, eine verstärkte Erregbarkeit der
dortigen Nervenzellen hervorruft, die über einen längeren
Zeitraum anhält
•
Langzeitpotenzierung (englisch: Long-term potentiation,
LTP)
•
Mittlerweile Nachweis auch für andere Hirnstrukturen (z.B.
für Amygdala und Cortex)
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
9
Hebbsches Lernen
„1. Wenn das präsynaptische Neuron aktiv ist und gleichzeitig das
postsynaptische Neuron unter dem Einfluss weiterer Eingänge stark
aktiviert wird, wird die vom präsynaptischen Neuron gebildete
Synapse gestärkt. Dies ist nur eine andere Formulierung der
…Hypothese von Hebb. Mit anderen Worten: Synchrone
neuronale Aktivität verstärkt die Koppelung.“
2. „Wenn das präsynaptische Axon aktiv ist und gleichzeitig das
postsynaptische Neuron unter dem Einfluss weiterer Eingänge nur
schwach aktiviert wird, wird die vom präsynaptischen Axon gebildete
Synapse geschwächt. Mit anderen Worten: Asynchrone neuronale
Aktivität vermindert die Koppelung.“
(Bear, Connors, Paradiso 811)
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
10
Rosenblatts Perzeptronen
•
Rosenblatts PerzeptronenModell verknüpft die Ideen
von Donald Hebb mit dem
McCulloch-Pitts-Neuron
•
Perzeptronen sind
„lernfähige“ McCulloch-PittsNeuronen
•
Lernfähigkeit durch
synaptische Plastizität
(also durch Änderung der
synaptischen Gewichte)
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
11
Das Perzeptronen-Modell
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
12
Mathematisches Modell
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
13
Eingabemuster und Eingaberaum
w  x  0?
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
14
Fehlklassifikationen
Fehler 1. Art: Ein A-Muster
wird irrtümlich als B-Muster
klassifiziert ( Neuron feuert
nicht, obwohl es sollte)
Fehler 2. Art: Ein B-Muster
wird irrtümlich als A-Muster
klassifiziert ( Neuron feuert,
obwohl es nicht sollte)
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
15
Rosenblatts Delta-Regel
Fehler 1. Art: Ersetze w durch w + x
w = x
Fehler 2. Art: Ersetze w durch w – x
Deltaregel
Rosenblatts Konvergenztheorem:
Wiederholte Anwendung der Delta-Regel auf eine
endliche Anzahl von Eingabemustern führt nach endlich
vielen Versuchen („Trainingsphase“) zu einer korrekten
Klassifikation aller Muster.
Voraussetzung: Muster sind linear separierbar!
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
16
Beispiel : UND-Gatter
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
17
Beispiel: UND-Gatter
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
18
Das XOR-Problem
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
19
XOR-Netz
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
20
XOR-Problem
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
21
Frage: Lernalgorithmus für mehrschichtige Netze?
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
22
Komplexe Klassifikationen und kompetitives Lernen
• bisher: Binäre Klassifikation (zwei Kategorien, Ja/NeinEntscheidung)
• multiple Klassifikationen (mehrere Kategorien) erfordern
Netze mit mehreren Ausgabeeinheiten
• beim kompetitiven Lernen konkurrieren die
Ausgabeeinheiten in der Weise, dass nur das Neuron mit der
höchsten Netzeingabe feuert ( Siegerneuron, Best-matching
unit, BMU)
•  Winner-take-all-Netzwerke.
• Implementierung durch laterale Inhibition
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
23
Kompetitives Lernen
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
24
Komplexe Klassifikation
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
25
Komplexe Klassifikation
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
26
Komplexe Klassifikation
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
27
Lernregel
Eine passende Lernregel hat van der Malsburg (1973)
vorgeschlagen:
(1) Eingabemuster und Gewichtsvektoren (= Referenzmuster)
werden zunächst normiert ( geringerer Abstand = höhere
Netzeingabe)
(2) Referenzmuster des Siegerneurons werden immer in Richtung
des letzten Eingabemusters verschoben:
w    (x  w)
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
28
Lernregel
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
29
Selbstorganisierende Karten
• eine Verallgemeinerung der Winner-take-all Netzwerke sind
„Selbstorganisierende Karten“
• englisch: Self-organizing maps (SOMs)
• T. Kohonen
• Ausgabeneuronen sind in einem zweidimensionalen Gitter
angeordnet. Bei jedem Lernschritt werden das Siegerneuron und
benachbarte Neuronen in Richtung des Eingabemusters bewegt
• Lernregel:
wij    y j  ( xi  wij )
• Dadurch entsteht eine topographische Abbildung des
Eingaberaums: Benachbarte Ausgabeneuronen reagieren auf
ähnliche Eingabemuster
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
30
Selbstorganisierende Karten
•
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
31
Lernparadigmen
•
Die vorhergehenden Beispiele verdeutlichen unterschiedliche
Lernparadigmen:
•
Rosenblatts Perzeptron: „überwachtes Lernen“ (engl.:
supervised learning)
•
Setzt ein externes Fehlersignal voraus („biologisch
unplausibel“)
•
Deltaregel:
•
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
w  e    x
 1, für Fehler 1. Art
Fehlersignal e  
 1, für Fehler 2. Art
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
32
Supervised Learning
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
33
Unsupervised learning
•
Im Gegensatz zu Rosenblatts Methode (error-correction
learing) erfordert kompetitives Lernen in Winner-take-allNetzen und selbstorganisierenden Karten kein externes
Fehlersignal.
•
Anderes Beispiel: Reinforcement learning (wird hier nicht
weiter behandelt)
•
Grundidee: Lernen durch Versuch und Irrtum.
Ausgabesignale/Ausgabemuster sind mit Belohnungen (
rewards) und/oder Strafen verbunden.
•
Beispiel: Ausgabesignale sind Spielzüge bei einem Brettspiel.
Brettkonfigurationen als Eingabemuster.
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
34
Lernparadigmen
•
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
35
Lokalitätsprinzip
• Für die Anpassung der synaptischen Gewichte sind nur
Vorgänge in der unmittelbaren Umgebung der Synapse relevant
• Lernregel: w hängt nur von der neuronalen Aktivität im
prä- und postsynaptischen Neuron ab:
wij  f ( xi , y j ; wij )
• Taylor-Reihe:
dwij / dt  c0  c1 xi  c2 y j  c3 xi2  c4 y 2j  c5 xi y j
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
36
Lokalitätsprinzip
• Durch passende Wahl der Koeffizienten lassen sich im Prinzip
alle Lernregeln konstruieren, die mit dem Lokalitätsprinzip
komptibel sind.
• Beispiel Hebbsche Regel:
dwij / dt  c0  c1 xi  c2 y j  c3 xi2  c4 y 2j  c5 xi y j
•
0
0
0
0
0

• Beispiel Kohonen-Regel:
•
16.11.2009 Neuronale Netze
McCulloch-Pitts-Neuronen
wij
Logik, Gehirn, Information.
Brückner, Lauth, Zirpel
37
Herunterladen