PPT

Werbung
Neuronale Netze und Fuzzy Sets
Das Gehirn von Carl Friedrich Gauß (1777-1855)
Robert Fludd (1574-1637)
Robert Fludd (1574-1637)
George Combe (1788-1858)
George Combe (1788-1858)
A System of Phrenology, Boston: Marsh Capen 1831.
Nervenzelle (Neuron)
Nervenzelle (Neuron)
Neuronenwachstum
Neuronenwachstum
Synaptische Verbindungen
bei einem Neugeborenen
Synaptische Verbindungen
bei einem drei Monate
alten Kind
Synaptische Verbindungen
bei einem zwei Jahre alten
Kind
Siegmund Exner (1852 -1934)
Entwurf zu einer physiologischen Erklärung der
psychischen Erscheinungen, Leipzig und Wien:1894
Makroskopische Gliederung der Großhirnrinde
Neuronentypen
-
Schematische Darstellung eines Neurons
Santiago Ramón y Cajal (1852 -1934)
Santiago Ramón y Cajal (1852 -1934)
Santiago Ramón y Cajal (1852 -1934)
Natürliche Neuronale Netze
• Eingänge des Nervensystems:
Einige Nervenzellen (z.B. Sinneszellen) können durch Umweltreize
erregt werden.
• Ausgänge des Nervensystems:
Einige Ausgänge von Nervenzellen wirken (über Muskelzellen) auf
die Umwelt ein.
• Erregungsbedingung:
• Eine Nervenzelle geht in den Erregungszustand über, wenn
genügend viele ihrer Eingänge mit erregten Nervenzellen
verbunden sind.
• Unabhängigkeit der Nervenzellen:
Der Zustand einer Nervenzelle ist allein durch die Verhältnisse an
ihren Eingängen bestimmt. Die einzelnen Zellen arbeiten also
unabhängig voneinander.
Natürliche Neuronale Netze
• Aufbau einer Nervenzelle:
Eine Nervenzelle besitzt viele Eingänge, nämlich die synaptischen
Verbindungen, und einen Ausgang, nämlich das Axon.
• Zustände einer Nervenzelle:
Eine Nervenzelle kann zwei Zustände annehmen:
den Ruhezustand und den Erregungszustand.
• Verbindungen der Nervenzellen untereinander:
der Ausgang einer Nervenzelle führt zu den Eingängen
anderer Nervenzellen.
Nicolas Rashevsky (1899-1972)
• begründete 1939 das
Bulletin of Mathematical Biophysics
(heute: Bulletin of Mathematical Biology,
offizielles Journal der Society of
Mathematical Biology)
• Erste Studenten: Alvin Weinberg,
Anatol Rapoport.
• Erstes PhD program in Mathematical
Biology, 1947.
• Arbeitsgebiete:, Neurowissenschaften,
Zellbiology Embryologie, Ökologie,
Psychologie, Soziologie.
• Weitere Studenten: George Karreman,
Herbert Landahl (Mitbegründer der
Society of Mathematical Biology),
Robert Rosen, Robert S. Cohen.
Pioniere der mathematischen Biologie bzw. Neurowissenschaften
Alston Householder
Herbert Landahl
Rashevskys Forschungen in den 1930er Jahren
Nicolas Rashevsky: Mathematical
Biophysics. Nature, April 6, 1935,
p. 528-530: 530.
Cornelius Ubbo Ariëns Kappers
(1877-1946)
Of all cells, the neurones have most completely
lost their property of dividing; we should expect
forces of attraction between them. Indeed the
existence of such forces has been inferred by a
number of neurologists, notably Ariens Kappers
and Ramon y Cajal from various observations.
Santiago Ramón y Cajal
(1852 -1934)
David P. C. Lloyd
(1911 -1985)
Charles Sherrington
(1857 -1952)
Rashevskys Forschungen in den 1930er Jahren
Nicolas Rashevsky: Mathematical
Biophysics. Nature, April 6, 1935,
p. 528-530: 530.
Ivan Petrowitsch Pawlow (1849-1936)
It has been suggested that a formation of new anatomical
connexions between neurones may be the cause of
conditioned reflexes and learning. Calculation shows that the
above forces may account for it. Under certain conditions
they will produce an actual new connexion in a very small
fraction of a second.
This leads us towards a mathematical theory of nervous
functions. We find that, under very general conditions,
aggregates of cells such as are studied above will possess
many properties characteristic of the brain.
Rashevsky: Mathematical Biophysics And Psychology,1936
Psychometrika, Vol. 1, No. 1, September 1936, pp. 1-26.
e = Erregungssubstanz
i
= Hemmungssubstanz
Erregung:
e-i >0
Hemmung:
e-i <0
Rashevsky: Mathematical Biophysics And Psychology,1936
Psychometrika, Vol. 2, No. 3, September 1937, pp. 199-209.
Neuron I: Schwelle h1
Neuron II: Schwelle h2
Erregungsfaktorenen : e1 , e2
Erregungen:
E1 , E2
e1 > h1
e2 > h2
E1 in Neuron I,
E2 in Neuron


II.
Wenn e1 - h1 genügend klein, dann ist E1 genügend klein, dann ist e2 < h2,
dann wird Neuron II nicht erregt.
Wenn e1 - h1 so groß ist, dass E1 und damit e2 so groß sind, dass e2 >h2,
dann wird Neuron II erregt mit E2.
Vernetzte Nervenzellen –
Die Arbeiten von McCulloch und Pitts in den 1940er Jahren
Jack D. Cowan
Jerome Y. Lettvin
Warren Sturgis McCulloch (1899-1972)
• Studium:
ab 1917 Mathematik (Haverford College),
ab 1918 Philosophie und Psychologie
(Offiziersschule in Yale),
Magister in Psychologie (Columbia University,
New York),
dann Medizin (Columbia, New York),
• 1928: Neurologe am Bellvue Hospital, New York,
• 1930: Rockland State Hospital für Geisteskranke, New York
(Forschung zu Kopfverletzungen und Epilepsie)
• Labor für Neurophysiologie (Yale)
• Prof. für Psychiatrie in Illinois, Leiter des Labors für Grundlagenforschung in der Abteilung für Psychiatrie,
(Erforschung von Fragen der Physiologie aus Sicht der Anatomie,
Physik und Chemie).
• 1952: Research Laboratory of Electronics, MIT, Boston,
• 1972 gestorben.
Walter Pitts (1924-196?)
• geb. in Detroit, Michigan,
• keine Abschlüsse in
High School oder College,
• kam 1937 nach Chicago, traf dort Russell,
Carnap, Rashevsky und McCulloch,
•1943: Research Assistant bei Wiener am MIT,
• um 1951 Nervenzusammenbruch,
• 1950er Jahre: Pitts zerstörte Zeugnisse
seines Vorlebens, „verschwunden“,
• starb in den 1960er Jahren.
Warren McCulloch, Walter Pitts
A Logical Calculus of the ideas immanent in nervous
activity.
Bulletin of Mathematical Biophysics, Vol. 5, S. 115133.
Künstliche Neuronen
• Ein Neuron ist ein entweder aktives oder inaktives
binäres Schaltelement.
• Jedem Neuron ist ein fester Schwellenwert eigen.
• Neuronen empfangen Eingaben (inputs) von erregenden
Synapsen, die ihre Aktivierung mit gleichem Gewicht
weitergeben.
• Neuronen empfangen auch Eingaben (inputs) von
hemmenden Synapsen, wodurch ihre Aktivierung gerade
verhindert wird.
• Innerhalb eines kleinen Zeitabschnittes werden die
erregenden Eingaben im Neuron addiert; überschreitet
diese Summe den Schwellenwert des Neurons, so wird
es aktiv.
McCulloch, Leiter der Macy-Treffen der Cybernetic Group“, 1944-1953
McCulloch: Finality and Form
American Lecture Series
(Springfield I11, Charles C. Thomas, 1952).
„Alles-oder-nichts-Impuls“
Wenn ein Klotz angestoßen wird,
fällt er ganz um
oder gar nicht.
Das ist sein Alles-oder-nichts-Impuls.
Refraktärzeit
Es braucht Zeit, ihn wieder aufzustellen.
Das ist die Erholungs- oder Refraktärzeit.
Schwelle
-
latente Summation
Damit er fällt, muss er hinreichend stark
angestoßen werden.
Das ist seine Schwelle.
Ein Stoß, der ihn nicht umfallen lässt,
bringt ihn nur zum Kippen, von wo er in
seine alte Lage zurückkehrt;
aber während er noch kippt, kann er
durch einen zweiten gleichen Schlag
umgeworfen werden.
Das ist latente Summation.
Synaptische Verzögerung
Nachdem ein Klotz angestoßen
wurde, dauert es eine Weile, bis er
umfällt.
Das ist die synaptische Verzögerung.
Zeitliche Summation
Der Impuls und die latente Summation
sind so viel kürzer als die Refraktärzeit
und die synaptische Verzögerung, dass
ein Klotz nie einen anderen umwerfen
kann, indem er ihn zweimal anstößt.
Das ist das Fehlen der zeitlichen
Summation.
Unumkehrbarkeit der Leitungsrichtung
Ein Klotz, der zwei andere umstößt, wirft sie möglicherweise nicht um,
während die beiden Klötze zusammen den ersten umwerfen können.
Das ist die Unumkehrbarkeit der Leitungsrichtung.
Hemmung - Räumliche Summation
Ein Klotz, der gegen die Kante eines
anderen fällt, kann einen dritten daran
hindern, ihn umzuwerfen.
Das ist die Hemmung an einer Synapse.
Zwei Klötze, die gemeinsam einen
dritten anstoßen, können ihn umwerfen,
obwohl jeder allein es nicht geschafft
hätte. Das ist räumliche Summation.
Irritabilität
Nicht zuletzt stammt fast alle zum
Umwerfen eines Bausteins nötige
Energie aus der Lageenergie, die beim
Aufstellen im Baustein gespeichert
wurde.
Diese Energie braucht nicht von dem
Stoß zu kommen, der den Klotz umwirft.
Das ist die Erregbarkeit oder Irritabilität.
Signifikante gleichzeitige Funktionen
Wenn C fällt, folgt daraus, dass entweder
A oder B oder beide eine synaptische
Verzögerung zuvor gefallen sind:
logisches „oder“ (und/oder).
Die logische Relation des Falls von A
und/oder B zu einer bestimmten Zeit,
etwa t =1, wird ihre Disjunktion genannt.
Das Umfallen von C zur Zeit t =2
impliziert nicht das eine oder andere
Ereignis, sondern ihre Disjunktion zur
Zeit t =1.
Signifikante gleichzeitige Funktionen
Wenn G umfallen soll müssen sowohl E
als auch F innerhalb der Periode der
zeitlichen Summation G angestoßen
haben.
Wenn G also zur Zeit t =2 fällt, setzt das
die Konjunktion des Fallens von E und F
zur Zeit t =1 voraus: logisches „und“.
Signifikante gleichzeitige Funktionen
H kann J zum Umfallen bringen, wenn
nicht I gegen den Rand von J fällt und
damit sein Umfallen verhindert.
Konjunktion einer Behauptung mit einer
Negation.
Das Umfallen von J zur Zeit t =2 setzt
voraus, dass zur Zeit t =1 zwar H umfiel,
aber nicht I.
Gedächtnis
Werden Bauklötze nebeneinander im
Kreis aufgestellt und fällt einer um,
so setzt ich das Umfallen im Kreis
fort, bis der letzte Stein auf den
ersten fällt.
Wenn die Klötze so rasch wieder
aufgestellt werden könnten, wie sie
umfallen, würde das Fallen immer
weitergehen.
Das ist eine Art Gedächtnis.
„Wachstum durch Gebrauch“
Wie wird die Aufstellung der Klötze
(bzw. das Neuronennetz) durch die
Impulse verändert?
Regel:
Ein Klotz C, der gleichzeitig mit
einem Klotz R umfällt, der aber nicht
durch C umgestoßen wurde, wird so
wieder aufgestellt, dass er beim
nächsten Mal R umwerfen kann.
Bikonditionale Funktion: „dann und nur dann“
Wenn die Orte und Stoßrichtungen so festgelegt
wurden, dass B beim Umfallen immer C zu Fall
bringt, haben wir Implikation in beiden
Richtungen.
Die Fall von C zur Zeit t = 2 bedingt das
Umfallen von B zur Zeit t = 1.
Jetzt bedingt aber auch das Umfallen von B zur
Zeit t = 1 das Umfallen von C zur Zeit t = 2.
„Reflexe“
McCulloch, Pitts: A Logical Calculus of the Ideas Immanent in Nervous Activity
Bulletin of Mathematical Biophysics, Vol. 5, S. 115-133.
Struktur eines typischen künstlichen Neuronalen Netzes
Interpretation des neuronalen Netzes als Funktion
Struktur eines typischen künstlichen Neuronalen Netzes
Interpretation des neuronalen Netzes als Black Box
Struktur eines typischen künstlichen Neuronalen Netzes
Auswertung einer Funktion mit n Argumenten
Struktur eines typischen künstlichen Neuronalen Netzes
Generisches Neuron mit Integrationsteil und Ausgabeteil
Integrationsteil: g Zusammenfassung der Eingabe
Ausgabeteil: f Berechnung der Ausgabe
McCulloch-Pitts-Neuron
McCulloch-Pitts-Neuronen zum Aufbau logischer Funktionen
McCulloch-Pitts-Neuronen zum Aufbau logischer Funktionen
Logische Funktionen
Frank Rosenblatt, 1957: Perzeptron
Frank Rosenblatt, 1957: Perzeptron
Frank Rosenblatt, 1957: Perzeptron
McCulloch-Pitts-Zellen: geometrische Interpretation
McCulloch-Pitts-Zellen: geometrische Interpretation
Perzeptron; geometrische Interpretation
Logische Funktionen
XOR-Problem
x1
x2
x1 XOR x2
0
0
0
1
0
1
0
1
1
1
1
0
McCulloch und Pitts: Logik der Neuronen
Donald Olding Hebb (1904-1985)
Unser Gedächtnis beruht wahrscheinlich darauf, dass synaptische Verbindungen zwischen gleichzeitig aktiven Nervenzellen gestärkt werden. Eine solche Veränderung der synaptischen Stärke wird als Hebb'sches Lernen bezeichnet.
Donald Olding Hebb (1904-1985)
Tatsächlich kann nach wiederholter gleichzeitiger Stimulation eine Zunahme der
synaptischen Verbindungsstärke festgestellt werden:
Nach dem Hebb‘schen Modell entsteht in Gruppen von Nervenzellen, die untereinander durch
positive Rückkopplung verbunden sind, kreisende Erregung.
Diese Erregungszustände betrachtete Hebb als Grundlage von psychischen Komponenten
wie Ideen und Vorstellungen.
Gruppen von Nervenzellen, von Hebb als "Zellgesellschaften" bezeichnet, bilden sich durch
Verstärkung von synaptischen Verbindungen zwischen gleichzeitig aktiven Nervenzellen.
Hebb hat sein Modell vorgeschlagen, ohne über experimentelle Hinweise darauf zu verfügen.
Mittlerweile hat man aber in verschiedenen Regionen des Gehirns Synapsen mit genau
diesen Eigenschaften gefunden. Man bezeichnet sie heute als Hebb'sche Synapsen.
Modell-Neuron
Body
Axon
Nerveneigenschaften
Nerveneigenschaften
Logische Operationen
“Wenn A dann B”
Neuron A
Neuron B
Logische Operationen
“Wenn A oder B dann C”
Neuron A
Neuron B
Neuron C
Logische Operationen
Neuron A
“Wenn A oder B dann C”
Neuron C
Neuron B
Logische Operationen
Neuron A
“Wenn A und nicht B dann C”
Neuron C
Neuron B
XOR-Problem
 = w1 x1 + w2 x2,
woraus folgt:
x2 = - (w1 / w2) x1 + ( / w2)
Auf der einen Seite der Geraden gilt:
w1 x1 + w2 x2 > ,
d. h. Neuron ist aktiv.
Auf der anderen Seite der Geraden:
w1 x1 + w2 x2 < ,
d. h. Neuron ist nicht aktiv.
XOR-Problem
x1 = 0 und x2 = 1: y soll 1 sein.
x1 = 1 und x2 = 0: y soll 1 sein.
x1 = 0 und x2 = 0: y soll 0 sein.
x1 = 1 und x2 = 1: y soll 0 sein.
D. h.: w1 0 +
D. h.: w1 1 +
D. h.: w1 0 +
D. h.: w1 1 +
w2 1  ,
w2 0  ,
w2 0 < ,
w2 1 < ,
Addieren der beiden ersten Ungleichungen ergibt:
Aus den letzten beiden Ungleichungen folgt:
 > w1 + w2  2,
Das gilt aber nur für  < 0.
Dies steht im Widerspruch zu w1 0 + w2 0 < .
d. h. aktiv!
d. h. aktiv!
d. h. inaktiv!
d. h. inaktiv!
w1 + w2  2 ,
also  >2.
Zwei nicht linear trennbare Muster
in einem 2-dim. Merkmalsraum
in einem 3-dim. Merkmalsraum
Marvin Minsky und Seymour Papert 1969
L. A. Zadeh, 1963: Optimality and Non-Scalar-Valued Performance Criteria
Eine Teilmenge (constraint set) C von  sei durch Einschränkungen an das System S definiert.
Auf  sei eine partielle Ordnung „“ definiert, wodurch jedem System S in  die folgenden drei
disjunkten Teilmengen von  zugeordnet werden können:
>(S):
(S):
~(S):
Teilmenge aller Systeme, die besser als S sind (superior).
Teilmenge aller Systeme, die schlechter oder gleich S sind (inferior).
Teilmenge aller Systeme, die mit S nicht vergleichbar sind.
>(S)  (S)  ~(S) = .
Definition 1:
Ein System S0 ist in C nichtinferior, wenn gilt: C  >(S0) = Ø.
(Es gibt somit kein System in C, das besser als S0 ist.)
Definition 2:
Ein System S0 ist in C optimal, wenn gilt: C  (S0).
(Jedes System in C ist somit schlechter (inferior) als S0 oder gleich S0.)
L. A. Zadeh, 1963: Optimality and Non-Scalar-Valued Performance Criteria
Ist die Menge  aller betrachteten Systeme durch ein skalares Kriterium
vollständig geordnet, dann gilt:
~(S0)=  und >(S0) und (S0) sind komplementäre
Mengen.
Wenn C >(S0) = , dann gilt sicher: (S0)  C.
Nichtinferiorität und Optimalität sind äquivalent; Unterschied der Begriffe ist nicht erkennbar.
Vorschlag: Partielle Ordnung von  durch vektorwertiges Leistungskriterium berücksichtigen:
System S sei durch x = (x1, ..., xn) charakterisiert, dessen reellwertige Komponenten z. B.
die Werte von n veränderlichen Parametern des Systems S sind.
C sei Teilmenge des n-dimensionalen Euklidischen Raumes.
Die Leistung des Systems S werde durch einen m-dimensionalen-Vektor p(x) = [p1(x), ..., pm(x)]
gemessen, wobei pi(x), i = 1, ..., m, reellwertige Funktion von x ist.
Es gilt nun S ≥ S´  p(x) ≥ p(x‘).
Das heißt also:
pi(x) ≥ pi (x‘), i = 1, ..., m.
L. A. Zadeh, 1963:
Optimality and Non-Scalar-Valued Performance Criteria
L. A. Zadeh, 1963:
Optimality and Non-Scalar-Valued Performance Criteria
Separation Theorem for Fuzzy Sets
Herunterladen