Künstliche neuronale Netze - Westsächsische Hochschule Zwickau

Werbung
Künstliche neuronale Netze
Sibylle Schwarz
Westsächsische Hochschule Zwickau
Dr. Friedrichs-Ring 2a, RII 263
http://wwwstud.fh-zwickau.de/~sibsc/
[email protected]
SS 2010
Softcomputing
Einsatz zum Lösen von Problemen,
I
die unvollständig beschrieben sind,
I
die keine eindeutige Lösung haben,
I
für die keine effizienten Algorithmen bekannt sind, usw.
einige Ansätze:
I
Fuzzy-Logik, probabilistische Logik
I
Neuronale Netze
I
Evolutionäre Algorithmen
I
Schwarm-Intelligenz
Neuronale Netze
Modellierung und Simulation der Strukturen und Mechanismen
im Nervensystem von Lebewesen
Biologisches Vorbild
Nervenzellen (Neuronen)
Struktur (eines Teiles) eines
Nervensystems
Aktivierung von Neuronen,
Reizübertragung
Anpassung (Lernen)
Mathematisches Modell
künstliche Neuronen
künstliche neuronale Netze (KNN)
unterschiedlicher Struktur
künstlichen Neuronen zugeordnete
Funktionen
Änderungen verschiedener Parameter des KNN
Natürliche Neuronen
ZNS besteht aus miteinander verbundenen Nervenzellen
(Neuronen)
Bild (Tafel)
Struktur eines Neurons:
I
Zellkörper
I
Dendriten
I
Synapsen (verstärkende, hemmende)
I
Axon
Natürliche Neuronen – Funktionsweise
Informationsübertragung durch elektrochemische Vorgänge:
I
aktivierte Zelle setzt an Synapsen Neurotransmitter frei,
I
Neurotransmitter ändern die Durchlässigkeit der
Zellmembran für Ionen an den Dendriten der
empfangenden Zelle,
I
Potential innerhalb der empfangenden Zelle ändert sich
durch diffundierende Ionen,
I
überschreitet die Summe der an allen Synapsen
entstandenen Potentiale (Gesamtpotential) der Zelle einen
Schwellwert, entsteht ein Aktionsspotential (Zelle feuert),
I
Aktionspotential (Spannungsspitze) durchquert das Axon
(Nervenfaser) zu den Synapsen zu Nachbarzellen,
I
aktivierte Zelle setzt an Synapsen Neurotransmitter frei,
usw.
Stärke der Information durch Häufigkeit der Spannungsspitzen
(Frequenzmodulation).
Natürliche Neuronen – Lernen
Speicherung von Informationen durch Anpassung der
Durchlässigkeit (Leitfähigkeit) der Synapsen
I
Synapsen zwischen gleichzeitig aktiven Zellen werden
immer durchlässiger (Reizschwelle wird verringert),
Signal an dieser Synapse wird stärker,
I
lange nicht benutzte Synapsen verlieren mit der Zeit ihre
Durchlässigkeit (Reizschwelle wird erhöht)
Signal an dieser Synapse wird schwächer.
Eigenschaften natürlicher neuronaler Netze
I
geringe Taktrate 10− 3 s
Vergleich: CPU 10−8 s
I
parallele Arbeit sehr vieler (1011 ) Neuronen
Vergleich: CPU 105 Gatter
I
Neuronen sehr stark miteinander vernetzt
(ca. 10 000 Nachbarn)
I
Verarbeitungseinheit = Speicher
Vorteile:
I
hohe Arbeitsgeschwindigkeit durch Parallelität,
I
Funktionsfähigkeit auch nach Ausfall von Teilen des
Netzes,
I
Lernfähigkeit,
I
Möglichkeit zur Generalisierung, usw.
Ziel: Nutzung dieser Vorteile durch Modellierung von
Problemen als künstliche neuronale Netze
Anwendungen künstlicher neuronaler Netze
I
Bildverarbeitung, z.B. Schrifterkennung, Kantenerkennung
I
Medizin, z.B. Auswertung von Langzeit-EKGs
I
Sicherheit, z.B. Identifizierung
I
Wirtschaft, z.B. Aktienprognosen, Kreditrisikoabschätzung
I
Robotik, z.B. Laufenlernen
Einordnung in das Gebiet der KI
Problemlösen:
I
symbolisch
durch Regeln, Algorithmen
Problemlösen durch Schließen oder Programmieren
z.B. Logik, Programmierung
I
semantisch, fallbasiert
durch Angabe von Beispielen
Problemlösen durch Lernen
z.B. KNN, evolutionäre Algorithmen, Schwarm-Intelligenz,
statistische Methoden,
Künstliche neuronale Netze:
I
Wissensrepräsentation
I
Maschinelles Lernen
I
Paralleles Berechnungsmodell
Künstliche neuronale Netze als Berechnungsmodell
lokale Berechnungen – globale Wirkung
Fragen:
I
Welche Funktionen können durch KNN der verschiedenen
Typen berechnet werden?
I
Welche Arten von KNN sind Turing-vollständig?
Geschichte
Neuron – Nerv (griechisch)
I
Warren McCulloch, Walter Pitts (1943):
A logical calculus of the ideas immanent in nervous activity
I
Donald O. Hebb (1949):
The organization of behaviour
I
1958 erster Neurocomputer
(Ziffernerkennung in 20 × 20-Bildsensor)
I
Frank Rosenblatt (1960): MARK 1
I
Marvin Minsky, Seymour Papert (1969): Perceptrons
Inhalt der Lehrveranstaltung
I
I
künstliche Neuronen (Aufbau und Funktion)
Netz-Topologien:
I
I
I
I
I
Lernverfahren:
I
I
I
I
Einschicht-Feed-Forward-Netze
Mehrschicht-Feed-Forward-Netze
Rückgekoppelte Netze
Assoziativspeicher
überwacht
unüberwacht
bestärkend
Anwendungen:
I
I
I
Klassifikation
Mustererkennung
Clustering
Literatur
I
Rojas: Theorie der neuronalen Netze
I
Nauck, Klawonn, Kruse:
Neuronale Netze und Fuzzy-Systeme
I
Callan: Neuronale Netze
I
Zell: Simulation neuronaler Netze
I
Hoffmann: Neuronale Netze
I
Schöneburg: Neuronale Netzwerke.
Einführung, Überblick und Anwendungsmöglichkeiten
Organisation der Lehrveranstaltung
http://wwwstud.fh-zwickau.de/~sibsc/lehre/ss10/nn/
Vorlesung Dienstag 11:20-12:50 in PBS 203
(12 Vorlesungen)
am 16.
Hausaufgaben (zur Vorbereitung auf die Prüfung)
zu (fast) jeder Vorlesung eine Übungsserie
Besprechung der Lösungen zu Beginn der
folgenden Vorlesung
praktische Aufgaben (freiwillig)
Wer möchte, kann fast alle besprochenen Netze in
JavaNNS modellieren und ausprobieren:
http://www.ra.cs.uni-tuebingen.de/
software/JavaNNS/welcome_e.html
Prüfung (Klausur)
gesamtes Modul Softcomputing 90 min
davon ca. 45 min KNN
Herunterladen