UNIVERSITY OF PADERBORN Projektgruppe KIMAS NN in MAS 10.09.2003 Thomas Heinen Projektgruppe KIMAS – Neuronale Netze in MAS 1/31 Inhalt UNIVERSITY OF PADERBORN Motivation + Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Projektgruppe KIMAS – Neuronale Netze in MAS 2/31 Motivation UNIVERSITY OF PADERBORN Was ist das Besondere an künstlichen neuronalen Netzen ? Natürliches Lernprinzip anpassungsfähig Was für Anwendungen ? Mustererkennung Regelung Einordnung von Text, Bildern, … (sogenanntes Clustering) usw. Projektgruppe KIMAS – Neuronale Netze in MAS 3/31 Definitionsversuche UNIVERSITY OF PADERBORN FAQ der comp.ai.neural-nets: “An ANN is a network of many very simple processors, each possibly having a local memory. The units are connected by unidirectional communication channels, which carry numeric data. The units operate only on their local data and on the inputs they receive via the connection” DARPA, 1988: “A neural network is a system composed of many simple processing elements operating in parallel whose function is determined by network structure, connection strengths, and the processing performed at computing elements or nodes” Projektgruppe KIMAS – Neuronale Netze in MAS 4/31 Randbedingungen UNIVERSITY OF PADERBORN Neuronale Netze sind bei gewissen Randbedingungen am leistungsfähigsten: Viele Trainingsdaten Gegebenenfalls jemanden, der das Lernen überwacht Genug Zeit zum Lernen Gut ausbalancierte Trainingsdaten Projektgruppe KIMAS – Neuronale Netze in MAS 5/31 Das Panzer-Problem UNIVERSITY OF PADERBORN Keine Erfolgsstory: Projekt zur Panzererkennung der DARPA (80er Jahre) „Panzer gefunden“ ? „kein Panzer“ !? Die volle Story unter http://neil.fraser.name/writing/tank/ Projektgruppe KIMAS – Neuronale Netze in MAS 6/31 Inhalt UNIVERSITY OF PADERBORN Motivation + Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Projektgruppe KIMAS – Neuronale Netze in MAS 7/31 Geschichte: 1942-1955 UNIVERSITY OF PADERBORN Erste Betrachtungen 1942 von McCulloch/Pitts: Untersuchung der Fähigkeiten von NN Beweis, daß NN jede arithmetische/logische Funktion lösen Donald Hebb beschreibt eine universelle Lernregel 1949 Noch immer Basis vieler moderner Ansätze Weitere psychologische und neuropsychologische Arbeiten Projektgruppe KIMAS – Neuronale Netze in MAS 8/31 Geschichte: 1955-1969 UNIVERSITY OF PADERBORN Das „Perzeptron“ als einfache Architektur eines NN wird entwickelt. Erster echter Neurocomputer 1957 (Mark I Perceptron) Gewichte mit 512 motorbetriebenen Potentiomentern Erkennung einfacher Ziffern mit 20*20 Sensoren Erste Neurocomputing-Firma „Memistor Corporation“ Glaube, universelle Lernprinzipien entdeckt zu haben Fehleinschätzung und erstes Motivationstief Projektgruppe KIMAS – Neuronale Netze in MAS 9/31 Geschichte: 1969-1984 UNIVERSITY OF PADERBORN Minsky/Papert untersuchen das „Perzeptron“ 1969 theoretisch Schock: Nicht alle Probleme lösbar („XOR-Problem“) Warum? Erläutere ich im 5. Abschnitt des Vortrags … Diese Erkenntnis lässt es fast 15 Jahre still werden um die NN Weitergehende theoretische Forschung Backpropagation Lernregel Stereosehen mit Neuronalen Netzen Hopfield-Netze, Neocognitron, ART und viele andere Projektgruppe KIMAS – Neuronale Netze in MAS 10/31 Geschichte: 1984- UNIVERSITY OF PADERBORN Schwierige Optimierungsaufgaben als praxistaugliche Beispiele Traveling Salesman Problem durch Hopfield Backpropagation wird verbessert (ab 1986) Höheres Lerntempo durch ausgefeilte Optimierungen Viele Anwendungen werden erschlossen: NN lernen das Vorlesen von Text Neurocomputer von Siemens Robotikanwendungen Projektgruppe KIMAS – Neuronale Netze in MAS 11/31 Inhalt UNIVERSITY OF PADERBORN Motivation + Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Projektgruppe KIMAS – Neuronale Netze in MAS 12/31 Das Original UNIVERSITY OF PADERBORN Neuronen im Gehirn: Abertausendfach verbunden: 2.000 – 150.000 Eingangssignale 1.000 – 10.000 Ausgangssignale Geschätzte 110 Milliarden Neuronen Elektrische Signalisierung Umfangreiche chemische Einflüsse: Neurotransmitter (Serotonin, Taurin, …) Neuropeptide (Endorphine, …) Projektgruppe KIMAS – Neuronale Netze in MAS 13/31 Die Fälschung UNIVERSITY OF PADERBORN Neuronen im Computer: Geringere Ein- und Ausgangszahlen: 10 – 100 Eingangssignale noch weniger Ausgangssignale 100 – 10.000 Neuronen insgesamt Signalisierung durch Numerische Werte Chemie meist nicht berücksichtigt Aufteilung: Eingabeschicht Verdeckte Schichten Ausgabeschicht Projektgruppe KIMAS – Neuronale Netze in MAS 14/31 Inhalt UNIVERSITY OF PADERBORN Motivation Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Projektgruppe KIMAS – Neuronale Netze in MAS 15/31 Komponenten: Neuronen UNIVERSITY OF PADERBORN Begriff für eine „Recheneinheit“ in einem Neuronalen Netz Nur „lokale Sicht“ auf Vorgänger im Netz und sich selbst Bekommt mehrere Eingaben, berechnet einen Ausgabewert Berechnung erfolgt durch verschiedenen Funktionen Projektgruppe KIMAS – Neuronale Netze in MAS 16/31 Komponenten: Funktionen UNIVERSITY OF PADERBORN Aggregationsfunktion Fassen Eingangssignale zusammen zu einem Wert (z.B. Summe). Gegebenenfalls wird das Ergebnis noch skaliert Aktivierungsfunktion Berechnet den Ausgabewert. Verschiedene Funktionen: binär, linear, sigmoid („s-förmig“) Projektgruppe KIMAS – Neuronale Netze in MAS 17/31 Komponenten: Topologie UNIVERSITY OF PADERBORN Art des Verbindungsschemas bestimmt Funktion des Netzes Verschiedenste Arten von Topologien: Vollständig verbundene Netze Jedes Neuron einer Schicht hat Verbindungen zu allen der vorherigen. Vorwärtsgerichtete Netze Es gibt immer nur Verbindungen Richtung Ausgabeschicht Rekurrente Netze Ausgaben werden auch an Vorgängerzellen zurückgegeben Projektgruppe KIMAS – Neuronale Netze in MAS 18/31 Komponenten: Gewichte UNIVERSITY OF PADERBORN Eingaben haben eine Priorität, ein sogenanntes „Gewicht“ Jeder Eingabewert wird mit seinem Gewicht multipliziert Diese Werte faßt die Aggregationsfunktion zusammen. Vorgänger können auch ignoriert werden (Nullgewicht) Selber Effekt wie eine fehlende Verbindung zum Vorgänger Meist werden die Gewichte als Adjazenzmatrix gespeichert. Berechnungsvorgang dann durch Matrizenmultiplikation Projektgruppe KIMAS – Neuronale Netze in MAS 19/31 Komponenten: Lernregel UNIVERSITY OF PADERBORN Bisherige verändert sich nichts beim NN. Woher kommt das „Lernen ?“ Fehler bei der Erkennung werden durch das Netz zurückgeleitet. Dabei werden die bestehenden Gewichte der Verbindungen geändert. Fehler werden von außen durch Trainer signalisiert: Richtig / Falsch Prozentualer Wert der Richtigkeit Komplexere Beschreibungen der Abweichung („Fehlervektor“) „Lernregeln“ berechnen die Gewichtsänderung abhängig vom signalisierten Fehler. Projektgruppe KIMAS – Neuronale Netze in MAS 20/31 Inhalt UNIVERSITY OF PADERBORN Motivation Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Projektgruppe KIMAS – Neuronale Netze in MAS 21/31 Hebbsche Lernregel UNIVERSITY OF PADERBORN Entwickelt schon 1949 von Donald Hebb Urvater der meisten moderneren Lernverfahren Parameter: wij Gewichtsänderung der Verbindung von Neuron i zu Neuron j n Lerngeschwindigkeit (Konstanter Wert) oi Ausgabe der Vorgängerzelle i aj Aktivierung der Nachfolgezelle j Projektgruppe KIMAS – Neuronale Netze in MAS 22/31 Perzeptron: Einstufig UNIVERSITY OF PADERBORN Eine der ersten Strukturen in der Forschung zu Neuronalen Netzen Eingabe ist mit Sensormatrix verbunden Einsatz einer binären Aktivierung (Ausgabe „ja“ und „nein“) Mathematisch formuliert: Durch den Raum der Eingaben wird eine Ebene gelegt, die die „falschen“ von den „richtigen“ Aussagen trennt Projektgruppe KIMAS – Neuronale Netze in MAS 23/31 Perzeptron: Das XOR-Problem UNIVERSITY OF PADERBORN Untersuchung des Perzeptrons war der Stolperstein der NN 1969: Erkenntnis, daß nicht alle Probleme „linear separierbar“ sind Die XOR-Funktion wird dann wahr, wenn die Eingaben gleich sind Nicht durch eine Linie aufzuteilen Die Funktion ist nicht abzubilden. Folgerung von Minsky `69: Perzeptrons können nur linear separierbare Probleme lösen Projektgruppe KIMAS – Neuronale Netze in MAS 24/31 Perzeptron: zweistufig UNIVERSITY OF PADERBORN Neuron Nr.6 bekommt die Funktion eines AND: Gewichte zum Neuron 6 sind jeweils fest auf 0.3 Das sechste Neuron wird erst bei 0.3 * 3 = 0.9 wahr Projektgruppe KIMAS – Neuronale Netze in MAS 25/31 Perzeptron: Akzeptanzbereiche UNIVERSITY OF PADERBORN Einfaches Perzeptron: Akzeptanz durch lineare Separierung Zweistufiges Perzeptron: Komplexere Akzeptanz durch logische Verknüpfungen Damit ist klar, daß die Folgerung von Minsky und Papert falsch war. Projektgruppe KIMAS – Neuronale Netze in MAS 26/31 Inhalt UNIVERSITY OF PADERBORN Motivation Definition Geschichte Original und „Fälschung“ Komponenten Bekannte Verfahren Fazit Projektgruppe KIMAS – Neuronale Netze in MAS 27/31 Pro UNIVERSITY OF PADERBORN Biologisch motiviert Intelligenz durch Imitation der Natur, wenngleich in abgespeckter Form (Vernachlässigung der Chemie, kleinere Dimensionen) Sehr anpassungsfähig Neuronale Netze können als sogenanntes online-Lernverfahren auch nach dem Training noch lernen. Viele andre Lernverfahren sind dagegen „offline“ (zum Beispiel Genetische Algorithmen) Projektgruppe KIMAS – Neuronale Netze in MAS 28/31 Contra UNIVERSITY OF PADERBORN Relativ hoher Trainingsaufwand In unserem Fall müßte man im Training vermutlich hunderte Spiele durchlaufen lassen. Probleme der Flexibilität Bei einer Strategieänderung des „Gegners“ wäre eine neue Trainingsphase das beste => wieder hunderte Spiele. Projektgruppe KIMAS – Neuronale Netze in MAS 29/31 Das Fazit vom Fazit UNIVERSITY OF PADERBORN Neuronale Netze sind keine generelle Lösung Wir sollten eine Kombination von Lernverfahren nutzen Beispielsweise schnelle offline-Lernverfahren für generelle Strategien Neuronale Netze für schnelle Anpassungen Projektgruppe KIMAS – Neuronale Netze in MAS 30/31 Werbung :) UNIVERSITY OF PADERBORN In der Ausarbeitung wesentlich mehr Stoff: Details zu natürlichen NN Kategorisierung von Neuronalen Netzen Zwei weitere, modernere Lernregeln Neuronale Netze und Genetische Algorithmen im Zusammenspiel Projektgruppe KIMAS – Neuronale Netze in MAS 31/31