Kognitive Systeme Ziele der Vorlesung

Werbung
12.08.2008
Kognitive Systeme
Einführung
Martin V. Butz
Psychologie III ‐ Universität Würzburg
http://www.coboslab.psychologie.uni‐wuerzburg.de/Teaching/KogSysSS2008
Cognitive Bodyspaces:
Learning and Behavior
Ziele der Vorlesung
• Verstehen von intelligenten Verhaltenssystemen, d.h. von „Kognitiven Systemen“
– Abstrahierung und Modellierung dieser Systeme zum Verständnis
g
g
y
– Design von „besseren“ künstlichen, intelligenten Systemen
• Zwei grundsätzliche (sich ergänzende) Ansätze
– Neuronal‐psychologisch orientierter Ansatz
• Gehirnstrukturen und Verhalten analysieren
• Modelle bauen: – Um die Struktur, Aufbau, Entwicklung und Verhalten zu verstehen;
– Um darauf basierend „bessere“ künstliche kognitive Systeme zu bauen. – „Embodied“ Künstliche Intelligenz Ansatz
• Verstehen von Sensorisch‐Motorischen Körper‐Geist Interaktionen
– Analyse und Modellierung von intelligenten, morphologischen Körperstrukturen
– Analyse und Modellierung von einfachen, aber sehr komplexen, intelligenten Verhaltensmustern
– Hypothesen, Bauen & Testen, Hypothesanpassung, ‐erweiterung, ‐neugenerierung
1
12.08.2008
Was Man Am Ende Wissen Soll
• Intelligenz hat viele „Gesichter“
• Körper und Geist sind ineinander verwoben
Körper und Geist sind ineinander verwoben
• Grundsätzliche modulare, vielschichtige Struktur / Aufbau unseres Gehirns
–
–
–
–
Neuronale Informationsübertragung
Sensorische Verarbeitungsstrukturen
Motorische Kontrollstrukturen
Sensomotorische Interaktion
• Überblick über Neuronale Netze und deren Eigenschaften
Üb bl k b
l
dd
h f
• Überblick und einzelne spezielle Modelle von
– Neuronalen Hirnstrukturen
– Intelligenten, kognitiven Verhaltensmechanismen
Motivationen für diese Vorlesung
Motivation für Forschung in diese Richtung
Interdisziplinärer Forschungsansatz
KOGNITIVE SYSTEME –
KOGNITIVE SYSTEME –
WARUM?
2
12.08.2008
Motivation I: Traditioneller KI Ansatz weniger
erfolgreich als gedacht
• Symbolische KI • In den 1960ern, großer Hype
– Systeme intelligenter als der Mensch in wenigen Jahrzenten
S
i lli
l d M
hi
i
J h
• Erfolge
– Expertensysteme, Diagnosesysteme
– Planung in definierten Umgebungen
– Formale Umgebungen
• Schach und andere Spiele (1997, Kasparow ‐ Deep Blue: 2.5 ‐ 3.5)
• Logik
• Lösung zu abstrakten Problemen
• Misserfolge
g
–
–
–
–
Sprachverstehen
Flexible sich selbst bewegende Roboter
Lernende Systeme
Wenig Intelligenz, selbständiges Denken, Innovation
• Intelligenz != Reines Ausrechnen
Motivation II: Traditionelle Verhaltenspsychologie nicht ausreichend als Erklärung für Verhalten
• Behaviorism
– Ivan Pavlov (1849‐1936): Klassische Konditionierung (Hund)
Ivan Pavlov (1849 1936): Klassische Konditionierung (Hund)
http://nobelprize.org/educational_games/medicine/pavlov/pavlov.html
– B.F. Skinner (1904‐1990): Skinnerbox, Operante Konditionierung, Radical Behaviorism
– Reiz‐Reaktions Lernen mit Belohnung / Bestrafung
• Aber wir können doch viel mehr
–
–
–
–
–
Zielorientiertheit
Innovation
Träumen
Verhalten und Körperkontrolle
Intelligenz, Gefühl, Mitgefühl, Soziale Interaktion, …
3
12.08.2008
Motivation III: Neurowissenschaften
• Traditionelle Neuronale Netzwerke
– Neurone haben nicht viel mehr als Name gemeinsam
– Backpropagation ist nicht plausibel also Modell
– Trotzdem viele Erfolge in datamining und auch der kognitiven Psychologie als Prozessmodell
• Neuere Erkenntnisse aus den Neurowissenschaften
– Hubel & Wiesel und die ersten neuronalen Strukturen (Nobelpreis, 1981 für die Entdeckung der visuellen Verarbeitung im Gehirn)
– Kortikale Karten und Enkodierungen
– Modularisierung des Gehirns
g
• Moderne neuronale Netze
– Rekurrente, dynamische Netzwerke
– Selbstorganisierende Strukturen
– Hybride
Motivation IV: Andere
• Sprachwissenschaften
– Universelle Grammatik
– Noam Chomsky (*1928)
– Grammatik und die Frage: Nature / Nurture (Gene oder Lernen)
• Vehaltensbiologie
– Beispiel: Wie Ameisen zurück zum Nest finden
• Schnappschuss um das Loch in naher Umgebung zu finden
• Annäherung durch Abschätzung des polarisierten Lichts und gelaufene Distanz
– Sogar noch einfacheres Modell: „Average landmark vector model“ (Ralf Möller)
– Ähnliches einfaches Verhalten bei der Kontrolle im Bienenflug
• Entwicklungspsychologie / ‐robotik
Entwicklungspsychologie / robotik
–
–
–
–
Führt zur Entwicklung von sich selbst entwickelnden Systemen
Intelligenz von „null“ auf
Humanoide Roboter
Evolutionäre Methoden – Künstliches Leben (Artificial Life)
4
12.08.2008
Kognitive Systeme: Interdisziplinarität
„Frame Problem“
„Symbol Grounding Problem“
PROBLEME DES KLASSISCHEN KOGNITIVEN ANSATZES
5
12.08.2008
Probleme des klassischen KI Ansatzes
• Verstehen von Szenen, Bildern oder Gesichtern
• Effektive und adaptive Manipulation von Objekten
• Erlernen von Objektpermanenz (die verschwinden nicht einfach!)
• Gehen, laufen, rennen, Fahrrad fahren, tanzen
– Monty python. „The ministry of silly walks“
http://www.youtube.com/watch?v=NdO9YbY9y48&NR=1
http://www.sillywalksgenerator.com/
• Sprachverarbeitung und ‐verstehen
• Grundsätzlicher Verstand
Grundsätzlicher Verstand
– Beispiele
• Trinken (Durst, Flüssigkeit, Bier, Bionade, Durstlöschen, Frische, Gefäße, Physikalische Eigenschaften, Mund etc., Konsumierung, …)
• Bewegung (Körper, Objekt, Wind, Ortsveränderung, Gehen, Beine, Räder, Flügel, Straße, Fluss, …)
Das Frame (Rahmen) Problem
• Zentrales Problem: Wie kann “Veränderung” vernünftig dargestellt werden. • Welche Effekte einer Veränderung sind wichtig? • Grundsätzlich können ja alle Nebeneffekte wichtig sein. • Somit sollten ja auch alle möglichen Effekte in der Entscheidungsfindung mit berücksichtigt werden.
• Können aber unendlich viele sein.
• Ist abhängig vom Model, wie viele Nebeneffekte möglich sind.
gg
,
g
• Somit die Problematik: – Prädiktionsproblem: Was ist wirklich wichtig?
– Qualifikationsproblem: Wurden alle Bedingungen spezifiziert, die den Erfolg einer Aktion garantieren? 6
12.08.2008
Das Frame Problem ‐
Das Frame Problem ‐ Beispiel
Daniel Dennett
American philosopher (“philosophy of mind”)
• R1
“ b t”
“robot”
• R1D1
“robot deducer”
• R2D1
“robotrelevant‐
deducer
deducer”
by Isabelle Follath
Das „Symbol Das „Symbol Grounding
Grounding“ Problem
“ Problem
• Wie
Wie repräsentieren repräsentieren
Symbole eigentlich die reale Welt?
• Klassische KI: Symbole sind durch die Syntax miteinander verbunden
• Um Dinge somit zu verifizieren, kann nur ein Mensch als Experte herangezogen werden. 7
12.08.2008
Das „Symbol Grounding
Das „Symbol Grounding“ Problem
“ Problem
Was Bedeuten Symbole Wirklich?
• Ziel: Das Problem lösen mittels embodied KI Ansatz
– Entwicklung von Kognitiven Systemen, die durch den eigenen Körper und die Interaktion mit der Umwelt lernen.
– Symbole werden selbständig aus den Interaktionskodes generiert und zur Kommunikation genutzt. Symbole sind also direkt Körper‐Umwelt korreliert.
– Symbole können dabei aus Attraktorzuständen in der morphologischen Dynamik des Geist‐Körper‐
Umweltsystems entstehen (wie das geht und mehr dazu später)
Mind‐Body Problem
Homunculus Problem
Turing Test
Intelligenz & Bewusstsein
PHILOSOPHISCHE ÜBERLEGUNGEN Ü
ZU KÖRPER UND GEIST
8
12.08.2008
Plato: Geist & Erkenntnis
(424/423 BC –– 348/347) (424/423 BC • Geist und Körper: – LLehnt Idee ab, dass der Geist h t Id
b d d G it
die Organisation des Körpers wiederspiegelt (in „Phaedo“).
– Favorisiert den Gedanken des unsterblichen, nicht‐materiellen Geistes.
http://lssacademy.com/2008/01/14/shadows‐or‐reality/
• Höhlengleichnis: Der Der
eingeschränkte, unwissende
Mensch, der nur mit größter Mühe mehr erfahren kann (in „Politeía“).
http://www.phil‐o‐sophie.de/waswiss/stufe1.html
Descartes: Geist
Descartes: Geist‐‐Körper Problem
• Descartes (1596 – 1650)
– Gedanken als Existenzbeweis:
• "Je pense, donc je suis" (Discours de la méthode pour bien conduire sa raison, et chercher la verité dans les sciences, 1637)
• "Dubito, ergo cogito, ergo sum"
(Principles of Philosophy (Principia philosophiae) 1644)
– Wegbereiter des modernen wissenschaftlichen Ansatzes und der p
Philosophie. – Das Mind‐Body Problem (Dualismus):
Wie kann ein nicht‐materieller Geist, einen materiellen Körper kontrollieren?
http://www.optics.arizona.edu/Nofziger/UNVR195a/
Class3/Descartes3.jpg
9
12.08.2008
Das Homunculus Problem
(Cartesian Theatre ‐‐ Daniel Dennett, 1991)
(Cartesian Theatre • Das Menschlein‐im‐Mensch Problem
• Homunculus (Geist) observiert die sensorischen Inputs und schickt Kommandos
• Interne Re‐präsen‐
tationen alleine sind nicht wirklich nützlich
• Wieso besitzen wir interne Repräsentationen?
• Und wie kommt das Gefühl und Bewusstsein zustande?
Können Maschinen Denken?
Alan Turing (1912
1912––1954 )
Alan Turing
“I propose to consider the question, "Can machines think?" Thi h ld b i ith d fi iti
This should begin with definitions of the meaning of the terms f th
i
f th t
"machine" and "think." The definitions might be framed so as to reflect so far as possible the normal use of the words, but this attitude is dangerous, If the meaning of the words "machine" and "think" are to be found by examining how they are commonly used it is difficult to escape the conclusion that the meaning and the answer to the question, "Can machines think?" is to be sought in a statistical survey such as a Gallup poll. ut this is absurd. Instead of attempting such a definition I
poll. But this is absurd. Instead of attempting such a definition I shall replace the question by another, which is closely related to it and is expressed in relatively unambiguous words. The new form of the problem can be described in terms of a game which we call the 'imitation game‘.“ (p. 433)
Turing (1950) Computing machinery and intelligence. Mind 59, 433‐460.
10
12.08.2008
Der Turing Test = „The imitation
„The imitation game
game““
Turing (1950) Computing machinery
Turing (1950) Computing machinery and intelligence. intelligence. Mind
Mind 59, 433‐
59, 433‐460.
• Wird von drei Leuten gespielt:
– Mann (A)
M
(A)
– Frau (B)
– Fragenstellende(r) (C)
• Fragensteller stellt Fragen an A und / oder B ohne sie zu sehen noch zu hören.
– Beispiel: Kann mir X bitte sagen wie lang sein/ihr Haar ist.
• Ziel ist es, das Geschlecht von A und B zu erraten.
– Beispiel: X ist A (männlich) und Y ist B (weiblich)
• A soll den Fragenstellenden verwirren, B soll ihm helfen.
• Die eigentliche Frage: “We now ask the question, "What will happen when a machine takes the part of A in this game?" Will the interrogator decide wrongly as often when the game is played like this as he does when the game is played between a man and a woman? These questions replace our original, "Can machines think?" (p. 434)
Das „Chinese Room
Das „Chinese Room“ Problem
“ Problem
(John Searle, 1980) http://www.iep.utm.edu/c/chineser.htm
• Chinese room
– Raum mit unendlich vielen Chinesischen Zeichen
– Ein Regelwerk in Englisch, um mit den Zeichen um zu gehen
Ei R l
k i E li h
it d Z i h
h
– Mensch, der die Regeln nutzt, um auf einkommende Zeichen, Antworten zu generieren.
– Außenstehender testet den “Chinese room”.
• Konsequenz: −
−
Mensch innen weiß nicht, was er macht. Er manipuliert manipuliert
bedeutungslose Symbole (“weak AI” System)
Mensch außen könnte trotzdem denken, dass der Mensch innen intelligent ist, Chinesisch versteht, Meinungen hat, etc...
11
12.08.2008
Searle: Programme
Searle: Programme vs. “Minds”
(“Derivation from axioms“, 1989, p. 701; “Is the Brain's Mind a Computer Program?“, 1990, p. 27) • Drei Grundaxiome:
– (A1) Programs are formal (syntactic).
– (A2) Minds
(A2) Mi d have
h
mental contents
t l
t t (semantics).
(
ti )
– (A3) Syntax by itself is neither constitutive of nor sufficient for semantics. • Führt zur Schlussfolgerung: – (C1) Programs are neither constitutive of nor sufficient for minds. • Viertes Axiom (p. 29): – (A4) Brains cause minds. • Dies soll somit zu den folgenden (angeblich triviale) Schlussfolgerungen führen: – (C2)
(C2) Any
Any other system capable of causing
of causing minds would have to have causal powers
(at least) equivalent to those of brains. – (C3) Any artifact that produced mental phenomena, any artificial brain, would have
to be able to duplicate the specific causal powers of brains, and it could not do that
just by running a formal program.
– (C4) The way that human brains actually produce mental phenomena cannot be
solely by virtue of running a computer program. Searle‘s Dualismus
• John Searle (1980): John Searle
– „Brains
Brains cause minds
minds“
– „Syntax doesn't suffice for semantics“
– “Weak AI” gegenüber “Strong AI” („Dualismus“ vs. „Funktionalismus“, „Behaviorismus“ und Andere)
• Problem des Chinese Room: Es fehlt die Semantik
– Wieder
Wieder das „Symbol grounding
das Symbol grounding“ Problem
Problem
– Es fehlen intentionale, mentale, bedeutungsvolle Zustände und Repräsentation
– Somit nicht wirklich intelligent
12
12.08.2008
Was ist Intelligenz?
• Intelligenztests – eher symbolisch. Andere Intelligenzmasse / Begabungen
• Andere Intelligenzmasse / Begabungen
–
–
–
–
Soziale Intelligenz (Beispiel: Empathie; „folk‐psychology“)
Sportliche Intelligenz
Musikalische Intelligenz
Sprachliche Intelligenz
• Aber auch „normale“ Intelligenz
– Körperkontrolle
– Allgemeinwissen (Beispiel: Physik)
– Sprachverstehen, Kommunikationsfähigkeit, Spracherlernen
– Anpassungsfähigkeit
Intelligenz Allgemeiner Gesehen
• Fähigkeit der Anpassung des Körpers und des Verhaltens
– An Muster/Prozesse in bestimmter (lokaler) Umgebung
– Zum „zufriedenem, glücklichem“ Leben.
• Flexible Ausübung von verschiedensten, alternativen Verhaltensweisen passend zu den aktuellen Gegebenheiten
– Bewegungsflexibilität
– Sprachflexibilität
• „Höhere Intelligenz
Höhere Intelligenz“:: – Fähigkeit zu Verstehen wieso Dinge so sind, sich so verhalten, und sich so entwickeln, wie sie das nun mal tun.
– Fähigkeit der Abstraktion und der Symbolisierung.
– Erkenntnis von allgemeinen Gesetzmäßigkeiten (Beispiel Physik) 13
12.08.2008
Was ist Bewusstsein?
• Noch schwerere Frage
• Bewusstseinszustände
–
–
–
–
–
Synchronisationszustände
Schlafen, Wachsein
Unterbewusstsein
Imlizites vs. Explizites Bewusstsein
Zustandsbewusstsein
• Das Problem der „Qualia“ –
der Qualitative Eindruck des Bewusstseins
• Die Frage des ICH und der Freie Wille
Zusammenfassung
• Problem der klassischen, symbolischen KI
– Frame Problem:
F
P bl
• „Was muss alles berücksichtigt werden?“
– Symbol grounding Problem:
• „Was bedeuten Symbole?“
• Was ist Intelligenz?
– Körperbeherrschung
– Anpassungsfähigkeit
A
fähi k i
– Abstraktionsfähigkeit
• Was ist Bewusstsein?
– „Qualia“ Problem
• Philosophische Überlegungen
– Mind‐Body Problem:
• „Wie interagieren Geist und Körper?“
– Homunculus Problem:
• „Wofür ist Re‐präsentation gut?“
– Turing Test & Chinese Room:
• „Wann ‚denkt‘ ein Computer?“
• „Wann ist ein Computer ‚intelligent‘?“
• Nächste Woche:
– Embodied KI
– Wichtigkeit der Wichtigkeit der
Körpermorphologie
– Verhalten, Adaption, Lernen, & Evolution
– Emergenz
14
Herunterladen