12.08.2008 Kognitive Systeme Einführung Martin V. Butz Psychologie III ‐ Universität Würzburg http://www.coboslab.psychologie.uni‐wuerzburg.de/Teaching/KogSysSS2008 Cognitive Bodyspaces: Learning and Behavior Ziele der Vorlesung • Verstehen von intelligenten Verhaltenssystemen, d.h. von „Kognitiven Systemen“ – Abstrahierung und Modellierung dieser Systeme zum Verständnis g g y – Design von „besseren“ künstlichen, intelligenten Systemen • Zwei grundsätzliche (sich ergänzende) Ansätze – Neuronal‐psychologisch orientierter Ansatz • Gehirnstrukturen und Verhalten analysieren • Modelle bauen: – Um die Struktur, Aufbau, Entwicklung und Verhalten zu verstehen; – Um darauf basierend „bessere“ künstliche kognitive Systeme zu bauen. – „Embodied“ Künstliche Intelligenz Ansatz • Verstehen von Sensorisch‐Motorischen Körper‐Geist Interaktionen – Analyse und Modellierung von intelligenten, morphologischen Körperstrukturen – Analyse und Modellierung von einfachen, aber sehr komplexen, intelligenten Verhaltensmustern – Hypothesen, Bauen & Testen, Hypothesanpassung, ‐erweiterung, ‐neugenerierung 1 12.08.2008 Was Man Am Ende Wissen Soll • Intelligenz hat viele „Gesichter“ • Körper und Geist sind ineinander verwoben Körper und Geist sind ineinander verwoben • Grundsätzliche modulare, vielschichtige Struktur / Aufbau unseres Gehirns – – – – Neuronale Informationsübertragung Sensorische Verarbeitungsstrukturen Motorische Kontrollstrukturen Sensomotorische Interaktion • Überblick über Neuronale Netze und deren Eigenschaften Üb bl k b l dd h f • Überblick und einzelne spezielle Modelle von – Neuronalen Hirnstrukturen – Intelligenten, kognitiven Verhaltensmechanismen Motivationen für diese Vorlesung Motivation für Forschung in diese Richtung Interdisziplinärer Forschungsansatz KOGNITIVE SYSTEME – KOGNITIVE SYSTEME – WARUM? 2 12.08.2008 Motivation I: Traditioneller KI Ansatz weniger erfolgreich als gedacht • Symbolische KI • In den 1960ern, großer Hype – Systeme intelligenter als der Mensch in wenigen Jahrzenten S i lli l d M hi i J h • Erfolge – Expertensysteme, Diagnosesysteme – Planung in definierten Umgebungen – Formale Umgebungen • Schach und andere Spiele (1997, Kasparow ‐ Deep Blue: 2.5 ‐ 3.5) • Logik • Lösung zu abstrakten Problemen • Misserfolge g – – – – Sprachverstehen Flexible sich selbst bewegende Roboter Lernende Systeme Wenig Intelligenz, selbständiges Denken, Innovation • Intelligenz != Reines Ausrechnen Motivation II: Traditionelle Verhaltenspsychologie nicht ausreichend als Erklärung für Verhalten • Behaviorism – Ivan Pavlov (1849‐1936): Klassische Konditionierung (Hund) Ivan Pavlov (1849 1936): Klassische Konditionierung (Hund) http://nobelprize.org/educational_games/medicine/pavlov/pavlov.html – B.F. Skinner (1904‐1990): Skinnerbox, Operante Konditionierung, Radical Behaviorism – Reiz‐Reaktions Lernen mit Belohnung / Bestrafung • Aber wir können doch viel mehr – – – – – Zielorientiertheit Innovation Träumen Verhalten und Körperkontrolle Intelligenz, Gefühl, Mitgefühl, Soziale Interaktion, … 3 12.08.2008 Motivation III: Neurowissenschaften • Traditionelle Neuronale Netzwerke – Neurone haben nicht viel mehr als Name gemeinsam – Backpropagation ist nicht plausibel also Modell – Trotzdem viele Erfolge in datamining und auch der kognitiven Psychologie als Prozessmodell • Neuere Erkenntnisse aus den Neurowissenschaften – Hubel & Wiesel und die ersten neuronalen Strukturen (Nobelpreis, 1981 für die Entdeckung der visuellen Verarbeitung im Gehirn) – Kortikale Karten und Enkodierungen – Modularisierung des Gehirns g • Moderne neuronale Netze – Rekurrente, dynamische Netzwerke – Selbstorganisierende Strukturen – Hybride Motivation IV: Andere • Sprachwissenschaften – Universelle Grammatik – Noam Chomsky (*1928) – Grammatik und die Frage: Nature / Nurture (Gene oder Lernen) • Vehaltensbiologie – Beispiel: Wie Ameisen zurück zum Nest finden • Schnappschuss um das Loch in naher Umgebung zu finden • Annäherung durch Abschätzung des polarisierten Lichts und gelaufene Distanz – Sogar noch einfacheres Modell: „Average landmark vector model“ (Ralf Möller) – Ähnliches einfaches Verhalten bei der Kontrolle im Bienenflug • Entwicklungspsychologie / ‐robotik Entwicklungspsychologie / robotik – – – – Führt zur Entwicklung von sich selbst entwickelnden Systemen Intelligenz von „null“ auf Humanoide Roboter Evolutionäre Methoden – Künstliches Leben (Artificial Life) 4 12.08.2008 Kognitive Systeme: Interdisziplinarität „Frame Problem“ „Symbol Grounding Problem“ PROBLEME DES KLASSISCHEN KOGNITIVEN ANSATZES 5 12.08.2008 Probleme des klassischen KI Ansatzes • Verstehen von Szenen, Bildern oder Gesichtern • Effektive und adaptive Manipulation von Objekten • Erlernen von Objektpermanenz (die verschwinden nicht einfach!) • Gehen, laufen, rennen, Fahrrad fahren, tanzen – Monty python. „The ministry of silly walks“ http://www.youtube.com/watch?v=NdO9YbY9y48&NR=1 http://www.sillywalksgenerator.com/ • Sprachverarbeitung und ‐verstehen • Grundsätzlicher Verstand Grundsätzlicher Verstand – Beispiele • Trinken (Durst, Flüssigkeit, Bier, Bionade, Durstlöschen, Frische, Gefäße, Physikalische Eigenschaften, Mund etc., Konsumierung, …) • Bewegung (Körper, Objekt, Wind, Ortsveränderung, Gehen, Beine, Räder, Flügel, Straße, Fluss, …) Das Frame (Rahmen) Problem • Zentrales Problem: Wie kann “Veränderung” vernünftig dargestellt werden. • Welche Effekte einer Veränderung sind wichtig? • Grundsätzlich können ja alle Nebeneffekte wichtig sein. • Somit sollten ja auch alle möglichen Effekte in der Entscheidungsfindung mit berücksichtigt werden. • Können aber unendlich viele sein. • Ist abhängig vom Model, wie viele Nebeneffekte möglich sind. gg , g • Somit die Problematik: – Prädiktionsproblem: Was ist wirklich wichtig? – Qualifikationsproblem: Wurden alle Bedingungen spezifiziert, die den Erfolg einer Aktion garantieren? 6 12.08.2008 Das Frame Problem ‐ Das Frame Problem ‐ Beispiel Daniel Dennett American philosopher (“philosophy of mind”) • R1 “ b t” “robot” • R1D1 “robot deducer” • R2D1 “robotrelevant‐ deducer deducer” by Isabelle Follath Das „Symbol Das „Symbol Grounding Grounding“ Problem “ Problem • Wie Wie repräsentieren repräsentieren Symbole eigentlich die reale Welt? • Klassische KI: Symbole sind durch die Syntax miteinander verbunden • Um Dinge somit zu verifizieren, kann nur ein Mensch als Experte herangezogen werden. 7 12.08.2008 Das „Symbol Grounding Das „Symbol Grounding“ Problem “ Problem Was Bedeuten Symbole Wirklich? • Ziel: Das Problem lösen mittels embodied KI Ansatz – Entwicklung von Kognitiven Systemen, die durch den eigenen Körper und die Interaktion mit der Umwelt lernen. – Symbole werden selbständig aus den Interaktionskodes generiert und zur Kommunikation genutzt. Symbole sind also direkt Körper‐Umwelt korreliert. – Symbole können dabei aus Attraktorzuständen in der morphologischen Dynamik des Geist‐Körper‐ Umweltsystems entstehen (wie das geht und mehr dazu später) Mind‐Body Problem Homunculus Problem Turing Test Intelligenz & Bewusstsein PHILOSOPHISCHE ÜBERLEGUNGEN Ü ZU KÖRPER UND GEIST 8 12.08.2008 Plato: Geist & Erkenntnis (424/423 BC –– 348/347) (424/423 BC • Geist und Körper: – LLehnt Idee ab, dass der Geist h t Id b d d G it die Organisation des Körpers wiederspiegelt (in „Phaedo“). – Favorisiert den Gedanken des unsterblichen, nicht‐materiellen Geistes. http://lssacademy.com/2008/01/14/shadows‐or‐reality/ • Höhlengleichnis: Der Der eingeschränkte, unwissende Mensch, der nur mit größter Mühe mehr erfahren kann (in „Politeía“). http://www.phil‐o‐sophie.de/waswiss/stufe1.html Descartes: Geist Descartes: Geist‐‐Körper Problem • Descartes (1596 – 1650) – Gedanken als Existenzbeweis: • "Je pense, donc je suis" (Discours de la méthode pour bien conduire sa raison, et chercher la verité dans les sciences, 1637) • "Dubito, ergo cogito, ergo sum" (Principles of Philosophy (Principia philosophiae) 1644) – Wegbereiter des modernen wissenschaftlichen Ansatzes und der p Philosophie. – Das Mind‐Body Problem (Dualismus): Wie kann ein nicht‐materieller Geist, einen materiellen Körper kontrollieren? http://www.optics.arizona.edu/Nofziger/UNVR195a/ Class3/Descartes3.jpg 9 12.08.2008 Das Homunculus Problem (Cartesian Theatre ‐‐ Daniel Dennett, 1991) (Cartesian Theatre • Das Menschlein‐im‐Mensch Problem • Homunculus (Geist) observiert die sensorischen Inputs und schickt Kommandos • Interne Re‐präsen‐ tationen alleine sind nicht wirklich nützlich • Wieso besitzen wir interne Repräsentationen? • Und wie kommt das Gefühl und Bewusstsein zustande? Können Maschinen Denken? Alan Turing (1912 1912––1954 ) Alan Turing “I propose to consider the question, "Can machines think?" Thi h ld b i ith d fi iti This should begin with definitions of the meaning of the terms f th i f th t "machine" and "think." The definitions might be framed so as to reflect so far as possible the normal use of the words, but this attitude is dangerous, If the meaning of the words "machine" and "think" are to be found by examining how they are commonly used it is difficult to escape the conclusion that the meaning and the answer to the question, "Can machines think?" is to be sought in a statistical survey such as a Gallup poll. ut this is absurd. Instead of attempting such a definition I poll. But this is absurd. Instead of attempting such a definition I shall replace the question by another, which is closely related to it and is expressed in relatively unambiguous words. The new form of the problem can be described in terms of a game which we call the 'imitation game‘.“ (p. 433) Turing (1950) Computing machinery and intelligence. Mind 59, 433‐460. 10 12.08.2008 Der Turing Test = „The imitation „The imitation game game““ Turing (1950) Computing machinery Turing (1950) Computing machinery and intelligence. intelligence. Mind Mind 59, 433‐ 59, 433‐460. • Wird von drei Leuten gespielt: – Mann (A) M (A) – Frau (B) – Fragenstellende(r) (C) • Fragensteller stellt Fragen an A und / oder B ohne sie zu sehen noch zu hören. – Beispiel: Kann mir X bitte sagen wie lang sein/ihr Haar ist. • Ziel ist es, das Geschlecht von A und B zu erraten. – Beispiel: X ist A (männlich) und Y ist B (weiblich) • A soll den Fragenstellenden verwirren, B soll ihm helfen. • Die eigentliche Frage: “We now ask the question, "What will happen when a machine takes the part of A in this game?" Will the interrogator decide wrongly as often when the game is played like this as he does when the game is played between a man and a woman? These questions replace our original, "Can machines think?" (p. 434) Das „Chinese Room Das „Chinese Room“ Problem “ Problem (John Searle, 1980) http://www.iep.utm.edu/c/chineser.htm • Chinese room – Raum mit unendlich vielen Chinesischen Zeichen – Ein Regelwerk in Englisch, um mit den Zeichen um zu gehen Ei R l k i E li h it d Z i h h – Mensch, der die Regeln nutzt, um auf einkommende Zeichen, Antworten zu generieren. – Außenstehender testet den “Chinese room”. • Konsequenz: − − Mensch innen weiß nicht, was er macht. Er manipuliert manipuliert bedeutungslose Symbole (“weak AI” System) Mensch außen könnte trotzdem denken, dass der Mensch innen intelligent ist, Chinesisch versteht, Meinungen hat, etc... 11 12.08.2008 Searle: Programme Searle: Programme vs. “Minds” (“Derivation from axioms“, 1989, p. 701; “Is the Brain's Mind a Computer Program?“, 1990, p. 27) • Drei Grundaxiome: – (A1) Programs are formal (syntactic). – (A2) Minds (A2) Mi d have h mental contents t l t t (semantics). ( ti ) – (A3) Syntax by itself is neither constitutive of nor sufficient for semantics. • Führt zur Schlussfolgerung: – (C1) Programs are neither constitutive of nor sufficient for minds. • Viertes Axiom (p. 29): – (A4) Brains cause minds. • Dies soll somit zu den folgenden (angeblich triviale) Schlussfolgerungen führen: – (C2) (C2) Any Any other system capable of causing of causing minds would have to have causal powers (at least) equivalent to those of brains. – (C3) Any artifact that produced mental phenomena, any artificial brain, would have to be able to duplicate the specific causal powers of brains, and it could not do that just by running a formal program. – (C4) The way that human brains actually produce mental phenomena cannot be solely by virtue of running a computer program. Searle‘s Dualismus • John Searle (1980): John Searle – „Brains Brains cause minds minds“ – „Syntax doesn't suffice for semantics“ – “Weak AI” gegenüber “Strong AI” („Dualismus“ vs. „Funktionalismus“, „Behaviorismus“ und Andere) • Problem des Chinese Room: Es fehlt die Semantik – Wieder Wieder das „Symbol grounding das Symbol grounding“ Problem Problem – Es fehlen intentionale, mentale, bedeutungsvolle Zustände und Repräsentation – Somit nicht wirklich intelligent 12 12.08.2008 Was ist Intelligenz? • Intelligenztests – eher symbolisch. Andere Intelligenzmasse / Begabungen • Andere Intelligenzmasse / Begabungen – – – – Soziale Intelligenz (Beispiel: Empathie; „folk‐psychology“) Sportliche Intelligenz Musikalische Intelligenz Sprachliche Intelligenz • Aber auch „normale“ Intelligenz – Körperkontrolle – Allgemeinwissen (Beispiel: Physik) – Sprachverstehen, Kommunikationsfähigkeit, Spracherlernen – Anpassungsfähigkeit Intelligenz Allgemeiner Gesehen • Fähigkeit der Anpassung des Körpers und des Verhaltens – An Muster/Prozesse in bestimmter (lokaler) Umgebung – Zum „zufriedenem, glücklichem“ Leben. • Flexible Ausübung von verschiedensten, alternativen Verhaltensweisen passend zu den aktuellen Gegebenheiten – Bewegungsflexibilität – Sprachflexibilität • „Höhere Intelligenz Höhere Intelligenz“:: – Fähigkeit zu Verstehen wieso Dinge so sind, sich so verhalten, und sich so entwickeln, wie sie das nun mal tun. – Fähigkeit der Abstraktion und der Symbolisierung. – Erkenntnis von allgemeinen Gesetzmäßigkeiten (Beispiel Physik) 13 12.08.2008 Was ist Bewusstsein? • Noch schwerere Frage • Bewusstseinszustände – – – – – Synchronisationszustände Schlafen, Wachsein Unterbewusstsein Imlizites vs. Explizites Bewusstsein Zustandsbewusstsein • Das Problem der „Qualia“ – der Qualitative Eindruck des Bewusstseins • Die Frage des ICH und der Freie Wille Zusammenfassung • Problem der klassischen, symbolischen KI – Frame Problem: F P bl • „Was muss alles berücksichtigt werden?“ – Symbol grounding Problem: • „Was bedeuten Symbole?“ • Was ist Intelligenz? – Körperbeherrschung – Anpassungsfähigkeit A fähi k i – Abstraktionsfähigkeit • Was ist Bewusstsein? – „Qualia“ Problem • Philosophische Überlegungen – Mind‐Body Problem: • „Wie interagieren Geist und Körper?“ – Homunculus Problem: • „Wofür ist Re‐präsentation gut?“ – Turing Test & Chinese Room: • „Wann ‚denkt‘ ein Computer?“ • „Wann ist ein Computer ‚intelligent‘?“ • Nächste Woche: – Embodied KI – Wichtigkeit der Wichtigkeit der Körpermorphologie – Verhalten, Adaption, Lernen, & Evolution – Emergenz 14