Künstliche Intelligenz Geplanter Inhalt • • • • • • • • • Einführung: Fragestellungen, Ziele Suche, Suchmethoden Evolutionäre Algorithmen, genetische Algorithmen Lernverfahren Aussagenlogik Prädikatenlogik logisches Programmieren Zeitlogik von Allen Beschreibungslogiken • vermutlich nicht mehr: Modallogik KI, SS 11, Folien 1 , Seite 1 11. April 2011 Literatur: Lehrbücher • D. Poole, and A. Mackworth, Artificial Intelligence: Foundations of Computational Agents. Cambridge University Press, 1998. • S.J. Russel and P. Norvig. Artificial Intelligence: A Modern Approach. Prentice Hall, 1995. • D. Poole, A. Mackworth, and R. Goebel. Computational Intelligence: A Logical Approach. Oxford University Press, 1998. • Franz Baader, Deborah McGuiness, Daniele Nardi, and Peter Patel-Schneider. The description logic handbook. Cambridge university press, 2002. • Christoph Beierle and Gabriele Kern-Isberner. Methoden wissensbasierter Systeme. Vieweg, 2000. weitere siehe Skript KI, SS 11, Folien 1 , Seite 2 11. April 2011 Anwendungen und Gebiete der Künstlichen Intelligenz • Programmierung strategischer Spiele (Schach, ...) • Automatisches/Interaktives Problemlösen und Beweisen • Natürlichsprachliche System (Computerlinguistik) • Bildverarbeitung • Robotik • (medizinische) Expertensysteme • Maschinelles Lernen KI, SS 11, Folien 1 , Seite 3 11. April 2011 Einführung Artificial Intelligence “ ” ( Künstliche Intelligenz“) ” Fernziel : Herstellung eines Vorstellung: Messlatte: intelligenten“ Agenten ” Agent operiert selbständig in einer Umwelt und zeigt intelligentes Verhalten. die menschlichen kognitiven Leistungen. ?? Mensch = intelligenter Agent?? Unterziele Untersuchung von Methoden und Techniken zur Herstellung eines intelligenten Agenten. Herstellung eines möglichst guten (autonomen, lernenden, intelligenten, automatischen) informationsverarbeitenden Systems. KI, SS 11, Folien 1 , Seite 4 11. April 2011 Systeme für KI-Teilaspekte • • • • • • • Taschenrechner schachspielender Computer (Deep Thought, Deep Fritz) Sprachübersetzer wissensbasierte Systeme Texterkennung Textverständnis; und Hintergrundwissen (Watson-Programm) (Haushalts-, Industrie-) Roboter intelligente Informationssysteme KI, SS 11, Folien 1 , Seite 5 11. April 2011 Bemerkungen zur Geschichte der KI 1950: A. Turing: Imititationsspiel 1956 J. McCarthy Dartmouth Konferenz: Start des Gebietes “artificial intelligence“ und Formulierung der Ziele. 1957- 1962 “allgemeiner Problemlöser“ Entwicklung von LISP (higher-order, Parser und Interpreter zur Laufzeit) Dameprogramm von A. Samuels (adaptierend “lernend“) Newell & Simon: GPS (General Problem Solver) KI, SS 11, Folien 1 , Seite 6 11. April 2011 Geschichte der KI 1963-1967 spezialisierte Systeme • semantische Verarbeitung (Benutzung von Spezialwissen über das Gebiet • Problem des Common Sense • Resolutionsprinzip im automatische Beweisen KI, SS 11, Folien 1 , Seite 7 11. April 2011 Geschichte der KI 1968- 1972 Modellierung von Mikrowelten • MACSYMA mathematische Formel-manipulation • DENDRAL Expertensystem zur Bestimmung von organischen Verbindungen mittels Massenspektroskopie • SHRDLU, ELIZA: erste Versuche zur Verarbeitung natürlicher Sprache KI, SS 11, Folien 1 , Seite 8 11. April 2011 Geschichte der KI 1972-77 Wissensverarbeitung als Technologie • medizinisches Expertensystem: MYCIN • D. Lenats AM (automated mathematics) • KI-Sprachentwicklungen: PLANNER, KRL PROLOG KL-ONE KI, SS 11, Folien 1 , Seite 9 11. April 2011 Geschichte der KI 1977- Entwicklung von Werkzeugen Trend zur Erarbeitung von Grundlagen; • Expertensystem-Schalen (E-MYCIN) • Fifth generation project in Japan (beendet) • • • • Computerlinguistik künstliche neuronale Netze logisches Programmieren 1985 Doug Lenats CYC (http://www.cyc.com/) KI, SS 11, Folien 1 , Seite 10 11. April 2011 (Wissensdatenbank) Aktuelle Forschungsrichtungen • Textuelles Sprachverstehen ; (Wahlster: Verbmobil-Projekt) • Watson: Sprachverstehen durch probabilistisches Lernen und Riesen-Datenbanken (analog zu Suche im Internet mit HitRanking) (Doug lenats CYC scheint auch noch aktiv) • Automatische Deduktion • Robotik • künstliche neuronale Netze • ... • siehe spezialisierte Konferenzen, Journals, Bücher Mensch-Computer-Dialoge. (auch embodied artificial intelligence“, R. Pfeifer). ” KI, SS 11, Folien 1 , Seite 11 11. April 2011 Begriff: Intelligenter Agent“ ” Intelligenter Agent (Robot): • Computer + Wissensbasis + Programme • agiert in der (physikalischen) Umwelt. Varianten softbot (webbot): agieren im / mit dem WWW (z.B. Informationsbeschaffung von Google). KI, SS 11, Folien 1 , Seite 12 11. April 2011 Begriff: Intelligenter Agent“ ” Eingaben und Zustände • Vorwissen über die Umgebung • Erfahrungswissen, Fälle; erlerntes Wissen Ausgaben: • Ziele, mit Prioritäten und Wichtigkeiten. • Beobachtungen zur Umgebung und über sich selbst. • Aktionen Vorwissen Erfahrungswissen Ziele, Prioritäten Beobachtungen KI, SS 11, Folien 1 , Seite 13 11. April 2011 Agent Aktion Kognitive Simulation Kognitive Simulation 6= Künstlichen Intelligenz Unterschiede zur KI: Ziel der Kognitiven Simulation: Erforschung des menschlichen Denkens durch Simulationen und Experimente mittels Computer. Beispiele: wie erkennt ein Mensch Gesichter? Wie denkt ein Mathematiker? Wie funktioniert Lernen, Spracherwerb (des Menschen) KI, SS 11, Folien 1 , Seite 14 11. April 2011 Kognitive Simulation Ein Computerprogramm, nennt man kognitiv adäquat wenn es sowohl von der Struktur und den Methoden her als auch von den Leistungen her wie ein Mensch arbeitet. Beispiel Ein Taschenrechner ist nicht kognitiv adäquat, da Menschen anders addieren und multiplizieren. KI, SS 11, Folien 1 , Seite 15 11. April 2011 Kognitive Simulation: Annahme • • • • informationsverarbeitende Prozesse sind formal beschreibbar operieren auf Repräsentationen Kognitive Leistungen sind unabhängig von der materiellen Basis. d.h. unabhängig davon, ob die Prozesse im Gehirn ablaufen oder auf einem technischen Gerät (Computer?). KI, SS 11, Folien 1 , Seite 16 11. April 2011 Kognitive Simulation: Methoden: • • • Theoretische Analyse kognitiver Funktionsbereiche Modellierung kognitiver Prozesse durch Computer(-programme) empirische Untersuchungen; Verhalten, auch biologische Grundlagen, Psychologie, Neurologie Empirische Untersuchungen am Menschen: • • • Introspektion Problemlösungsprotokolle (Lautes Problemlösen) Zeitmessungen KI, SS 11, Folien 1 , Seite 17 11. April 2011 Künstlichen Intelligenz und Philosophie Einige philosophische Richtungen: Materialismus Behaviorismus Funktionalismus KI, SS 11, Folien 1 , Seite 18 11. April 2011 Materialismus Es gibt nichts außer der Materie. Diese bewirkt auch den Geist bzw. die Gedanken eines Menschen. D.h. nach unserem Wissenschaftsverständnis: alles was einen Menschen ausmacht ist prinzipiell analysierbar mittels naturwissenschaftlicher Methoden (Chemie, Physik, Biologie, ...) also: Im Prinzip auch konstruierbar KI, SS 11, Folien 1 , Seite 19 11. April 2011 Behaviorismus Nur das Beobachtbare ist Gegenstand der Wissenschaft. Nur verifizierbare Fragen sind sinnvolle Fragen. Glauben, Ideen, Wissen sind nicht direkt, sondern nur indirekt beobachtbar. Bewußtsein, Ideen, Glaube, Furcht, usw sind Umschreibungen für bestimmte Verhaltensmuster Problem dieser Sichtweise: zum Verifizieren braucht man evtl. unendlich viele Beobachtungen. Zum Falsifizieren kann eine genügen. Systeme sind äquivalent, wenn sie gleiches Input-Output-Verhalten zeigen. KI, SS 11, Folien 1 , Seite 20 11. April 2011 Funktionalismus geistige Zustände (Ideen, Glauben,Furcht, ...) sind (funktionale) interne Zustände eine komplexen Systems Röhren-Radio Transistor-Radio sind funktional äquivalent. Radio und CD-Player nicht. Die These läuft darauf hinaus, dass der Mensch im Prinzip ein endlicher Automat mit Ein/Ausgabe ist, wenn auch mit sehr vielen Zuständen. Der Zustand S1 des Systems A is funktional äquivalent zu Zustand S2 ” des Systems B, gdw. A und B bei gleicher Eingabe die gleiche Ausgabe liefern und in funktional äquivalente Zustände übergehen “ KI, SS 11, Folien 1 , Seite 21 11. April 2011 KI: Prinzipien und allgemeine Fragen Was ist intelligentes Denken / Verhalten? Wann hat man das Ziel erreicht, einen intelligenten Agenten zu programmieren? Analoge Fragen: • • • Kann eine Maschine denken? Kann ein Computer/ Roboter ein Bewußtsein haben? Kann ein Computer etwas verstehen? KI, SS 11, Folien 1 , Seite 22 11. April 2011 Imitationsspiel Alan Turings Vorschlag zum Testen der Fähigkeit eines Computers: ein Simulationsspiel: der Turingtest. Es gibt zwei Spieler: A und B. A befragt B per Terminal und soll herausfinden, ob B ein Mensch oder ein Computer (Computer-programm) ist. Kommunikationsleitung A B Texte (bzw. Text + Video) Ein Computerprogramm (B) besteht den Turingtest, wenn es so gut antwortet wie ein Mensch. Das Interview soll ca 30 Minuten dauern KI, SS 11, Folien 1 , Seite 23 11. April 2011 Turing-Test; Bewertung Problem: Dieser Test ist nicht objektiv, sondern hängt ab: • von den Fähigkeiten des Spielers A • vom Wissen des Spielers A über aktuelle Fähigkeiten eines Computers Verbesserrung der Objektivität: Wiederholen des Experimentes durch verschiedene A-Spieler nachfolgende Abstimmung. KI, SS 11, Folien 1 , Seite 24 11. April 2011 Gegenargument zur Aussagekraft des Turingtests Datenbank-Argument (jukebox-argument) Die Anzahl der Eingaben und Ausgaben ist begrenzt (30 min tippen), alle möglichen Dialoge vorher in einer großen Datenbank Die Antworten kommen aus der Datenbank Frage: Ist diese Datenbank + Abfragemechanismus intelligent? Mehr Datenbankeinträge nötig als Atome im Universum.! KI, SS 11, Folien 1 , Seite 25 11. April 2011 Eliza: Simulations eines Psychotherapeuten Struktur und Vorgehensweise von ELIZA • Es gibt vorgefertigte Phrasen, die zufällig ausgewählt werden, wenn das System nichts versteht: Erzählen sie etwas aus ihrer Jugend!“ ” • Methode der Textverarbeitung von ELIZA: Suche nach Schlüsselwörtern in der Eingabe und Patternmatching. Daraus wird eine Ausgabe generiert: Erzählen sie mir mehr über ” xyz!“ Gegenbeispiel zum Turingtest?? KI, SS 11, Folien 1 , Seite 26 11. April 2011 Starke / schwache KI-Hypothese Starke KI-Hypothese: • Ein entsprechend gut programmierter Computer hat Verstand und kann denken • Es gibt keinen prinzipiellen Unterschied zwischen einem Menschen und einer Maschine (Computer). Ein Testverfahren dazu könnte der Turingtest sein. Schwache KI-Hypothese: man kann alle intelligenten Fähigkeiten eines Menschen auch mittels eines Computerprogramms hervorbringen KI, SS 11, Folien 1 , Seite 27 11. April 2011 Gedankenexperiment Chinesischer Raum ” Versuch zur Klärung zum Begriff Verstehen“ (von John Searle) ” Ziel dieses Gedankenexperimentes: ein technisches System hat kein Verständnis der Inhalte es gibt keinen Computer der etwas versteht“ ” KI, SS 11, Folien 1 , Seite 28 11. April 2011 Gedankenexperiment Chinesischer Raum ” Jemand, der kein chinesisch versteht, sitzt in einem Raum. Es gibt dort ein dickes Handbuch, und einen Stapel beschriftete Blätter. Durch einen Schlitz erhält die Person einen Zettel mit chinesischen Schriftzeichen. Unter Zuhilfenahme des Handbuchs und der bereits beschrifteten Blätter erzeugt er neue Zettel auf seinem Stapel und einen neuen beschrifteten Zettel (mit chinesischen Schriftzeichen) und reicht diesen nach außen. KI, SS 11, Folien 1 , Seite 29 11. April 2011 Gedankenexperiment Chinesischer Raum ” Fragen: • • Versteht derjenige in chinesischen Raum chinesisch ? versteht das Gesamtsystem chinesisch ? Searles Argument: kein Teil versteht etwas vom Inhalt, also kann das System nichts verstehen. Gegenargument (behaviouristisch): das Gesamtsystem versteht etwas. KI, SS 11, Folien 1 , Seite 30 11. April 2011 Prothesen-Gedankenexperiment • • Das Gehirn besteht aus Neuronen. Man kann funktional gleiche elektronische Neuronen herstellen. Ersetze einzelne Neuronen durch elektronische Neuronen. Wird sich die Funktionalität des Gehirns ändern? Ab welcher Anzahl von elektronischen Neuronen wird sich das Prothesen-Gehirn in einen Computer verwandeln, der nichts versteht? Folgerung: Entweder baut das Gehirn nur auf Neuronen auf, oder es gibt etwas, das noch unbekannt ist. KI, SS 11, Folien 1 , Seite 31 11. April 2011 Konnektionismus vs. Symbolsystem Diskussion um Ausdruckskraft Programmen / Computern Symbolsysteme Konnektionismus Algorithmen / Logik Neuronale Netze Turing-mächtig ??? Quantencomputer? KI, SS 11, Folien 1 , Seite 32 11. April 2011 Totaler Turingtest Totaler Turingtest: Kann man einen Roboter(in) bauen, der in seinen Fähigkeiten nicht vom Menschen unterscheidbar ist? KI, SS 11, Folien 1 , Seite 33 11. April 2011 Technische Schlussfolgerungen aus Erfahrungen: • direkte Programmierung von Systemen hat prinzipielle Grenzen. • Das Fernziel der Künstlichen Intelligenz ist mit den aktuellen Methoden, Techniken, Hardware und Software nicht erreichbar. • Motivationen und Visionen der KI sind heute in der Informatik verbreitet. • Teil-Gebiete → eigenständige Forschungsgebiete • aktuelle Forschungsziele: spezialisierte Aspekte bzw. anwendbare Verfahren: Logik und Inferenzen, Mensch-Maschine-Kommunikation, Lernverfahren Repräsentationsmechanismen; eingebettete K.I., nichtStandard-Logiken und Schlussfolgerungssysteme, . . . KI, SS 11, Folien 1 , Seite 34 11. April 2011 Analyse und Programmieren von Teilaspekten Arbeitshypothese: • • Untersuche und programmiere Teilaspekte an kleinen Beispielen. Wenn das klar verstanden ist, dann untersuche große Beispiele und kombiniere die Lösungen der Teilaspekte. KI, SS 11, Folien 1 , Seite 35 11. April 2011 Analyse und Programmieren von Teilaspekten,Problematiken: Kombination der Lösungen von Teilaspekten. kombinierbare Lösungen kombinierbar, Manchmal sind die Lösungen inkompatibel: Bei Kombination braucht man Kompromisse oder eine ganz neue Lösung. Beispiel Robotersteuerung: Wegplanung anhand von Koordinaten. echter Roboter hält den Weg nicht ganz ein erfordert Messung und ständige Neuplanung? KI, SS 11, Folien 1 , Seite 36 11. April 2011 realistische Beispiele (scale up) Idee funktioniert in Mikrowelt, aber nicht bei realistischen Beispielen (Makrowelten) Beispiele Spracherkennung: bekannter Sprecher / beliebiger Sprecher Verifikation von Programmen: Ein Befehl vs. ein Programm. Wissensrepräsentation und Schlussfolgern Wissensrepräsentationshypothese: (B. Smith) Die Verarbeitung von Wissen läßt sich trennen in: Repräsentation von Wissen, wobei dieses Wissen eine Entsprechung in der realen Welt hat; und in einen Inferenzmechanismus, der Schlüsse daraus zieht. KI, SS 11, Folien 1 , Seite 38 11. April 2011 Repräsentations- und Inferenz-System Komponenten: • Formale Sprache • Semantik • Inferenz-Prozedur KI, SS 11, Folien 1 , Seite 39 11. April 2011 Repräsentations- und Inferenz-System Formale Sprache Semantik Inferenz-Prozedur KI, SS 11, Folien 1 , Seite 40 11. April 2011 gültigen Symbole, gültige syntaktische Formen einer Wissensbasis, syntaktisch korrekte Anfragen Im allgemeinen: Eine Wissensbasis ist eine Multimenge von gültigen Sätzen (Terme in Baumstruktur) Bedeutung der Sätze der formalen Sprache I.a. ist die Semantik modular, d.h. Bedeutung passt zur Baumstruktur (operationale Semantik) Welche weiteren Schlüsse kann man aus einer Wissensbasis ziehen Diese Schlüsse sind i.a. wieder Sätze der formalen Sprache. Inferenzen müssen korrekt (vollständig?) bzgl. der Semantik sein. Implementierung eines Repräsentations- und Inferenz-System Die Implementierung besteht aus: • • Parser für die formale Sprache Implementierung der Inferenzprozedur. Interessanterweise trifft diese Beschreibung auch auf andere Formalismen zu: • Programmiersprachen • Logische Kalküle (siehe spätere Kapitel) KI, SS 11, Folien 1 , Seite 41 11. April 2011