Künstliche Intelligenz Geplanter Inhalt

Werbung
Künstliche Intelligenz
Geplanter Inhalt
•
•
•
•
•
•
•
•
•
Einführung: Fragestellungen, Ziele
Suche, Suchmethoden
Evolutionäre Algorithmen, genetische Algorithmen
Lernverfahren
Aussagenlogik
Prädikatenlogik
logisches Programmieren
Zeitlogik von Allen
Beschreibungslogiken
•
vermutlich nicht mehr: Modallogik
KI, SS 11, Folien 1 , Seite 1 11. April 2011
Literatur: Lehrbücher
•
D. Poole, and A. Mackworth, Artificial Intelligence: Foundations
of Computational Agents. Cambridge University Press, 1998.
•
S.J. Russel and P. Norvig. Artificial Intelligence: A Modern Approach. Prentice Hall, 1995.
•
D. Poole, A. Mackworth, and R. Goebel. Computational Intelligence: A Logical Approach. Oxford University Press, 1998.
•
Franz Baader, Deborah McGuiness, Daniele Nardi, and Peter
Patel-Schneider. The description logic handbook. Cambridge
university press, 2002.
•
Christoph Beierle and Gabriele Kern-Isberner. Methoden wissensbasierter Systeme. Vieweg, 2000.
weitere siehe Skript
KI, SS 11, Folien 1 , Seite 2 11. April 2011
Anwendungen und Gebiete der Künstlichen
Intelligenz
•
Programmierung strategischer Spiele (Schach, ...)
•
Automatisches/Interaktives Problemlösen und Beweisen
•
Natürlichsprachliche System (Computerlinguistik)
•
Bildverarbeitung
•
Robotik
•
(medizinische) Expertensysteme
•
Maschinelles Lernen
KI, SS 11, Folien 1 , Seite 3 11. April 2011
Einführung
Artificial Intelligence “
”
( Künstliche Intelligenz“)
”
Fernziel : Herstellung eines
Vorstellung:
Messlatte:
intelligenten“ Agenten
”
Agent operiert selbständig in einer Umwelt und
zeigt intelligentes Verhalten.
die menschlichen kognitiven Leistungen.
?? Mensch = intelligenter Agent??
Unterziele
Untersuchung von Methoden und Techniken zur
Herstellung eines intelligenten Agenten.
Herstellung eines möglichst guten (autonomen,
lernenden, intelligenten, automatischen) informationsverarbeitenden Systems.
KI, SS 11, Folien 1 , Seite 4 11. April 2011
Systeme für KI-Teilaspekte
•
•
•
•
•
•
•
Taschenrechner
schachspielender Computer (Deep Thought, Deep Fritz)
Sprachübersetzer
wissensbasierte Systeme
Texterkennung Textverständnis;
und Hintergrundwissen (Watson-Programm)
(Haushalts-, Industrie-) Roboter
intelligente Informationssysteme
KI, SS 11, Folien 1 , Seite 5 11. April 2011
Bemerkungen zur Geschichte der KI
1950: A. Turing: Imititationsspiel
1956 J. McCarthy Dartmouth Konferenz: Start des Gebietes “artificial
intelligence“
und Formulierung der Ziele.
1957- 1962 “allgemeiner Problemlöser“
Entwicklung von LISP (higher-order, Parser und Interpreter zur
Laufzeit)
Dameprogramm von A. Samuels (adaptierend “lernend“)
Newell & Simon: GPS (General Problem Solver)
KI, SS 11, Folien 1 , Seite 6 11. April 2011
Geschichte der KI
1963-1967 spezialisierte Systeme
• semantische Verarbeitung (Benutzung von Spezialwissen über
das Gebiet
• Problem des Common Sense
• Resolutionsprinzip im automatische Beweisen
KI, SS 11, Folien 1 , Seite 7 11. April 2011
Geschichte der KI
1968- 1972 Modellierung von Mikrowelten
• MACSYMA mathematische Formel-manipulation
• DENDRAL Expertensystem zur Bestimmung von organischen
Verbindungen mittels Massenspektroskopie
• SHRDLU, ELIZA: erste Versuche zur Verarbeitung natürlicher
Sprache
KI, SS 11, Folien 1 , Seite 8 11. April 2011
Geschichte der KI
1972-77 Wissensverarbeitung als Technologie
• medizinisches Expertensystem: MYCIN
• D. Lenats AM (automated mathematics)
• KI-Sprachentwicklungen: PLANNER, KRL PROLOG KL-ONE
KI, SS 11, Folien 1 , Seite 9 11. April 2011
Geschichte der KI
1977- Entwicklung von Werkzeugen Trend zur Erarbeitung von
Grundlagen;
•
Expertensystem-Schalen (E-MYCIN)
•
Fifth generation project in Japan (beendet)
•
•
•
•
Computerlinguistik
künstliche neuronale Netze
logisches Programmieren
1985
Doug
Lenats
CYC
(http://www.cyc.com/)
KI, SS 11, Folien 1 , Seite 10 11. April 2011
(Wissensdatenbank)
Aktuelle Forschungsrichtungen
•
Textuelles Sprachverstehen ;
(Wahlster: Verbmobil-Projekt)
•
Watson: Sprachverstehen durch probabilistisches Lernen und
Riesen-Datenbanken (analog zu Suche im Internet mit HitRanking)
(Doug lenats CYC scheint auch noch aktiv)
•
Automatische Deduktion
•
Robotik
•
künstliche neuronale Netze
•
...
•
siehe spezialisierte Konferenzen, Journals, Bücher
Mensch-Computer-Dialoge.
(auch embodied artificial intelligence“, R. Pfeifer).
”
KI, SS 11, Folien 1 , Seite 11 11. April 2011
Begriff: Intelligenter Agent“
”
Intelligenter Agent (Robot):
•
Computer + Wissensbasis + Programme
•
agiert in der (physikalischen) Umwelt.
Varianten softbot (webbot):
agieren im / mit dem WWW
(z.B. Informationsbeschaffung von Google).
KI, SS 11, Folien 1 , Seite 12 11. April 2011
Begriff: Intelligenter Agent“
”
Eingaben und Zustände
• Vorwissen über die Umgebung
• Erfahrungswissen, Fälle; erlerntes Wissen
Ausgaben:
• Ziele, mit Prioritäten und Wichtigkeiten.
• Beobachtungen zur Umgebung und über sich selbst.
• Aktionen
Vorwissen
Erfahrungswissen
Ziele, Prioritäten
Beobachtungen
KI, SS 11, Folien 1 , Seite 13 11. April 2011
Agent
Aktion
Kognitive Simulation
Kognitive Simulation 6= Künstlichen Intelligenz
Unterschiede zur KI:
Ziel der
Kognitiven Simulation:
Erforschung des menschlichen Denkens durch
Simulationen und Experimente mittels Computer.
Beispiele:
wie erkennt ein Mensch Gesichter?
Wie denkt ein Mathematiker?
Wie funktioniert Lernen, Spracherwerb (des
Menschen)
KI, SS 11, Folien 1 , Seite 14 11. April 2011
Kognitive Simulation
Ein Computerprogramm, nennt man kognitiv adäquat wenn es sowohl
von der Struktur und den Methoden her als auch von den Leistungen
her wie ein Mensch arbeitet.
Beispiel
Ein Taschenrechner ist nicht kognitiv adäquat, da
Menschen anders addieren und multiplizieren.
KI, SS 11, Folien 1 , Seite 15 11. April 2011
Kognitive Simulation: Annahme
•
•
•
•
informationsverarbeitende Prozesse
sind formal beschreibbar
operieren auf Repräsentationen
Kognitive Leistungen sind unabhängig von der materiellen Basis.
d.h. unabhängig davon, ob die Prozesse im Gehirn ablaufen oder
auf einem technischen Gerät (Computer?).
KI, SS 11, Folien 1 , Seite 16 11. April 2011
Kognitive Simulation: Methoden:
•
•
•
Theoretische Analyse kognitiver Funktionsbereiche
Modellierung kognitiver Prozesse durch Computer(-programme)
empirische Untersuchungen; Verhalten, auch biologische Grundlagen, Psychologie, Neurologie
Empirische Untersuchungen am Menschen:
•
•
•
Introspektion
Problemlösungsprotokolle
(Lautes Problemlösen)
Zeitmessungen
KI, SS 11, Folien 1 , Seite 17 11. April 2011
Künstlichen Intelligenz und Philosophie
Einige philosophische Richtungen:
Materialismus
Behaviorismus
Funktionalismus
KI, SS 11, Folien 1 , Seite 18 11. April 2011
Materialismus
Es gibt nichts außer der Materie.
Diese bewirkt auch den Geist bzw. die Gedanken eines Menschen.
D.h. nach unserem Wissenschaftsverständnis:
alles was einen Menschen ausmacht ist prinzipiell analysierbar mittels
naturwissenschaftlicher Methoden (Chemie, Physik, Biologie, ...)
also: Im Prinzip auch konstruierbar
KI, SS 11, Folien 1 , Seite 19 11. April 2011
Behaviorismus
Nur das Beobachtbare ist Gegenstand der Wissenschaft.
Nur verifizierbare Fragen sind sinnvolle Fragen.
Glauben, Ideen, Wissen sind nicht direkt, sondern nur indirekt beobachtbar.
Bewußtsein, Ideen, Glaube, Furcht, usw sind Umschreibungen für bestimmte Verhaltensmuster
Problem dieser Sichtweise:
zum Verifizieren braucht man evtl. unendlich viele Beobachtungen.
Zum Falsifizieren kann eine genügen.
Systeme sind äquivalent, wenn sie gleiches Input-Output-Verhalten zeigen.
KI, SS 11, Folien 1 , Seite 20 11. April 2011
Funktionalismus
geistige Zustände (Ideen, Glauben,Furcht, ...) sind (funktionale) interne Zustände eine komplexen Systems
Röhren-Radio Transistor-Radio sind funktional äquivalent. Radio und
CD-Player nicht.
Die These läuft darauf hinaus, dass der Mensch im Prinzip ein endlicher
Automat mit Ein/Ausgabe ist, wenn auch mit sehr vielen Zuständen.
Der Zustand S1 des Systems A is funktional äquivalent zu Zustand S2
”
des Systems B, gdw. A und B bei gleicher Eingabe die gleiche Ausgabe
liefern und in funktional äquivalente Zustände übergehen “
KI, SS 11, Folien 1 , Seite 21 11. April 2011
KI: Prinzipien und allgemeine Fragen
Was ist intelligentes Denken / Verhalten?
Wann hat man das Ziel erreicht, einen intelligenten Agenten zu
programmieren?
Analoge Fragen:
•
•
•
Kann eine Maschine denken?
Kann ein Computer/ Roboter ein Bewußtsein haben?
Kann ein Computer etwas verstehen?
KI, SS 11, Folien 1 , Seite 22 11. April 2011
Imitationsspiel
Alan Turings Vorschlag zum Testen der Fähigkeit eines Computers:
ein Simulationsspiel: der Turingtest.
Es gibt zwei Spieler: A und B.
A befragt B per Terminal und soll herausfinden, ob B ein
Mensch oder ein Computer (Computer-programm) ist.
Kommunikationsleitung
A
B
Texte (bzw. Text + Video)
Ein Computerprogramm (B) besteht den Turingtest, wenn es so gut
antwortet wie ein Mensch.
Das Interview soll ca 30 Minuten dauern
KI, SS 11, Folien 1 , Seite 23 11. April 2011
Turing-Test; Bewertung
Problem: Dieser Test ist nicht objektiv,
sondern hängt ab:
• von den Fähigkeiten des Spielers A
• vom Wissen des Spielers A über aktuelle Fähigkeiten eines Computers
Verbesserrung der Objektivität:
Wiederholen des Experimentes durch verschiedene A-Spieler
nachfolgende Abstimmung.
KI, SS 11, Folien 1 , Seite 24 11. April 2011
Gegenargument zur Aussagekraft des
Turingtests
Datenbank-Argument (jukebox-argument)
Die Anzahl der Eingaben und Ausgaben ist begrenzt (30 min tippen),
alle möglichen Dialoge vorher in einer großen Datenbank
Die Antworten kommen aus der Datenbank
Frage: Ist diese Datenbank + Abfragemechanismus intelligent?
Mehr Datenbankeinträge nötig als Atome im Universum.!
KI, SS 11, Folien 1 , Seite 25 11. April 2011
Eliza: Simulations eines Psychotherapeuten
Struktur und Vorgehensweise von ELIZA
• Es gibt vorgefertigte Phrasen, die zufällig ausgewählt werden, wenn
das System nichts versteht:
Erzählen sie etwas aus ihrer Jugend!“
”
• Methode der Textverarbeitung von ELIZA: Suche nach
Schlüsselwörtern in der Eingabe und Patternmatching. Daraus wird eine Ausgabe generiert:
Erzählen sie mir mehr über
”
xyz!“
Gegenbeispiel zum Turingtest??
KI, SS 11, Folien 1 , Seite 26 11. April 2011
Starke / schwache KI-Hypothese
Starke KI-Hypothese:
• Ein entsprechend gut programmierter Computer hat Verstand und
kann denken
• Es gibt keinen prinzipiellen Unterschied zwischen einem Menschen
und einer Maschine (Computer).
Ein Testverfahren dazu könnte der Turingtest sein.
Schwache KI-Hypothese:
man kann alle intelligenten Fähigkeiten eines Menschen auch
mittels eines Computerprogramms hervorbringen
KI, SS 11, Folien 1 , Seite 27 11. April 2011
Gedankenexperiment Chinesischer Raum
”
Versuch zur Klärung zum Begriff Verstehen“ (von John Searle)
”
Ziel dieses Gedankenexperimentes:
ein technisches System hat kein Verständnis der Inhalte
es gibt keinen Computer der etwas versteht“
”
KI, SS 11, Folien 1 , Seite 28 11. April 2011
Gedankenexperiment Chinesischer Raum
”
Jemand, der kein chinesisch versteht, sitzt in einem Raum. Es gibt dort
ein dickes Handbuch, und einen Stapel beschriftete Blätter.
Durch einen Schlitz erhält die Person einen Zettel mit chinesischen
Schriftzeichen.
Unter Zuhilfenahme des Handbuchs und der bereits beschrifteten
Blätter erzeugt er
neue Zettel auf seinem Stapel und
einen neuen beschrifteten Zettel (mit chinesischen Schriftzeichen) und
reicht diesen nach außen.
KI, SS 11, Folien 1 , Seite 29 11. April 2011
Gedankenexperiment Chinesischer Raum
”
Fragen:
•
•
Versteht derjenige in chinesischen Raum chinesisch ?
versteht das Gesamtsystem chinesisch ?
Searles Argument: kein Teil versteht etwas vom Inhalt, also kann das
System nichts verstehen.
Gegenargument (behaviouristisch): das Gesamtsystem versteht etwas.
KI, SS 11, Folien 1 , Seite 30 11. April 2011
Prothesen-Gedankenexperiment
•
•
Das Gehirn besteht aus Neuronen.
Man kann funktional gleiche elektronische Neuronen herstellen.
Ersetze einzelne Neuronen durch elektronische Neuronen.
Wird sich die Funktionalität des Gehirns ändern?
Ab welcher Anzahl von elektronischen Neuronen wird sich das
Prothesen-Gehirn in einen Computer verwandeln, der nichts
versteht?
Folgerung:
Entweder baut das Gehirn nur auf Neuronen auf, oder es gibt etwas,
das noch unbekannt ist.
KI, SS 11, Folien 1 , Seite 31 11. April 2011
Konnektionismus vs. Symbolsystem
Diskussion um Ausdruckskraft Programmen / Computern
Symbolsysteme
Konnektionismus
Algorithmen / Logik
Neuronale Netze
Turing-mächtig
???
Quantencomputer?
KI, SS 11, Folien 1 , Seite 32 11. April 2011
Totaler Turingtest
Totaler Turingtest:
Kann man einen Roboter(in) bauen, der in seinen Fähigkeiten
nicht vom Menschen unterscheidbar ist?
KI, SS 11, Folien 1 , Seite 33 11. April 2011
Technische Schlussfolgerungen aus Erfahrungen:
•
direkte Programmierung von Systemen hat prinzipielle Grenzen.
•
Das Fernziel der Künstlichen Intelligenz ist mit den aktuellen Methoden, Techniken, Hardware und Software nicht erreichbar.
•
Motivationen und Visionen der KI sind heute in der Informatik
verbreitet.
•
Teil-Gebiete → eigenständige Forschungsgebiete
•
aktuelle Forschungsziele: spezialisierte Aspekte bzw. anwendbare
Verfahren:
Logik und Inferenzen, Mensch-Maschine-Kommunikation, Lernverfahren Repräsentationsmechanismen; eingebettete K.I., nichtStandard-Logiken und Schlussfolgerungssysteme, . . .
KI, SS 11, Folien 1 , Seite 34 11. April 2011
Analyse und Programmieren von Teilaspekten
Arbeitshypothese:
•
•
Untersuche und programmiere Teilaspekte an kleinen Beispielen.
Wenn das klar verstanden ist, dann untersuche große Beispiele und
kombiniere die Lösungen der Teilaspekte.
KI, SS 11, Folien 1 , Seite 35 11. April 2011
Analyse und Programmieren von
Teilaspekten,Problematiken:
Kombination der Lösungen von Teilaspekten.
kombinierbare Lösungen kombinierbar,
Manchmal sind die Lösungen inkompatibel:
Bei Kombination braucht man Kompromisse oder eine ganz neue
Lösung.
Beispiel Robotersteuerung: Wegplanung anhand von Koordinaten.
echter Roboter hält den Weg nicht ganz ein
erfordert Messung und ständige Neuplanung?
KI, SS 11, Folien 1 , Seite 36 11. April 2011
realistische Beispiele (scale up) Idee funktioniert in Mikrowelt, aber
nicht bei realistischen Beispielen (Makrowelten)
Beispiele Spracherkennung: bekannter Sprecher / beliebiger Sprecher
Verifikation von Programmen: Ein Befehl vs. ein Programm.
Wissensrepräsentation und Schlussfolgern
Wissensrepräsentationshypothese: (B. Smith)
Die Verarbeitung von Wissen läßt sich trennen in: Repräsentation von Wissen, wobei dieses Wissen eine Entsprechung in
der realen Welt hat; und in einen Inferenzmechanismus, der
Schlüsse daraus zieht.
KI, SS 11, Folien 1 , Seite 38 11. April 2011
Repräsentations- und Inferenz-System
Komponenten:
•
Formale Sprache
•
Semantik
•
Inferenz-Prozedur
KI, SS 11, Folien 1 , Seite 39 11. April 2011
Repräsentations- und Inferenz-System
Formale Sprache
Semantik
Inferenz-Prozedur
KI, SS 11, Folien 1 , Seite 40 11. April 2011
gültigen Symbole, gültige syntaktische Formen einer Wissensbasis, syntaktisch korrekte Anfragen
Im allgemeinen: Eine Wissensbasis ist eine Multimenge von gültigen Sätzen (Terme in Baumstruktur)
Bedeutung der Sätze der formalen Sprache
I.a. ist die Semantik modular, d.h. Bedeutung
passt zur Baumstruktur
(operationale Semantik)
Welche weiteren Schlüsse kann man aus einer
Wissensbasis ziehen
Diese Schlüsse sind i.a. wieder Sätze der formalen
Sprache.
Inferenzen müssen korrekt (vollständig?) bzgl. der
Semantik sein.
Implementierung eines Repräsentations- und
Inferenz-System
Die Implementierung besteht aus:
•
•
Parser für die formale Sprache
Implementierung der Inferenzprozedur.
Interessanterweise trifft diese Beschreibung auch auf andere Formalismen zu:
• Programmiersprachen
• Logische Kalküle
(siehe spätere Kapitel)
KI, SS 11, Folien 1 , Seite 41 11. April 2011
Herunterladen