Einführung in die Methoden der [.5ex] Künstlichen Intelligenz [2ex

Werbung
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
KI-Ansätze
Womit beschäftigt sich die Künstliche Intelligenz?
Ziel der Künstlichen Intelligenz:
Einführung in die Methoden der
Künstlichen Intelligenz
Herstellung eines intelligenten Agenten
Einführung
Auch: Herstellung eines möglichst guten
Prof. Dr. Manfred Schmidt-Schauß
autonomen
lernenden
intelligenten
SoSe 2016
automatischen
Informationssystems
Stand der Folien: 19. April 2016
1
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
KI-Ansätze
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Beispiele
2/62
KI-Ansätze
Roboter-Programmierung
Taschenrechner
Schachspielende Computer,
z.B. Deep Blue, Deep Thought und Deep Fritz
25 Gelenke:
Coreless-DC-Motoren jeweils
mit Getriebe
Sprachübersetzer wie z.B. GoogleTranslate, Babelfish, etc.
Intel ATOM 1.6 GHz CPU
Wissensbasierte Systeme in vielen Varianten
Zwei Kameras
Texterkennungssysteme in Kombinationen mit
Hintergrundwissen wie z.B. IBM Watson (Jeopardy-Gewinner)
WLAN
Roboter, z.B. Haushaltsrobotor wie Staubsaugerroboter,
Industrieroboter, etc.
Beschleunigungssensoren
Ultraschall
Gyroskope
intelligente Informationssysteme
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
3/62
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
4/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
KI-Ansätze
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Roboter-Programmierung
KI-Ansätze
Beispiel: Go Spiel
Bildverarbeitung: Farberkennung und
Objekterkennung
(2016) Google-Produkt AlphaGo schlägt Lee Sedol
(koreanischer Go-Spitzenspieler)
Lokalisierung: Wo bin ich?
GPS; Bildverarbeitung;
Kalmann-Filter zur Positionsbestimmung
Go hat einen sehr großen Suchraum: 19 × 19 Feld, d.h. 361
Möglichkeiten für den erste Zug.
Bewegung: Algorithmen unter Nutzung der
Sensorik und Aktorik
algorithmische Bewertung der Spielsituation ist schwierig.
Methoden von AlphaGo:
Durchmustern der Suchräume; zufälliges Ausprobieren (Monte
Carlo Tree Search),
künstliche neuronale Netze zum Bewerten der Stellungen,
Lernverfahren, massiv parallele Berechnungen.
Verhalten: Übergeordnete
Planungs-Algorithmen
Kommunikation: Reden über WLAN mit
dem Torwart?
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
5/62
KI-Ansätze
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Roboter und weitere Begriffe
6/62
KI-Ansätze
Agent, allgemein
Vorwissen
Erfahrungswissen
Roboter = Intelligenter Agent, Computer im Kern, agiert mit
der physikalischen Umwelt
Agent
Aktion
Ziele, Prioritäten
Softbot = Software-Roboter, Umwelt ist i.A. nicht physikalisch,
hat Wissensbasis und gibt Antworten und Ratschläge
Beobachtungen
Webbot = Web-Roboter, (inter-)agiert im WWW, z.B. um
Suchdatenbanken zu erstellen
Vorwissen: Wissen über die Umgebung z.B. Karte
Erfahrungswissen: erlerntes Wissen, Testfälle
Chatbot = Chat-Roboter, interagiert in einem Chat
Ziele: üblicherweise mit Prioritäten und Wichtigkeiten versehen.
Beobachtungen: über die Umgebung und über sich selbst
Nächste Aktion als Ausgabe (aufgrund von Schlussfolgern, Lernen,. . . )
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
7/62
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
8/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
KI-Ansätze
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Fragestellungen
KI-Ansätze
Klassifizierung der Ansätze nach Russel & Norvig
menschlich
rational
Handeln
menschliches
Handeln
rationales
Handeln
Denken
menschliches
Denken
rationales
Denken
Was ist Künstliche Intelligenz?
Was zeichnet eine Methode als KI-Methode aus?
Was ist ein intelligenter Agent?
Können Computer denken?
Es gibt keine allgemein richtige Antwort auf diese Fragen!
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
9/62
KI-Ansätze
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Menschliches Handeln
10/62
KI-Ansätze
Menschliches Denken (1)
menschlich
rational
Handeln
menschliches
Handeln
rationales
Handeln
Denken
menschliches
Denken
rationales
Denken
Fernziel: Systeme erschaffen, die analog zu Menschen handeln
menschlich
rational
Handeln
menschliches
Handeln
rationales
Handeln
Denken
menschliches
Denken
rationales
Denken
Ziel: Computer denkt wie ein Mensch“
”
Forschung: Wie denkt der Mensch, entwickele Modelle dafür
Entwickle Methoden, so dass der Computer Dinge tun kann,
die momentan nur der Mensch kann
Z.B. durch psychologische Experimente, Hirntomografie . . .
in denen der Mensch noch den Computern überlegen ist
Stelle Theorie auf, setze danach in ein System um
Zum Nachweis, das Ziel erreicht:
Vergleich von Maschine und Mensch
(z.B. Turing-Test, folgt noch)
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
Ziel erreicht: Wenn Ein-/Ausgaben dem menschlichen
Verhalten gleichen
11/62
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
12/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
KI-Ansätze
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Menschliches Denken (2)
KI-Ansätze
Rationales Denken
menschlich
rational
Handeln
menschliches
Handeln
rationales
Handeln
Denken
menschliches
Denken
rationales
Denken
Ansatz ist eher interdisziplinär: Kognitionswissenschaft
Beispiele: Wie erkennen wir Gesichter, Verständnis des
Spracherwerbs, . . .
System ist kognitiv adäquat, wenn:
arbeitet strukturell und methodisch wie ein Mensch
erzielt entsprechende Leistungen
Achtung: Taschenrechner ist nicht kognitiv adäquat,
da er anders addiert als der Mensch
Formalisierung von Denken durch Axiome und korrekte Schlussregeln
Üblich: Verwendung einer Logik ( logischer Ansatz“)
”
Ziel: Implementiere Deduktionssystem, das sich intelligent verhält
Daher eher:
kognitive Simulation 6= künstliche Intelligenz
Vorteil: mathematisch eindeutig
Betonung eher: exakte Nachahmung des menschlichen
Denkens
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Hürden: Formalisierung des Problems & Wissens in einer Logik
13/62
KI-Ansätze
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Rationales Handeln (1)
Handeln
Denken
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
14/62
KI-Ansätze
Rationales Handeln (2)
menschlich
rational
menschliches
Handeln
rationales
Handeln
menschliches
Denken
rationales
Denken
Rationaler Agent: Agent maximiert Ergebnis, bestmögliches Ergebnis
Allgemeiner Ansatz, kann auch die anderen Ansätze miteinbeziehen:
z.B. Verwenden einer Logik
kann menschlich denken / handeln, wenn dies auch rational ist,
aber keine Vorbedingung (daher mehr Freiheit in der Methodik)
Rationalität kann mathematisch “sauber” definiert werden.
Agenten-Ansatz
Begriffsklärung Intelligenz“:
”
ist in mehrerer Hinsicht anders. eine Einschränkung.
Agent = System, dass auf seine Umgebung (Eingaben) eine
Reaktion (Ausgaben) durchführt.
Agent sollte autonom agieren, sich an Änderungen anpassen und ein
Ziel verfolgen
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
15/62
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
16/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
KI-Ansätze
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Ausrichtungen
KI-Ansätze
Ausrichtung der Vorlesung
Kognitionswissenschaft:
Menschliches Handeln / Denken analysieren,
modellieren, nachahmen
Ingenieurmäßig ausgerichtete KI:
Entwickle Methoden, Techniken, Werkzeuge
zum (rationalen/ intelligenten) Lösen komplexer
Anwendungsprobleme. Z.B.
Deduktionstechniken
KI-Programmiersprachen
neuronale Netze als Mustererkenner
Lernalgorithmen
wissensbasierte Systeme
Expertensysteme
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
ingenieurmäßige Ausrichtung
direkt programmierbare KI-Methoden
insbesondere Logiken in verschiedenen Varianten (KILOG)
17/62
KI-Ansätze
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Gebiete der Künstlichen Intelligenz (Auswahl)
18/62
Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente
Philosophische Aspekte
Programmierung strategischer Spiele (Schach, ...)
Philosophische Richtungen
Automatisches/Interaktives Problemlösen und Beweisen
Natürlichsprachliche Systeme (Computerlinguistik)
Materialismus
(Intelligente) Bildverarbeitung
Behaviorismus
Robotik
Funktionalismus
(medizinische) Expertensysteme
Maschinelles Lernen
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
19/62
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
20/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente
Materialismus
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente
Behaviorismus
Grundprinzip: Nur das Beobachtbare ist Gegenstand der
Wissenschaft
Grundgedanke: Es gibt nichts außer Materie
Folgerung: Nur verifizierbare Fragen sind sinnvoll
Insbesondere auch Geist, Gedanken, Wille, . . .
entsteht aus der Materie
Glauben, Ideen, Wissen nur indirekt beobachtbar
( gibt es nicht. )
Prinzip: Alles was den Menschen ausmacht, kann durch
Naturwissenschaft erforscht / analysiert werden
Bewusstsein, Ideen, Furcht, ...
sind Umschreibungen für Verhaltensmuster
Konsequenz: Alles ist grundsätzlich auch konstruierbar
Verifizieren benötigt evtl. unendlich viele Beobachtungen
Insbesondere: Prinzipiell ist auch der denkende, intelligente
Mensch konstruierbar
Falsifizieren: Eine Beobachtung genügt
Äquivalenz von Systemen (z.B. Mensch vs. Maschine)
gegeben bei gleichem Ein-/Ausgabe-Verhalten
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
21/62
Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente
Funktionalismus
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
22/62
Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente
Starke und schwache KI-Hypothese
Schwache KI-Hypothese
Grundidee: Geistige Zustände (Ideen, Glauben, Furcht,. . . )
sind interne Zustände eines komplexen Systems
Maschinen (Computer, Roboter,. . . ) können agieren,
als ob sie intelligent wären
Einzig die Funktion definiert die Semantik eines Systems
Zustand S1 des Systems A ist funktional äquivalent zu
Zustand S2 des Systems B, wenn:
Starke KI-Hypothese
A im Zustand S1 und B im Zustand S2 liefern bei gleicher
Eingabe die gleiche Ausgabe
Nachfolgezustände von A und B sind funktional äquivalent
Maschinen (Computer, Roboter,. . . ) können wirklich denken
und simulieren nicht nur das Denken.
Z.B. Röhren-Radio und Transistor-Radio sind funktional
äquivalent
In der KI-Forschung
Aber: CD-Player und Radio sind nicht äquivalent.
Schwache KI-Hypothese wird als gegeben hingenommen
Konsequenz: Mensch ist im Prinzip ein endlicher Automat mit
Ein-/Ausgabe.
Starke KI-Hypothese:
Pragmatische Sichtweise: irrelevant, Hauptsache ist, dass das
System funktioniert
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
23/62
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
24/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente
Turing-Test
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente
Turing-Test (2)
Test zum Nachweis der starken KI-Hypothese, vorgeschlagen von
Alan Turing:
Kritik: Nicht objektiv, da der Test von den Fähigkeiten des
Fragestellers abhängt
Auch z.B. vom Wissen des Fragestellers über Fähigkeiten
eines Computers
Kommunikationsleitung
(Textübertragung)
Gegenstelle
(Mensch oder Computer)
menschlicher
Fragesteller
Abhilfe: Test mit mehreren Personen als Fragesteller
wiederholen
Mensch stellt schriftliche Fragen an Computer / Mensch
Totaler Turing-Test
Begrenzte Zeit
Unterschied zum (normalen) Turing-Test:
Test ist bestanden, wenn Fragesteller nicht unterscheiden
kann, ob Gegenstelle Mensch oder Computer ist
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Zusätzlich Videoübertragung und Objekterkennung
25/62
Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente
Loebner-Preis
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
26/62
Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente
Loebner-Preis (2)
Jährlich ausgetragener Wettbewerb (seit 1991)
Chatbots-Test ähnlich zum Turingtest
Gewinner: Chatbot, der die Jury am meisten überzeugt hat
(Bronze-Medaille)
Einmalige Preise:
Silbermedaille (25.000 USD): Erster Chatbot, der die Jury
überzeugend täuscht
Mensch
Goldmedaille (100.000 USD): wie Silbermedaille aber
zusätzlich mit audio-visueller Kommunikation.
Weder Silber noch Gold wurden bisher vergeben.
menschlicher
Fragesteller
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
Computer
27/62
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
28/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente
Turing-Test: Pro / Contra
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente
ELIZA
Von J. Weizenbaum entwickeltes Programm, das als Softbot
einen Psychotherapeuten simuliert
Pro:
Konnte manche Menschen täuschen
Halbwegs einsichtiges Kriterium für “Intelligenz”
Techniken:
Contra:
Vorgefertigte Phrasen, falls das System nichts versteht
“Erzählen Sie mir aus Ihrer Jugend”
System als riesige Datenbank mit vorgefertigten Antworten
Ist das System intelligent?
Mustererkennung: in der Eingabe wird nach Schlüsselwörtern
xyz gesucht; und danach in der nächsten Frage verwendet.
“Erzählen Sie mir mehr über xyz”
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
29/62
Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente
Chinesischer Raum
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
30/62
Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente
Chinesischer Raum (2)
Gedankenexperiment von John Searle als Gegenargument zur
starken KI-Hypothese:
Fragen
Versteht die Person Chinesisch?
Jemand, der kein Chinesisch versteht, sitzt in einen Raum
Im Raum:
Versteht das Gesamtsystem etwas?
Stapel mit chinesischen Zetteln
Handbuch (in Muttersprache der Person im Raum) mit Regeln
wie aus eingegebenen chinesischen Zetteln neue chinesische
Zettel erzeugt werden können
J. Searle:
Kein Teil des System versteht irgendetwas
Gegenargument (Behaviorismus):
Das Gesamtsystem versteht etwas,
da das Verständnis beobachtbar ist
Ein chinesischer Zettel wird durch Schlitz reingereicht
Person erzeugt neue Zettel auf Stapel und gibt einen Zettel
nach außen
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
31/62
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
32/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente
Das Prothesenexperiment
Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente
Symbolverarbeitungshypothese
Annahme: Neuronen können künstlich nachgebaut werden
(elektronische Neuronen)
Physikalisches Symbolsystem
Experiment: Ersetze einzelne Neuronen durch elektronische Neuronen
Symbolverarbeitungshypothese (Alan Newell und Herbert Simon)
Es kann ein physikalisches Symbolsystem konstruiert werden, das
intelligentes Verhalten zeigt (den Turingtest besteht).
Folgerungen:
Matt Ginsberg: Ziel der Künstlichen Intelligenz: Konstruktion eines
physikalischen Symbolsystems, das zuverlässig den Turingtest
besteht.
Entweder: Starke KI-Hypothese gilt und nichts ändert sich
Oder: Es gibt etwas, das noch unbekannt ist (Geist,...)
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
Symbole, denen eine Bedeutung in der Realität zugeordnet
werden kann
System erzeugt aus eingegeber Symbolstruktur (z.B. String
von Symbolen) weitere Symbolstrukturen
Frage
Ab welcher Anzahl verwandelt sich das Prothesen-Gehirn in einen
Computer, der nichts versteht?
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
33/62
Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente
Konnektionismus
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
34/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
KI-Paradigmen
Zwei wesentliche Paradigmen
Physikalisches Symbolsystem
Hypothese des Konnektionismus
Man benötigt subsymbolische, verteilte, parallele Verarbeitung, um
eine intelligente Maschine zu konstruieren
explizites Programmieren
verwenden von Logiken, Schlussregeln, Inferenzverfahren
Stärken: Ziehen von Schlüssen, strategische Spiele, Planen,. . .
Lernverfahren
Implikation: Man benötigt künstliche neuronale Netze
insbesondere durch künstliche neuronale Netze
Stärken: Bildererkennung, Musterverarbeitung, verrauschte
Daten, maschinelles Lernen, adaptive Systeme
Gegenargument: Man kann künstliche neuronale Netze auch
(als Software) auf normaler Hardware programmieren
Komplexes KI-System benötigt i.A. alle Paradigmen
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
35/62
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
36/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Analyse und Programmieren von Teilaspekten
Wissensrepräsentationssysteme
Arbeitshypothese:
Wissensrepräsentationshypothese (Brian Smith)
Untersuche und programmiere Teilaspekte an kleinen
Beispielen.
Die Verarbeitung von Wissen läßt sich trennen in:
Repräsentation von Wissen, wobei dieses Wissen eine
Entsprechung in der realen Welt hat.
Danach: (Upscaling) Untersuche große Beispiele und
kombiniere die Lösungen der Teilaspekte.
Inferenzmechanismus, der Schlüsse daraus zieht.
Problematiken:
Kombination oft nicht möglich oder ineffizient
⇒ Basis für Programme, deren innere Struktur als Modellierung
von Fakten, Wissen, Beziehungen und als Operationen,
Simulationen verstanden werden kann.
Lösung für kleine Beispiele (Mikrowelten) muss nicht
funktionieren für realistische Beispiele (Makrowelten)
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
37/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Geschichte der KI (1)
Komponenten:
Formale Sprache: Festlegung der gültigen syntaktischen
Formen (Wissensbasis, Anfragen)
2
Semantik: Bedeutung der Sätze der formalen Sprache (i.A.
modular aufgebaut)
3
Inferenz-Prozedur (operationale Semantik) Wie kann man
Schlüsse ziehen?
Diese Inferenzen müssen korrekt bzgl. der Semantik sein.
1950 A. Turing: Imititationsspiel
1956 J. McCarthy Dartmouth Konferenz: Start des Gebietes
“artificial intelligence“ und Formulierung der Ziele.
1957- 1962 “allgemeiner Problemlöser“
LISP (higher-order, Parser u. Interpreter zur Laufzeit)
Dameprogramm von A. Samuels (adaptierend “lernend“)
Newell & Simon: GPS (General Problem Solver)
1963-1967 spezialisierte Systeme semantische Verarbeitung
(Benutzung von Spezialwissen über das Gebiet)
Common Sense Knowledge Problem
Resolutionsprinzip im automatischen Beweisen
Implementierung:
Parser für die formale Sprache
Implementierung der Inferenzprozedur.
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
38/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Repräsentations- und Inferenz-Systeme
1
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
39/62
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
40/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Geschichte der KI (2)
Geschichte der KI (3)
1968- 1972 Modellierung von Mikrowelten
MACSYMA mathematische Formel-Manipulation
DENDRAL Expertensystem zur Bestimmung von
organischen Verbindungen mittels Massenspektroskopie
SHRDLU, ELIZA: erste Versuche zur Verarbeitung
natürlicher Sprache
1977- Entwicklung von Werkzeugen,
Trend zur Erarbeitung von Grundlagen;
Expertensystem-Schalen (E-MYCIN)
Fifth generation project in Japan (beendet)
Computerlinguistik
künstliche neuronale Netze
logisches Programmieren
1985 Doug Lenats CYC
Erzeugung eines vernünftigen Programms mit
Alltagswissen durch Eingabe einer Enzyklopädie
1972-1977 Wissensverarbeitung als Technologie
medizinisches Expertensystem: MYCIN
D. Lenats AM (automated mathematics)
KI-Sprachentwicklungen: PLANNER, KRL PROLOG
KL-ONE
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
41/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
42/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Geschichte der KI (4)
Fazit der bisherigen Erfahrungen
Aktuelle Forschungsrichtungen
Technologie zum textuellen Sprachverstehen und zur
Ermöglichung von Mensch-Computer-Dialogen. (Wahlster:
Verbmobil-Projekt)
Fernziel scheint mit aktuellen Methoden, Techniken, Hardware
und Software nicht erreichbar
Robotik-Ansatz: (Embodied artificial intelligence, R. Pfeifer).
Untersuchung und Entwicklung von Sensorik, Motorik, d.h.
physikalische Gesetzmäßigkeiten des Roboters und der
Steuerung mittels Computer, intelligentes Insekt“
”
Automatische Deduktion
Motivationen und Visionen der KI sind in der Informatik
verbreitet.
Direkte Programmierung von Systemen (ohne sehr gute
Lernalgorithmen) hat Grenzen in der Komplexität des
einzugebenden Modells (Regeln, Fakten, ...)
Logik
Robotik
künstliche neuronale Netze
...
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
43/62
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
44/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Fazit der bisherigen Erfahrungen (2)
Lernen Umgebungen Struktur
Intelligente Agenten
Agent = Überbegriff für alle KI-Systeme
Ein Agent hat
Sensoren zum Beobachten seiner Umgebung und
Aktuatoren (Aktoren; Effektoren) um die Umgebung zu
manipulieren.
Teilbereiche sind eigenständigen Forschungsgebiete: Z.B.
Sprachverarbeitung, Robotik, Automatische Deduktion, . . .
Aktuelle Forschungsziele sind eher spezialisierte Aspekte:
Logik und Inferenzen, Mensch-Maschine-Kommunikation,
Lernverfahren (adaptive Software),
Repräsentationsmechanismen; eingebettete KI,
nicht-Standard-Logiken und Schlussfolgerungssysteme, . . . .
Sensoren
Agent
Agentensteuerung
Aktuatoren
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Beobachtungen
45/62
Lernen Umgebungen Struktur
Umgebung
Aktionen
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Intelligente Agenten (2)
46/62
Lernen Umgebungen Struktur
Beispiel: Staubsaugerwelt (Russel & Norvig)
A
B
Agent
macht Beobachtungen (Folge = Beobachtungssequenz)
Aktion beeinflussen Umgebung und evtl. ihn selbst (z.B.
Position)
Agentenfunktion: {Beobachtungsfolgen} → {Aktionen}.
Agentfunktion kann durch das Agentenprogramm implementiert
werden
Orte: A oder B
Jeder Ort: Dreckig / Sauber
Agent kann nur aktuellen Ort beobachten (Sauber/Dreckig)
Aktionen: InsAndereQuadrat, Saugen und NichtsTun.
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
47/62
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
48/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Lernen Umgebungen Struktur
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Beispiel: Staubsaugerwelt (Russel & Norvig) (2)
Lernen Umgebungen Struktur
Beispiel: Staubsaugerwelt, kommerziell
Problem:
Wann ist der Agent (das zugehörige Programm)
gut / vernünftig bzw. intelligent ?
Notwendig:
Performanzmaß, d.h. eine Leistungsbewertung des Agenten
Z.B.
Alles immer maximal sauber
Möglichst sauber, aber wenig Stromverbrauch
Möglichst sauber, aber wenig störend
...
Der optimale agierende Agent ist der intelligente Agent.
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
49/62
Lernen Umgebungen Struktur
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Intelligenter Agent
50/62
Lernen Umgebungen Struktur
Lernen
Guter Agent:
Definition
Ein vernünftiger (intelligenter, rationaler) Agent ist derjenige, der
stets die optimale Aktion bzgl des Performanzmaßes wählt,
aufgrund seiner Beobachtungsfolge und seines Vorwissens über die
Umgebung.
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
mittels der Sensoren Wissen über die Umgebung sammeln;
lernfähig, bzw. fähig, sich adaptiv zu verhalten, aufgrund der
Beobachtungssequenz
Agent wird als autonom bezeichnet, wenn der Agent eher aus
seinen Beobachtungen lernt und nicht auf vorprogrammierte
Aktionen angewiesen ist.
51/62
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
52/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Lernen Umgebungen Struktur
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Umgebungen
Lernen Umgebungen Struktur
Umgebungen (2)
Klassifikationen
Klassifikationen
Statisch vs. Dynamisch
Dynamisch: die Umgebung kann sich während der Nachdenkzeit
des Agenten verändern.
Semi-Dynamisch: Umgebung unverändert,
aber Performanzmaß verändert sich
Z.B.: Schachspielen mit Uhr.
Vollständig beobachtbar vs. teilweise beobachtbar.
Der Staubsauger kann z.B. nur sein eigenes Quadrat beobachten.
Deterministisch vs. Stochastisch
Der Dreck erscheint zufällig in den Quadraten.
Episodisch vs. sequentiell
Episodisch: Feste unabhängige Zeitabschnitte,
in denen beobachtet und agiert wird
Sequentiell: Es gibt Spätfolgen der Aktionen.
Diskret vs. Stetig.
Ein Agent oder Multiagenten.
Bei Multiagenten: Klassifizierung in:
Gegner / Wettbewerber / Kooperierenden Agenten.
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
53/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Lernen Umgebungen Struktur
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Umgebungen, Beispiele (Russel & Norvig)
Arbeitsumgebung
Kreuzworträtsel
Schach mit Uhr
Poker
Backgammon
Taxifahren
Medizinische
Diagnose
Bildanalyse
Interaktiver
Englischlehrer
Episodisch
Statisch
Diskret
Agenten
seq.
seq.
seq.
seq.
seq.
seq.
statisch
semi
statisch
statisch
dyn.
dyn.
diskret
diskret
diskret
diskret
stetig
stetig
1
n
n
n
n
1
vollst.
teilw.
episod.
seq.
semi
dyn.
stetig
diskret
1
n
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
54/62
Lernen Umgebungen Struktur
Struktur des Agenten
Beobacht- Deterbar
ministisch
vollst.
det.
vollst.
det.
teilw.
stoch.
vollst.
stoch.
teilw.
stoch.
teilw.
stoch.
det.
stoch.
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
Agent besteht aus:
Architektur des Agenten:
Physikalischer Aufbau inkl. Sensoren und Aktuatoren
Programm des Agenten
55/62
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
56/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Lernen Umgebungen Struktur
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Arten von Agenten (1)
Arten von Agenten (2)
Tabellengesteuerter Agent (endlicher Automat) mit einer
Tabelle von Einträgen:
Beobachtungsfolge1 7→ Aktion1
Beobachtungsfolge2 7→ Aktion2
Einfacher Reflexagent
Tabellengesteuert (endlicher Automat) mit Tabelle von
Einträgen:
Beobachtung1 7→ Aktion1
Beobachtung2 7→ Aktion2
leicht abgeändert: Agent mit Zustand
implementiert Funktion der Form
(Zustand, Beobachtung) 7→ Aktion, Zustand’
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Lernen Umgebungen Struktur
Wählt Aktion aufgrund der direkten Wahrnehmung
57/62
Lernen Umgebungen Struktur
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Arten von Agenten (3)
58/62
Lernen Umgebungen Struktur
Arten von Agenten (3)
Modellbasierte Strukturierung:
Zweckbasierte Strukturierung (goalbased, zielbasiert):
Zustandsbasiert
Aktionen steuern auf das (vorgebene) Ziel zu.
Zustand modelliert die Umgebung
D.h. Wahrnehmung werden ins Modell übertragen
Z.B. Taxi kann anhand des Ziels entscheiden ob links oder
recht abbiegen
Berechnungen auf dem Modell: Z.B. Was bewirken Aktionen?
Agent kann erkennen, ob er das Ziel erreicht hat.
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
59/62
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
60/62
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Lernen Umgebungen Struktur
KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten
Arten von Agenten (4)
Lernen Umgebungen Struktur
Arten von Agenten (5)
Lernende Agenten:
Nutzenbasierte Strukturierung (utility-based, nutzenbasiert):
Lernverfahren erhöhen die Autonomie des Agenten.
Nächste Aktion wird anhand einer Nutzenfunktion (internes
Gütemaß) berechnet.
Ausführungmodul: bisheriges Programm
Lernmodul: verwendet Beobachtungen um Parameter im
Programm anzupassen
benötigt vorgegebene
Bewertungsfunktion (utility function)
Lernmethoden: online, offline (mit Trainingsphase)
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
61/62
M. Schmidt-Schauß · KI · SoSe 2016 · Einführung
62/62
Herunterladen