KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten KI-Ansätze Womit beschäftigt sich die Künstliche Intelligenz? Ziel der Künstlichen Intelligenz: Einführung in die Methoden der Künstlichen Intelligenz Herstellung eines intelligenten Agenten Einführung Auch: Herstellung eines möglichst guten Prof. Dr. Manfred Schmidt-Schauß autonomen lernenden intelligenten SoSe 2016 automatischen Informationssystems Stand der Folien: 19. April 2016 1 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten M. Schmidt-Schauß · KI · SoSe 2016 · Einführung KI-Ansätze KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Beispiele 2/62 KI-Ansätze Roboter-Programmierung Taschenrechner Schachspielende Computer, z.B. Deep Blue, Deep Thought und Deep Fritz 25 Gelenke: Coreless-DC-Motoren jeweils mit Getriebe Sprachübersetzer wie z.B. GoogleTranslate, Babelfish, etc. Intel ATOM 1.6 GHz CPU Wissensbasierte Systeme in vielen Varianten Zwei Kameras Texterkennungssysteme in Kombinationen mit Hintergrundwissen wie z.B. IBM Watson (Jeopardy-Gewinner) WLAN Roboter, z.B. Haushaltsrobotor wie Staubsaugerroboter, Industrieroboter, etc. Beschleunigungssensoren Ultraschall Gyroskope intelligente Informationssysteme M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 3/62 M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 4/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten KI-Ansätze KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Roboter-Programmierung KI-Ansätze Beispiel: Go Spiel Bildverarbeitung: Farberkennung und Objekterkennung (2016) Google-Produkt AlphaGo schlägt Lee Sedol (koreanischer Go-Spitzenspieler) Lokalisierung: Wo bin ich? GPS; Bildverarbeitung; Kalmann-Filter zur Positionsbestimmung Go hat einen sehr großen Suchraum: 19 × 19 Feld, d.h. 361 Möglichkeiten für den erste Zug. Bewegung: Algorithmen unter Nutzung der Sensorik und Aktorik algorithmische Bewertung der Spielsituation ist schwierig. Methoden von AlphaGo: Durchmustern der Suchräume; zufälliges Ausprobieren (Monte Carlo Tree Search), künstliche neuronale Netze zum Bewerten der Stellungen, Lernverfahren, massiv parallele Berechnungen. Verhalten: Übergeordnete Planungs-Algorithmen Kommunikation: Reden über WLAN mit dem Torwart? M. Schmidt-Schauß · KI · SoSe 2016 · Einführung KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten 5/62 KI-Ansätze M. Schmidt-Schauß · KI · SoSe 2016 · Einführung KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Roboter und weitere Begriffe 6/62 KI-Ansätze Agent, allgemein Vorwissen Erfahrungswissen Roboter = Intelligenter Agent, Computer im Kern, agiert mit der physikalischen Umwelt Agent Aktion Ziele, Prioritäten Softbot = Software-Roboter, Umwelt ist i.A. nicht physikalisch, hat Wissensbasis und gibt Antworten und Ratschläge Beobachtungen Webbot = Web-Roboter, (inter-)agiert im WWW, z.B. um Suchdatenbanken zu erstellen Vorwissen: Wissen über die Umgebung z.B. Karte Erfahrungswissen: erlerntes Wissen, Testfälle Chatbot = Chat-Roboter, interagiert in einem Chat Ziele: üblicherweise mit Prioritäten und Wichtigkeiten versehen. Beobachtungen: über die Umgebung und über sich selbst Nächste Aktion als Ausgabe (aufgrund von Schlussfolgern, Lernen,. . . ) M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 7/62 M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 8/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten KI-Ansätze KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Fragestellungen KI-Ansätze Klassifizierung der Ansätze nach Russel & Norvig menschlich rational Handeln menschliches Handeln rationales Handeln Denken menschliches Denken rationales Denken Was ist Künstliche Intelligenz? Was zeichnet eine Methode als KI-Methode aus? Was ist ein intelligenter Agent? Können Computer denken? Es gibt keine allgemein richtige Antwort auf diese Fragen! M. Schmidt-Schauß · KI · SoSe 2016 · Einführung KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten 9/62 KI-Ansätze M. Schmidt-Schauß · KI · SoSe 2016 · Einführung KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Menschliches Handeln 10/62 KI-Ansätze Menschliches Denken (1) menschlich rational Handeln menschliches Handeln rationales Handeln Denken menschliches Denken rationales Denken Fernziel: Systeme erschaffen, die analog zu Menschen handeln menschlich rational Handeln menschliches Handeln rationales Handeln Denken menschliches Denken rationales Denken Ziel: Computer denkt wie ein Mensch“ ” Forschung: Wie denkt der Mensch, entwickele Modelle dafür Entwickle Methoden, so dass der Computer Dinge tun kann, die momentan nur der Mensch kann Z.B. durch psychologische Experimente, Hirntomografie . . . in denen der Mensch noch den Computern überlegen ist Stelle Theorie auf, setze danach in ein System um Zum Nachweis, das Ziel erreicht: Vergleich von Maschine und Mensch (z.B. Turing-Test, folgt noch) M. Schmidt-Schauß · KI · SoSe 2016 · Einführung Ziel erreicht: Wenn Ein-/Ausgaben dem menschlichen Verhalten gleichen 11/62 M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 12/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten KI-Ansätze KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Menschliches Denken (2) KI-Ansätze Rationales Denken menschlich rational Handeln menschliches Handeln rationales Handeln Denken menschliches Denken rationales Denken Ansatz ist eher interdisziplinär: Kognitionswissenschaft Beispiele: Wie erkennen wir Gesichter, Verständnis des Spracherwerbs, . . . System ist kognitiv adäquat, wenn: arbeitet strukturell und methodisch wie ein Mensch erzielt entsprechende Leistungen Achtung: Taschenrechner ist nicht kognitiv adäquat, da er anders addiert als der Mensch Formalisierung von Denken durch Axiome und korrekte Schlussregeln Üblich: Verwendung einer Logik ( logischer Ansatz“) ” Ziel: Implementiere Deduktionssystem, das sich intelligent verhält Daher eher: kognitive Simulation 6= künstliche Intelligenz Vorteil: mathematisch eindeutig Betonung eher: exakte Nachahmung des menschlichen Denkens M. Schmidt-Schauß · KI · SoSe 2016 · Einführung KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Hürden: Formalisierung des Problems & Wissens in einer Logik 13/62 KI-Ansätze KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Rationales Handeln (1) Handeln Denken M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 14/62 KI-Ansätze Rationales Handeln (2) menschlich rational menschliches Handeln rationales Handeln menschliches Denken rationales Denken Rationaler Agent: Agent maximiert Ergebnis, bestmögliches Ergebnis Allgemeiner Ansatz, kann auch die anderen Ansätze miteinbeziehen: z.B. Verwenden einer Logik kann menschlich denken / handeln, wenn dies auch rational ist, aber keine Vorbedingung (daher mehr Freiheit in der Methodik) Rationalität kann mathematisch “sauber” definiert werden. Agenten-Ansatz Begriffsklärung Intelligenz“: ” ist in mehrerer Hinsicht anders. eine Einschränkung. Agent = System, dass auf seine Umgebung (Eingaben) eine Reaktion (Ausgaben) durchführt. Agent sollte autonom agieren, sich an Änderungen anpassen und ein Ziel verfolgen M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 15/62 M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 16/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten KI-Ansätze KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Ausrichtungen KI-Ansätze Ausrichtung der Vorlesung Kognitionswissenschaft: Menschliches Handeln / Denken analysieren, modellieren, nachahmen Ingenieurmäßig ausgerichtete KI: Entwickle Methoden, Techniken, Werkzeuge zum (rationalen/ intelligenten) Lösen komplexer Anwendungsprobleme. Z.B. Deduktionstechniken KI-Programmiersprachen neuronale Netze als Mustererkenner Lernalgorithmen wissensbasierte Systeme Expertensysteme M. Schmidt-Schauß · KI · SoSe 2016 · Einführung KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten ingenieurmäßige Ausrichtung direkt programmierbare KI-Methoden insbesondere Logiken in verschiedenen Varianten (KILOG) 17/62 KI-Ansätze M. Schmidt-Schauß · KI · SoSe 2016 · Einführung KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Gebiete der Künstlichen Intelligenz (Auswahl) 18/62 Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente Philosophische Aspekte Programmierung strategischer Spiele (Schach, ...) Philosophische Richtungen Automatisches/Interaktives Problemlösen und Beweisen Natürlichsprachliche Systeme (Computerlinguistik) Materialismus (Intelligente) Bildverarbeitung Behaviorismus Robotik Funktionalismus (medizinische) Expertensysteme Maschinelles Lernen M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 19/62 M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 20/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente Materialismus KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente Behaviorismus Grundprinzip: Nur das Beobachtbare ist Gegenstand der Wissenschaft Grundgedanke: Es gibt nichts außer Materie Folgerung: Nur verifizierbare Fragen sind sinnvoll Insbesondere auch Geist, Gedanken, Wille, . . . entsteht aus der Materie Glauben, Ideen, Wissen nur indirekt beobachtbar ( gibt es nicht. ) Prinzip: Alles was den Menschen ausmacht, kann durch Naturwissenschaft erforscht / analysiert werden Bewusstsein, Ideen, Furcht, ... sind Umschreibungen für Verhaltensmuster Konsequenz: Alles ist grundsätzlich auch konstruierbar Verifizieren benötigt evtl. unendlich viele Beobachtungen Insbesondere: Prinzipiell ist auch der denkende, intelligente Mensch konstruierbar Falsifizieren: Eine Beobachtung genügt Äquivalenz von Systemen (z.B. Mensch vs. Maschine) gegeben bei gleichem Ein-/Ausgabe-Verhalten M. Schmidt-Schauß · KI · SoSe 2016 · Einführung KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten 21/62 Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente Funktionalismus M. Schmidt-Schauß · KI · SoSe 2016 · Einführung KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten 22/62 Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente Starke und schwache KI-Hypothese Schwache KI-Hypothese Grundidee: Geistige Zustände (Ideen, Glauben, Furcht,. . . ) sind interne Zustände eines komplexen Systems Maschinen (Computer, Roboter,. . . ) können agieren, als ob sie intelligent wären Einzig die Funktion definiert die Semantik eines Systems Zustand S1 des Systems A ist funktional äquivalent zu Zustand S2 des Systems B, wenn: Starke KI-Hypothese A im Zustand S1 und B im Zustand S2 liefern bei gleicher Eingabe die gleiche Ausgabe Nachfolgezustände von A und B sind funktional äquivalent Maschinen (Computer, Roboter,. . . ) können wirklich denken und simulieren nicht nur das Denken. Z.B. Röhren-Radio und Transistor-Radio sind funktional äquivalent In der KI-Forschung Aber: CD-Player und Radio sind nicht äquivalent. Schwache KI-Hypothese wird als gegeben hingenommen Konsequenz: Mensch ist im Prinzip ein endlicher Automat mit Ein-/Ausgabe. Starke KI-Hypothese: Pragmatische Sichtweise: irrelevant, Hauptsache ist, dass das System funktioniert M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 23/62 M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 24/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente Turing-Test KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente Turing-Test (2) Test zum Nachweis der starken KI-Hypothese, vorgeschlagen von Alan Turing: Kritik: Nicht objektiv, da der Test von den Fähigkeiten des Fragestellers abhängt Auch z.B. vom Wissen des Fragestellers über Fähigkeiten eines Computers Kommunikationsleitung (Textübertragung) Gegenstelle (Mensch oder Computer) menschlicher Fragesteller Abhilfe: Test mit mehreren Personen als Fragesteller wiederholen Mensch stellt schriftliche Fragen an Computer / Mensch Totaler Turing-Test Begrenzte Zeit Unterschied zum (normalen) Turing-Test: Test ist bestanden, wenn Fragesteller nicht unterscheiden kann, ob Gegenstelle Mensch oder Computer ist M. Schmidt-Schauß · KI · SoSe 2016 · Einführung KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Zusätzlich Videoübertragung und Objekterkennung 25/62 Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente Loebner-Preis M. Schmidt-Schauß · KI · SoSe 2016 · Einführung KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten 26/62 Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente Loebner-Preis (2) Jährlich ausgetragener Wettbewerb (seit 1991) Chatbots-Test ähnlich zum Turingtest Gewinner: Chatbot, der die Jury am meisten überzeugt hat (Bronze-Medaille) Einmalige Preise: Silbermedaille (25.000 USD): Erster Chatbot, der die Jury überzeugend täuscht Mensch Goldmedaille (100.000 USD): wie Silbermedaille aber zusätzlich mit audio-visueller Kommunikation. Weder Silber noch Gold wurden bisher vergeben. menschlicher Fragesteller M. Schmidt-Schauß · KI · SoSe 2016 · Einführung Computer 27/62 M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 28/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente Turing-Test: Pro / Contra KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente ELIZA Von J. Weizenbaum entwickeltes Programm, das als Softbot einen Psychotherapeuten simuliert Pro: Konnte manche Menschen täuschen Halbwegs einsichtiges Kriterium für “Intelligenz” Techniken: Contra: Vorgefertigte Phrasen, falls das System nichts versteht “Erzählen Sie mir aus Ihrer Jugend” System als riesige Datenbank mit vorgefertigten Antworten Ist das System intelligent? Mustererkennung: in der Eingabe wird nach Schlüsselwörtern xyz gesucht; und danach in der nächsten Frage verwendet. “Erzählen Sie mir mehr über xyz” M. Schmidt-Schauß · KI · SoSe 2016 · Einführung KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten 29/62 Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente Chinesischer Raum KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten 30/62 Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente Chinesischer Raum (2) Gedankenexperiment von John Searle als Gegenargument zur starken KI-Hypothese: Fragen Versteht die Person Chinesisch? Jemand, der kein Chinesisch versteht, sitzt in einen Raum Im Raum: Versteht das Gesamtsystem etwas? Stapel mit chinesischen Zetteln Handbuch (in Muttersprache der Person im Raum) mit Regeln wie aus eingegebenen chinesischen Zetteln neue chinesische Zettel erzeugt werden können J. Searle: Kein Teil des System versteht irgendetwas Gegenargument (Behaviorismus): Das Gesamtsystem versteht etwas, da das Verständnis beobachtbar ist Ein chinesischer Zettel wird durch Schlitz reingereicht Person erzeugt neue Zettel auf Stapel und gibt einen Zettel nach außen M. Schmidt-Schauß · KI · SoSe 2016 · Einführung M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 31/62 M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 32/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente Das Prothesenexperiment Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente Symbolverarbeitungshypothese Annahme: Neuronen können künstlich nachgebaut werden (elektronische Neuronen) Physikalisches Symbolsystem Experiment: Ersetze einzelne Neuronen durch elektronische Neuronen Symbolverarbeitungshypothese (Alan Newell und Herbert Simon) Es kann ein physikalisches Symbolsystem konstruiert werden, das intelligentes Verhalten zeigt (den Turingtest besteht). Folgerungen: Matt Ginsberg: Ziel der Künstlichen Intelligenz: Konstruktion eines physikalischen Symbolsystems, das zuverlässig den Turingtest besteht. Entweder: Starke KI-Hypothese gilt und nichts ändert sich Oder: Es gibt etwas, das noch unbekannt ist (Geist,...) M. Schmidt-Schauß · KI · SoSe 2016 · Einführung Symbole, denen eine Bedeutung in der Realität zugeordnet werden kann System erzeugt aus eingegeber Symbolstruktur (z.B. String von Symbolen) weitere Symbolstrukturen Frage Ab welcher Anzahl verwandelt sich das Prothesen-Gehirn in einen Computer, der nichts versteht? KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten 33/62 Starke/schwache KI-Hypo. Turing-Test Gedankenexperimente Konnektionismus M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 34/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten KI-Paradigmen Zwei wesentliche Paradigmen Physikalisches Symbolsystem Hypothese des Konnektionismus Man benötigt subsymbolische, verteilte, parallele Verarbeitung, um eine intelligente Maschine zu konstruieren explizites Programmieren verwenden von Logiken, Schlussregeln, Inferenzverfahren Stärken: Ziehen von Schlüssen, strategische Spiele, Planen,. . . Lernverfahren Implikation: Man benötigt künstliche neuronale Netze insbesondere durch künstliche neuronale Netze Stärken: Bildererkennung, Musterverarbeitung, verrauschte Daten, maschinelles Lernen, adaptive Systeme Gegenargument: Man kann künstliche neuronale Netze auch (als Software) auf normaler Hardware programmieren Komplexes KI-System benötigt i.A. alle Paradigmen M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 35/62 M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 36/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Analyse und Programmieren von Teilaspekten Wissensrepräsentationssysteme Arbeitshypothese: Wissensrepräsentationshypothese (Brian Smith) Untersuche und programmiere Teilaspekte an kleinen Beispielen. Die Verarbeitung von Wissen läßt sich trennen in: Repräsentation von Wissen, wobei dieses Wissen eine Entsprechung in der realen Welt hat. Danach: (Upscaling) Untersuche große Beispiele und kombiniere die Lösungen der Teilaspekte. Inferenzmechanismus, der Schlüsse daraus zieht. Problematiken: Kombination oft nicht möglich oder ineffizient ⇒ Basis für Programme, deren innere Struktur als Modellierung von Fakten, Wissen, Beziehungen und als Operationen, Simulationen verstanden werden kann. Lösung für kleine Beispiele (Mikrowelten) muss nicht funktionieren für realistische Beispiele (Makrowelten) M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 37/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Geschichte der KI (1) Komponenten: Formale Sprache: Festlegung der gültigen syntaktischen Formen (Wissensbasis, Anfragen) 2 Semantik: Bedeutung der Sätze der formalen Sprache (i.A. modular aufgebaut) 3 Inferenz-Prozedur (operationale Semantik) Wie kann man Schlüsse ziehen? Diese Inferenzen müssen korrekt bzgl. der Semantik sein. 1950 A. Turing: Imititationsspiel 1956 J. McCarthy Dartmouth Konferenz: Start des Gebietes “artificial intelligence“ und Formulierung der Ziele. 1957- 1962 “allgemeiner Problemlöser“ LISP (higher-order, Parser u. Interpreter zur Laufzeit) Dameprogramm von A. Samuels (adaptierend “lernend“) Newell & Simon: GPS (General Problem Solver) 1963-1967 spezialisierte Systeme semantische Verarbeitung (Benutzung von Spezialwissen über das Gebiet) Common Sense Knowledge Problem Resolutionsprinzip im automatischen Beweisen Implementierung: Parser für die formale Sprache Implementierung der Inferenzprozedur. M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 38/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Repräsentations- und Inferenz-Systeme 1 M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 39/62 M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 40/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Geschichte der KI (2) Geschichte der KI (3) 1968- 1972 Modellierung von Mikrowelten MACSYMA mathematische Formel-Manipulation DENDRAL Expertensystem zur Bestimmung von organischen Verbindungen mittels Massenspektroskopie SHRDLU, ELIZA: erste Versuche zur Verarbeitung natürlicher Sprache 1977- Entwicklung von Werkzeugen, Trend zur Erarbeitung von Grundlagen; Expertensystem-Schalen (E-MYCIN) Fifth generation project in Japan (beendet) Computerlinguistik künstliche neuronale Netze logisches Programmieren 1985 Doug Lenats CYC Erzeugung eines vernünftigen Programms mit Alltagswissen durch Eingabe einer Enzyklopädie 1972-1977 Wissensverarbeitung als Technologie medizinisches Expertensystem: MYCIN D. Lenats AM (automated mathematics) KI-Sprachentwicklungen: PLANNER, KRL PROLOG KL-ONE M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 41/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 42/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Geschichte der KI (4) Fazit der bisherigen Erfahrungen Aktuelle Forschungsrichtungen Technologie zum textuellen Sprachverstehen und zur Ermöglichung von Mensch-Computer-Dialogen. (Wahlster: Verbmobil-Projekt) Fernziel scheint mit aktuellen Methoden, Techniken, Hardware und Software nicht erreichbar Robotik-Ansatz: (Embodied artificial intelligence, R. Pfeifer). Untersuchung und Entwicklung von Sensorik, Motorik, d.h. physikalische Gesetzmäßigkeiten des Roboters und der Steuerung mittels Computer, intelligentes Insekt“ ” Automatische Deduktion Motivationen und Visionen der KI sind in der Informatik verbreitet. Direkte Programmierung von Systemen (ohne sehr gute Lernalgorithmen) hat Grenzen in der Komplexität des einzugebenden Modells (Regeln, Fakten, ...) Logik Robotik künstliche neuronale Netze ... M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 43/62 M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 44/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Fazit der bisherigen Erfahrungen (2) Lernen Umgebungen Struktur Intelligente Agenten Agent = Überbegriff für alle KI-Systeme Ein Agent hat Sensoren zum Beobachten seiner Umgebung und Aktuatoren (Aktoren; Effektoren) um die Umgebung zu manipulieren. Teilbereiche sind eigenständigen Forschungsgebiete: Z.B. Sprachverarbeitung, Robotik, Automatische Deduktion, . . . Aktuelle Forschungsziele sind eher spezialisierte Aspekte: Logik und Inferenzen, Mensch-Maschine-Kommunikation, Lernverfahren (adaptive Software), Repräsentationsmechanismen; eingebettete KI, nicht-Standard-Logiken und Schlussfolgerungssysteme, . . . . Sensoren Agent Agentensteuerung Aktuatoren M. Schmidt-Schauß · KI · SoSe 2016 · Einführung KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Beobachtungen 45/62 Lernen Umgebungen Struktur Umgebung Aktionen M. Schmidt-Schauß · KI · SoSe 2016 · Einführung KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Intelligente Agenten (2) 46/62 Lernen Umgebungen Struktur Beispiel: Staubsaugerwelt (Russel & Norvig) A B Agent macht Beobachtungen (Folge = Beobachtungssequenz) Aktion beeinflussen Umgebung und evtl. ihn selbst (z.B. Position) Agentenfunktion: {Beobachtungsfolgen} → {Aktionen}. Agentfunktion kann durch das Agentenprogramm implementiert werden Orte: A oder B Jeder Ort: Dreckig / Sauber Agent kann nur aktuellen Ort beobachten (Sauber/Dreckig) Aktionen: InsAndereQuadrat, Saugen und NichtsTun. M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 47/62 M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 48/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Lernen Umgebungen Struktur KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Beispiel: Staubsaugerwelt (Russel & Norvig) (2) Lernen Umgebungen Struktur Beispiel: Staubsaugerwelt, kommerziell Problem: Wann ist der Agent (das zugehörige Programm) gut / vernünftig bzw. intelligent ? Notwendig: Performanzmaß, d.h. eine Leistungsbewertung des Agenten Z.B. Alles immer maximal sauber Möglichst sauber, aber wenig Stromverbrauch Möglichst sauber, aber wenig störend ... Der optimale agierende Agent ist der intelligente Agent. M. Schmidt-Schauß · KI · SoSe 2016 · Einführung KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten 49/62 Lernen Umgebungen Struktur M. Schmidt-Schauß · KI · SoSe 2016 · Einführung KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Intelligenter Agent 50/62 Lernen Umgebungen Struktur Lernen Guter Agent: Definition Ein vernünftiger (intelligenter, rationaler) Agent ist derjenige, der stets die optimale Aktion bzgl des Performanzmaßes wählt, aufgrund seiner Beobachtungsfolge und seines Vorwissens über die Umgebung. M. Schmidt-Schauß · KI · SoSe 2016 · Einführung mittels der Sensoren Wissen über die Umgebung sammeln; lernfähig, bzw. fähig, sich adaptiv zu verhalten, aufgrund der Beobachtungssequenz Agent wird als autonom bezeichnet, wenn der Agent eher aus seinen Beobachtungen lernt und nicht auf vorprogrammierte Aktionen angewiesen ist. 51/62 M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 52/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Lernen Umgebungen Struktur KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Umgebungen Lernen Umgebungen Struktur Umgebungen (2) Klassifikationen Klassifikationen Statisch vs. Dynamisch Dynamisch: die Umgebung kann sich während der Nachdenkzeit des Agenten verändern. Semi-Dynamisch: Umgebung unverändert, aber Performanzmaß verändert sich Z.B.: Schachspielen mit Uhr. Vollständig beobachtbar vs. teilweise beobachtbar. Der Staubsauger kann z.B. nur sein eigenes Quadrat beobachten. Deterministisch vs. Stochastisch Der Dreck erscheint zufällig in den Quadraten. Episodisch vs. sequentiell Episodisch: Feste unabhängige Zeitabschnitte, in denen beobachtet und agiert wird Sequentiell: Es gibt Spätfolgen der Aktionen. Diskret vs. Stetig. Ein Agent oder Multiagenten. Bei Multiagenten: Klassifizierung in: Gegner / Wettbewerber / Kooperierenden Agenten. M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 53/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Lernen Umgebungen Struktur KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Umgebungen, Beispiele (Russel & Norvig) Arbeitsumgebung Kreuzworträtsel Schach mit Uhr Poker Backgammon Taxifahren Medizinische Diagnose Bildanalyse Interaktiver Englischlehrer Episodisch Statisch Diskret Agenten seq. seq. seq. seq. seq. seq. statisch semi statisch statisch dyn. dyn. diskret diskret diskret diskret stetig stetig 1 n n n n 1 vollst. teilw. episod. seq. semi dyn. stetig diskret 1 n M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 54/62 Lernen Umgebungen Struktur Struktur des Agenten Beobacht- Deterbar ministisch vollst. det. vollst. det. teilw. stoch. vollst. stoch. teilw. stoch. teilw. stoch. det. stoch. M. Schmidt-Schauß · KI · SoSe 2016 · Einführung Agent besteht aus: Architektur des Agenten: Physikalischer Aufbau inkl. Sensoren und Aktuatoren Programm des Agenten 55/62 M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 56/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Lernen Umgebungen Struktur KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Arten von Agenten (1) Arten von Agenten (2) Tabellengesteuerter Agent (endlicher Automat) mit einer Tabelle von Einträgen: Beobachtungsfolge1 7→ Aktion1 Beobachtungsfolge2 7→ Aktion2 Einfacher Reflexagent Tabellengesteuert (endlicher Automat) mit Tabelle von Einträgen: Beobachtung1 7→ Aktion1 Beobachtung2 7→ Aktion2 leicht abgeändert: Agent mit Zustand implementiert Funktion der Form (Zustand, Beobachtung) 7→ Aktion, Zustand’ M. Schmidt-Schauß · KI · SoSe 2016 · Einführung KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Lernen Umgebungen Struktur Wählt Aktion aufgrund der direkten Wahrnehmung 57/62 Lernen Umgebungen Struktur M. Schmidt-Schauß · KI · SoSe 2016 · Einführung KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Arten von Agenten (3) 58/62 Lernen Umgebungen Struktur Arten von Agenten (3) Modellbasierte Strukturierung: Zweckbasierte Strukturierung (goalbased, zielbasiert): Zustandsbasiert Aktionen steuern auf das (vorgebene) Ziel zu. Zustand modelliert die Umgebung D.h. Wahrnehmung werden ins Modell übertragen Z.B. Taxi kann anhand des Ziels entscheiden ob links oder recht abbiegen Berechnungen auf dem Modell: Z.B. Was bewirken Aktionen? Agent kann erkennen, ob er das Ziel erreicht hat. M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 59/62 M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 60/62 KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Lernen Umgebungen Struktur KI-Ziel Phil. Aspekte Paradigmen KI-Geschichte Agenten Arten von Agenten (4) Lernen Umgebungen Struktur Arten von Agenten (5) Lernende Agenten: Nutzenbasierte Strukturierung (utility-based, nutzenbasiert): Lernverfahren erhöhen die Autonomie des Agenten. Nächste Aktion wird anhand einer Nutzenfunktion (internes Gütemaß) berechnet. Ausführungmodul: bisheriges Programm Lernmodul: verwendet Beobachtungen um Parameter im Programm anzupassen benötigt vorgegebene Bewertungsfunktion (utility function) Lernmethoden: online, offline (mit Trainingsphase) M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 61/62 M. Schmidt-Schauß · KI · SoSe 2016 · Einführung 62/62