Inhalt Kognitive Systeme 1 Was ist “Künstliche Intelligenz”? 1 Drei Anwendungsbeispiele für Künstliche Intelligenz Dr.-Ing. Bernd Ludwig 2 Gemeinsame Aspekte aller Anwendungen Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg 3 Grundlagen der Künstlichen Intelligenz 21.10.2009 Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 1 / 15 Ein autonomer Roboter (1) Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Abfahren eines Rechtecks “Denkleistungen” des Roboters: A-priori-Wissen über seine Fähigkeiten, Objekte in der Umwelt und deren Eigenschaften und Fähigkeiten, über die Umgebung selbst. Verarbeitung von Fakten und Regeln über die Aufgabe (Fahrbewegung) Interpretieren von Messwerten Ziele: welcher Ort soll gefahren, welche Handlungen durchgeführt werden? Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Ermittlung einer Route Beobachtungen über die Umgebung: Sensoren liefern Signale, die im Zusammenhang mit dem Wissen über die Umgebung interpretiert werden. Kognitive Systeme 1 2 / 15 Ein autonomer Roboter (2) Vom Roboter verarbeitete Information: Robertino im Original (TU München) Kapitel 1 Kapitel 1 3 / 15 Planen von Zielen Wissen: Rechteck (grün) Beobachtungen: Sensor-Messwerte (rot) Errechnete Information: Positionsschätzung (blau) Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Entscheiden zwischen Alternativen – Kompromissfindung Lernen neuer Fakten und Regeln Kapitel 1 4 / 15 Ein Expertensystem (1) Ein Expertensystem (2) Example Ein Expertensystem berät über ein Thema. Es speichert Wissen über Objekte, Handlungen, Ursachen, Wirkungen, Diagnosen, Tests usw. und erschließt aus eingegebenen Fakten neue Aussagen über die aktuelle Situation. Expertensystem: Verarbeitung des passiven Sonars Ursprünglicher Einsatzzweck: Analyse von unterseeischen Erdbeben Wissen u.a. über: richtiges und falsches Funktionieren Was passierte: Geräusche des gesuchten Raupenantriebs als Unterseebeben interpretiert. Symptome und Diagnosen Voraussetzungen und Auswirkungen von Handlungen Expertensysteme und andere KI-Programme interpretieren neue Phänomene durch die ihnen bekannten Regeln und können die eigenen Grenzen nicht erkennen. “Denkleistungen” u.a.: Ableiten von Konsequenzen von Handlungen Erschließen von Ursachen für Symptome Erklären Planen von Lösungen Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 5 / 15 Ein Infobot (1) Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 6 / 15 Kognitive Systeme 1 Kapitel 1 8 / 15 Ein Infobot (2) Example Ein Infobot bewegt sich in “Informationsräumen”, vergleicht gefundene Daten mit Suchanfragen von Nutzern, klassifiziert Daten in verschiedene Gruppen und präsentiert Suchergebnisse dem Nutzer. Wissen u.a. über: Zugangsmöglichkeiten zu Information Bedeutung von Wörtern und Sätzen gesuchte Information und Bewertung von gefundenen Daten in Hinblick auf die Suchanfrage “Denkleistungen” u.a.: Verstehen natürlichsprachlicher Anfragen Analyse von Text und Nicht-Text in Dokumenten (z.B. Webseiten) Erschließen und in Daten enthaltener Information Umgehen mit unvollständiger Information Interaktion mit dem Nutzer Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 7 / 15 Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Wissenserwerb Wahrnehmung und Interpretation In jeder der drei Anwendungsbeispiele muss ein Modell des Gegenstandsbereichs erstellt werden (Wissensakquisition): Messwerte von Sensoren, Nachrichten anderer Roboter oder unstrukturierte Daten müssen erfasst und unter den Gegebenheiten der aktuellen Situation interpretiert werden. Roboter I I I Physik der Umgebung Räumliches Modell der Umgebung eigene Fähigkeiten Roboter I Expertensystem I I I Krankheitsverläufe Wirkung von Behandlungen Informationsgewinn durch Tests I Expertensystem I Infobot I I I Kognitive Systeme 1 Kapitel 1 I 9 / 15 Handlung Es muss geplant werden, welche Aktionen (Handlungen) führen zu einem festgelegten Ziel können. Eine Entscheidung für ein Ziel muss anhand einer Aufgabe (Zweck des KI-Systems) getroffen werden. Roboter I I I I I Fahrziel auswählen Route planen Route abfahren Hindernissen ausweichen Route (teilweise) neuplanen I I I I I Kapitel 1 10 / 15 KI-Systeme sollen in der Lage sein, die Planung und Durchführung ihrer Aktionen an Erfahrungen aus früheren Handlungen anzupassen. I Schwierigkeiten oder Risiken beim Fahren in bestimmten Gebieten Hindernisse, Wände in der Umgebung Messfehler verschiedener Sensoren Expertensystem I I I Reaktion eines bestimmten Patienten auf ein Medikament Effizienz von Therapien Kosten-Nutzenverhältnis von Behandlungen Infobot I Wissensquellen auswählen Dokumente bewerten Treffer ordnen Mit dem Nutzer interagieren Kognitive Systeme 1 Kognitive Systeme 1 Lernen I Therapie auswählen Untersuchungen planen Therapieschritte festlegen Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) I Infobot I Aus multimodalen Dokumenten relevante Information extrahieren Roboter Expertensystem I Ultraschall-, CT-Bilder oder Blutmesswerte auswerten Infobot Bedeutung von Sprache Auswertung von Informationsquellen Bewertung von Information hinsichtlich einer Suchanfrage Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Position von Objekten und Hindernissen aus Daten von Ultraschall-, Infrarot, Lasersensoren ermitteln Eigene Bewegung anhand von Odometriewerten schätzen I Kapitel 1 11 / 15 Verlässliche Wissensquellen Nutzerbewertung von vorgeschlagenen Treffern Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 12 / 15 Ziele des Fachs Wissenschaftliche Facetten Entwicklung von Theorien, wie mit Hilfe von Computern intelligentes Verhalten simuliert werden kann. Betonung der Methodik: wie werden Theorien entwickelt und überprüft? =⇒ Bezug zur Kognitionswissenschaft: Grundlagen von intelligentem Verhalten u.a. aus Psychologie, Linguistik, Anthropologie, Neurowissenschaft Betonung der Algorithmik: Entwicklung von Programmen, die intelligentes Verhalten aufweisen, aber nicht den Menschen und seine Intelligenz simulieren. Vergleiche: I I Aerodynamik: Untersuchung der Physik des Fliegens und Entwicklung von Geräten, die fliegen können Zoologie: Untersuchung, wie ein Vogel fliegt I I Unterscheide: I I =⇒ Bezug zur Informatik: Modellierung, Software Engineering, Algorithmen und Datenstrukturen, Komplexität Simulation Implementierung ähnlicher Fähigkeiten Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Wie lassen sich Systeme implementieren? Welche berechenbarkeitstheoretischen Eigenschaften weisen sie auf? Kapitel 1 13 / 15 “Algorithmische” Intelligenz Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 14 / 15 Kapitel 1 16 / 15 Handeln Thema der Vorlesung: Welche Aspekte von intelligentem Verhalten sind bei einem gegebenen Rechnermodell überhaupt implementierbar und wie? Jede algorithmische Realisierung stößt an die berechenbarkeitstheoretischen Grenzen symbolischer Systeme: I I Halteproblem Untentscheidbarkeit schon “einfacher Mengen”, z.B. Äquivalenz von zwei kontextfreien Grammatiken I I I I Kognitive Systeme 1 Kapitel 1 I I I Konstruktion von Händen Konstruktion von Fahrwerken Konstruktion von Effektoren Konstruktion von Aktuatoren Konstruktion von Steuerprogrammen Welche Handlungen? I A-priori-Wissen über die Umgebung Erfahrungen, aus denen gelernt werden kann, wie Handlungen optimiert werden. Ziele, die zu erreichen sind. Bewertungsfunktionen für Objekte aus der Umgebung. Beobachtungen über die Umgebung und den Agenten selbst. Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) I I Welches Wissen und welche Fähigkeiten für KI-Systeme sind algorithmisch realisierbar? I Wie handeln? I I 15 / 15 Gattungsbedingte Handlungen Überleben als Ziel Welche anderen Ziele? Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Empfinden und Wahrnehmen Schlußfolgern und Hypothetisieren Wie empfinden bzw. wahrnehmen? I I I I Konstruktion von Sensoren Konstruktion von Augen Konstruktion von Ohren Konstruktion von Tastorganen Wie voraussagen? I Wie Handeln planen? Wie Empfindungen bzw. Wahrnehmungen repräsentieren? I Wie Weltmodelle bauen? Wie erinnern? I I I I I Kognitive Systeme 1 Probleme lösen Planen Wie in Gemeinschaft handeln? Selbstmodelle (Wohlbefinden) Erfolgskontrolle (Handlungen, Zustände) Erinnerungsketten Bilden abstrakter Erinnerungsketten Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Schließen auf zukünftige Zustände auf Grund der Erinnerung und der aktuellen Situation I I Kapitel 1 17 / 15 Hypothese von N EWELL und S IMON Agentensysteme Kommunikation mit Menschen Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 18 / 15 Hypothese von N EWELL und S IMON System-Symbol-Hypothese A physical symbol system has the necessary and sufficient means for intelligent action. designation (Bezeichnung, Bedeutungszuordnung): Ein Ausdruck bezeichnet ein Objekt, wenn das Symbolsystem über den Ausdruck modifizieren oder sein eigenes Verhalten vom Objekt abhängig machen kann. Veranschaulichung (sozusagen ein Gegenbeispiel): Ein Symbolsystem benutzt eine Menge von (physikalischen) Mustern, die als Bauteile von Symbolstrukturen (Ausdrücken, expressions) auftreten können. R ENÉ M AGRITTE (Der Verrat der Bilder): “Ein Bild ist nicht zu verwechseln mit einer Sache, die man berühren kann. Können Sie meine Pfeife stopfen? Natürlich nicht! Sie ist nur eine Darstellung. Hätte ich auf mein Bild geschrieben, dies ist eine Pfeife, so hätte ich gelogen. Das Abbild einer Marmeladenschnitte ist ganz gewiss nichts Essbares.” Die Struktur entsteht durch eine physikalische Beziehung zwischen den Symbolen (z.B. Aufeinanderfolgen). Ein Symbolsystem verwendet Funktionen, die aus Ausdrücken andere Ausdrücke bilden (Beispiele: Erstellung, Änderung, Vervielfachung, Löschung). Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 19 / 15 Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 20 / 15 Hypothese von N EWELL und S IMON Anforderungen (1) interpretation (Bedeutungsermittlung): Wenn ein Ausdruck eine Funktion bezeichnet, und wenn die Funktion berechenbar ist, dann kann das Symbolsystem den Ausdruck auswerten (interpretieren). Ein derart definiertes Symbolsystem ist eine Turingmaschine. I Die System-Symbol-Hypothese erfordert, die Umwelt eines Systems mit Hilfe von Ausdrücken zu formulieren (Modellbildung, Formalisierung). Kapitel 1 21 / 15 Anforderungen (2) 2 3 4 5 6 7 8 9 10 11 12 I Alltagswissen ist semantisch unklar und kaum formalisierbar. Formalisierbar ist Wissen, das sich mit einfachen syntaktischen Mitteln darstellen lässt. Formalisierbar ist Wissen, das unabhängig von einem Kontext korrekt ist. Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 22 / 15 Annahmen über die Wirkung von Formalisierung Notation in einer formalen Kunstsprache Eine Fachsprache auswählen oder mit Experten definieren. Die Fachsprache sprechen bzw. schreiben lernen. Mit den Fachexperten über die Inhalte sprechen und aus Fachbüchern die Inhalte lesen. Den Zweck der Formalisierung eingrenzen (lernen). Eine Perspektive definieren. Granularität festlegen. Eine Ontologie aufstellen. Eine Normsprache definieren. Zu formalisierendes Wissen klar und systematisch in der Normsprache aufschreiben! Geeignete reduzierte syntaktische Mittel eingrenzen. Wissensbestände modularisieren. Formalisieren der Kernsätze. Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) I Annahmen und Machbarkeit Wie sollte man formalisieren? 1 Semantische Normierung (Verwendung von Fachbegriffen) Syntaktische Normierung (Auswahl bestimmter syntaktischer Strukturen) Isolierung vom normalen Wissensbestand (Beschränkung auf Kontext) Was ist formalisierbar? designation stellt den Bezug (Referenz) zur Umwelt her. Kognitive Systeme 1 I I I designation und interpretation spezifizieren abstrakt das Programm der Turingmaschine. Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Grundsätzliche methodische Fragen Was läuft bei der Formalisierung ab? Kognitive Systeme 1 Kapitel 1 Präzise Semantik Zugesicherte Korrektheit Erfahrungen zur Umsetzbarkeit der Annahmen Spezifikation oft natürlichsprachlich, daher gibt es Unklarheiten bei der Übersetzung in die formale Kunstsprache Viele Begriffe sind auf verschiedene Weisen formalisierbar. Wie also lassen sich Brüche von der Spezifikation zur Formalisierung aufspüren? Wie kann die Korrektheit (in Bezug worauf?) einer Formalisierung geprüft werden? 23 / 15 Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 24 / 15 Probabilistisches Schließen Probabilistisches Schließen Beispiel: Ein Expertensystem in Form eines Bayesnetzes Grundannahme: Die Beobachtung der Umwelt ist mit einem Zufallsexperiment vergleichbar. P(Pneumonia|Sign 1, Test 1) =? Formuliere Zusammenhänge der modellierten Umwelt in Form von bedingten Wahrscheinlichkeitsaussagen. Verwende zum Interpretieren die Formel von Bayes: Hypothese: Auch die Interpretation ist ein Zufallsexperiment: I I P(Pneumonia|Sign 1, Test 1) · P(Sign 1, Test 1) = P(Pneumonia, Sign 1, Test 1) Eine sicher wahre Aussage hat die Wahrscheinlichkeit 1. Eine sicher falsche Aussage hat die Wahrscheinlichkeit 0. Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 25 / 15 Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Verstehen versus Mustererkennen Kritik der Künstlichen Intelligenz ELIZA (1966) von J OSEPH W EIZENBAUM simuliert einen Humanistischen Psychotherapeuten. J OSEPH W EIZENBAUM zur Leistungsfähigkeit der KI Es sucht Muster in der Eingabe und antwortet nach vorgefertigten Schablonen. Es versteht das Gesprächsthema überhaupt nicht. Automatische Spracherkennung (Quelle für Skizze: wikipedia) Kognitive Systeme 1 26 / 15 Therapeuten wollten Eliza für ihre Patientengespräche einsetzen. Es bestand einen eingeschränkten Turingtest. Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kapitel 1 Kapitel 1 “Es ist erstaunlich, dass die Idee der Künstlichen Intelligenz überhaupt irgendwo ernst genommen wird. Aber in der ganzen Welt wird sie ernst genommen. Die Idee hat sich verkauft, obwohl sehr, sehr wenig dahintersteckt.” Zur Mensch-Maschine-Interaktion: “Auch wenn sie sich ähnlich bewegen oder sogar verhalten, haben sie eine völlig andere Geschichte als wir Menschen. Vielleicht könnte ein Roboter oder ein Computer unsere Sätze in einem einfachen sprachlichen Sinn auseinander nehmen, aber er könnte sie nicht richtig interpretieren, weil er nicht unsere Sozialisation und Lebenserfahrung hat” 27 / 15 Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 28 / 15