Kognitive Systeme 1 Was ist “Künstliche Intelligenz”? Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg 21.10.2009 Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 1 / 15 Inhalt 1 Drei Anwendungsbeispiele für Künstliche Intelligenz 2 Gemeinsame Aspekte aller Anwendungen 3 Grundlagen der Künstlichen Intelligenz Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 2 / 15 Ein autonomer Roboter (1) Vom Roboter verarbeitete Information: A-priori-Wissen über seine Fähigkeiten, Objekte in der Umwelt und deren Eigenschaften und Fähigkeiten, über die Umgebung selbst. Ziele: welcher Ort soll gefahren, welche Handlungen durchgeführt werden? Robertino im Original (TU München) Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Beobachtungen über die Umgebung: Sensoren liefern Signale, die im Zusammenhang mit dem Wissen über die Umgebung interpretiert werden. Kognitive Systeme 1 Kapitel 1 3 / 15 Ein autonomer Roboter (2) Abfahren eines Rechtecks “Denkleistungen” des Roboters: Verarbeitung von Fakten und Regeln über die Aufgabe (Fahrbewegung) Interpretieren von Messwerten Ermittlung einer Route Planen von Zielen Wissen: Rechteck (grün) Beobachtungen: Sensor-Messwerte (rot) Entscheiden zwischen Alternativen – Kompromissfindung Errechnete Information: Positionsschätzung (blau) Lernen neuer Fakten und Regeln Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 4 / 15 Ein Expertensystem (1) Example Ein Expertensystem berät über ein Thema. Es speichert Wissen über Objekte, Handlungen, Ursachen, Wirkungen, Diagnosen, Tests usw. und erschließt aus eingegebenen Fakten neue Aussagen über die aktuelle Situation. Wissen u.a. über: richtiges und falsches Funktionieren Symptome und Diagnosen Voraussetzungen und Auswirkungen von Handlungen “Denkleistungen” u.a.: Ableiten von Konsequenzen von Handlungen Erschließen von Ursachen für Symptome Erklären Planen von Lösungen Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 5 / 15 Ein Expertensystem (2) Expertensystem: Verarbeitung des passiven Sonars Ursprünglicher Einsatzzweck: Analyse von unterseeischen Erdbeben Was passierte: Geräusche des gesuchten Raupenantriebs als Unterseebeben interpretiert. Expertensysteme und andere KI-Programme interpretieren neue Phänomene durch die ihnen bekannten Regeln und können die eigenen Grenzen nicht erkennen. Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 6 / 15 Ein Infobot (1) Example Ein Infobot bewegt sich in “Informationsräumen”, vergleicht gefundene Daten mit Suchanfragen von Nutzern, klassifiziert Daten in verschiedene Gruppen und präsentiert Suchergebnisse dem Nutzer. Wissen u.a. über: Zugangsmöglichkeiten zu Information Bedeutung von Wörtern und Sätzen gesuchte Information und Bewertung von gefundenen Daten in Hinblick auf die Suchanfrage “Denkleistungen” u.a.: Verstehen natürlichsprachlicher Anfragen Analyse von Text und Nicht-Text in Dokumenten (z.B. Webseiten) Erschließen und in Daten enthaltener Information Umgehen mit unvollständiger Information Interaktion mit dem Nutzer Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 7 / 15 Ein Infobot (2) Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 8 / 15 Wissenserwerb In jeder der drei Anwendungsbeispiele muss ein Modell des Gegenstandsbereichs erstellt werden (Wissensakquisition): Roboter I I I Physik der Umgebung Räumliches Modell der Umgebung eigene Fähigkeiten Expertensystem I I I Krankheitsverläufe Wirkung von Behandlungen Informationsgewinn durch Tests Infobot I I I Bedeutung von Sprache Auswertung von Informationsquellen Bewertung von Information hinsichtlich einer Suchanfrage Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 9 / 15 Wahrnehmung und Interpretation Messwerte von Sensoren, Nachrichten anderer Roboter oder unstrukturierte Daten müssen erfasst und unter den Gegebenheiten der aktuellen Situation interpretiert werden. Roboter I I Position von Objekten und Hindernissen aus Daten von Ultraschall-, Infrarot, Lasersensoren ermitteln Eigene Bewegung anhand von Odometriewerten schätzen Expertensystem I Ultraschall-, CT-Bilder oder Blutmesswerte auswerten Infobot I Aus multimodalen Dokumenten relevante Information extrahieren Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 10 / 15 Handlung Es muss geplant werden, welche Aktionen (Handlungen) führen zu einem festgelegten Ziel können. Eine Entscheidung für ein Ziel muss anhand einer Aufgabe (Zweck des KI-Systems) getroffen werden. Roboter I I I I I Fahrziel auswählen Route planen Route abfahren Hindernissen ausweichen Route (teilweise) neuplanen Expertensystem I I I Therapie auswählen Untersuchungen planen Therapieschritte festlegen Infobot I I I I Wissensquellen auswählen Dokumente bewerten Treffer ordnen Mit dem Nutzer interagieren Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 11 / 15 Lernen KI-Systeme sollen in der Lage sein, die Planung und Durchführung ihrer Aktionen an Erfahrungen aus früheren Handlungen anzupassen. Roboter I I I Schwierigkeiten oder Risiken beim Fahren in bestimmten Gebieten Hindernisse, Wände in der Umgebung Messfehler verschiedener Sensoren Expertensystem I I I Reaktion eines bestimmten Patienten auf ein Medikament Effizienz von Therapien Kosten-Nutzenverhältnis von Behandlungen Infobot I I Verlässliche Wissensquellen Nutzerbewertung von vorgeschlagenen Treffern Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 12 / 15 Ziele des Fachs Entwicklung von Theorien, wie mit Hilfe von Computern intelligentes Verhalten simuliert werden kann. Entwicklung von Programmen, die intelligentes Verhalten aufweisen, aber nicht den Menschen und seine Intelligenz simulieren. Vergleiche: I I Aerodynamik: Untersuchung der Physik des Fliegens und Entwicklung von Geräten, die fliegen können Zoologie: Untersuchung, wie ein Vogel fliegt Unterscheide: I I Simulation Implementierung ähnlicher Fähigkeiten Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 13 / 15 Wissenschaftliche Facetten Betonung der Methodik: wie werden Theorien entwickelt und überprüft? =⇒ Bezug zur Kognitionswissenschaft: Grundlagen von intelligentem Verhalten u.a. aus Psychologie, Linguistik, Anthropologie, Neurowissenschaft Betonung der Algorithmik: I I Wie lassen sich Systeme implementieren? Welche berechenbarkeitstheoretischen Eigenschaften weisen sie auf? =⇒ Bezug zur Informatik: Modellierung, Software Engineering, Algorithmen und Datenstrukturen, Komplexität Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 14 / 15 “Algorithmische” Intelligenz Thema der Vorlesung: Welche Aspekte von intelligentem Verhalten sind bei einem gegebenen Rechnermodell überhaupt implementierbar und wie? Jede algorithmische Realisierung stößt an die berechenbarkeitstheoretischen Grenzen symbolischer Systeme: I I Halteproblem Untentscheidbarkeit schon “einfacher Mengen”, z.B. Äquivalenz von zwei kontextfreien Grammatiken Welches Wissen und welche Fähigkeiten für KI-Systeme sind algorithmisch realisierbar? I I I I I A-priori-Wissen über die Umgebung Erfahrungen, aus denen gelernt werden kann, wie Handlungen optimiert werden. Ziele, die zu erreichen sind. Bewertungsfunktionen für Objekte aus der Umgebung. Beobachtungen über die Umgebung und den Agenten selbst. Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 15 / 15 Handeln Wie handeln? I I I I I Konstruktion von Händen Konstruktion von Fahrwerken Konstruktion von Effektoren Konstruktion von Aktuatoren Konstruktion von Steuerprogrammen Welche Handlungen? I I I Gattungsbedingte Handlungen Überleben als Ziel Welche anderen Ziele? Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 16 / 15 Empfinden und Wahrnehmen Wie empfinden bzw. wahrnehmen? I I I I Konstruktion von Sensoren Konstruktion von Augen Konstruktion von Ohren Konstruktion von Tastorganen Wie Empfindungen bzw. Wahrnehmungen repräsentieren? Wie Weltmodelle bauen? Wie erinnern? I I I I Selbstmodelle (Wohlbefinden) Erfolgskontrolle (Handlungen, Zustände) Erinnerungsketten Bilden abstrakter Erinnerungsketten Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 17 / 15 Schlußfolgern und Hypothetisieren Wie voraussagen? I Schließen auf zukünftige Zustände auf Grund der Erinnerung und der aktuellen Situation Wie Handeln planen? I I Probleme lösen Planen Wie in Gemeinschaft handeln? I I Agentensysteme Kommunikation mit Menschen Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 18 / 15 Hypothese von N EWELL und S IMON System-Symbol-Hypothese A physical symbol system has the necessary and sufficient means for intelligent action. Ein Symbolsystem benutzt eine Menge von (physikalischen) Mustern, die als Bauteile von Symbolstrukturen (Ausdrücken, expressions) auftreten können. Die Struktur entsteht durch eine physikalische Beziehung zwischen den Symbolen (z.B. Aufeinanderfolgen). Ein Symbolsystem verwendet Funktionen, die aus Ausdrücken andere Ausdrücke bilden (Beispiele: Erstellung, Änderung, Vervielfachung, Löschung). Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 19 / 15 Hypothese von N EWELL und S IMON designation (Bezeichnung, Bedeutungszuordnung): Ein Ausdruck bezeichnet ein Objekt, wenn das Symbolsystem über den Ausdruck modifizieren oder sein eigenes Verhalten vom Objekt abhängig machen kann. Veranschaulichung (sozusagen ein Gegenbeispiel): R ENÉ M AGRITTE (Der Verrat der Bilder): “Ein Bild ist nicht zu verwechseln mit einer Sache, die man berühren kann. Können Sie meine Pfeife stopfen? Natürlich nicht! Sie ist nur eine Darstellung. Hätte ich auf mein Bild geschrieben, dies ist eine Pfeife, so hätte ich gelogen. Das Abbild einer Marmeladenschnitte ist ganz gewiss nichts Essbares.” Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 20 / 15 Hypothese von N EWELL und S IMON interpretation (Bedeutungsermittlung): Wenn ein Ausdruck eine Funktion bezeichnet, und wenn die Funktion berechenbar ist, dann kann das Symbolsystem den Ausdruck auswerten (interpretieren). Ein derart definiertes Symbolsystem ist eine Turingmaschine. designation und interpretation spezifizieren abstrakt das Programm der Turingmaschine. designation stellt den Bezug (Referenz) zur Umwelt her. Die System-Symbol-Hypothese erfordert, die Umwelt eines Systems mit Hilfe von Ausdrücken zu formulieren (Modellbildung, Formalisierung). Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 21 / 15 Anforderungen (1) Grundsätzliche methodische Fragen Was läuft bei der Formalisierung ab? I I I Semantische Normierung (Verwendung von Fachbegriffen) Syntaktische Normierung (Auswahl bestimmter syntaktischer Strukturen) Isolierung vom normalen Wissensbestand (Beschränkung auf Kontext) Was ist formalisierbar? I I I Alltagswissen ist semantisch unklar und kaum formalisierbar. Formalisierbar ist Wissen, das sich mit einfachen syntaktischen Mitteln darstellen lässt. Formalisierbar ist Wissen, das unabhängig von einem Kontext korrekt ist. Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 22 / 15 Anforderungen (2) Wie sollte man formalisieren? 1 2 3 4 5 6 7 8 9 10 11 12 Eine Fachsprache auswählen oder mit Experten definieren. Die Fachsprache sprechen bzw. schreiben lernen. Mit den Fachexperten über die Inhalte sprechen und aus Fachbüchern die Inhalte lesen. Den Zweck der Formalisierung eingrenzen (lernen). Eine Perspektive definieren. Granularität festlegen. Eine Ontologie aufstellen. Eine Normsprache definieren. Zu formalisierendes Wissen klar und systematisch in der Normsprache aufschreiben! Geeignete reduzierte syntaktische Mittel eingrenzen. Wissensbestände modularisieren. Formalisieren der Kernsätze. Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 23 / 15 Annahmen und Machbarkeit Annahmen über die Wirkung von Formalisierung Notation in einer formalen Kunstsprache Präzise Semantik Zugesicherte Korrektheit Erfahrungen zur Umsetzbarkeit der Annahmen Spezifikation oft natürlichsprachlich, daher gibt es Unklarheiten bei der Übersetzung in die formale Kunstsprache Viele Begriffe sind auf verschiedene Weisen formalisierbar. Wie also lassen sich Brüche von der Spezifikation zur Formalisierung aufspüren? Wie kann die Korrektheit (in Bezug worauf?) einer Formalisierung geprüft werden? Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 24 / 15 Probabilistisches Schließen Grundannahme: Die Beobachtung der Umwelt ist mit einem Zufallsexperiment vergleichbar. Hypothese: Auch die Interpretation ist ein Zufallsexperiment: I I Eine sicher wahre Aussage hat die Wahrscheinlichkeit 1. Eine sicher falsche Aussage hat die Wahrscheinlichkeit 0. Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 25 / 15 Probabilistisches Schließen Beispiel: Ein Expertensystem in Form eines Bayesnetzes P(Pneumonia|Sign 1, Test 1) =? Formuliere Zusammenhänge der modellierten Umwelt in Form von bedingten Wahrscheinlichkeitsaussagen. Verwende zum Interpretieren die Formel von Bayes: P(Pneumonia|Sign 1, Test 1) · P(Sign 1, Test 1) = P(Pneumonia, Sign 1, Test 1) Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 26 / 15 Verstehen versus Mustererkennen ELIZA (1966) von J OSEPH W EIZENBAUM simuliert einen Humanistischen Psychotherapeuten. Es bestand einen eingeschränkten Turingtest. Es sucht Muster in der Eingabe und antwortet nach vorgefertigten Schablonen. Es versteht das Gesprächsthema überhaupt nicht. Automatische Spracherkennung (Quelle für Skizze: wikipedia) Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 27 / 15 Kritik der Künstlichen Intelligenz J OSEPH W EIZENBAUM zur Leistungsfähigkeit der KI Therapeuten wollten Eliza für ihre Patientengespräche einsetzen. “Es ist erstaunlich, dass die Idee der Künstlichen Intelligenz überhaupt irgendwo ernst genommen wird. Aber in der ganzen Welt wird sie ernst genommen. Die Idee hat sich verkauft, obwohl sehr, sehr wenig dahintersteckt.” Zur Mensch-Maschine-Interaktion: “Auch wenn sie sich ähnlich bewegen oder sogar verhalten, haben sie eine völlig andere Geschichte als wir Menschen. Vielleicht könnte ein Roboter oder ein Computer unsere Sätze in einem einfachen sprachlichen Sinn auseinander nehmen, aber er könnte sie nicht richtig interpretieren, weil er nicht unsere Sozialisation und Lebenserfahrung hat” Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive Systeme 1 Kapitel 1 28 / 15