Literatur Wissenbasierte Systeme WS 03 Künstliche Intelligenz Expertensysteme, Logik und Regelverarbeitung Benno Stein Durkin: Expert Systems – Design and Development, Macmillan (1994) Nilsson: Principles of Artificial Intelligence Nilsson: Artificial Intelligence – A New Synthesis Puppe: Einführung in Expertensysteme Puppe: Problemlösungsmethoden in Expertensystemen Russel/Norvig: Artificial Intelligence – A Modern Approach, Prentice-Hall (1995) Stefik: Introduction to Knowledge Systems, Morgan Kaufmann (1995) Waterman: A Guide to Expert Systems Winston/Horn: Artificial Intelligence 1. Künstliche Intelligenz (Begriff, Geschichte, Gebiete) 2. Wissensformen (sub/symbolisch, Problemlösung), Expertensysteme 3. Aussagenlogik Engineering in der KI Clocksin/Mellish: Programming in Prolog Forbus, DeKleer: Building Problem Solvers Graham: Common LISP Karbach/Linster: Wissensakquisition für Expertensysteme Mayer: Common LISP Norvig: Paradigms of Artificial Intelligence – Case Studies in Common LISP Winston/Horn: LISP 4. Prädikatenlogik 5. Produktionregelsysteme 6. Fuzzy Logic Logik und Constraints Beckstein: Begründungsverwaltung Frühwirth/Abdennadher: Constraint-Programmierung – Grundlagen und Anwendungen Marriott/Stukey: Programming with Constraints MIT Press (1998) Montanari: Principles and Practice of Constraint Programming Schöning: Logik für Informatiker 1 Contents c STEIN 2003/04 2 Contents c STEIN 2003/04 3 Contents c STEIN 2003/04 4 Contents c STEIN 2003/04 Intelligenztests Intelligenztests 1, 2, 3, 4, 5, . . . 2, 8, 26, 80, . . . A B C 1 2 3 4 5 2, 1, 4, 4, 8, 7, 16, 10, . . . 22.5, 64, 70, 8.666, 2.718, 5.3, 11 Gegeben: Kasten A und B Aufgabe: Wähle unter den Kästen 1 bis 5 denjenigen aus, der sich zu C so verhält, wie B zu A. c STEIN 2003/04 I-1 AI Introduction c STEIN 2003/04 I-2 AI Introduction Intelligenz versus Intelligence Was ist Künstliche Intelligenz (KI)? What is Artificial Intelligence (AI)? Der Intelligenzbegriff im Deutschen ist enger gefaßt als im Englischen (Berücksichtigung von Erfahrung). Siehe auch “CIA”, Central Intelligence Agency. “Artificial Intelligence is the science of making machines do things that would require intelligence if done by men.” • Intelligenz Zurechtfinden in neuen Situationen aufgrund neuer [Marvin Minsky, 1966] Einsichten Aufgaben mit Hilfe des Denkens lösen (Erfahrung nicht wesentlich) “Artificial Intelligence is the study of ideas that enable computers to be intelligent.” • Intelligence Anpassung an neue Situationen Lernen mit konkreten und abstrakten Situationen fertig werden Aufklärung und Nachforschung I-3 AI Introduction c STEIN 2003/04 [Patrick Henry Winston, 1984] I-4 AI Introduction c STEIN 2003/04 Was ist Künstliche Intelligenz (KI)? Starke KI versus Schwache KI Gewisse menschliche Aktivitäten erfordern Intelligenz (unabhängig von der Definition des Begriffes), z. B. • Planen einer kombinierten Bahn–Bus–Reise KI ist der Versuch, auf Computern intelligentes Verhalten nachzubilden. Problem: Wie definiert man intelligentes Verhalten? • Beweisen mathematischer Sätze • Erstellen medizinischer Diagnosen • Sehen und Erkennen von Gegenständen Zwei Auffassungen über KI lassen sich unterscheiden: 1. “schwache KI” Definition 1 (Künstliche Intelligenz, KI) Die Künstliche Intelligenz (KI) faßt bisher dem Menschen vorbehaltene Fähigkeiten als informationsverarbeitende Prozesse auf. Sie versucht, diese Prozesse mit Computern zu simulieren und sie einer systematischen, ingenieurmäßigen Betrachtungsweise zugänglich zu machen. Computer ist nur Instrument zur Untersuchung kognitiver Prozesse. 2. “starke KI” Die richtig programmierten Prozesse im Computer sind geistige Prozesse. ➜ Man kann Computern, die mit den “richtigen” Programmen ausgestattet sind, Verstehen zusprechen. ➜ Herausforderungen an Informatiker, Verhaltensforscher, u.a.: • Erforschung intelligenten Problemlösungsverhaltens “schwache KI” = Computer simuliert Intelligenz • Entwicklung intelligenter Programme “starke KI” = Computer ist intelligent Bemerkung: Intelligente Programme weisen Eigenschaften und Fähigkeiten auf, mit denen man bei menschlichen Verhaltensweisen Intelligenz assoziiert, z. B. Problemlösen, Lernen, Sprachverstehen, Erklären, flexible Reaktion c STEIN 2003/04 I-5 AI Introduction Vor diesem Hintergrund sind die folgenden Szenarien von Turing, Schank und Searle zu interpretieren. c STEIN 2003/04 I-6 AI Introduction Turing’s Szenario (Turing Test) Weizenbaum’s Szenario (Eliza) • Versuchsanordnung: Person C, Person A im Nebenraum mit Computer B. C weiß, daß eine der Datenleitungen mit A, die andere mit B verbunden ist. Er weiß aber nicht, wer was ist. • Ziel: C soll durch Fragen feststellen, wer der Computer ist. Computer versucht, C zu täuschen. A versucht, C zu helfen. I am the psychotherapist. Please describe your problems. Each time you are finished talking, type RET twice. Can you ask me a question? Why do you say can I ask you a question? • These: Computer ist intelligent, wenn er C täuschen kann. I would like you to ask me something. Mensch A Is it because of your plans that you say you would like me to ask you something? Computer B No, I want to see whether you understand questions. Mensch C I-7 AI Introduction What makes you believe you might want to see whether? c STEIN 2003/04 I-8 AI Introduction c STEIN 2003/04 Schank’s Szenario (Restaurant-Geschichten) Schank’s Szenario (Restaurant-Geschichten) Anhand der Interpretation von Geschichten (aus Restaurants) soll gezeigt werden, wie Verstehen auf dem Rechner funktioniert. Schank’s Programm wird nun gefragt: Beispiel. Im Fall von Geschichte 1 antwortet das Programm mit “nein”, im Fall von Geschichte 2 mit “ja”, obwohl die Frage in keiner Geschichte explizit beantwortet wurde. • Geschichte 1. Hat der Gast den Hamburger gegessen? Ein Gast im Restaurant bestellt einen Hamburger. Als das Essen gebracht wird, sieht der Gast, daß der Hamburger angebrannt ist. Wütend und ohne zu bezahlen verläßt der Gast das Restaurant. Das Programm basiert auf einer Darstellung verschiedener Situationen und Szenen in Restaurants (Skripten) und geeigneter (sequentieller) Ablaufsteuerung. • Geschichte 2. Ein Gast bestellt einen Hamburger. Als das Essen gebracht wird, ist der Gast sehr zufrieden. Beim Verlassen des Restaurants legt er ein Trinkgeld auf den Tisch. These der Starken KI: Das so arbeitende Programm versteht die Geschichten genauso wie ein Mensch. Gegenthese: Es besteht ein prinzipieller Unterschied zwischen dem Programm und menschlichem Verstehen. I-9 AI Introduction c STEIN 2003/04 Searle’s Szenario (chinesisches Zimmer) Soll den Unterschied im Verstehen zwischen Computer und Mensch zeigen. Ein Mensch, der kein Chinesisch versteht, kann dennoch durch Nachsehen in Tabellen Verständnis “simulieren”. • Versuchsanordnung: Searle sitzt in einem Zimmer. Chinesische Schriftzeichen, die eine Geschichte beschreiben, werden von aussen hereingereicht. Im Zimmer sind Tabellen mit Anweisungen für Antworten: Auf Zeichen A, antworte mit Zeichen X. • Für einen nicht-eingeweihten Beobachter sieht es so aus, als ob Searle chinesisch versteht. c STEIN 2003/04 I-10 AI Introduction Starke KI versus Schwache KI Behauptung der Vertreter der Starken KI: • Computer können jeden beliebigen, intelligenten Prozeß nachbilden. Reaktion der Vertreter der Schwachen KI: • Das ist aus prinzipiellen Gründen unmöglich. • Searle: Menschliches Verstehen kann nicht nachgebildet werden. • Einfache Programme wie Eliza erzeugen “nur” syntaktisch richtige Antworten. • Verständnis wird nur simuliert. Antworten der Vertreter der Starken KI: Searle: Schank’s Programm simuliert das Verstehen der Geschichten nur. • Schank’s Restaurant-Programm versteht die Geschichten tatsächlich. Beachte: Searle präzisiert nicht den Unterschied zwischen “echtem” und “simuliertem” Verstehen. • Das Programm erklärt, was menschliches Verstehen bedeutet. • Zu Searle’s Chinesischem Zimmer: Ein einzelnes Neuron versteht auch keine Geschichten. Die Versuchsperson bei Searle’s Gedankenexperiment ist auch nur ein Teil des Gesamtsystems. I-11 AI Introduction c STEIN 2003/04 I-12 AI Introduction c STEIN 2003/04 Starke KI versus Schwache KI Geschichte der Künstlichen Intelligenz Hat “echtes” Verstehen mit Bewußtsein zu tun? Geburtsstunde (1956) Und woher kommt Bewußtsein (aus dem Stofflichen, der Physis)? Sprache, wie Bewußtsein, entsteht nur aus dem Bedürfnis, der Notwendigkeit des Umgangs mit anderen. • Sommerseminar in Dartmouth. Gründung durch M. Minsky, J. McCarthy, A. Newell, H. A. Simon u. a. Klassische Periode (1955 – 1965) [Karl Marx, 1846] • Suche nach allgemeinen Prinzipien zur Lösung beliebiger Probleme. Anwendung der Prinzipien auf einfache Probleme (u. a. Klötzchen-Welt). • General Problem Solver, GPS, von Newell, Shaw und Simon. (gewisse Erfolge; konnte jedoch nicht verallgemeinert werden; Entwicklung eingestellt) Bewußtsein im allgemeinen hat sich nur unter dem Druck der Notwendigkeit der Kommunikation entwickelt. [Friedrich Nietzsche, 1882] Erkenntnisse: Before my teacher came to me, I did not know that I am. I lived in a world that was a no-world. I cannot hope to describe adequately that unconscious, yet conscious time of nothingness. I did not know that I knew aught, or that I lived or acted or desired. I had neither will nor intellect. ➜ Zielgerichtetes Durchlaufen des Suchraums als Problemlösungsform. ➜ Effiziente Suche erfordert leistungsfähige Heuristiken. ➜ Allgemeine Problemlösung ist zu schwierig. [Helen Keller 1909, p.141] c STEIN 2003/04 I-13 AI Introduction Einschub: “Blocks World” I-14 AI Introduction c STEIN 2003/04 Geschichte der Künstlichen Intelligenz Romantische Periode (1965-1975) • Stärkere Spezialisierung der Programme. E C A B • Konzentration auf grundlegende Methoden und Techniken für wichtige Aspekte: D Problembeschreibung Wissensrepräsentation Suchverfahren • Auf einem Tisch stehen Würfel neben- und übereinander; es gibt genügend Platz, um alle Würfel nebeneinander zu stellen. • Es gibt eine Greifhand, die genau einen Würfel zur Zeit aufheben kann, falls kein anderer über diesem steht. • Ein Würfel steht entweder auf dem Tisch oder auf genau einem anderen Würfel oder wird von der Greifhand gehalten. Erkenntnisse: ➜ Fortschritte, aber kein Durchbruch; keine in der Praxis nutzbaren Ergebnisse. ➜ General Purpose –> Multi Purpose • Mit der Greifhand kann man die folgenden Operationen ausführen: PICKUP(x): Würfel x vom Tisch aufnehmen. PUTDOWN(x): Würfel x auf den Tisch absetzen. STACK(x,y): Würfel x auf einen anderen Würfel y setzen. UNSTACK(x,y): Würfel x von einen anderen Würfel y abnehmen. Anwendung: Generierung eines Plans (Folge von Operationen), um einen Anfangszustand in einen Zielzustand zu überführen. I-15 AI Introduction c STEIN 2003/04 I-16 AI Introduction c STEIN 2003/04 Geschichte der Künstlichen Intelligenz Geschichte der Künstlichen Intelligenz Moderne Periode (ab 1975) Neue Trends (ab 1985) • Erkennen der Bedeutung des problemspezifischen Wissens. • Problemlösefähigkeit hängt mehr vom spezifischen Wissen als von der allgemeinen Problemlösungsstrategie ab. • Zuwendung zu Praxis-Problemen, Befragung von Experten, Entwicklung von Expertensystemen • Entwicklung direkter und induktiver Wissensakquisitionskomponenten zur Überwindung de “Knowledge Engineering Bottleneck” • Temporallogik, Nicht-monotones und unsicheres Schließen, Fuzzy Logic • Natur-analoge Suchverfahren: • Berühmte Anwendung: MYCIN (1976) Unterstützung von Ärzten bei der Diagnose bakterieller Infektionen. neuronale Netze genetische Algorithmen Simulated Annealing MYCIN simuliert auf engem Bereich die Fähigkeit eines Experten, wobei das Wissen des Experten in formalisierter Form vorliegen muß. Erkenntnisse: ➜ Expertensysteme (XPS) sind kein Allheilmittel. ➜ Multi Purpose –> Special Purpose Erkenntnisse: ➜ Davis (1982): “In the knowledge lies the power.” ➜ Methoden zur Wissensakquitision und -repräsentation sind wesentlich ➜ Multi Purpose –> Special Purpose I-17 AI Introduction c STEIN 2003/04 I-18 AI Introduction c STEIN 2003/04 I-20 AI Introduction c STEIN 2003/04 Geschichte der Künstlichen Intelligenz Trends danach (ab 1990) • Verteilte Systeme in der KI, Multi-Agentensysteme • Spezialisierung von “neuen” Verfahren auf spezifische Anwendungen. • Rückbesinnung auf Davis (1982): “In the knowledge . . . ” • Erweiterung der naturanalogen Suchverfahren um problemspezifische Komponenten: wissensintensive Such- und Optimierungstechniken Erkenntnis (schon wieder . . . ) : ➜ Wissen ist Macht. I-19 AI Introduction c STEIN 2003/04 Woher Methoden der KI stammen Gebiete der Künstlichen Intelligenz Aus einer anwendungsorientierten Sicht spielen in der Künstlichen Intelligenz insbesondere folgende Gebiete eine Rolle: (induktives) Lernen Konnektionismus • Problemlösen und Optimierung mittels Suche Linguistik • verteiltes Problemlösen (Agenten, Schwarmintelligenz) Wissensakquisition • maschinelles Lernen (Klassifikation) Psychologie Wissensrepräsentation • Expertensysteme für Diagnose, Planung und Entwurf Fuzzy Logic • Tutorsysteme: Intelligent Computer-aided Instruction (a) Logik Schließen Problemlösen und Planen Heuristische Suche Natur-analoge Verfahren Kognitionsmodelle Sprachverstehen • Kognition: natürlichsprachliche Systeme (b) Informatik, speziell KI • Kognition: bildverarbeitende Systeme (c) • Robotertechnologie (d) Biologie/ Genetik • Modellierung von Unsicherheit, Vagueheit und Unschärfe • Logik und Deduktionssysteme (e) Chemie, Physik • KI-Programmiersprachen (Prolog und LISP) Operations Research Oft auch Bezeichnung: wissensbasierte Systeme Multi-AgentenSysteme Bemerkung: Wir machen eine pragmatische KI – oder: Entwicklung intelligenter Systeme ohne, daß wir wissen, was Intelligenz ist . . . II-1 AI Applications c STEIN 2003/04 (a) Intelligent Computer Aided Instruction (ICAI) Gegenstand: c STEIN 2003/04 II-2 AI Applications (b) Natürlichsprachliche Systeme Entwicklung intelligenter Lehrsysteme zur Unterstützung des Lernenden beim Lernprozeß. Untersuchung der informationsverarbeitenden Prozesse als Grundlage für das Verstehen und Produzieren natürlicher Sprache mit rechnerorientierten Methoden Vorgehen: Ziele: • Selbsttätiges Anpassen des Systems an den Lernenden. • Erkennung des Basiswissen und Analyse der Lerngeschwindigkeit des Benutzers. • Mensch-Maschine-Kommunikation verbessern • die an intelligentes Sprachverhalten gebundenen Leistungen maschinell verfügbar machen • die komplexen Informationsverarbeitungsprozesse beim Verstehen, Erwerb und Gebrauch natürlicher Sprache exakt beschreiben und erklären • Diagnose von Fehlern und Mißverständnissen. Rückschluß auf die Ursachen und Anpassung des Lernprozesses. • Aufbauen und Verfeinern eines Benutzermodells. Sprachverstehen Ein natürlichsprachliches System “versteht” Sprache in dem Sinn, daß eine interne Darstellung der eingegebenen Sachverhalte (in Form einer Wissensbasis) erzeugt wird. Auf Grundlage dieser Darstellung werden Sachverhalte analysiert und Fragen und Antworten dazu generiert. II-3 AI Applications c STEIN 2003/04 II-4 AI Applications c STEIN 2003/04 Beispiel: Dialogsystem Beispiel: Dialogsystem [Schneider, Uni Münster, 1998] c STEIN 2003/04 II-5 AI Applications c STEIN 2003/04 II-6 AI Applications (c) Bildverarbeitende Systeme (c) Bildverarbeitende Systeme Macht die große Anzahl von visuellen Prozessen der maschinellen Verarbeitung zugänglich Problem der Entwicklung solcher Systeme: Wie funktioniert die Natur? Aufgaben: Sehen, Erkennen und Verstehen sind komplexe Vorgänge und der Introspektion nicht zugänglich. • das Wahrnehmen von Objekten, • das Klassifizieren von Objekten, z. B. rund, länglich, • die Unterscheidung von Farben, Helligkeiten und Größe, • die Berücksichtigung speziellen Wissens aus dem Einsatzgebiet wie: “Falls das Wasser hinter einem Schiff schaumig ist, dann fährt das Schiff.” • die Berücksichtigung der Ziele, z. B. Vorgehensweise, um Schiffe zu lokalisieren. Arbeitsweise von Bilderkennungssystemen: 1. Aufnehmen und digitales Darstellen einer Szene als Grau- oder Farbwertmatrix. 2. Auf finden von Kanten durch geeignete Filter; Interpretieren der Kanten bzgl. räumlicher Lage und Schnittpunkten (Segmentierung). 3. Kombinieren der Kanten zu Objekten (Objekterkennung). 4. Objekte in Beziehung zueinander setzen (Szenenanalyse). II-7 AI Applications c STEIN 2003/04 II-8 AI Applications c STEIN 2003/04 Beispiel: Bilderkennung Beispiel: Bilderkennung Einfache Szene: Einfache Szene mit Schatten: c STEIN 2003/04 II-9 AI Applications c STEIN 2003/04 II-10 AI Applications Beispiel: Bilderkennung Beispiel: Bilderkennung Einfache Szene mit Schatten: Einfache Szene mit Schatten: Analyseschritt 1: Analyseschritt 2: II-11 AI Applications c STEIN 2003/04 II-12 AI Applications c STEIN 2003/04 Beispiel: Bilderkennung Beispiel: Bilderkennung Einfache Szene mit Schatten: Szene aus der “Real World”: Analyseschritt 3: c STEIN 2003/04 II-13 AI Applications II-14 AI Applications c STEIN 2003/04 (d) Robotertechnologie Robotor (Definition). Computergesteuerte Handhabungssysteme, die in Teilgebieten den Menschen gewisse Funktionen abnehmen können. Industrie-Robotor • i.d.R. nicht oder nur wenig intelligente Systeme • Voraussetzungen: natürlichsprachliche Kommunikation Bilderkennen und - verstehen Handlungsplanung (logisch und physisch) Fernziel: • keine “eigenen” Entscheidungen/Pläne Konstruktion von autonomen mobilen Robotern, die sich in der menschlichen Umwelt frei bewegen können. • seit ca. 1970 in der Forschung (USA, Japan) • Einsatzgebiet ist die industrielle Fertigung (führend: Japan) Stichwort: Robo-Cup Robotor als Agenten • hierunter versteht man ein System, das in der Lage ist, sich in seiner Umwelt frei zu bewegen, seine Umwelt zu erfassen ➜ Sensorik für Berührung, Abstand, Bilder mit seiner Umwelt zu kommunizieren, Pläne zu entwerfen und auszuführen ➜ Effektoren: Greifer, Werkzeuge Aufgaben auszuführen II-15 AI Applications c STEIN 2003/04 II-16 AI Applications c STEIN 2003/04 (e) Deduktionssysteme Beispiel: Textanalyse Deduktion: Prozeß des logischen Folgerns aus bestimmten gegebenen Fakten und Annahmen. Das Wochenende hat Lisa gern für sich. Doch jeden der fünf Werktage verbringt sie mit genau einem ihrer drei Freunde. Wen Lisa nächste Woche wann sieht, hat sie so festgelegt: Sehe ich am Donnerstag Andreas oder Jörg, so treffe ich Philipp am Dienstag. Einsatzgebiete von Deduktionssystemen: Halte ich am Mittwoch Jörg in den Armen, so werde ich den Freitag entweder Philipp oder Jörg widmen. • Beweisen von mathematischen Sätzen und Sätzen der formalen Logik (Theorembeweiser) • Allgemein: Ableitung neuer Sachverhalte aus bekannten Sachverhalten + Ableitungsregeln ➜ deduktive Datenbanken • Programmverifikation • Programmsynthese Treffe ich Philipp am Mittwoch, dann muß ich auch Donnerstag bei ihm sein. Sehe ich Philipp am Montag, dann werde ich, sofern ich mit Andreas am Dienstag kein Rendezvous habe, Philipp auch am Donnerstag treffen. Schließe ich Dienstag Andreas in die Arme, so soll Jörg, wenn nicht schon am Mittwoch, dann am Donnerstag mein Liebhaber sein. • Design und Testen von logischen Schaltkreisen • als Komponente von wissensbasierten Systemen / Expertensystemen Schenke ich Jörg Montag meine Gunst, so ist Andreas am Freitag an der Reihe. Falls ich mit Andreas weder für Montag noch für Dienstag verabredet bin, werde ich ihn auch am Mittwoch nicht sehen. Frage: Trifft Lisa am Mittwoch Philipp? c STEIN 2003/04 II-17 AI Applications II-18 AI Applications c STEIN 2003/04 II-20 AI Applications c STEIN 2003/04 Beispiel: Textanalyse Das Wochenende hat Lisa gern für sich. Doch jeden der fünf Werktage verbringt sie mit genau einem ihrer drei Freunde. Wen Lisa nächste Woche wann sieht, hat sie so festgelegt: Sehe ich am Donnerstag Andreas oder Jörg, so treffe ich Philipp am Dienstag. (ADo ∨ JDo ) → P hDi Halte ich am Mittwoch Jörg in den Armen, so werde ich den Freitag entweder Philipp oder Jörg widmen. JM i → (P hF r ∨ JF r ) Treffe ich Philipp am Mittwoch, dann muß ich auch Donnerstag bei ihm sein. P hM i → P hDo Sehe ich Philipp am Montag, dann werde ich, sofern ich mit Andreas am Dienstag kein Rendezvous habe, Philipp auch am Donnerstag treffen. (P hM o ∧ ¬ADi) → P hDo Schließe ich Dienstag Andreas in die Arme, so soll Jörg, wenn nicht schon am Mittwoch, dann am Donnerstag mein Liebhaber sein. ADi → (JM i ∨ JDo ) Schenke ich Jörg Montag meine Gunst, so ist Andreas am Freitag an der Reihe. JM o → AF r Falls ich mit Andreas weder für Montag noch für Dienstag verabredet bin, werde ich ihn auch am Mittwoch nicht sehen. (¬AM o ∧ ¬ADi ) → ¬AM i Frage: Trifft Lisa am Mittwoch Philipp? P hM i ?? II-19 AI Applications c STEIN 2003/04 Wissensrepräsentation Symbolische Wissensrepräsentation Wissensrepräsentation ist das zentrale Thema. Grundlegende Ansätze (vgl. [Moeller 2002]): symbolische Modellierung/Repräsentation: Definition 2 (Symbol) Ein Symbol ist ein Gegenstand oder Vorgang, der stellvertretend für einen anderen nicht wahrnehmbaren geistigen Sachverhalt steht. • Sprachlich faßbare elementare Einheiten, die durch Bezeichner gekennzeichnet sind. • Kompositionale Bedeutungsbestimmung ausgehend von den Elementareinheiten (“Units”) der Repräsentation. subsymbolische Modellierung/Repräsentation: • Elementareinheiten sind nicht durch Bezeichner charakterisiert. • Repräsentation und Bedeutung ergibt sich aus dem Zusammenwirken bzw. der Überlagerung der Units der Repräsentation. [Duden 95] In der Informatik (vgl. [Ultsch 1998]): • Gegenstand oder Vorgang wird als Zeichen eines Alphabets interpretiert. • Ein Zeichen, z. B. ein Buchstabe, wird dabei als atomar, d. h. nicht weiter zerlegbar in Bestandteile, ohne dass seine Rolle als Zeichen verloren geht, angesehen. • Der nicht wahrnehmbare geistige Sachverhalt wird als die Bedeutung (Semantik) des Zeichens angesehen. Techniken zur Modellierung und Verarbeitung: Logik, Deduktion, Inferenz, Constraints, Regeln III-1 c STEIN 2003/04 Symbolic vs. Subsymbolic III-2 c STEIN 2003/04 Symbolic vs. Subsymbolic Subsymbolische Wissensrepräsentation Wissensrepräsentation Akustische Repräsentation eines gesprochenen Symbols: Beispiel (vgl. [Ultsch 1998]): J. S. Bach, “Die Kunst der Fuge” Symbolische Repräsentation (Ausschnitt aus Partitur): "Cat" ... Speech signal Feature vectors • Symbole sind die Noten Techniken zur Modellierung und Verarbeitung: neuronale Netze, genetische Algorithmen, allgemein: konnektionistische Modelle Subsymbolische Repräsentation (Zahlenfolge auf CD): 128 140 150 103 128 170 100 139 124 148 148 Bemerkung: Die Änderung eines Mikrofeatures wird i. d. Regel keine entscheidende Auswirkung auf das repräsentierte Symbol haben. 128 140 139 138 128 124 139 106 114 128 171 128 106 106 145 132 103 122 134 145 128 142 128 118 193 108 122 132 117 142 134 132 118 128 139 193 103 108 118 134 103 114 122 128 130 127 128 134 125 121 136 133 112 126 139 121 132 137 122 131 136 115 114 124 153 111 111 159 134 103 142 139 97 124 148 108 111 153 118 106 14 64 188 96 164 138 74 171 175 27 160 148 75 128 199 96 108 142 132 132 159 122 114 132 134 114 124 118 138 117 134 134 103 96 164 100 117 148 177 132 117 70 175 139 31 134 156 100 156 124 128 139 81 106 159 114 117 100 132 134 114 148 118 134 124 118 128 138 111 128 134 114 138 132 111 148 153 111 111 159 134 103 142 139 97 124 148 108 111 153 118 106 150 124 145 114 114 148 128 111 142 138 108 134 150 108 103 148 132 111 142 138 128 111 124132 134 114 124 118 138 117 134 134 103 96 164 100 117 64 128 118 128 134 192 111 124 128 118 90 118 188 148 86 145 170 92 79 159 122 68 114 166 159118 134 124 118 128 138 111 ... • Im Kontext des Musikhörens besitzt eine einzelne Zahl für sich alleine genommen keine Bedeutung. • Fehlerkorrektur eines CD-Spielers kann sogar sinnvolle Ergänzung vornehmen. III-3 Symbolic vs. Subsymbolic c STEIN 2003/04 III-4 Symbolic vs. Subsymbolic c STEIN 2003/04 Wissensrepräsentation Wissensrepräsentation Vorteile symbolischer Repräsentation: Stichwort: Erwerb neuen Wissens, maschinelles Lernen. • unmittelbare Interpretierbarkeit • leichte explizite Analyse Symbolische Wissensrepräsentation: • Wissensabstraktion, Metawissen • Maschinelles Lernen setzt nur bekannte Symbole zu (Linear)kombinationen zusammen. ➜ Neues im Sinne neuer Begriffsbildungen oder Detektion von neuen Zusammenhängen sind nicht möglich. Vorteile subsymbolischer Repräsentation: • Lernprozeß einfacher organisierbar • robuste Verarbeitung Subsymbolische Wissensrepräsentation: • Generalisierbarkeit auf neue ähnliche Eingaben • Lernen bedeutet die Überlagerung der Repräsentationen in den Units. • fehlertoleranter als symbolische KI Technologien ➜ Subsymbolische KI-Systeme könnten wirklich Neues eher entdecken. Bemerkungen: 1. Die Berechnungsmächtigkeit der subsymbolischen KI könnte höher als bei symbolischer KI sein. Argumentation: Durch Verzicht auf das Verstehen des Lösungsweges wird eine andere, grössere Klasse von Algorithmen berechenbar. 2. Auch in konnektionistischen Modellen kann Wissen in symbolischer Form repräsentiert werden. Schwerpunkt bei Expertensystemen (und insbesondere in dieser Vorlesung) ist die symbolische Repräsentation von Wissen. Beispiel: Einzelne Units (Neuronen, Gene) tragen eine klar definierte Bedeutung tragen. III-5 Symbolic vs. Subsymbolic c STEIN 2003/04 III-6 Symbolic vs. Subsymbolic c STEIN 2003/04 c STEIN 2003/04 III-8 Symbolic vs. Subsymbolic c STEIN 2003/04 [Marvin Minsky] III-7 Symbolic vs. Subsymbolic Problemlösungswissen Beispiel: Diagnose • Wie repariert ein Mechaniker ein Auto? • Wie gelangt ein Arzt von den Symptomen zu einer Diagnose? • Wie entscheidet ein Bankangestellter über eine Kreditvergabe? ➜ Stichwort: Problemlösungswissen Die Erstellung von Programmen, die eine Lösung solcher Probleme automatisiert, erfordert: 1. Identifikation und Erwerb des Wissen, das zur Problemlösung notwendig ist. (Akquisition) 2. Entwicklung einer geeigneten Formalisierung/Codierung des Problemlösungswissens. (Repräsentation) 3. Auswahl und/oder Entwicklung von Algorithmen zur Verarbeitung des Problemlösungswissens. (Inferenz) Beobachtung: “Zylinder verfährt zu langsam.” Bemerkung: Die Lösung des Akquisitions-, Repräsentations- und Inferenzproblem ist keine Garantie für Erfolg. c STEIN 2003/04 IV-1 Problem Solving Knowledge Beispiel: Diagnose ➜ Analyse des Systems durch einen Experten. c STEIN 2003/04 IV-2 Problem Solving Knowledge Beispiel: Diagnose – Problemlösungswissen Grundlage der Expertenanalyse: Quantitative Komponentenmodelle. ẋ · d = pa · AK − pb · AR − F ... = ... Energiedissipation Gesamtenergie zu niedrig Analyseschritte: ... • Modelle zusammentragen ... ... ... • Gleichungen aufschreiben (Normalisieren etc.) • Simulieren • Wie überprüft man diese Zusammenhänge? Beobachtungen: • “Schaltdruck am Druckbegrenzungsventil wird nicht erreicht.” • “Kein Leckstrom am Zylinder.” Folgerungen: • Wo überprüft man diese Zusammenhänge? • Wann (Reihenfolge) überprüft man diese Zusammenhänge? • Welches Wissen? • “Pumpe zu schwach.” • Wie anwenden? • sonst eventuell “Zylinderring abgenutzt.” • Wann anwenden? Kann der Experte diese Fragen beantworten? IV-3 Problem Solving Knowledge c STEIN 2003/04 IV-4 Problem Solving Knowledge c STEIN 2003/04 Beispiel: Konstruktion Beispiel: Konstruktion Anforderungen D ➜ Analyse der Anforderungen D: Welches Verhalten soll erzielt werden? Syntheseschritte: • Zerlegung von D in Teilfunktionen • Bestimmung der hydraulischen Achsen • Entwicklung der Topologie (Kopplung der Achsen) • Parametrisierung der Komponenten System S • Modellbildung (vgl. Diagnosesituation) • Simulation Ergebnis: • D wird vollständig erfüllt . . . oder: • D wird nicht vollständig erfüllt. ➜ Modifikation bzw. Verbesserung des Entwurfs. Ausgangspunkt: Anforderungsmenge ➜ Synthese des Systems durch Experten. c STEIN 2003/04 IV-5 Problem Solving Knowledge IV-6 Problem Solving Knowledge Beispiel: Konstruktion – Problemlösungswissen c STEIN 2003/04 Kennzeichen von Problemlösungswissen Das Problemlösungswissen wie • Komponentenmodelle (Zustand, Granularität, Genauigkeit) • Simulationsparameter (Liegt ein steifes System vor?) • Heuristiken (Wonach guckt man zuerst?) Reihenschaltung kann Folgeschaltung - beim Experten abgeguckt werden ... ... ... - durch Interviews herausgekitzelt werden ... - hat oft eine einfache Form - ist eher unpräzise • Welche Komponenten sind zu wählen? Insbesondere kann Problemlösungswissen in eine explizite Form gebracht und mit wenig Aufwand kodiert werden. • Wie werden die Komponenten verschaltet? • Wie sind Parameter zu dimensionieren? Andere Wissensformen zur Problemlösung in den Beispielen: • Welches Wissen? • Domänenwissen: Defaultwerte für Zustandsgrößen und Parameter. • Wie anwenden? • Common-Sense-Wissen: Energieerhaltung im geschlossenen System. • Common-Sense-Wissen: Massenerhaltung bzgl. der Hydraulikflüssigkeit. • Wann anwenden? • Metawissen: Wissen über Wissen. (Zuverlässigkeit, Verarbeitungsverfahren, Verarbeitungsaufwand, etc.) Kann der Experte diese Fragen beantworten? IV-7 Problem Solving Knowledge c STEIN 2003/04 IV-8 Problem Solving Knowledge c STEIN 2003/04 Kennzeichen von Problemlösungswissen Problemlösungswissen – der Schlüssel zum Erfolg Problemlösungswissen unterscheidet sich nicht durch seine Kompliziertheit von anderen Lösungsverfahren – jedoch: Die Beherrschung von Methoden und Techniken ist notwendig – nicht hinreichend. • es ist nicht universell verfügbar • es ist nicht kanonisch operationalisierbar Beachte insbesondere: “The transfer and the transformation of problem-solving expertise from a knowledge-source to a program is the heart of the expert-system development process.” • Anwendung dieses Wissens ist schwierig. • Kalkülisierung dieses Wissens ist kaum möglich. [Hayes-Roth/Waterman/Lenat 1983] ➜ Anwender von Problemlösungswissen: Mensch Die Anwendung erfordert Intuition, Erfahrung und Übersicht. ➜ Anwender von kalkülisierbarem Wissen: Computer Graphenanalyse (starke Zusammenhangskomponenten) BLT-Zerlegung Newton-Verfahren Runge-Kutta-Verfahren ... IV-9 Problem Solving Knowledge c STEIN 2003/04 IV-10 Problem Solving Knowledge c STEIN 2003/04 IV-11 Problem Solving Knowledge c STEIN 2003/04 IV-12 Problem Solving Knowledge c STEIN 2003/04 Aber . . . Prinzipien wissensbasierter Systeme . . . konventionelle Softwaresysteme – • Trennung von anwendungsbezogenem und anwendungsunabhängigem Wissen a) Enthalten sie kein Wissen? • Anwendung von Problemlösungsprinzipien der KI b) Wenn nein, warum nicht? c) Wenn ja, wo ist dieses Wissen zu finden, d) . . . und woher kommt es? Architektur von Softwaresystemen Inferenzmaschine Algorithmen zu c) Wo ist da Wissen? Wissen Daten Daten (konventionell) (wissensbasiert) Sowohl das Wissen über das Anwendungsgebiet als auch das allgemeine Problemlösungswissen ist in Algorithmen, Daten und Datenstrukturen verteilt kodiert. zu d) Woher kommt es? • Vorgaben/Rahmenbedingungen des Auftraggebers • Fachabteilungen/Labore liefern z. B. betriebliche Zusammenhänge, “Rezepturen” und Problemlösungswissen Definition 3 (Wissensbasiertes System, WBS) Ein wissensbasiertes System (WBS) ist ein Softwaresystem, bei dem das Fachwissen über das Anwendungsgebiet (Domain Knowledge) explizit und unabhängig vom allgemeinen Problemlösungswissen dargestellt wird. c STEIN 2003/04 V-1 XPS • Programmierer vertieft Problemlösungswissen durch gezielte Nachfragen, besitzt aber auch eigenes Problemlösungswissen. c STEIN 2003/04 V-2 XPS Expertensysteme Expertensysteme (XPS) “. . . ein intelligentes Computerprogramm, das Wissen und Inferenzverfahren benutzt, um Probleme zu lösen, die immerhin so schwierig sind, daß ihre Lösung ein beträchtliches menschliches Fachwissen erfordert . . . ” [Edward Feigenbaum] Gewünschter Nutzen: • Experten sollen von Routinetätigkeiten entlastet werden • Aufheben der örtlichen und zeitlichen Abhängigkeit von Experten • kostengünstiger als menschliche Experten • Erstellung einer ausgewogenen (objektiven?) Expertise • Schulungsaspekte (Unterstützung bei der Ausbildung) XPS-Architektur aus funktionaler Sicht (Puppe 1991): Expert User Dialog module • unbegrenzte Verbreitbarkeit (ist das immer gewünscht?) Explanation module Acquisition module Problem solving module Knowledge base V-3 XPS c STEIN 2003/04 V-4 XPS c STEIN 2003/04 Experte Expertensystem versus Experte Der ideale menschliche Experte. . . XPS Experte Wissenserhaltung + – zeitliche/örtliche Unabhängigkeit + – Unabhängigkeit von Umwelteinflüssen + – (–) (+) Lernfähigkeit o + Größe des Problemfeldes – + Kreativität – + • besitzt Wissen über Problembereich (Domäne) Aneignung durch Ausbildung und Erfahrung kennt Begriffswelt und die Zusammenhänge zwischen den Begriffen arbeitet mit vagem Wissen kennt die Zusammenhänge zu anderen Wissensgebieten hat Hintergrundwissen über Sachverhalt (Common Sense) kennt Verweise auf Wissensquellen • kann Wissen erwerben und falsches Wissen korrigieren Hintergrundwissen • kann Probleme durch Verknüpfen von Wissen lösen • kann seine Ergebnisse durch Verdeutlichen seines Lösungsweges erklären ➜ Expertensysteme sind keine Allheilmittel. • handelt effizient schnelle Problemlösung durch Anwendung von Heuristiken Wahl geeigneter Vorgehensweisen ➜ Es existieren viele Probleme, die mittels der Expertensystemtechnologie (noch) nicht lösbar sind. • handelt menschlich (das steht in keinem KI-Buch!) c STEIN 2003/04 V-5 XPS c STEIN 2003/04 V-6 XPS Problemklassen für Expertensysteme Expertensysteme versus konventionelle Programme Expertensysteme versuchen, die Eigenschaften eines Experten bzgl. einer eingeschränkten Tätigkeit zu simulieren. Expertensysteme sind “nur” eine spezielle Art der Programmerstellung. Analyse Vorhersage Erkennen Überwachung Steuerung Diagnose Synthese Konfigurieren Entwerfen Expertensysteme konventionelle Programme Repräsentation und Verarbeitung von Wissen Repräsentation und Verarbeitung von Daten Algorithmen, Heuristiken Algorithmen inferenzielles Bearbeiten iteratives Bearbeiten schlecht strukturierte Probleme gut strukturierte Probleme viele unterschiedliche Wissensarten große Mengen ähnlicher Daten individuelle Verarbeitung und Interpretation der Daten kanonische Verarbeitung, z. B. Number Crunching keine Patentrezepte Planen Scheduling Bemerkung: Die Einteilung in Problemklassen ist nicht exakt. Zum Beispiel gehört die Wettervorhersage zur • Interpretation (Eingrenzung Hoch- und Tiefdruckgebiete), • Simulation (Abschätzung zukünftiger Wetterlagen), • Beobachtung (Sturmwarnung) und • Diagnose (Fehlerermittlung bei falschen Voraussagen). V-7 XPS c STEIN 2003/04 V-8 XPS c STEIN 2003/04 Expertensysteme versus konventionelle Programme Für gut strukturierte Probleme gilt: 1. Akquisition. • Es existiert ein Leitfaden zur Problemlösung. Wissenserhebung und -erfassung • Die Zielfunktion ist bekannt. • Problem und Lösung in numerischen Größen beschreibbar. • Formalisierung ist möglich, sowohl für das Modell als auch die Zielfunktion(!). moderne DV 2. Repräsentation. Darstellung und Speichern des Wissens in der Wissensbasis 3. Inferenz. • Algorithmen zur Problemlösung sind bekannt ⇔ Kalkülisierung ist möglich. klassische DV Erstellung wissensbasierter Systeme Verarbeitung des Wissens zur Lösung bestimmter Probleme XPS reales Problem Repräsentation im Modell [Sviokla 1986] c STEIN 2003/04 V-9 XPS c STEIN 2003/04 V-10 XPS Erstellung wissensbasierter Systeme Erstellung wissensbasierter Systeme KI-Programmiersprachen (LISP, PROLOG, Smalltalk): Meine Meinung (BS). • leistungsfähige Symbolverarbeitung • Für Anfänger: Werkzeuge schaden • Für erfahrene Softwaretechniker: Werkzeuge schaden nicht. Shells (EMycin, Nexpert Object, Twaice): • sind spezielle Programme zur Entwicklung von XPS • Konzepte für Wissensrepräsentation und Inferenz vorgegeben • Entwickler konzentriert sich auf die Erfassung, Strukturierung und Eingabe des Wissens aus dem Anwendungsgebiet Entwicklungsumgebungen (KEE, LOOPS, Knowledge Craft): • viele Konzepte zur Wissensrepräsentation und Inferenz, Elemente für den Bau von Benutzeroberflächen • mehr Flexibilität als bei Shells, hoher Einarbeitungsaufwand • Der Nutzen von Werkzeugen? Wenn überhaupt, dann in der Prototyp-Entwicklung. • Beherrschung von Methoden und Techniken ist notwendig – nicht hinreichend. Intelligenz, Können, Lernbereitschaft und Hartnäckigkeit des Expertensystem-Entwicklers (Wisseningenieurs) sind die wichtigsten Erfolgsfaktoren. Dabei bestimmt • das Anwendungsgebiet (Domäne) die Komplexität, Entwicklungsaufwand KI-Programmiersprachen • das Problem den Lösungsaufwand. allgemeine Werkzeuge Shells Flexibilität bei der Entwicklung V-11 XPS c STEIN 2003/04 V-12 XPS c STEIN 2003/04 Erstellung wissensbasierter Systeme Erstellung wissensbasierter Systeme Blickt man zurück, kann man von dem Fortschritt enttäuscht sein. Blickt man zurück, kann man von dem Fortschritt enttäuscht sein. The LOOPS Project (1982-1986, PARC): The Colab Project (1982-1986, PARC): • Main Participants: D. Bobrow, Sanjay Mittal, Stanley Lanning, Mark Stefik. • Object-oriented programming: Classes and objects, class variables, instance variables, methods, multiple-inheritance, interactive class browsers • Access-oriented programming: Nestable active values that can be attached to variables, procedures specified in the active value are triggered. • Rule-oriented programming. V-13 XPS c STEIN 2003/04 V-14 XPS c STEIN 2003/04 V-15 XPS c STEIN 2003/04 V-16 XPS c STEIN 2003/04 System und Modell System und Modell Beispiel 1: “Der unbequeme Philosoph” Beispiel 2: “Fail-Save-Überprüfung einer Presse” NC ? Modell: ẋ · d = pa · AK − pb · AR − F ... = ... ∀x : Eq(x, x) ∀x∀y : Eq(x, y) → Eq(y, x) ∀x∀y∀z : Eq(x, y) ∧ Eq(y, z) → Eq(x, z) Modell: ∀x∀y : mensch(x) ∧ trinkt(x, y) ∧ gift(y) → tot(x) gift(schierling) mensch(sokrates) ... Axiome, Umformungsregeln ∀x∀y∀f : Eq(x, y) → Eq( f (t1, . . . , ti, x, ti+1, . . . , tn), f (t1, . . . , ti, y, ti+1, . . . , tn)) c STEIN 2003/04 VI-1 System, Model, and Deduction Komponentenmodelle, physikalische Gleichungen c STEIN 2003/04 VI-2 System, Model, and Deduction System und Modell System und Modell Definition 4 (System) Ein System ist ein Ausschnitt aus der realen Welt. Jedes System besitzt eine (System)Grenze, aufgrund dessen für jedes Objekt der Welt festgestellt werden kann, ob es zu dem System gehört oder nicht. Ein Analyseproblem zu lösen, bedeutet, Fragen bzgl. eines Systems zu beantworten. Beispiele: System + Frage Experiment System- Interpretation verhalten Antwort Ausführung eines Experiments am System? – dagegen spricht: • System existiert nicht • Was ist kaputt an dem Motor? • Systemveränderungen zu schnell oder langsam • Wie verhält sich die Anlage im Grenzbereich? • Experiment am System zu teuer • Wann ist die Betriebstemperatur erreicht? • durch das Experiment entstehen große Gefahren • System zu klein oder zu groß • Experiment verändert das System zu stark Um eine Antwort zu erhalten, kann man ein Experiment an dem System machen und die Ergebnisse des Experimentes interpretieren. • Voraussage ist erwünscht Ausweg: Definition 5 (Experiment) “An experiment is the process of extracting data from a system by exerting it through its inputs.” Experiment wird nicht am System, sondern an einem Modell des Systems durchgeführt. [Cellier 1995] VI-3 System, Model, and Deduction c STEIN 2003/04 VI-4 System, Model, and Deduction c STEIN 2003/04 Modellieren zum Schlußfolgern Modellieren zum Schlußfolgern Beispiel 1: “Der unbequeme Philosoph” Definition 6 (Model, Modell) “To an observer B, an object A∗ is a model of an object A to the extent that B can use A∗ to answer questions that interest him about A.” [Minsky 1965] Simulation Modell Modellverhalten Modellverhalten Modell ∀x∀y: ... → ... mensch(sokrates) ... Simulation tot(sokrates) Übertragung (Anwendung, Interpretation) Modellbildung Übertragung (Anwendung, Interpretation) Modellbildung Experiment System + Frage Experiment System- Interpretation verhalten Antwort System (= Realität) Systemverhalten Definition 7 (Simulation) “A simulation is an experiment performed on a model.” [Korn/Wait 1978] c STEIN 2003/04 VI-5 System, Model, and Deduction VI-6 System, Model, and Deduction Modellieren zum Schlußfolgern c STEIN 2003/04 Modellieren zum Schlußfolgern Beispiel 2: “Fail-Save-Überprüfung einer Presse” Nahezu alle Situationen, in denen wir einen Sachverhalt analysieren, basieren auf dem Konzept der logischen Folgerung. Modell v d = pa Ak - pb ... ∀x: Eq(x,x) ... Simulation Modellverhalten Beispiele: v=0 • Ist Schierling für den Philosophen Sokrates giftig? • Wie verhält sich ein technisches System? Übertragung (Anwendung, Interpretation) Modellbildung NC • Sind 10 EUR mehr wert als 19,50 DM? Man bildet zunächst ein Modell des Gegenstandsbereiches (Domäne) und prüft dann vor dem Hintergrund des Modells für interessierende Fakten deren Wahrheitswert (= Schlußfolgern). NC Experiment ? System (= Realität) Frage: Wie sieht das für die Problemklasse der Synthese aus? v=0 (Presse steht) Systemverhalten Bemerkung: Numerische Simulation ist auch Schlußfolgern. VI-7 System, Model, and Deduction c STEIN 2003/04 VI-8 System, Model, and Deduction c STEIN 2003/04 Formale Verfahren zum Modellieren und Schlußfolgern Formale Verfahren zum Modellieren und Schlußfolgern In den Beispielen gibt es einen grundlegenden Schlußfolgerungsmechanismus. Ansatz. Die Beschreibung des Wissens über ein System (Realität) geschieht Dieser Schlußfolgerungsmechanismus ist unabhängig • formal, durch festgelegte Symbole. • von Rahmenbedingungen, • von der Art der Objekte, ihren Eigenschaften, dem Verhalten und ihren Abhängigkeiten, • abstrakt, losgelöst von einer konkreten Situation. • exakt, ohne unzulässigen Verallgemeinerungen. • vom Beobachter oder Anwender des Mechanismus. • vollständig, kein zusätzliches Wissen erforderlich. “Es regnet gerade.” “Wenn es regnet, ist die Straße naß.” R R −→ SN Bemerkung: Einhaltung der genannten Eigenschaften in “vernünftigen” Grenzen. c STEIN 2003/04 VI-9 System, Model, and Deduction c STEIN 2003/04 VI-10 System, Model, and Deduction Modellbildung Modellbildung Klassifikation von Modellen hinsichtlich ihrer Repräsentation: Ablauf der Top-Down-Modellbildung: Abstrakte Modelle werden auf weniger abstrakte Modelle abgebildet. Model Mental model Physical model Symbolic model System Scale model Graphical model Iconic model Mathematical model Analogical model Verbal model ... ... High abstraction + Question Mental model Interpretation of the concrete model in terms of the abstract model. Structure model Unter Modellbildung (Modellierung) versteht man den Prozeß, von einem System ein Modell zu erstellen. Hierzu gehören folgende Schritte: Behavior model Algorithmic model 1. Identifizierung der Systemgrenzen ; Black-Box-Modell 2. Identifizierung der Untersysteme und ihrer Beziehungen zueinander ; Strukturmodell Low abstraction Computer model 3. Charakterisierung von Relationen zwischen Variablen der Untersysteme ; Verhaltensmodell VI-11 System, Model, and Deduction c STEIN 2003/04 VI-12 System, Model, and Deduction c STEIN 2003/04 Systemraum und Modellraum Systemraum und Modellraum Ein Syntheseproblem zu lösen, bedeutet, Fragen bzgl. einer Menge von Systemen zu beantworten. Beispiele: Ausweg: • Aus welchen Komponenten besteht eine Konfiguration, die alle Anforderungen erfüllt? Synthese von Modellen für die interessierenden Systeme (Modellraum) und Suche nach einem geeigneten Modell. • Was ist der kürzeste Bauplan? • Läßt sich die Anlage so verändern, daß sie nicht heiß wird? Um eine Antwort zu erhalten, kann man die Systeme bauen und mittels Experimenten ihre Eigenschaften analysieren. System Konfigurierung, raum Entwurf + System Frage Analyse Ergebnis Interpretation Antwort Modellraum Suche Modell Analyse Ergebnis Übertragung (Anwendung, Interpretation) Modellraumbildung System Konfigurierung, raum Entwurf + System Frage Analyse Ergebnis Interpretation Antwort Gegen diese Vorgehensweise spricht vieles. c STEIN 2003/04 VI-13 System, Model, and Deduction Systemraum und Modellraum Adäquate Modellierung Klassifikation von Modellräumen hinsichtlich ihrer Repräsentation: Model space Mental model space Physical model space c STEIN 2003/04 VI-14 System, Model, and Deduction Symbolic model space • Welches Modell ist geeignet für das interessierende System und die Analysefrage? • Wie generiert man den Modellraum für den interessierenden Systemraum und die Synthesefrage? • Wie spielen Modell, Modellraum und Problemlösungsmethoden zusammen? Miniature lab CAE-system Construction kit Virtual prototyping system ... ... Problemlösungsmethoden für Analyseaufgaben Problemlösungsmethoden für Syntheseaufgaben Notwendige Schritte zur Erzeugung eines Modellraums: statistische Diagnose 1. Identifizierung von Systembausteinen ; Subsysteme 2. Identifizierung von Konstruktionsprinzipien ; Systemraum 3. Abbildung der Systembausteine und Konstruktionsprinzipien auf Modellbausteine und Operatoren ; Modellraum (Suchraum) fallbasierte Diagnose assoziative Diagnose funktionsbas. Diagnose Logik- Ursache/ Wirkungs- Fehler- modell Regel... verhaltensbas. Diagnose VI-15 System, Model, and Deduction c STEIN 2003/04 VI-16 System, Model, and Deduction Generate und Test Struktur- Verhaltens- Fuzzy- Vorschlagen & Verbessern fallbasierte Konfigurierung Assoziative Konfigurierung SkelettKonfigurierung c STEIN 2003/04 Adäquate Modellierung Wieviel ist bekannt über das System? Black box Gray box White box Assoziative Modelle: statistische Verfahren, neuronale Netze, Modellidentifikation Input Output ... ... Black box Verhaltensbasierte Modelle: Zustandsraummodelle, Gleichungsmodelle, sonstige Constraints Input Output NC ... ... White box VI-17 System, Model, and Deduction c STEIN 2003/04 VI-18 System, Model, and Deduction c STEIN 2003/04 VI-19 System, Model, and Deduction c STEIN 2003/04 VI-20 System, Model, and Deduction c STEIN 2003/04