Problemlösungswissen

Werbung
Literatur
Wissenbasierte Systeme WS 03
Künstliche Intelligenz
Expertensysteme, Logik und Regelverarbeitung
Benno Stein
Durkin: Expert Systems – Design and Development, Macmillan (1994)
Nilsson: Principles of Artificial Intelligence
Nilsson: Artificial Intelligence – A New Synthesis
Puppe: Einführung in Expertensysteme
Puppe: Problemlösungsmethoden in Expertensystemen
Russel/Norvig: Artificial Intelligence – A Modern Approach, Prentice-Hall (1995)
Stefik: Introduction to Knowledge Systems, Morgan Kaufmann (1995)
Waterman: A Guide to Expert Systems
Winston/Horn: Artificial Intelligence
1. Künstliche Intelligenz (Begriff, Geschichte, Gebiete)
2. Wissensformen (sub/symbolisch, Problemlösung), Expertensysteme
3. Aussagenlogik
Engineering in der KI
Clocksin/Mellish: Programming in Prolog
Forbus, DeKleer: Building Problem Solvers
Graham: Common LISP
Karbach/Linster: Wissensakquisition für Expertensysteme
Mayer: Common LISP
Norvig: Paradigms of Artificial Intelligence – Case Studies in Common LISP
Winston/Horn: LISP
4. Prädikatenlogik
5. Produktionregelsysteme
6. Fuzzy Logic
Logik und Constraints
Beckstein: Begründungsverwaltung
Frühwirth/Abdennadher: Constraint-Programmierung – Grundlagen und Anwendungen
Marriott/Stukey: Programming with Constraints MIT Press (1998)
Montanari: Principles and Practice of Constraint Programming
Schöning: Logik für Informatiker
1 Contents
c STEIN 2003/04
2 Contents
c STEIN 2003/04
3 Contents
c STEIN 2003/04
4 Contents
c STEIN 2003/04
Intelligenztests
Intelligenztests
1, 2, 3, 4, 5, . . .
2, 8, 26, 80, . . .
A
B
C
1
2
3
4
5
2, 1, 4, 4, 8, 7, 16, 10, . . .
22.5, 64, 70, 8.666, 2.718, 5.3, 11
Gegeben: Kasten A und B
Aufgabe: Wähle unter den Kästen 1 bis 5 denjenigen aus, der sich
zu C so verhält, wie B zu A.
c STEIN 2003/04
I-1 AI Introduction
c STEIN 2003/04
I-2 AI Introduction
Intelligenz versus Intelligence
Was ist Künstliche Intelligenz (KI)?
What is Artificial Intelligence (AI)?
Der Intelligenzbegriff im Deutschen ist enger gefaßt als im
Englischen (Berücksichtigung von Erfahrung). Siehe auch “CIA”,
Central Intelligence Agency.
“Artificial Intelligence is the science
of making machines do things
that would require intelligence if done by men.”
• Intelligenz
Zurechtfinden in neuen Situationen aufgrund neuer
[Marvin Minsky, 1966]
Einsichten
Aufgaben mit Hilfe des Denkens lösen
(Erfahrung nicht wesentlich)
“Artificial Intelligence is the study of ideas
that enable computers to be intelligent.”
• Intelligence
Anpassung an neue Situationen
Lernen
mit konkreten und abstrakten Situationen fertig werden
Aufklärung und Nachforschung
I-3 AI Introduction
c STEIN 2003/04
[Patrick Henry Winston, 1984]
I-4 AI Introduction
c STEIN 2003/04
Was ist Künstliche Intelligenz (KI)?
Starke KI versus Schwache KI
Gewisse menschliche Aktivitäten erfordern Intelligenz (unabhängig
von der Definition des Begriffes), z. B.
• Planen einer kombinierten Bahn–Bus–Reise
KI ist der Versuch, auf Computern intelligentes Verhalten
nachzubilden.
Problem: Wie definiert man intelligentes Verhalten?
• Beweisen mathematischer Sätze
• Erstellen medizinischer Diagnosen
• Sehen und Erkennen von Gegenständen
Zwei Auffassungen über KI lassen sich unterscheiden:
1. “schwache KI”
Definition 1 (Künstliche Intelligenz, KI)
Die Künstliche Intelligenz (KI) faßt bisher dem Menschen
vorbehaltene Fähigkeiten als informationsverarbeitende Prozesse
auf.
Sie versucht, diese Prozesse mit Computern zu simulieren und sie
einer systematischen, ingenieurmäßigen Betrachtungsweise
zugänglich zu machen.
Computer ist nur Instrument zur Untersuchung kognitiver
Prozesse.
2. “starke KI”
Die richtig programmierten Prozesse im Computer sind geistige
Prozesse.
➜ Man kann Computern, die mit den “richtigen” Programmen
ausgestattet sind, Verstehen zusprechen.
➜ Herausforderungen an Informatiker, Verhaltensforscher, u.a.:
• Erforschung intelligenten Problemlösungsverhaltens
“schwache KI” = Computer simuliert Intelligenz
• Entwicklung intelligenter Programme
“starke KI” = Computer ist intelligent
Bemerkung:
Intelligente Programme weisen Eigenschaften und Fähigkeiten auf, mit denen
man bei menschlichen Verhaltensweisen Intelligenz assoziiert, z. B.
Problemlösen, Lernen, Sprachverstehen, Erklären, flexible Reaktion
c STEIN 2003/04
I-5 AI Introduction
Vor diesem Hintergrund sind die folgenden Szenarien von Turing,
Schank und Searle zu interpretieren.
c STEIN 2003/04
I-6 AI Introduction
Turing’s Szenario (Turing Test)
Weizenbaum’s Szenario (Eliza)
• Versuchsanordnung: Person C, Person A im Nebenraum mit
Computer B. C weiß, daß eine der Datenleitungen mit A, die
andere mit B verbunden ist. Er weiß aber nicht, wer was ist.
• Ziel: C soll durch Fragen feststellen, wer der Computer ist.
Computer versucht, C zu täuschen.
A versucht, C zu helfen.
I am the psychotherapist. Please describe your problems.
Each time you are finished talking, type RET twice.
Can you ask me a question?
Why do you say can I ask you a question?
• These: Computer ist intelligent, wenn er C täuschen kann.
I would like you to ask me something.
Mensch
A
Is it because of your plans that you say you would like
me to ask you something?
Computer
B
No, I want to see whether you understand questions.
Mensch
C
I-7 AI Introduction
What makes you believe you might want to see whether?
c STEIN 2003/04
I-8 AI Introduction
c STEIN 2003/04
Schank’s Szenario (Restaurant-Geschichten)
Schank’s Szenario (Restaurant-Geschichten)
Anhand der Interpretation von Geschichten (aus Restaurants) soll
gezeigt werden, wie Verstehen auf dem Rechner funktioniert.
Schank’s Programm wird nun gefragt:
Beispiel.
Im Fall von Geschichte 1 antwortet das Programm mit “nein”, im
Fall von Geschichte 2 mit “ja”, obwohl die Frage in keiner
Geschichte explizit beantwortet wurde.
• Geschichte 1.
Hat der Gast den Hamburger gegessen?
Ein Gast im Restaurant bestellt einen Hamburger. Als das Essen gebracht
wird, sieht der Gast, daß der Hamburger angebrannt ist. Wütend und ohne
zu bezahlen verläßt der Gast das Restaurant.
Das Programm basiert auf einer Darstellung verschiedener
Situationen und Szenen in Restaurants (Skripten) und geeigneter
(sequentieller) Ablaufsteuerung.
• Geschichte 2.
Ein Gast bestellt einen Hamburger. Als das Essen gebracht wird, ist der
Gast sehr zufrieden. Beim Verlassen des Restaurants legt er ein Trinkgeld
auf den Tisch.
These der Starken KI: Das so arbeitende Programm versteht die
Geschichten genauso wie ein Mensch.
Gegenthese: Es besteht ein prinzipieller Unterschied zwischen
dem Programm und menschlichem Verstehen.
I-9 AI Introduction
c STEIN 2003/04
Searle’s Szenario (chinesisches Zimmer)
Soll den Unterschied im Verstehen zwischen Computer und
Mensch zeigen.
Ein Mensch, der kein Chinesisch versteht, kann dennoch durch
Nachsehen in Tabellen Verständnis “simulieren”.
• Versuchsanordnung: Searle sitzt in einem Zimmer.
Chinesische Schriftzeichen, die eine Geschichte beschreiben,
werden von aussen hereingereicht.
Im Zimmer sind Tabellen mit Anweisungen für Antworten: Auf
Zeichen A, antworte mit Zeichen X.
• Für einen nicht-eingeweihten Beobachter sieht es so aus, als
ob Searle chinesisch versteht.
c STEIN 2003/04
I-10 AI Introduction
Starke KI versus Schwache KI
Behauptung der Vertreter der Starken KI:
• Computer können jeden beliebigen, intelligenten Prozeß
nachbilden.
Reaktion der Vertreter der Schwachen KI:
• Das ist aus prinzipiellen Gründen unmöglich.
• Searle: Menschliches Verstehen kann nicht nachgebildet
werden.
• Einfache Programme wie Eliza erzeugen “nur” syntaktisch
richtige Antworten.
• Verständnis wird nur simuliert.
Antworten der Vertreter der Starken KI:
Searle: Schank’s Programm simuliert das Verstehen der
Geschichten nur.
• Schank’s Restaurant-Programm versteht die Geschichten
tatsächlich.
Beachte: Searle präzisiert nicht den Unterschied zwischen
“echtem” und “simuliertem” Verstehen.
• Das Programm erklärt, was menschliches Verstehen bedeutet.
• Zu Searle’s Chinesischem Zimmer: Ein einzelnes Neuron
versteht auch keine Geschichten.
Die Versuchsperson bei Searle’s Gedankenexperiment ist auch
nur ein Teil des Gesamtsystems.
I-11 AI Introduction
c STEIN 2003/04
I-12 AI Introduction
c STEIN 2003/04
Starke KI versus Schwache KI
Geschichte der Künstlichen Intelligenz
Hat “echtes” Verstehen mit Bewußtsein zu tun?
Geburtsstunde (1956)
Und woher kommt Bewußtsein (aus dem Stofflichen, der Physis)?
Sprache, wie Bewußtsein, entsteht nur aus dem Bedürfnis,
der Notwendigkeit des Umgangs mit anderen.
• Sommerseminar in Dartmouth.
Gründung durch M. Minsky, J. McCarthy, A. Newell, H. A.
Simon u. a.
Klassische Periode (1955 – 1965)
[Karl Marx, 1846]
• Suche nach allgemeinen Prinzipien zur Lösung beliebiger
Probleme. Anwendung der Prinzipien auf einfache Probleme
(u. a. Klötzchen-Welt).
• General Problem Solver, GPS, von Newell, Shaw und Simon.
(gewisse Erfolge; konnte jedoch nicht verallgemeinert werden;
Entwicklung eingestellt)
Bewußtsein im allgemeinen hat sich nur unter dem Druck
der Notwendigkeit der Kommunikation entwickelt.
[Friedrich Nietzsche, 1882]
Erkenntnisse:
Before my teacher came to me, I did not know that I am. I lived in a
world that was a no-world. I cannot hope to describe adequately
that unconscious, yet conscious time of nothingness. I did not
know that I knew aught, or that I lived or acted or desired. I had
neither will nor intellect.
➜ Zielgerichtetes Durchlaufen des Suchraums als
Problemlösungsform.
➜ Effiziente Suche erfordert leistungsfähige Heuristiken.
➜ Allgemeine Problemlösung ist zu schwierig.
[Helen Keller 1909, p.141]
c STEIN 2003/04
I-13 AI Introduction
Einschub: “Blocks World”
I-14 AI Introduction
c STEIN 2003/04
Geschichte der Künstlichen Intelligenz
Romantische Periode (1965-1975)
• Stärkere Spezialisierung der Programme.
E
C
A
B
• Konzentration auf grundlegende Methoden und Techniken für
wichtige Aspekte:
D
Problembeschreibung
Wissensrepräsentation
Suchverfahren
• Auf einem Tisch stehen Würfel neben- und übereinander; es
gibt genügend Platz, um alle Würfel nebeneinander zu stellen.
• Es gibt eine Greifhand, die genau einen Würfel zur Zeit
aufheben kann, falls kein anderer über diesem steht.
• Ein Würfel steht entweder auf dem Tisch oder auf genau einem
anderen Würfel oder wird von der Greifhand gehalten.
Erkenntnisse:
➜ Fortschritte, aber kein Durchbruch; keine in der Praxis
nutzbaren Ergebnisse.
➜ General Purpose –> Multi Purpose
• Mit der Greifhand kann man die folgenden Operationen
ausführen:
PICKUP(x): Würfel x vom Tisch aufnehmen.
PUTDOWN(x): Würfel x auf den Tisch absetzen.
STACK(x,y): Würfel x auf einen anderen Würfel y setzen.
UNSTACK(x,y): Würfel x von einen anderen Würfel y abnehmen.
Anwendung:
Generierung eines Plans (Folge von Operationen), um einen
Anfangszustand in einen Zielzustand zu überführen.
I-15 AI Introduction
c STEIN 2003/04
I-16 AI Introduction
c STEIN 2003/04
Geschichte der Künstlichen Intelligenz
Geschichte der Künstlichen Intelligenz
Moderne Periode (ab 1975)
Neue Trends (ab 1985)
• Erkennen der Bedeutung des problemspezifischen Wissens.
• Problemlösefähigkeit hängt mehr vom spezifischen Wissen als
von der allgemeinen Problemlösungsstrategie ab.
• Zuwendung zu Praxis-Problemen, Befragung von Experten,
Entwicklung von Expertensystemen
• Entwicklung direkter und induktiver
Wissensakquisitionskomponenten zur Überwindung de
“Knowledge Engineering Bottleneck”
• Temporallogik, Nicht-monotones und unsicheres Schließen,
Fuzzy Logic
• Natur-analoge Suchverfahren:
• Berühmte Anwendung: MYCIN (1976)
Unterstützung von Ärzten bei der Diagnose bakterieller
Infektionen.
neuronale Netze
genetische Algorithmen
Simulated Annealing
MYCIN simuliert auf engem Bereich die Fähigkeit eines
Experten, wobei das Wissen des Experten in formalisierter
Form vorliegen muß.
Erkenntnisse:
➜ Expertensysteme (XPS) sind kein Allheilmittel.
➜ Multi Purpose –> Special Purpose
Erkenntnisse:
➜ Davis (1982): “In the knowledge lies the power.”
➜ Methoden zur Wissensakquitision und -repräsentation sind
wesentlich
➜ Multi Purpose –> Special Purpose
I-17 AI Introduction
c STEIN 2003/04
I-18 AI Introduction
c STEIN 2003/04
I-20 AI Introduction
c STEIN 2003/04
Geschichte der Künstlichen Intelligenz
Trends danach (ab 1990)
• Verteilte Systeme in der KI, Multi-Agentensysteme
• Spezialisierung von “neuen” Verfahren auf spezifische
Anwendungen.
• Rückbesinnung auf Davis (1982): “In the knowledge . . . ”
• Erweiterung der naturanalogen Suchverfahren um
problemspezifische Komponenten: wissensintensive Such- und
Optimierungstechniken
Erkenntnis (schon wieder . . . ) :
➜ Wissen ist Macht.
I-19 AI Introduction
c STEIN 2003/04
Woher Methoden der KI stammen
Gebiete der Künstlichen Intelligenz
Aus einer anwendungsorientierten Sicht spielen in der Künstlichen
Intelligenz insbesondere folgende Gebiete eine Rolle:
(induktives)
Lernen
Konnektionismus
• Problemlösen und Optimierung mittels Suche
Linguistik
• verteiltes Problemlösen (Agenten, Schwarmintelligenz)
Wissensakquisition
• maschinelles Lernen (Klassifikation)
Psychologie
Wissensrepräsentation
• Expertensysteme für Diagnose, Planung und Entwurf
Fuzzy Logic
• Tutorsysteme: Intelligent Computer-aided Instruction (a)
Logik
Schließen
Problemlösen
und Planen
Heuristische
Suche
Natur-analoge
Verfahren
Kognitionsmodelle
Sprachverstehen
• Kognition: natürlichsprachliche Systeme (b)
Informatik,
speziell KI
• Kognition: bildverarbeitende Systeme (c)
• Robotertechnologie (d)
Biologie/
Genetik
• Modellierung von Unsicherheit, Vagueheit und Unschärfe
• Logik und Deduktionssysteme (e)
Chemie,
Physik
• KI-Programmiersprachen (Prolog und LISP)
Operations
Research
Oft auch Bezeichnung: wissensbasierte Systeme
Multi-AgentenSysteme
Bemerkung:
Wir machen eine pragmatische KI – oder: Entwicklung intelligenter Systeme
ohne, daß wir wissen, was Intelligenz ist . . .
II-1 AI Applications
c STEIN 2003/04
(a) Intelligent Computer Aided Instruction (ICAI)
Gegenstand:
c STEIN 2003/04
II-2 AI Applications
(b) Natürlichsprachliche Systeme
Entwicklung intelligenter Lehrsysteme zur Unterstützung des
Lernenden beim Lernprozeß.
Untersuchung der informationsverarbeitenden Prozesse als
Grundlage für das Verstehen und Produzieren natürlicher Sprache
mit rechnerorientierten Methoden
Vorgehen:
Ziele:
• Selbsttätiges Anpassen des Systems an den Lernenden.
• Erkennung des Basiswissen und Analyse der
Lerngeschwindigkeit des Benutzers.
• Mensch-Maschine-Kommunikation verbessern
• die an intelligentes Sprachverhalten gebundenen Leistungen
maschinell verfügbar machen
• die komplexen Informationsverarbeitungsprozesse beim
Verstehen, Erwerb und Gebrauch natürlicher Sprache exakt
beschreiben und erklären
• Diagnose von Fehlern und Mißverständnissen.
Rückschluß auf die Ursachen und Anpassung des
Lernprozesses.
• Aufbauen und Verfeinern eines Benutzermodells.
Sprachverstehen
Ein natürlichsprachliches System “versteht” Sprache in dem Sinn,
daß eine interne Darstellung der eingegebenen Sachverhalte (in
Form einer Wissensbasis) erzeugt wird.
Auf Grundlage dieser Darstellung werden Sachverhalte analysiert
und Fragen und Antworten dazu generiert.
II-3 AI Applications
c STEIN 2003/04
II-4 AI Applications
c STEIN 2003/04
Beispiel: Dialogsystem
Beispiel: Dialogsystem
[Schneider, Uni Münster, 1998]
c STEIN 2003/04
II-5 AI Applications
c STEIN 2003/04
II-6 AI Applications
(c) Bildverarbeitende Systeme
(c) Bildverarbeitende Systeme
Macht die große Anzahl von visuellen Prozessen der maschinellen
Verarbeitung zugänglich
Problem der Entwicklung solcher Systeme:
Wie funktioniert die Natur?
Aufgaben:
Sehen, Erkennen und Verstehen sind komplexe Vorgänge und der
Introspektion nicht zugänglich.
• das Wahrnehmen von Objekten,
• das Klassifizieren von Objekten, z. B. rund, länglich,
• die Unterscheidung von Farben, Helligkeiten und Größe,
• die Berücksichtigung speziellen Wissens aus dem
Einsatzgebiet wie:
“Falls das Wasser hinter einem Schiff schaumig ist, dann fährt
das Schiff.”
• die Berücksichtigung der Ziele, z. B. Vorgehensweise, um
Schiffe zu lokalisieren.
Arbeitsweise von Bilderkennungssystemen:
1. Aufnehmen und digitales Darstellen einer Szene als Grau- oder
Farbwertmatrix.
2. Auf finden von Kanten durch geeignete Filter; Interpretieren der
Kanten bzgl. räumlicher Lage und Schnittpunkten
(Segmentierung).
3. Kombinieren der Kanten zu Objekten (Objekterkennung).
4. Objekte in Beziehung zueinander setzen (Szenenanalyse).
II-7 AI Applications
c STEIN 2003/04
II-8 AI Applications
c STEIN 2003/04
Beispiel: Bilderkennung
Beispiel: Bilderkennung
Einfache Szene:
Einfache Szene mit Schatten:
c STEIN 2003/04
II-9 AI Applications
c STEIN 2003/04
II-10 AI Applications
Beispiel: Bilderkennung
Beispiel: Bilderkennung
Einfache Szene mit Schatten:
Einfache Szene mit Schatten:
Analyseschritt 1:
Analyseschritt 2:
II-11 AI Applications
c STEIN 2003/04
II-12 AI Applications
c STEIN 2003/04
Beispiel: Bilderkennung
Beispiel: Bilderkennung
Einfache Szene mit Schatten:
Szene aus der “Real World”:
Analyseschritt 3:
c STEIN 2003/04
II-13 AI Applications
II-14 AI Applications
c STEIN 2003/04
(d) Robotertechnologie
Robotor (Definition). Computergesteuerte Handhabungssysteme,
die in Teilgebieten den Menschen gewisse Funktionen abnehmen
können.
Industrie-Robotor
• i.d.R. nicht oder nur wenig intelligente Systeme
• Voraussetzungen:
natürlichsprachliche Kommunikation
Bilderkennen und - verstehen
Handlungsplanung (logisch und physisch)
Fernziel:
• keine “eigenen” Entscheidungen/Pläne
Konstruktion von autonomen mobilen Robotern, die sich in der
menschlichen Umwelt frei bewegen können.
• seit ca. 1970 in der Forschung (USA, Japan)
• Einsatzgebiet ist die industrielle Fertigung (führend: Japan)
Stichwort: Robo-Cup
Robotor als Agenten
• hierunter versteht man ein System, das in der Lage ist,
sich in seiner Umwelt frei zu bewegen,
seine Umwelt zu erfassen
➜ Sensorik für Berührung, Abstand, Bilder
mit seiner Umwelt zu kommunizieren,
Pläne zu entwerfen und auszuführen
➜ Effektoren: Greifer, Werkzeuge
Aufgaben auszuführen
II-15 AI Applications
c STEIN 2003/04
II-16 AI Applications
c STEIN 2003/04
(e) Deduktionssysteme
Beispiel: Textanalyse
Deduktion:
Prozeß des logischen Folgerns aus bestimmten gegebenen Fakten
und Annahmen.
Das Wochenende hat Lisa gern für sich. Doch jeden der fünf Werktage verbringt
sie mit genau einem ihrer drei Freunde. Wen Lisa nächste Woche wann sieht,
hat sie so festgelegt:
Sehe ich am Donnerstag Andreas oder Jörg, so
treffe ich Philipp am Dienstag.
Einsatzgebiete von Deduktionssystemen:
Halte ich am Mittwoch Jörg in den Armen, so
werde ich den Freitag entweder Philipp oder
Jörg widmen.
• Beweisen von mathematischen Sätzen und Sätzen der
formalen Logik (Theorembeweiser)
• Allgemein: Ableitung neuer Sachverhalte aus bekannten
Sachverhalten + Ableitungsregeln ➜ deduktive Datenbanken
• Programmverifikation
• Programmsynthese
Treffe ich Philipp am Mittwoch, dann muß ich
auch Donnerstag bei ihm sein.
Sehe ich Philipp am Montag, dann werde ich,
sofern ich mit Andreas am Dienstag kein
Rendezvous habe, Philipp auch am Donnerstag
treffen.
Schließe ich Dienstag Andreas in die Arme, so
soll Jörg, wenn nicht schon am Mittwoch, dann
am Donnerstag mein Liebhaber sein.
• Design und Testen von logischen Schaltkreisen
• als Komponente von wissensbasierten Systemen /
Expertensystemen
Schenke ich Jörg Montag meine Gunst, so ist
Andreas am Freitag an der Reihe.
Falls ich mit Andreas weder für Montag noch für
Dienstag verabredet bin, werde ich ihn auch am
Mittwoch nicht sehen.
Frage: Trifft Lisa am Mittwoch Philipp?
c STEIN 2003/04
II-17 AI Applications
II-18 AI Applications
c STEIN 2003/04
II-20 AI Applications
c STEIN 2003/04
Beispiel: Textanalyse
Das Wochenende hat Lisa gern für sich. Doch jeden der fünf Werktage verbringt
sie mit genau einem ihrer drei Freunde. Wen Lisa nächste Woche wann sieht,
hat sie so festgelegt:
Sehe ich am Donnerstag Andreas oder Jörg, so
treffe ich Philipp am Dienstag.
(ADo ∨ JDo ) → P hDi
Halte ich am Mittwoch Jörg in den Armen, so
werde ich den Freitag entweder Philipp oder
Jörg widmen.
JM i → (P hF r ∨ JF r )
Treffe ich Philipp am Mittwoch, dann muß ich
auch Donnerstag bei ihm sein.
P hM i → P hDo
Sehe ich Philipp am Montag, dann werde ich,
sofern ich mit Andreas am Dienstag kein
Rendezvous habe, Philipp auch am Donnerstag
treffen.
(P hM o ∧ ¬ADi) → P hDo
Schließe ich Dienstag Andreas in die Arme, so
soll Jörg, wenn nicht schon am Mittwoch, dann
am Donnerstag mein Liebhaber sein.
ADi → (JM i ∨ JDo )
Schenke ich Jörg Montag meine Gunst, so ist
Andreas am Freitag an der Reihe.
JM o → AF r
Falls ich mit Andreas weder für Montag noch für
Dienstag verabredet bin, werde ich ihn auch am
Mittwoch nicht sehen.
(¬AM o ∧ ¬ADi ) → ¬AM i
Frage: Trifft Lisa am Mittwoch Philipp?
P hM i ??
II-19 AI Applications
c STEIN 2003/04
Wissensrepräsentation
Symbolische Wissensrepräsentation
Wissensrepräsentation ist das zentrale Thema. Grundlegende
Ansätze (vgl. [Moeller 2002]):
symbolische Modellierung/Repräsentation:
Definition 2 (Symbol)
Ein Symbol ist ein Gegenstand oder Vorgang, der stellvertretend
für einen anderen nicht wahrnehmbaren geistigen Sachverhalt
steht.
• Sprachlich faßbare elementare Einheiten, die durch Bezeichner
gekennzeichnet sind.
• Kompositionale Bedeutungsbestimmung ausgehend von den
Elementareinheiten (“Units”) der Repräsentation.
subsymbolische Modellierung/Repräsentation:
• Elementareinheiten sind nicht durch Bezeichner charakterisiert.
• Repräsentation und Bedeutung ergibt sich aus dem
Zusammenwirken bzw. der Überlagerung der Units der
Repräsentation.
[Duden 95]
In der Informatik (vgl. [Ultsch 1998]):
• Gegenstand oder Vorgang wird als Zeichen eines Alphabets
interpretiert.
• Ein Zeichen, z. B. ein Buchstabe, wird dabei als atomar, d. h.
nicht weiter zerlegbar in Bestandteile, ohne dass seine Rolle
als Zeichen verloren geht, angesehen.
• Der nicht wahrnehmbare geistige Sachverhalt wird als die
Bedeutung (Semantik) des Zeichens angesehen.
Techniken zur Modellierung und Verarbeitung:
Logik, Deduktion, Inferenz, Constraints, Regeln
III-1
c STEIN 2003/04
Symbolic vs. Subsymbolic
III-2
c STEIN 2003/04
Symbolic vs. Subsymbolic
Subsymbolische Wissensrepräsentation
Wissensrepräsentation
Akustische Repräsentation eines gesprochenen Symbols:
Beispiel (vgl. [Ultsch 1998]): J. S. Bach, “Die Kunst der Fuge”
Symbolische Repräsentation (Ausschnitt aus Partitur):
"Cat"
...
Speech signal
Feature vectors
• Symbole sind die Noten
Techniken zur Modellierung und Verarbeitung:
neuronale Netze, genetische Algorithmen,
allgemein: konnektionistische Modelle
Subsymbolische Repräsentation (Zahlenfolge auf CD):
128
140
150
103
128
170
100
139
124
148
148
Bemerkung:
Die Änderung eines Mikrofeatures wird i. d. Regel keine entscheidende
Auswirkung auf das repräsentierte Symbol haben.
128
140
139
138
128
124
139
106
114
128
171
128
106
106
145
132
103
122
134
145
128
142
128
118
193
108
122
132
117
142
134
132
118
128
139
193
103
108
118
134
103
114
122
128
130 127 128 134 125 121 136 133 112 126 139 121 132 137 122 131 136 115
114 124 153 111 111 159 134 103 142 139 97 124 148 108 111 153 118 106
14 64 188 96 164 138 74 171 175 27 160 148 75 128 199 96 108 142 132 132
159 122 114 132 134 114 124 118 138 117 134 134 103 96 164 100 117 148
177 132 117 70 175 139 31 134 156 100 156 124 128 139 81 106 159 114 117
100 132 134 114 148 118 134 124 118 128 138 111 128 134 114 138 132 111
148 153 111 111 159 134 103 142 139 97 124 148 108 111 153 118 106 150
124 145 114 114 148 128 111 142 138 108 134 150 108 103 148 132 111 142
138 128 111 124132 134 114 124 118 138 117 134 134 103 96 164 100 117
64 128 118 128 134 192 111 124 128 118 90 118 188 148 86 145 170 92 79
159 122 68 114 166 159118 134 124 118 128 138 111 ...
• Im Kontext des Musikhörens besitzt eine einzelne Zahl für sich alleine
genommen keine Bedeutung.
• Fehlerkorrektur eines CD-Spielers kann sogar sinnvolle Ergänzung
vornehmen.
III-3
Symbolic vs. Subsymbolic
c STEIN 2003/04
III-4
Symbolic vs. Subsymbolic
c STEIN 2003/04
Wissensrepräsentation
Wissensrepräsentation
Vorteile symbolischer Repräsentation:
Stichwort: Erwerb neuen Wissens, maschinelles Lernen.
• unmittelbare Interpretierbarkeit
• leichte explizite Analyse
Symbolische Wissensrepräsentation:
• Wissensabstraktion, Metawissen
• Maschinelles Lernen setzt nur bekannte Symbole zu
(Linear)kombinationen zusammen.
➜ Neues im Sinne neuer Begriffsbildungen oder Detektion von
neuen Zusammenhängen sind nicht möglich.
Vorteile subsymbolischer Repräsentation:
• Lernprozeß einfacher organisierbar
• robuste Verarbeitung
Subsymbolische Wissensrepräsentation:
• Generalisierbarkeit auf neue ähnliche Eingaben
• Lernen bedeutet die Überlagerung der Repräsentationen in
den Units.
• fehlertoleranter als symbolische KI Technologien
➜ Subsymbolische KI-Systeme könnten wirklich Neues eher
entdecken.
Bemerkungen:
1. Die Berechnungsmächtigkeit der subsymbolischen KI könnte höher als bei
symbolischer KI sein.
Argumentation: Durch Verzicht auf das Verstehen des Lösungsweges wird
eine andere, grössere Klasse von Algorithmen berechenbar.
2. Auch in konnektionistischen Modellen kann Wissen in symbolischer Form
repräsentiert werden.
Schwerpunkt bei Expertensystemen (und insbesondere in dieser
Vorlesung) ist die symbolische Repräsentation von Wissen.
Beispiel: Einzelne Units (Neuronen, Gene) tragen eine klar definierte
Bedeutung tragen.
III-5
Symbolic vs. Subsymbolic
c STEIN 2003/04
III-6
Symbolic vs. Subsymbolic
c STEIN 2003/04
c STEIN 2003/04
III-8
Symbolic vs. Subsymbolic
c STEIN 2003/04
[Marvin Minsky]
III-7
Symbolic vs. Subsymbolic
Problemlösungswissen
Beispiel: Diagnose
• Wie repariert ein Mechaniker ein Auto?
• Wie gelangt ein Arzt von den Symptomen zu einer Diagnose?
• Wie entscheidet ein Bankangestellter über eine Kreditvergabe?
➜ Stichwort: Problemlösungswissen
Die Erstellung von Programmen, die eine Lösung solcher
Probleme automatisiert, erfordert:
1. Identifikation und Erwerb des Wissen, das zur Problemlösung
notwendig ist. (Akquisition)
2. Entwicklung einer geeigneten Formalisierung/Codierung des
Problemlösungswissens. (Repräsentation)
3. Auswahl und/oder Entwicklung von Algorithmen zur
Verarbeitung des Problemlösungswissens. (Inferenz)
Beobachtung: “Zylinder verfährt zu langsam.”
Bemerkung:
Die Lösung des Akquisitions-, Repräsentations- und Inferenzproblem ist keine
Garantie für Erfolg.
c STEIN 2003/04
IV-1 Problem Solving Knowledge
Beispiel: Diagnose
➜ Analyse des Systems durch einen Experten.
c STEIN 2003/04
IV-2 Problem Solving Knowledge
Beispiel: Diagnose – Problemlösungswissen
Grundlage der Expertenanalyse:
Quantitative Komponentenmodelle.
ẋ · d = pa · AK − pb · AR − F
... = ...
Energiedissipation
Gesamtenergie
zu niedrig
Analyseschritte:
...
• Modelle zusammentragen
...
...
...
• Gleichungen aufschreiben (Normalisieren etc.)
• Simulieren
• Wie überprüft man diese Zusammenhänge?
Beobachtungen:
• “Schaltdruck am Druckbegrenzungsventil wird nicht erreicht.”
• “Kein Leckstrom am Zylinder.”
Folgerungen:
• Wo überprüft man diese Zusammenhänge?
• Wann (Reihenfolge) überprüft man diese Zusammenhänge?
• Welches Wissen?
• “Pumpe zu schwach.”
• Wie anwenden?
• sonst eventuell “Zylinderring abgenutzt.”
• Wann anwenden?
Kann der Experte diese Fragen beantworten?
IV-3 Problem Solving Knowledge
c STEIN 2003/04
IV-4 Problem Solving Knowledge
c STEIN 2003/04
Beispiel: Konstruktion
Beispiel: Konstruktion
Anforderungen D
➜
Analyse der Anforderungen D:
Welches Verhalten soll erzielt werden?
Syntheseschritte:
• Zerlegung von D in Teilfunktionen
• Bestimmung der hydraulischen Achsen
• Entwicklung der Topologie (Kopplung der Achsen)
• Parametrisierung der Komponenten
System S
• Modellbildung (vgl. Diagnosesituation)
• Simulation
Ergebnis:
• D wird vollständig erfüllt
. . . oder:
• D wird nicht vollständig erfüllt.
➜ Modifikation bzw. Verbesserung des Entwurfs.
Ausgangspunkt: Anforderungsmenge
➜ Synthese des Systems durch Experten.
c STEIN 2003/04
IV-5 Problem Solving Knowledge
IV-6 Problem Solving Knowledge
Beispiel: Konstruktion – Problemlösungswissen
c STEIN 2003/04
Kennzeichen von Problemlösungswissen
Das Problemlösungswissen wie
• Komponentenmodelle (Zustand, Granularität, Genauigkeit)
• Simulationsparameter (Liegt ein steifes System vor?)
• Heuristiken (Wonach guckt man zuerst?)
Reihenschaltung
kann
Folgeschaltung
- beim Experten abgeguckt werden
...
...
...
- durch Interviews herausgekitzelt werden
...
- hat oft eine einfache Form
- ist eher unpräzise
• Welche Komponenten sind zu wählen?
Insbesondere kann Problemlösungswissen in eine explizite Form
gebracht und mit wenig Aufwand kodiert werden.
• Wie werden die Komponenten verschaltet?
• Wie sind Parameter zu dimensionieren?
Andere Wissensformen zur Problemlösung in den Beispielen:
• Welches Wissen?
• Domänenwissen: Defaultwerte für Zustandsgrößen und Parameter.
• Wie anwenden?
• Common-Sense-Wissen: Energieerhaltung im geschlossenen System.
• Common-Sense-Wissen: Massenerhaltung bzgl. der Hydraulikflüssigkeit.
• Wann anwenden?
• Metawissen: Wissen über Wissen.
(Zuverlässigkeit, Verarbeitungsverfahren, Verarbeitungsaufwand, etc.)
Kann der Experte diese Fragen beantworten?
IV-7 Problem Solving Knowledge
c STEIN 2003/04
IV-8 Problem Solving Knowledge
c STEIN 2003/04
Kennzeichen von Problemlösungswissen
Problemlösungswissen – der Schlüssel zum Erfolg
Problemlösungswissen unterscheidet sich nicht durch seine
Kompliziertheit von anderen Lösungsverfahren – jedoch:
Die Beherrschung von Methoden und Techniken
ist notwendig – nicht hinreichend.
• es ist nicht universell verfügbar
• es ist nicht kanonisch operationalisierbar
Beachte insbesondere:
“The transfer and the transformation of
problem-solving expertise from a knowledge-source to a program
is the heart of the expert-system development process.”
• Anwendung dieses Wissens ist schwierig.
• Kalkülisierung dieses Wissens ist kaum möglich.
[Hayes-Roth/Waterman/Lenat 1983]
➜ Anwender von Problemlösungswissen: Mensch
Die Anwendung erfordert Intuition, Erfahrung und Übersicht.
➜ Anwender von kalkülisierbarem Wissen: Computer
Graphenanalyse (starke Zusammenhangskomponenten)
BLT-Zerlegung
Newton-Verfahren
Runge-Kutta-Verfahren
...
IV-9 Problem Solving Knowledge
c STEIN 2003/04
IV-10 Problem Solving Knowledge
c STEIN 2003/04
IV-11 Problem Solving Knowledge
c STEIN 2003/04
IV-12 Problem Solving Knowledge
c STEIN 2003/04
Aber . . .
Prinzipien wissensbasierter Systeme
. . . konventionelle Softwaresysteme –
• Trennung von anwendungsbezogenem und
anwendungsunabhängigem Wissen
a) Enthalten sie kein Wissen?
• Anwendung von Problemlösungsprinzipien der KI
b) Wenn nein, warum nicht?
c) Wenn ja, wo ist dieses Wissen zu finden,
d) . . . und woher kommt es?
Architektur von Softwaresystemen
Inferenzmaschine
Algorithmen
zu c) Wo ist da Wissen?
Wissen
Daten
Daten
(konventionell)
(wissensbasiert)
Sowohl das Wissen über das Anwendungsgebiet als auch das
allgemeine Problemlösungswissen ist in Algorithmen, Daten
und Datenstrukturen verteilt kodiert.
zu d) Woher kommt es?
• Vorgaben/Rahmenbedingungen des Auftraggebers
• Fachabteilungen/Labore liefern z. B. betriebliche
Zusammenhänge, “Rezepturen” und Problemlösungswissen
Definition 3 (Wissensbasiertes System, WBS)
Ein wissensbasiertes System (WBS) ist ein Softwaresystem, bei
dem das Fachwissen über das Anwendungsgebiet (Domain
Knowledge) explizit und unabhängig vom allgemeinen
Problemlösungswissen dargestellt wird.
c STEIN 2003/04
V-1 XPS
• Programmierer vertieft Problemlösungswissen durch gezielte
Nachfragen, besitzt aber auch eigenes Problemlösungswissen.
c STEIN 2003/04
V-2 XPS
Expertensysteme
Expertensysteme (XPS)
“. . . ein intelligentes Computerprogramm, das Wissen und
Inferenzverfahren benutzt, um Probleme zu lösen, die immerhin so
schwierig sind, daß ihre Lösung ein beträchtliches menschliches
Fachwissen erfordert . . . ”
[Edward Feigenbaum]
Gewünschter Nutzen:
• Experten sollen von Routinetätigkeiten entlastet werden
• Aufheben der örtlichen und zeitlichen Abhängigkeit von
Experten
• kostengünstiger als menschliche Experten
• Erstellung einer ausgewogenen (objektiven?) Expertise
• Schulungsaspekte (Unterstützung bei der Ausbildung)
XPS-Architektur aus funktionaler Sicht (Puppe 1991):
Expert
User
Dialog
module
• unbegrenzte Verbreitbarkeit (ist das immer gewünscht?)
Explanation
module
Acquisition
module
Problem solving module
Knowledge base
V-3 XPS
c STEIN 2003/04
V-4 XPS
c STEIN 2003/04
Experte
Expertensystem versus Experte
Der ideale menschliche Experte. . .
XPS
Experte
Wissenserhaltung
+
–
zeitliche/örtliche Unabhängigkeit
+
–
Unabhängigkeit von Umwelteinflüssen
+
–
(–)
(+)
Lernfähigkeit
o
+
Größe des Problemfeldes
–
+
Kreativität
–
+
• besitzt Wissen über Problembereich (Domäne)
Aneignung durch Ausbildung und Erfahrung
kennt Begriffswelt und die Zusammenhänge zwischen den
Begriffen
arbeitet mit vagem Wissen
kennt die Zusammenhänge zu anderen Wissensgebieten
hat Hintergrundwissen über Sachverhalt (Common Sense)
kennt Verweise auf Wissensquellen
• kann Wissen erwerben und falsches Wissen korrigieren
Hintergrundwissen
• kann Probleme durch Verknüpfen von Wissen lösen
• kann seine Ergebnisse durch Verdeutlichen seines
Lösungsweges erklären
➜ Expertensysteme sind keine Allheilmittel.
• handelt effizient
schnelle Problemlösung durch Anwendung von Heuristiken
Wahl geeigneter Vorgehensweisen
➜ Es existieren viele Probleme, die mittels der
Expertensystemtechnologie (noch) nicht lösbar sind.
• handelt menschlich (das steht in keinem KI-Buch!)
c STEIN 2003/04
V-5 XPS
c STEIN 2003/04
V-6 XPS
Problemklassen für Expertensysteme
Expertensysteme versus konventionelle
Programme
Expertensysteme versuchen, die Eigenschaften eines Experten
bzgl. einer eingeschränkten Tätigkeit zu simulieren.
Expertensysteme sind “nur” eine spezielle Art der
Programmerstellung.
Analyse
Vorhersage
Erkennen
Überwachung
Steuerung
Diagnose
Synthese
Konfigurieren
Entwerfen
Expertensysteme
konventionelle Programme
Repräsentation und
Verarbeitung von Wissen
Repräsentation und
Verarbeitung von Daten
Algorithmen, Heuristiken
Algorithmen
inferenzielles Bearbeiten
iteratives Bearbeiten
schlecht strukturierte Probleme
gut strukturierte Probleme
viele unterschiedliche Wissensarten
große Mengen ähnlicher Daten
individuelle Verarbeitung und
Interpretation der Daten
kanonische Verarbeitung,
z. B. Number Crunching
keine Patentrezepte
Planen
Scheduling
Bemerkung:
Die Einteilung in Problemklassen ist nicht exakt. Zum Beispiel gehört die
Wettervorhersage zur
• Interpretation (Eingrenzung Hoch- und Tiefdruckgebiete),
• Simulation (Abschätzung zukünftiger Wetterlagen),
• Beobachtung (Sturmwarnung) und
• Diagnose (Fehlerermittlung bei falschen Voraussagen).
V-7 XPS
c STEIN 2003/04
V-8 XPS
c STEIN 2003/04
Expertensysteme versus konventionelle
Programme
Für gut strukturierte Probleme gilt:
1. Akquisition.
• Es existiert ein Leitfaden zur Problemlösung.
Wissenserhebung und -erfassung
• Die Zielfunktion ist bekannt.
• Problem und Lösung in numerischen Größen beschreibbar.
• Formalisierung ist möglich,
sowohl für das Modell als auch die Zielfunktion(!).
moderne DV
2. Repräsentation.
Darstellung und Speichern des Wissens in der Wissensbasis
3. Inferenz.
• Algorithmen zur Problemlösung sind bekannt ⇔
Kalkülisierung ist möglich.
klassische DV
Erstellung wissensbasierter Systeme
Verarbeitung des Wissens zur Lösung bestimmter Probleme
XPS
reales Problem
Repräsentation im Modell
[Sviokla 1986]
c STEIN 2003/04
V-9 XPS
c STEIN 2003/04
V-10 XPS
Erstellung wissensbasierter Systeme
Erstellung wissensbasierter Systeme
KI-Programmiersprachen (LISP, PROLOG, Smalltalk):
Meine Meinung (BS).
• leistungsfähige Symbolverarbeitung
• Für Anfänger: Werkzeuge schaden
• Für erfahrene Softwaretechniker: Werkzeuge schaden nicht.
Shells (EMycin, Nexpert Object, Twaice):
• sind spezielle Programme zur Entwicklung von XPS
• Konzepte für Wissensrepräsentation und Inferenz vorgegeben
• Entwickler konzentriert sich auf die Erfassung, Strukturierung
und Eingabe des Wissens aus dem Anwendungsgebiet
Entwicklungsumgebungen (KEE, LOOPS, Knowledge Craft):
• viele Konzepte zur Wissensrepräsentation und Inferenz,
Elemente für den Bau von Benutzeroberflächen
• mehr Flexibilität als bei Shells, hoher Einarbeitungsaufwand
• Der Nutzen von Werkzeugen?
Wenn überhaupt, dann in der Prototyp-Entwicklung.
• Beherrschung von Methoden und Techniken ist notwendig –
nicht hinreichend.
Intelligenz, Können, Lernbereitschaft und Hartnäckigkeit des
Expertensystem-Entwicklers (Wisseningenieurs) sind die
wichtigsten Erfolgsfaktoren.
Dabei bestimmt
• das Anwendungsgebiet (Domäne) die Komplexität,
Entwicklungsaufwand
KI-Programmiersprachen
• das Problem den Lösungsaufwand.
allgemeine
Werkzeuge
Shells
Flexibilität bei
der Entwicklung
V-11 XPS
c STEIN 2003/04
V-12 XPS
c STEIN 2003/04
Erstellung wissensbasierter Systeme
Erstellung wissensbasierter Systeme
Blickt man zurück, kann man von dem Fortschritt enttäuscht sein.
Blickt man zurück, kann man von dem Fortschritt enttäuscht sein.
The LOOPS Project (1982-1986, PARC):
The Colab Project (1982-1986, PARC):
• Main Participants: D. Bobrow, Sanjay Mittal, Stanley Lanning, Mark Stefik.
• Object-oriented programming: Classes and objects, class variables,
instance variables, methods, multiple-inheritance, interactive class browsers
• Access-oriented programming: Nestable active values that can be attached
to variables, procedures specified in the active value are triggered.
• Rule-oriented programming.
V-13 XPS
c STEIN 2003/04
V-14 XPS
c STEIN 2003/04
V-15 XPS
c STEIN 2003/04
V-16 XPS
c STEIN 2003/04
System und Modell
System und Modell
Beispiel 1: “Der unbequeme Philosoph”
Beispiel 2: “Fail-Save-Überprüfung einer Presse”
NC
?
Modell:
ẋ · d = pa · AK − pb · AR − F
... = ...
∀x : Eq(x, x)
∀x∀y : Eq(x, y) → Eq(y, x)
∀x∀y∀z : Eq(x, y) ∧ Eq(y, z) → Eq(x, z)
Modell:
∀x∀y : mensch(x) ∧ trinkt(x, y) ∧ gift(y) → tot(x)
gift(schierling)
mensch(sokrates)
...
Axiome,
Umformungsregeln
∀x∀y∀f : Eq(x, y) → Eq( f (t1, . . . , ti, x, ti+1, . . . , tn),
f (t1, . . . , ti, y, ti+1, . . . , tn))
c STEIN 2003/04
VI-1 System, Model, and Deduction
Komponentenmodelle,
physikalische Gleichungen
c STEIN 2003/04
VI-2 System, Model, and Deduction
System und Modell
System und Modell
Definition 4 (System)
Ein System ist ein Ausschnitt aus der realen Welt. Jedes System
besitzt eine (System)Grenze, aufgrund dessen für jedes Objekt der
Welt festgestellt werden kann, ob es zu dem System gehört oder
nicht.
Ein Analyseproblem zu lösen, bedeutet, Fragen bzgl. eines
Systems zu beantworten. Beispiele:
System
+
Frage
Experiment
System- Interpretation
verhalten
Antwort
Ausführung eines Experiments am System? – dagegen spricht:
• System existiert nicht
• Was ist kaputt an dem Motor?
• Systemveränderungen zu schnell oder langsam
• Wie verhält sich die Anlage im Grenzbereich?
• Experiment am System zu teuer
• Wann ist die Betriebstemperatur erreicht?
• durch das Experiment entstehen große Gefahren
• System zu klein oder zu groß
• Experiment verändert das System zu stark
Um eine Antwort zu erhalten, kann man ein Experiment an dem
System machen und die Ergebnisse des Experimentes
interpretieren.
• Voraussage ist erwünscht
Ausweg:
Definition 5 (Experiment)
“An experiment is the process of extracting data from a system by
exerting it through its inputs.”
Experiment wird nicht am System, sondern an einem Modell des
Systems durchgeführt.
[Cellier 1995]
VI-3 System, Model, and Deduction
c STEIN 2003/04
VI-4 System, Model, and Deduction
c STEIN 2003/04
Modellieren zum Schlußfolgern
Modellieren zum Schlußfolgern
Beispiel 1: “Der unbequeme Philosoph”
Definition 6 (Model, Modell)
“To an observer B, an object A∗ is a model of an object A to the
extent that B can use A∗ to answer questions that interest him
about A.”
[Minsky 1965]
Simulation
Modell
Modellverhalten
Modellverhalten
Modell
∀x∀y: ... → ...
mensch(sokrates)
...
Simulation
tot(sokrates)
Übertragung
(Anwendung,
Interpretation)
Modellbildung
Übertragung
(Anwendung,
Interpretation)
Modellbildung
Experiment
System
+
Frage
Experiment
System- Interpretation
verhalten
Antwort
System
(= Realität)
Systemverhalten
Definition 7 (Simulation)
“A simulation is an experiment performed on a model.”
[Korn/Wait 1978]
c STEIN 2003/04
VI-5 System, Model, and Deduction
VI-6 System, Model, and Deduction
Modellieren zum Schlußfolgern
c STEIN 2003/04
Modellieren zum Schlußfolgern
Beispiel 2: “Fail-Save-Überprüfung einer Presse”
Nahezu alle Situationen, in denen wir einen Sachverhalt
analysieren, basieren auf dem Konzept der logischen Folgerung.
Modell
v d = pa Ak - pb ...
∀x: Eq(x,x)
...
Simulation
Modellverhalten
Beispiele:
v=0
• Ist Schierling für den Philosophen Sokrates giftig?
• Wie verhält sich ein technisches System?
Übertragung
(Anwendung,
Interpretation)
Modellbildung
NC
• Sind 10 EUR mehr wert als 19,50 DM?
Man bildet zunächst ein Modell des Gegenstandsbereiches (Domäne) und prüft
dann vor dem Hintergrund des Modells für interessierende Fakten deren
Wahrheitswert (= Schlußfolgern).
NC
Experiment
?
System
(= Realität)
Frage: Wie sieht das für die Problemklasse der Synthese aus?
v=0
(Presse steht)
Systemverhalten
Bemerkung: Numerische Simulation ist auch Schlußfolgern.
VI-7 System, Model, and Deduction
c STEIN 2003/04
VI-8 System, Model, and Deduction
c STEIN 2003/04
Formale Verfahren zum
Modellieren und Schlußfolgern
Formale Verfahren zum
Modellieren und Schlußfolgern
In den Beispielen gibt es einen grundlegenden
Schlußfolgerungsmechanismus.
Ansatz.
Die Beschreibung des Wissens über ein System (Realität)
geschieht
Dieser Schlußfolgerungsmechanismus ist unabhängig
• formal,
durch festgelegte Symbole.
• von Rahmenbedingungen,
• von der Art der Objekte, ihren Eigenschaften, dem Verhalten
und ihren Abhängigkeiten,
• abstrakt,
losgelöst von einer konkreten Situation.
• exakt,
ohne unzulässigen Verallgemeinerungen.
• vom Beobachter oder Anwender des Mechanismus.
• vollständig,
kein zusätzliches Wissen erforderlich.
“Es regnet gerade.”
“Wenn es regnet, ist die Straße naß.”
R
R −→ SN
Bemerkung: Einhaltung der genannten Eigenschaften in “vernünftigen” Grenzen.
c STEIN 2003/04
VI-9 System, Model, and Deduction
c STEIN 2003/04
VI-10 System, Model, and Deduction
Modellbildung
Modellbildung
Klassifikation von Modellen hinsichtlich ihrer Repräsentation:
Ablauf der Top-Down-Modellbildung: Abstrakte Modelle werden auf
weniger abstrakte Modelle abgebildet.
Model
Mental model
Physical model
Symbolic model
System
Scale model
Graphical model
Iconic model
Mathematical model
Analogical model
Verbal model
...
...
High abstraction
+
Question
Mental model
Interpretation of the
concrete model in terms
of the abstract model.
Structure model
Unter Modellbildung (Modellierung) versteht man den Prozeß, von
einem System ein Modell zu erstellen. Hierzu gehören folgende
Schritte:
Behavior model
Algorithmic model
1. Identifizierung der Systemgrenzen ; Black-Box-Modell
2. Identifizierung der Untersysteme und ihrer Beziehungen
zueinander ; Strukturmodell
Low abstraction
Computer model
3. Charakterisierung von Relationen zwischen Variablen der
Untersysteme ; Verhaltensmodell
VI-11 System, Model, and Deduction
c STEIN 2003/04
VI-12 System, Model, and Deduction
c STEIN 2003/04
Systemraum und Modellraum
Systemraum und Modellraum
Ein Syntheseproblem zu lösen, bedeutet, Fragen bzgl. einer
Menge von Systemen zu beantworten. Beispiele:
Ausweg:
• Aus welchen Komponenten besteht eine Konfiguration, die alle
Anforderungen erfüllt?
Synthese von Modellen für die interessierenden Systeme
(Modellraum) und Suche nach einem geeigneten Modell.
• Was ist der kürzeste Bauplan?
• Läßt sich die Anlage so verändern, daß sie nicht heiß wird?
Um eine Antwort zu erhalten, kann man die Systeme bauen und
mittels Experimenten ihre Eigenschaften analysieren.
System
Konfigurierung,
raum
Entwurf
+
System
Frage
Analyse
Ergebnis
Interpretation
Antwort
Modellraum
Suche
Modell
Analyse
Ergebnis
Übertragung
(Anwendung,
Interpretation)
Modellraumbildung
System
Konfigurierung,
raum
Entwurf
+
System
Frage
Analyse
Ergebnis
Interpretation
Antwort
Gegen diese Vorgehensweise spricht vieles.
c STEIN 2003/04
VI-13 System, Model, and Deduction
Systemraum und Modellraum
Adäquate Modellierung
Klassifikation von Modellräumen hinsichtlich ihrer Repräsentation:
Model space
Mental model space
Physical model space
c STEIN 2003/04
VI-14 System, Model, and Deduction
Symbolic model space
• Welches Modell ist geeignet für das interessierende System
und die Analysefrage?
• Wie generiert man den Modellraum für den interessierenden
Systemraum und die Synthesefrage?
• Wie spielen Modell, Modellraum und Problemlösungsmethoden
zusammen?
Miniature lab
CAE-system
Construction kit
Virtual prototyping system
...
...
Problemlösungsmethoden für
Analyseaufgaben
Problemlösungsmethoden für
Syntheseaufgaben
Notwendige Schritte zur Erzeugung eines Modellraums:
statistische
Diagnose
1. Identifizierung von Systembausteinen ; Subsysteme
2. Identifizierung von Konstruktionsprinzipien ; Systemraum
3. Abbildung der Systembausteine und Konstruktionsprinzipien
auf Modellbausteine und Operatoren ; Modellraum
(Suchraum)
fallbasierte
Diagnose
assoziative
Diagnose
funktionsbas.
Diagnose
Logik-
Ursache/
Wirkungs-
Fehler-
modell
Regel...
verhaltensbas.
Diagnose
VI-15 System, Model, and Deduction
c STEIN 2003/04
VI-16 System, Model, and Deduction
Generate
und Test
Struktur-
Verhaltens-
Fuzzy-
Vorschlagen
& Verbessern
fallbasierte
Konfigurierung
Assoziative
Konfigurierung
SkelettKonfigurierung
c STEIN 2003/04
Adäquate Modellierung
Wieviel ist bekannt über das System?
Black box
Gray box
White box
Assoziative Modelle:
statistische Verfahren, neuronale Netze, Modellidentifikation
Input
Output
...
...
Black box
Verhaltensbasierte Modelle:
Zustandsraummodelle, Gleichungsmodelle, sonstige Constraints
Input
Output
NC
...
...
White box
VI-17 System, Model, and Deduction
c STEIN 2003/04
VI-18 System, Model, and Deduction
c STEIN 2003/04
VI-19 System, Model, and Deduction
c STEIN 2003/04
VI-20 System, Model, and Deduction
c STEIN 2003/04
Herunterladen