PDF-Datei

Werbung
KE1: Grundlagen
Merkmale der Intelligenz (konstruktive Sicht): Operation mit beliebige Symbolen
möglich; Besitz eines inneren Modells der Welt (Wissensrepräsentation); Die
Fähigkeit, das gespeicherte Wissen zweckentsprechend einzusetzen, wobei diese
Fähigkeit vom Wissen selbst getrennt ist
Turing-Test: Mensch wird als intelligent vorausgesetzt, Beobachter stellt System und
Mensch Fragen; findet er nicht heraus, wo wer sitzt, gilt das System als
intelligent; phänomenologische Betrachtungsweise (nicht was Intelligenz
ausmacht ist wichtig, sondern wie sie sich äußert)
Arbeitsgebiete der KI: betrifft Linguistik, Psychologie, Informatik, Philosophie, Logik
Gliederungsebenen der KI: 1. Implementierungsebene mit Basiswerkzeugen
(Hardware, Programmiersprachen), 2. theoretische Ebene (Logik,
Wahrnehmungspsychologie, kognitive Modellierung, Bildverarbeitung), 3.
Anwendungsebene (Roboter, NLS, XS), 4. Sozialökonomische Ebene
(Vermarktung, Auswirkungen)
Geschichte der KI: vorwissenschaftliche Periode (Mythologie, »Schachautomat«),
wissenschaftliche Periode (Pascal, Babbage, Boole, Gödel, Theorembeweise),
Pionierphase, Empirische Phase (GPS), Fundierungsphase (Frames, SN, LISP),
Praxisorientierung (MYCIN, KRL), technologische Phase (XS)
Grundtypen: XS, NLS, Roboter; Gemeinsamkeit: Inferenz-Komponente, Wissenbasis
Expertensysteme: wissensbasiertes System mit Fähigkeit zur Problemlösung bzw.
Inferenzausführung, das zur Lösung von Aufgaben eingesetzt wird, die
Spezialwissen verlangen (Komponenten: Wissensbasis, Inferenzsystem,
Interface, Erklärungskomponente, System zum Wissenserwerb)
Frage-Antwort-Systeme: wissensbasiertes System, das zur Auskunftserteilung über
Sachwissen dient , wobei Fragen und Antworten natürlichsprachig sind (Phasen:
akustische Erkennung, grammatisch-semantische Analysephase, semantische
Verarbeitung, semantische Repräsentation, Sprachsynthese, -generierung)
NLI: ähnlich wie FAS, aber ohne Generierungsphase; semantische Tiefenstruktur der
Eingabe wird so übersetzt, daß das Zielsystem versteht, z. B. SQL
methodologisches Vorgehen: neuronal (bottom up, z. B. neuronales Netz) ↔
symbolisch (top down, geht davon aus, daß sich eine Schicht der Begriffe,
Wörter und deren Bedeutung abheben läßt); Simulationsmethode (Neuronen
nachbauen oder auf kognitiven Schichten aufsetzen) ↔ phänomenologische
Methode (Behaviorismus, liefert kein Modell für intelligentes Verhalten)
Philosophische Probleme: ontologischer Aspekt (untersucht die Struktur der
Wirklichkeit, körperlichkeit, Trennung von Struktur und Funktion, Bewußtsein,
Sozialisation), erkenntnistheoretischer Aspekt (Ignorabismusproblem,
Gödelscher Unvollständigkeitssatz, selbstbezügliche Sätze, Fehlen bestimmter
Fähigkeiten, Lady Lovelaces Argument)
1
KE2: Neuronale Netze
Neuronen: künstliche Neuronen sind den natürlichen Neuronen nachempfunden;
natürliche Neuronen besitzen Dentriten zur Zuleitung von Signalen, einen
Zellkörper zum verarbeiten und ein Axon zur Ausgabe, die Kontaktstellen
heißen Synapsen; wenn die Summe der Eingangsreize einen gewissen
Schwellenwert überschreitet, dann »feuert« das Neuron, es liefert ein
Ausgangssignal; Künstliche Neuronen besitzen ähnliche Eigenschaften wie
natürliche Neuronen: n gewichtete Eingänge, eine neuronale Einheit mit einer
Schwellwertfunktion und einen Ausgang;
Hebbsche Lernregel: beschreibt eine Regel über das Lernen in neuronalen
Netzwerken: ∆wj = η · a · ej
∆wj ist die Veränderung des Gewichtes von Neuron i zu Neuron j (also die
Änderung der Verbindungsstärke dieser beiden Neuronen, η eine geeignet zu
wählende konstante Lernrate, a die Aktivierung des empfangenden Neurons
und ej Eingabe in das empfangende Neuron
Neuronenfunktion / Schwellwertfunktion:
X
n
oi = s
wij · ej − θ
j=1
i
ej
wij
θ
oP
i
wij ej = neti
s(neti ) = ai
Index/Nummer der neuronalen Einheit
Eingabewert, der entweder von außen vorgegeben wird oder
der Output eines anderen Neurons (des Unit mit der Nummer
j) in einem neuronalen Netz ist
Faktor, mit dem die jte Eingabe des iten Elements gewichtet
wird
Schwellwert; dieser kann weggelassen und durch einen zusätzlichen festen Input eo = −1 (den sogenannten Bias) und
ein entsprechendes Gewicht wio ersetzt werden
Output des iten Elements
Nettoinput des iten Elements (Inputfunktion)
Aktivierung des iten Elements; s wird auch als Aktivierungsfunktion oder Transferfunktion bezeichnet
Es gibt aber auch Schwellwertfunktionen, bei denen der Output oi nicht gleich
der Aktivierung ai gesetzt wird, sondern über eine Outputfunktion berechnet
wird (Bsp:: »Winner takes it all«); es kann auch die Aktivierung zum Zeitpunkt
t + 1 von der Aktivierung zum Zeitpunkt t abhängig gemacht werden, u. a.;
Netztypen – Begriffe: Netztypen unterscheiden sich in der Neuronenfunktion, in der
Art der Zusammenschaltung (Topologie) und in der Art der Regeln, wie
bestimmte Parameter der Netzes (v. a. Gewichte und Schwellwerte) während der
Arbeit verändert werden (Dynamik); die Arbeit eines Netzes wird in die
Lernphase und die Ausführungsphase unterschieden; beim überwachten Lernen
werden dem Netz Ein- und Ausgabe-Vektoren vorgegeben und es wird durch
geeignete Veränderung der Gewichte versucht, die gewünschte
Input/Output-Relation zu realisieren; beim nicht-überwachten Lernen muß sich
das Netz anhand der Eingabedaten selbst einstellen
2
Perzeptron (einlagig): es handelt sich im eine Schicht von Neuronen; kann mit
kontinuierlichen und binären Eingabewerten arbeiten; ist für
Klassifikationsaufgaben geeignet, indem es bestimmten Eingabestrukturen
spezifizierte Ausgabestrukturen zuordnet (Assoziativspeicher), in der Lernphase
werden die Gewichte so lange verändert, bis die erwartete und tatsächliche
Ausgabe übereinstimmt; im Gegensatz zur Hebbschen Lernregel wird statt der
Aktivierung die Differenz zwischen dem Soll- und Ist-Wert des Outputs
verwendet; es lassen sich nur linear separierbare Klassen trennen; XOR läßt sich
nicht darstellen; Lernregel des Perzeptrons: ∆wij = η · di · ej mit di = (oi − oi )
Adaline-Modell: bildet ein Perzeptron mit modifizierter Lernregel, diese so
genannte Delta-Lernregel bewirkt ein anderes Verhalten des neuronalen Netzes,
Adaline-Netze bauen ein stabileres Wissen auf, da sie durch die modifizierte
Lernregel einmal gelerntes Wissen weniger leicht wieder vergessen; verwendet
anstelle der Differenz zwischen Soll- und Ist-Output die Differenz zwischen
Soll-Output und Aktivierung, außerdem wird die Anzahl der Eingänge n des
betreffenden Elements in die Lernregel einbezogen: ∆wij = (η/n) · ∆i · ej mit
∆i = (oi − ai )
Hopfield-Netz: wird als Brücke zwischen neuronalen Netzen und statistischer Physik
gesehen; erkennt Muster als Rasterwerte, wenn schwarze und weiße Pixel etwa
gleichhäufig vorliegen; dabei handelt es sich um ein Netz mit Rückkopplung
(Autoassoziationsnetz); es existiert nur eine Schicht, die gleichzeitig als Ein- und
Ausgabeschicht fungiert; Jedes Neuron ist mit jedem – ausgenommen sich selbst
– verbunden; lernt durch Iterationsverfahren bis zum Erreichen einer
Konvergenz; den Quotienten von der Anzahl der zu speichernden Muster und
der Anzahl der Neuronen nennt man Speicherkapazität, dieser Wert darf nicht
zu hoch werden (angegeben wird 0,146), da sonst Standardmuster nicht mehr
richtig erkannt werden
Perzeptron (mehrlagig): es liegt neben der Ausgabeschicht auch noch mindestens
eine weitere Schicht verdeckter Neuronen vor; alle Neuronen einer Schicht sind
vollständig mit den Neuronen der nächsten Schicht vorwärts verknüpft
(Feedforward-Netze); da für die inneren Neuronen-Schichten kein unmittelbarer
Fehler zwischen gewünschtem und tatsächlichem Output angegeben werden
kann, entsteht zunächst das Problem, nach welchen Kriterien die Gewichte
anzupassen sind, um ein Lernverhalten des Netzes zu erreichen, hierfür gibt es
P
s
s 2
Backpropagation: dabei soll der quadratische Fehler E = 12 N
s1 (o − o )
minimiert werden; Backpropagation wird dazu verwendet, ein (lokales)
Minimum dieser Fehlerfunktion zu finden; Algorithmus:
1. alle Gewichte zufällig mit kleinen Werten initialisieren
2. ein Eingabemuster anlegen und vorwärts durch das Netz propagieren
3. die Ausgabe des Netzes wird mit der gewünschten Ausgabe verglichen, die
Differenz wird als Fehler des Netzes erachtet
4. der Fehler wird nun wieder von der Fehler- über die Ausgabe- zur
Eingabeschicht zurück propagiert: nach der Verteilung des Fehlers im gesamten
Netz werden die Gewichte der Verbindungen unter Berücksichtigung des
Fehlerwertes so geändert, daß der Fehler näherungsweise minimiert wird; um
eine Oszillation des Netzes zu vermeiden, wird sich dem Fehler in der Regel
stufenweise mit einer Lernrate genähert
3
5. sobald das Netz keinen Fehler mehr erzeugt, kann die Trainingsphase
abgeschlossen werden und das mehrschichtige Feedforward-Netz ist nun bereit,
die bestimmten Muster zu klassifizieren
der Backpropagation-Algorithmus hat den Nachteil der
Hill-Climbing-Verfahren, daß nur ein lokaler Extremwert gefunden wird
Competive Netze - Kohonens Feature Maps: gehört zum nichtüberwachten Lernen;
Neuronen treten in eine Art Wettbewerb und lassen sich mit ihrer
Outputfunktion gegenseitig beeinflussen; ist ein Netz in zweidimensionaler
Gitteranordnung; bei einer Gruppe ähnlicher Inputs stellt sich der
Gewichtsvektor in die Mitte dieser Gruppe ein - die Merkmalskarte »beult« sich
in Richtung des Reizes aus
4
KE2: Datenstrukturen
Einführung: geben kognitive Vorstellungen wieder; liegen auf mathematisch-formaler
oder Implementierungsebene vor; von Signatur aus wird entweder algebraische
Struktur (Sorten werden mit Mengen und Operationen mit Funktionen
identifiziert) oder abstrakter Datentyp (nur Bedingungen werden auferlegt)
festgelegt
elementare Datenstrukturen: Zahlen; Boolesche Werte (samt
Wahrheitswertefunktion); Zeichen (Elemente eines Zeichensatzes mit Kodierung,
Font und Schriftgröße, auch als Buchstaben für Sprachverarbeitung); Pixel
(elementare Bestandteile von Rasterbildern, Auflösung)
komplexe Datenstrukturen: Strings (Aneinanderreihung von Zeichen samt
Funktionen); Objekte (benannte Entitäten mit einer Menge von
Merkmals-Werte-Paaren, Merkmale können auch Prozeduren sein); Listen (Folge
von Objekten samt Funktionen wie head, tail, construct); Arrays
(Gesamtheit von Elementen gleichen Typs, die durch Indizes benannt sind, einoder mehrdimensional); Hash-Arrays (Schlüssel-Wert-Paare, mit
Hash-Funktion); Records (Aggregationen von benannten Komponenten, dürfen
unterschiedlichen Typ haben, auf Komponenten wird über Selektoren
zugegriffen, lassen sich zu Tabellen zusammenfassen, Tabellen mit Projektion,
Join, ...); Rasterbilder (zweidimensionale Arrays von Pixeln)
Muster als Symbolische Ausdrücke: ist aus Konstantensymbolen und symbolischen
Variablen aufgebaut; verkörpert einen bestimmten Ausdruckstyp, der dadurch
definiert ist, daß er durch Variablensubstitutionen mit dem Muster zur Deckung
gebracht werden kann; im Kurs: !X für ein Symbol, ?X für beliebigen
Teilabschnitt, X für einen Term
Bitmuster: Muster aus nur zwei Werten (meist 0 und 1); Standardmuster stellt in
diesem Zusammenhang Merkmale einen Prototyps dar; Ähnlichkeitsmaße beim
Mustervergleich sind Hamming-Distanz (Unterschiede zählen) und
quadratische Abweichung (bei Bitmuster zählen, ansonsten um so höher, je
höher die Abweichung eines Feldes ist)
Steuerstrukturen: Datenstrukturen, die zur Ablaufsteuerung von Prozessen und zur
Verwaltung Teilaufgaben eingesetzt werden, in der KI Stacks, Queues, Agendas
und Blackboard-Modelle
Stacks und Queues: Stacks als LIFO mit push, top und top für Verwaltung
rekursiver Funktionenaufrufe und Tiefe-zuerst-Suche; Queues als FIFO mit
enqueue, top und dequeue für Breite-Zuerst-Suche
Agendas: nach Prioritäten geordnete Liste von Tasks, wird durch Scheduler
verwaltet; Bsp. Wortklassenfunktionen
Blackboard-Modell: globale Datenstruktur, die in mehrere inhaltlich definierte Ebenen
unterteilt ist, hierarchischer Aufbau, jede Ebene hat eigene Datendarstellung, für
parallele Arbeitsweise geeignet, Bsp. Spracherkennungssystem HEARSAY
5
KE3: LISP
Einordnung: imperativ → funktional → LISP, im Gegensatz zu deklarativen
Programmiersprachen wie Prolog oder objektorientierten
Datentypen: Zeichen/Characters; Zahlen (#x hex, #b+1001 dual, #c komplex);
literale Atome (Symbole, hat eine P-Liste, als Variablen haben sie einen Wert,
können Funktion oder Makro repräsentieren, package::symbol);
S-Ausdrücke, Listen (Unterteilung in Head und Tail, Darstellung auch in
Zellstruktur, Liste von Paaren ist eine Assoziationsliste); Vektoren
(eindimensionales Array, z. B. #(1 4 9 16), Bitvektor: #*100101,
Charactervektor ist eine Zeichenkette ”bla blu”); Pointer, Hashtabellen,
Streams, Strukturen (Records), Packages
Funktionskonzept: Grundkonstruktion zur Beschreibung von Algorithmen sind
Formen; Definition mittels (DEFUN Name Variablen Form*) oder
unbenannt (LAMBDA Variablen Form*); Makros sind komprimierte
Darstellungen von Formen, die vor ihrer Ausführung expandiert werden müssen
Lisp-Programme: Aufruf wie eine Funktion, Unterschied zwischen Programm und
Daten nur im Auswertungskontext; Interpretation im READ-EVAL-PRINTZyklus (Einlesen und Darstellen in Intern-Datenstruktur → Auswertung (Je
nachdem, ob Konstante, Atom, QUOTE, Funktion -dann rekursiv-, Makro) →
Ausgabe auf *STANDARD-OUTPUT*-Datenstrom
Variablenkonzept: lexikalisch oder dynamisch; lexikalische Variablen
(»Wertbindung«) erhalten ihren Wert vorwiegend durch Definition von
Funktionen und deren Aufrug mit aktuellen Parameterwerten, gelten lokal,
können auch mit LET zugewiesen werden; dynamische Variablen
(»Wertzuweisung«) werden mit SETQ definiert; lexikalische Variablen sind nur
innerhalb der Form sichtbar (räumlich begrenzt), dynamische sind räumlich
nicht begrenzt, aber nur solange vorhanden wie das Konstrukt, das die Bindung
hervorrief (global, aber zeitlich begrenzt); Konstanten (DEFCONSTANT) sind
nicht begrenzt;
Rahmen, Umgebungen, Closures: Rahmen (Menge eindeutiger Bindungen);
Umgebung (durch Verweise verkettete Liste von Rahmen); Umgebungsgraph
(zyklenfreier, endlicher, gerichteter Graph, dessen Knoten Rahmen darstellen
und dessen Kanten die Abhängigkeit der Rahmen untereinander anzeigen),
Closure (ein Paar Funktionskörper/Umgebung, das anzeigt, in welcher
Definitionsumgebung der betreffende Funktionskörper spezifiziert wurde)
Elementarfunktionen: +, -, *, /, CONS (baut S-Ausdrücke), CAR, CDR, LIST, ZEROP,
NUMBERP, NULL, ATOM, LISTP, EQ (gleiches Objekt), EQUAL (gleicher Wert),
SYMBOL-PLIST (stellt P-Liste eines literalen Atoms zur Verfügung)
Bedingte Ausdrücke: COND, IF, CASE
Steuerstrukturen: BLOCK - RETURN, DO, LOOP, PROG
Ein-/Ausgabe: READ (liest den nächsten in sich geschlossenen LISP-Ausdruck,
READ-CHAR, WRITE (schreibt die externe Darstellung des angegebenen
LISP-Ausdruckes in den entsprechenden Stream, WRITE-CHAR
6
KE4: LISP-Beispiele
Beispiele: Fakultät, rekursiv:
(defun fk (n)
(if (= 0 n) 1
(* n (fk (- n 1)))))
member, rekursiv:
(defun my-member (y l)
(cond ((null l) nil)
((eq y (car l)) l)
(t (my-member y (cdr l)))))
Fakultät, iterativ:
(defun fak-it (n)
(do ((i n) (f 1))
; Variableninitialisierungen
((= i 0) f)
; Abbruchbedingung
(setq f (* f i))
; Prozedurrumpf
(setq i (- i 1))))
length, rekursiv:
(defun my-length (l)
(cond ((null l) 0)
((+ 1 (my-length (cdr l))))))
Verdoppeln aller Listenelemente:
(defun dn (l)
(cond
((null l) nil)
(t (append (list (* 2 (car l)))))
(dn (cdr l))))
nth, mittels cond:
nth, mittels if:
(defun my-nth (n l)
(cond ((< n 1) nil)
((null l) nil)
((= n 1) (car l))
(t (my-nth(- n 1)
(cdr l)))))
(defun mn (n l)
(if (<= n (length l))
(if (= n 1)
(car l)
(mn (- n 1) (cdr l))
) nil))
append:
reverse:
(defun append (l y)
(cond ((null l) y)
(t (cons (car l)
(append (cdr l) y)
))))
(defun rev (l)
(cond ((null l) nil)
(t (append(reverse (cdr l))
(list (car l)))
)))
7
KE4: Die Beziehung zwischen nat. Sprache und Logik
allgemeine Zusammenhänge: Aufgaben: Bereitstellung einer Sprache zur formalen
Darstellung von Sachverhalten (Wissenrepräsentation), Ersetzen inhaltlichen
Schlußfolgerns durch formale Operationen; formale Systeme werden auf der
Basis einer Logiksprache mit Hilfe definierter Ausdrucksmengen und formalen
Ableitungsoperationen charakterisiert;
sprachphilosophische Aspekte: Unterscheidung zwischen Sprache als System und
konkreten Sprachäußerungen; Extension (Entsprechung, die ein
natürlichsprachliches Konstrukt in der realen Welt besitzt); Intension
(Gesamtheit der Wahrheitsbedingungen, die definieren, unter welchen
Umständen der Ausdruck zutrifft); Ein Satz ist dann wahr, wenn er einen
Sachverhalt beschreibt, der sich in der betrachteten Welt so wie beschrieben
verhält, anderenfalls ist er falsch. Probleme bei partiellem Zutreffen von
Prädikaten, Sätzen mit mit ins Leere weisenden Subjekten (Sätze erhalten keinen
Wahrheitswert, da Gegenteil auch falsch wäre) und Selbstbezüglichkeiten;
synkategorematische Bestandteile erhalten ihre voll Bedeutung erst im
Zusammenhang mit anderen Satzbestandteilen (kein, alle, und, nicht...),
kategorematische Bestandteile besitzen eine eigenständige Bedeutung; atomare
Propositionen enthalten keine synkategorematische Bestandteile, bei ihnen
stimmt grammatisches und logisches Subjekt überein
aussagenlogische Verknüpfungen: Vorgehensweise von der semantischen Seite her;
Negation (doppelte Negation im natürlichsprachlichen nicht immer mit
äquivalenter Bedeutung); Konjunktion (natürlichsprachlich oft
Kausalbeziehung); Kontradiktion; Idempotenz (natürlichsprachlich für
Wiederholung); Assoziativität; Kommutativität; Disjunktion (in-, exklusiv);
Distributivgesetzt; de Morgansche Gesetze; Implikation (Prämisse →
Konklusion, natürlichsprachlich wird Sinnzusammenhang erwartet);
Äquivalenz; kontrafaktische Zusammenhänge (»Hätte der Fuchs nicht
geschissen, hätte er den Hasen gefangen«); identisch wahre (p ∨ ¬p) bzw. falsche
(p ∧ ¬p) Aussage; Wirkungsbereich der Junktoren und Negation wird durch
Klammerung festgelegt
Aussagenkalkül: Vorgehensweise von der syntaktischen Seite her; Kalkül besteht aus
K1: Gesamtwortvorrat W, der aus einem Alphabet Z durch Bildung aller Wörter
über Z erzeugt wird, K2: Ausdrucksmange AU ⊆ W mit besonderen syntaktischen
Festlegungen, K3: Ableitungsrelation, welche durch die Abbildung AB definiert
wird, die jeder Teilmenge von AU wieder eine solche zuordnet (mit Monotonie,
Einbettung, Abgeschlossenheit), K4: Satzmenge S ⊆ AU , die aus einer
vorgegebenen Ausdrucksmenge mit Hilfe der Ableitungsrelation definiert wird,
Monotonie gibt Anlaß zur Kritik, da Menschen auch nicht-monoton schließen;
Anwendung davon: A1: Zeichenvorrat setzt sich aus Variablen, Konnektoren
und Strukturelementen wie Klammern zusammen, A2: Ausdrucksmenge wird
induktiv bestimmt (Variablen sind Ausdrücke → Negation eines Ausdrucks ist
ein Ausdruck → disjunkte Ausdrücke sind ein Ausdruck → sonst gibt es keine
anderen Ausdrücke); A3: Ableitungsregeln Verkürzungs-, Ausdehnungs-,
Assoziativ-, Schittregel, A4: Satzmenge besteht aus semantisch begrünbaren
Axiomen, wobei ¬p ∨ p alle Theoreme abgeleitet werden können; wichtigste
8
Ableitung ist die Schnittregel, daraus folgt Modus ponens und Modus tollens;
Deduktionstheorem: eine Aussage q ist aus einer Aussage p dann ableitbar
(p ` q), wenn p → q aus den Axiomen ableitbar ist; zur Interpretation wird die
Belegung der Variablen mit Wahrheitswerten durchgeführt und damit der Wert
des Ausdrucks ermittelt
Prädikate, Relationen, und Quantoren: Individuenkonstanten; Funktionen (f: D→
W), also welche Ausdrucksmittel ordnen einem Objekt ein anderes zu
(Präpositionen, Maßangaben, Genitive, Superlative); Relationen (Funktion, die
aus D in die Menge der Wahrheitswerte abbildet); Sorten (Mengen, über denen
Relationen definiert sind); zweistellige Relationen können symmetrisch, reflexiv
und transitiv sein; Bsp. für Relationen : transitive Verben, relationale Begriffe,
Komparative; Prädikate (Eigenschaften, intransitive Verben, generische Begriffe);
Variablen; Quantoren
Syllogismen: kategorische Sätze: a: »Alle S sind P« (SaP, ∀xS(x) → P (x), S 0 ⊆ P 0 ), e:
»Alle S sind nicht P« (SeP, ∀xS(x) → ¬P (x)), i: »Einige S sind P« (SiP,
∃xS(x) ∧ P (x)), o: »Einige S sind nicht P« (SoP, ∃xS(x) ∧ ¬P (x)), auch
klassenlogisch mit Durchschnitt, Verinigung, Mengeninklusion statt Implikation
und Komplemantärbildung; Venn-Diagramme stellen letzteres grafisch dar,
dabei wird ein Gebiet ohne Elemente schraffiert und ein Gebiet mit mindestens
einem Element durch + gekennzeichnet, werden als kognitive Modelle für das
Schließen mit quantifizierten Ausdrücken betrachtet; Syllogismen haben zwei
Prämissen und eine Konklusion, wobei ein Subjektbegriff, ein Mittelbegriff und
ein Prädikatbegriff vorkommen, ober Prämisse Mα P, untere Prämisse M β S,
Konklusion Sγ P, es gibt 19 logisch gültige Syllogismen
Prädikatenkalkül erster Stufe (PK1): PK1, weil keine Prädikate über Prädikate und
keine Quantifizierungen möglich sind; Variablen, Konstanten, Funktionen und
Prädikatsymbole sind außerlogische Zeichen; =, ¬, ∨, ∃), ( sind logische Zeichen
(∀ x U steht für ¬∃ x ¬U); Terme und Formeln werden induktiv definiert;
Ableitungsregeln wie im Aussagenkalkül, wobei die Rolle der
Aussagenvariablen durch prädikatenlogische Formeln übernommen wird;
Einsetzungs-, Identitäts- und Gleichheitsaxiom;
Quantorenunverträglichkeit: Distributivgesetzt ist bei allquantifizierten
Konjunktionen und existentiell quantifizierten Disjunktionen äquivalent,
allquantifizierte Disjunktionen lassen sich nicht verteilen und existentiell
quantifizierte Konjunktionen lassen sich nur verteilen; Bsp dafür: „Für alle Autos
gilt: es fährt oder es steht“ ist nicht gleichbedeutend mit „Alle Autos fahren oder
alle Autos stehen“, „Es gibt mein Auto und es gibt einen Ferrari“ ist nicht
gleichbedeutend mit „Es gibt mein Auto, welches ein Ferrari ist“
Interpretation des Prädikatenkalküls: das Universum U ist der Gegenstandsbereich,
über dem die Formeln eines Kalküls interpretiert werden; die Interpretation is
eine Funktion I, die jeder Individuenkonstante a, b, c,. . . des Kalküls ein
Individuum i ∈ U zuordnet (aI ...), jedem Prädikatensymbol P eine Menge
P I ⊆ U , jedem Relationensymbol Rn eine Menge RnI von n-Tupeln zuordnet,
Funktionen werden als Relationen interpretiert; jeder Variablen wird ein
Individuum zugewiesen; der Wert eines Termes t entspricht je nach Belegung aI
(wenn er eine Individuenkonstante ist), dem Wert einer belegten Variable (wenn
9
t eine Variable ist, oder – wenn aus mehreren Termen bestehend – rekursiv
aufgelöst; der Wert eines Ausdrucks ohne Quantoren entspricht ebenso der
Standardinterpretation; der Wert eines Ausdrucks mit Quantoren läßt sich
ermitteln, indem alle möglichen Individuenzuordnungen der Variablen
durchgetestet werden; dies nennt man kompositionelle Semantik
Erfüllbarkeit und Allgemeingültigkeit: ein Kalkül, dem eine semantische Ebene
zugeordnet ist, nennt man Formalismus; ein Formalismus ist erfüllbar, wenn es
wenigstens eine Interpretation bei allen möglichen Variablenbelegingen gibt, bei
der diese Interpretation erfüllt wird, passiert das immer, ist der Ausdruck
allgemeingültig, die Interpretation heißt dann Modell; ist ein Ausdruck nicht
erfüllbar, ist er inkonsistent
elementare Theorien und KI: die Bedeutung logischer Formalismen liegt darin, daß
man mit ihrer Hilfe elementare Theorien aufbauen kann, es wird eine
Wissensrepräsentationssprache bereitgestellt; zudem steht auf dieser Grundlage
eine beweistechnischer Apparat zur Verfügung, der es gestattet, inhaltliche
Schlüsse mit formalen Methoden zu ziehen; die Gültigkeit außerlogischer
Axiome wird auf semantischer Ebene begründet
10
KE5: Wissenrepräsentationsmethoden
Überblick: oft verwendete, aber auch kritisierte, Unterteilung in deklarative und
prozedurale (Methoden, Programme, Agenten) WRM; deklarative:
Datenbanksysteme (ER), objektorientierte (SN, Frames), regelorientierte
(Produktionsregelsysteme für XS)
logikorientierte Präsentation (weiter als PK1): Motivation: mit PK1 gibt es
Schwierigkeiten bei Sätzen mit quantifizierenden Elementen und Pronominalisierungen, wurde anhand der »Eselsätze« (Jeder Farmer, der einen Esel
besitzt, schlägt ihn.) diskutiert;
Diskussion-Repräsentationstheorie (DRT): soll dies lösen; DRT hat eine enge
Beziehungen zwischen Syntax und Semantik, drei Komponenten: formale Syntax
für nat.Sprache, Regelwerk zur Bestimmung der Bedeutungsstruktur von Folgen
nat.sprachlichen Sätzen, modelltheoretische Semantik zur Definition zur
Wahrheit von Sätzen auf dieser Basis; Syntax ist dabei eingeschränktes Fragment
der englischen Sprache; lexikalische Regeln: Termen, generischen Begriffen und
(in)transitiven Verben; syntaktische Regeln definieren Aufbau möglicher
Sätze;Begriffe: äußere Regel (zuletzt angewendete Regel), Konditionalsatz,
maximaler Skopus, Diskurs (Folge von entstandenen Sätzen), Modell (Struktur,
die Begriffe der lexikalischen Regeln mit Inhalt füllt), Diskursreferent,
Koreferenz (zwei Diskursreferenten verweisen auf gleiches Element der
außersprachlichen Ebene (z. B. Paul und He)
Diskursrepräsentation (DR): der gesamte Diskurs D wird durch eine Diskursrepräsentationsstruktur DRS dargestellt, deren Elemente Diskursrepräsentation
sind; DR ist ein Element der Bedeutungsdarstellung, wird dargstellt durch Paare
<Teilmenge der potentiellen Diskursreferenten, Menge von ausdrücken aus
formaler Sprache>;
Diskursrepräsentationsstruktur (DRS): Menge von DR, wobei ein Paar aus dieser
Menge existiert, welches für den D »paßt«
Semantische Netze (SN) / kognitive Modellierung: Begriffe und ihre assoziativen
Beziehungen zueinander sind wesentliche Strukturelemente des menschlichen
Gedächtnisses; Begriff läßt sich durch Bezeichnung (Wortetikett), der Gesamt
von beziehungen zu anderen Begriffen und ein Muster perzeptuellen Ursprungs
charakterisieren; SN ist das semantische Modell einer Begriffstruktur, die aus
einer Menge von Begriffen und den zwischen diesen bestehenden kognitiven
Beziehungen besteht; wird als verallgemeinerter Graph dargestellt (KNoten sind
Begriffe, Kanten sind Beziehungen); Schichten der Verbindung von Wirklichkeit
und Wissenrepräsentation: I: reale Welt (extensionale Ebene) ←kognitive
Psychologie→ II: kognitive (intensionale) Ebene —kognitive Modellierung→
III: Wissensrepräsentation ←semantische Interpretation— IV: natürliche Sprache;
bei Kognitiven SN sind nur semantische Primitive als Relationen bzw.
Kantenmarkierungen zugelassen, die diskursbereichsunabhängig sind, bei den
Strukturierten Vererbungsnetzen werden natürlichsprachliche Begriffe des zu
modellie- renden Diskursbereichs selbst als Kantenmarkierungen (Relationen)
verwendet
Kognitive Semantische Netze (KSN): jeder Begriff wird durch einen Knoten
11
dargestellt; Kanten stellen Klassen ähnlicher Beziehungen zwischen den
Begriffen dar; Relationen und Begriffe sind disjunkt; Sorten sind eine
hierarchische Taxonomie der Begriffswelt; in mehrschichtigen SN werden
Individual- und Allgemeinbegriffe auf verschiedenen Ebenen dargstestellt,
sowie eine intensionale und eine sog. präextensionale Ebene eingeführt;
Relation, Bsp: Begriffhierarchien: SUB, SUBA, Charakterisierung von Objekten:
PARS, POSS, PROP, Tiefenkasusrelation: AGT, DAT, OBJ, INSTR, THM,
Attribut-Wert-Beziehung: DATTR, VALR, VAL, temporale und lokale
Restriktionen: TEMP, LOK
Framerepräsentationen: Ein Frame ist ein Schema zur Wissensrepräsentation, das
eine bestimmte Entität (ein Objekt, einen Sachverhalt, ein Ereignis) oder eine
Klasse von Entitäten innerhalb einer Hierarchie solcher Schemata mit Hilfe von
Merkmals-Wert-Paaren beschreibt. Es ist ein Beschreibungsmuster, das in
stereotyper Weise in den verschiedensten Situationen wiederkehrt. Die
Merkmale, auch Slots ge- nannt, werden als offene Stellen mit
Variablencharakter betrachtet, die je nach zu beschreibender Entität durch
spezifische Merkmalswerte, die sogenannten Filler, zu belegen sind. Innerhalb
einer Frame-Hierarchie erben die untergeordneten Frames von den
übergeordneten Slots und Werte (Prinzip der Speicherökonomie);
Defaultannahme ist eine Standardannahme, die empirisch oder pragmatisch
begründet ist und die so lange aufrechterhalten und auch vererbt wird, wie sie
nicht durch gegenteilige oder speziellere Informationen revidiert wird;
Strukturierte Vererbungsnetze (SVN): »Mischung« aus SN und Frames, SVN nehmen
die definierenden Attribute (vgl. DATTR) zum Ausgangspunkt er
Strukturierung der Begriffswelt, wobei vor allem hierarchische Beziehungen
beachtet werden; verwenden Konzepte (individuelle und generische), Rollen
(wie Slots), Rollen-Restriktion und -Differenzierung (wie Filler), Subsumption
und Klassifizierung; definierte Konzepte werden mit + gekennzeichnet;
generisches Konzept verlangt Angabe übergeordneter Konzepte und
Beschreibung der internen Begriffsstruktur durch Rollen und
Strukturbeschreibungen; C1 ⇒ C2 heißt: C2 subsumiert C1 ; Rollen dienen zur
Darstellung der definierenden Attribute eines Konzeptes, haben Wertebereich
und Kardinalität (Anzahl gleichartiger Rollen mit denselben Rollennamen und
dem gleichen Wertebereich); Restriktion ist die Unterordnung von Rollen;
Unterschiede KSN/SVN: im Unterschied zu KSN können im SVN Begriffe als Knoten
(Konzepte) und Kanten (Rollen) repräsentiert werden, wzischen diesen ist keine
Vererbung vorgesehen; KSN sind strukturell differenzierter, im SVN werden die
meisten Zusammenhänge auf DATTR-VAL(R) reduziert; modelltheoretische
Semantik in SVN ist weiter ausgearbeitet, wodurch die mathematische Basis zur
Entscheidbarkeit des Subsumptionsproblems gegeben ist; KSN sind wiederum
in höherem Maße kognitiv adäquat
12
KE6: Automatisierung des intelligenten Schließens
Überblick über die verschiedenen Arten von Schlußweisen: Deduktion (streng
gültiger Schluß), Abduktion (Schließen auf eine hypthesierte Annahme,
Schließen von einer beobachteten Tatsache auf deren mögliche Ursache, Bsp.
Kriminalistik, Medizin), Induktion (hypothesierte Regel, Bilden eines regelhaften
Zusammenhangs aus mehreren Einzelfällen), analoges Schließen,
approximatives Schließen (kann mit Gewißheitsgraden ausgedrückt werden),
modales Schließen (arbeitet mit »wissen« und »glauben«), assoziatives
Schließen; Oberbegriff für alle Formen intelligenten Schließens ist Inferenz, für
argumentatives schlußfolgerndes Denken Reasoning
Deduktives Schließen – Folgern und Widerlegen: typische Inferenzregeln sind
Modus Ponens und Schnittregel;Folgerungs-(bzw. Deduktions-)theorem: eine
Formel B ist genau dann eine Folgerung der Formeln A1 , A2 , . . . , An , wenn
A1 ∧ A2 . . . ∧ An → B allgemeingültig ist Widerlegungstheorem: eine Formel B ist
genau dann eine logische Folgerung der Formeln A1 , A2 , . . . , An , wenn
A1 ∧ A2 . . . ∧ An ∧ ¬B nicht erfüllbar ist; das Widerlegungstheorem bildet die
Grundlage des automatischen Theorembeweisens, die Beweistechnik besteht
darin, daß die Negation der zu beweisenden Formel zur Wissensbasis
hinzunimmt und die Inkonsistenz der Gesamtformelmenge nachweist;
beweistechnisch schwierig sind quantoren, weswegen mit quantorfreien
Normalformen gearbeitet wird;
Normalformen: Begriffe Literal, komplementär, KNF; in eine Pränexnormalform
befinden sich alle Quantoren vor der quantorfreien Formel; eine Skolemnormalform ist eine quantorfreie konjunktive Pränexnormalform, in der alle
Variablen als universell quantifizeirt aufgefaßt werden, sie wird aus der
konjunktiven Pränexnormalform erzeugt, indem in dieser alle existentiell
quantifizierten Variablen durch Skolemterme ersetzt werden; eine Klausel ist
eine Menge von Literalen, die eine Disjunktion ihrer Elemente darstellt; eine
Klauselmenge ist eine Konjunktion von Klauseln
Resolutionsprinzip / Aussagenkalkül: wird für das Erfüllbarkeitstheorem benötigt:
eine Formel F ist genau dann inkonsistent, wenn ihre Skolemnormalform SF
inkonsistent ist (aber: F und SF sind nicht äquivalent); Bilden von Resolventen
erfolgt, indem die Schnittmenge von zwei Klauseln gebildet wird, in denen das
gleiche Literal einmal negiert vorkommt; die Ableitung einer Klausel aus einer
Klauselmenge ist eine endliche Folge, die aus wiederholter Resolventbildung
resultiert; die Ableitung der leeren Klausen () wird als Widerlegung bezeichnet;
Resolutionsprinzip / Prädikatenkalkül: allquantifizierte Variablen müssen u. U. mit
Termen substituiert werden, um ableiten zu können; eine Substitution σ ist
eine Menge von Paaren tx /zx , wobei z Variablen und t Terme sind; bei einer
Komposition σ ◦ η wird zuerst nach ... Regeln eine Menge θ gebildet, aus dieser
dann die Elemente gelöscht, die mit sich selbst substituiert werden würden und
dann die Elemente gelöscht, die in η das gleiche z haben wie ein Element aus σ;
Unifikation: Methode zur Vereinheitlichung prädikatenlogischer Ausdrücke;
eine Substitution σ ist ein Unifikator einer Ausdrucksmenge, wenn nach der
Substition alle substituierten Elemente identisch sind; mgu mgu mgu mgu mgu
13
mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu
mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu
mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu
mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu mgu S. 312-315.
Nichtmonotones Schließen: nichtmonoton heißt, daß bei HInzufügen einer Formel
die ableitbare Formelmenge kleiner werden kann; Bsp: Standardannahmen
(default reasoning - eine Annahme wird solange aufrecht erhalten, bis sie explizit
anders beschrieben wird), prototypisches Schließen (Sonderfall der
Standardannahmen: »X hat bis zur Revidierung dieser Ansicht eine Eigenschaft
Y«), autoepistemisches Schließen (Metaüberlegungen über das eigene Wissen: a)
ich wüßte von Bären in der Oberaue → b) von Bären in der Oberaue habe ich
nichts gehört → c) es gibt keine Bären in der Oberaue), Closed World
Assumption (CWA - was nicht aus der Wissensbasis abgeleitet werden kann,
existiert auch nicht)
Abduktives Schließen: Grundschema `A → B ` B ` A; läßt sich stufenweise mit der
Glaubwürdigkeit von B bis zum Modus Tollens verfolgen: `A → B ` ¬B ` ¬A;
ein Vorschlag zur Formalisierung ist die „Theorie der sparsamsten Abdeckung“;
Begriffe der Wahrscheinlichkeitstheorie: die Menge aller möglichen Ereignisse heißt
Ereignisraum U (Universum), eine Teilmenge von elementaren Ereignissen wird
auch als Ereignis bezeichnet; es gelten die Begriffe aus der Mengenlehre:
Durchschnitt, Vereinigung, Inklusion, sicheres Ereignis, unmögliches Ereignis,
Komplement; Ereignisse können unvereinbar zerlegbar sein; von einer
vollständigen Gruppe von Ereignissen muß mindestens eines eintreten; ein
System von Ereignissen, das das sichere Ereignis enthält und abgeschlossen
gegenüber Durchschnittsbildung, Vereinigung und Komplementbildung ist,
nennt man Ereignisfeld; eine vollständige Gruppe von disjunkten Ereignissen
heißt Variable
Bedingte Wahrscheinlichkeiten: P(A|B) drückt aus, wie wahrscheinlich das Eintreten
sowie
des Ereignisses A ist, wenn B bereits eintrat; es gilt: P(A|B) = P(AB)
P(B)
P(B|A) =
P(AB)
, dies läßt sich zum Bayesschen Theorem zusammenfassen:
P(A)
P(B|A)·P(A)
; bei mehr als zwei Ereignissen werden Bayessche Netzwerke
P(B)
P(A|B) =
angewendet, hierfür ist die bedingte Unabhängigkeit wichtig: zwei Ereignisse A
und B heißen bedingt unabhängig unter der Vorausetzung, daß ein Ereignis C
eingetreten ist, wenn zutrifft: P(A|BC)=P(A|C), was äquivalent ist zu
P(AB|C)=P(A|C)·P(B|C)
Approximatives Schließen: man erhält durch die Bayessche Formel ein quantitatives
Maß für die Wahrscheinlichkeit des Eintretens des Ereignisses A durch ein
bereits beobachtetes Ereignis B;
Modale Schlußweisen: ein modaler Ausdruck ist der Anteil einer sprachlichen
Konstruktion, in der die Stellungnahme eines Sprechers zu einer Kernaussage
enthalten ist, Bsp: »Konrad sagt, daß Frida gleich kommt.«; modale
Logiksysteme: alethische Logik (Notwendigkeit , Möglichkeit ♦), epistemische
Logik (Wissen, Glauben), deontische Logik (Gebot, Erlaubnis), intentionale
Logik (Wollen, Hoffen);
Epistemische Modalitäten: Formalisierung von Glauben: G(a,P) (»a glaubt, daß P
gilt.« und von Wissen: W(a,P); Sprache der Epistemischen Logik (EL): PK1, dazu
14
der atomare Ausdruck G(a,P), Anwendung der Junktoren ergibt wieder
Ausdrücke aus EL, dazu Quantoren; Definition: W(a,P)=Wa (P)=G(a,P)∧P;
Regeln: Wa (P)→ Wa (Wa (P)) (Transitivität); Wa (P)∧Wa (P → Q)→ Wa (Q)(modus
ponens); Wa (P → Q) → [Wa (P)→ Wa (Q)] (Distribution des Wissenoperators), für
die Konjunktion: Wa (P)∧Wa (Q)↔Wa (P∧Q), aber für die Disjunktion:
Wa (P)∨Wa (Q)→ Wa (P∨Q) ; Wa (¬P)→ ¬Wa (P)(gilt nur in diese Richtung);
ähnliche Regeln gelten fürs Glauben, dazu: Ga (P)→ ¬Ga (¬P)(a glaubt nicht
zugleich P und dessen Gegenteil);
Belief-Resultion: Ableitungsmethode für Theorien, die mit Hilfe des
Glaubensoperators definiert sind; setzt voraus, daß sich alle Formeln in
Klauselform befinden und alle epistemischen Teilausdrücke atomare Formeln
sind; die Frage wird als negierte Behauptung hinzugefügt. Wenn die Theorie
mittels Ableitungsrelation `a als widersprüchlich nachgewiesen werden kann,
also die leere Klausel abgeleitet werden kann, dann wurde Ga (A) bewiesen
Quantifizierungen: Schwierigkeiten gibt es bei Quantifizierungen, die sich über den
Wirkungsbereich der Operatoren G bzw. W hinaus erstrecken.
Es gibt ein Objekt, von dem A glaubt, daß es das Prädikat K erfüllt: ∃xGa (K(x))
A glaubt, daß es ein Objekt gibt, das das Prädikat K erfüllt: Ga ((∃xK(x)))
Für den Existenzquantor gilt die Implikation: ∃xGa (K(x)) → Ga ((∃xK(x))), beim
Allquantor gilt dafür die Äquivalenz.
15
KE7: Automatisches Problemlösen und Suche
Einführung in nichtantagonistische Probleme: ein Problem allgemein ist das
Spannungfeld zwischen einem Ausgangszustand und einem zu erreichenden
Ziel; bei nichtantagonistische Problemen gibt es keinen Interessenkonflikt
zwischen verschiedenen Parteien; formal ist ein Problem ein Quadrupel
<Z, A, L, O>, wobei Z die Menge der Zustände, A∈Z der Anfangszustand, L⊆
die Menge der Lösungszustände und O die Menge von Operationen sind, mit
den Problemzustände ineinander überführt werden können; bei der
Problemlösung wird versucht durch Operatorenanwendung einen Zielzustand
zu erreichen; die Gesamtheit aller Problemzustände heißt Problemraum;
Probleme können auf einem I: kognitiven Niveau (die unmittelbare Anschauung
des Betrachters), einem II: mathematisch formales Niveau (mathematische
Modellierung) und auf einem III: Implementationsniveau (Darstellung des
Problems mit Hilfe einer Programmiersprache) dargestellt werden, der
Übergang von I nach II ist der schwierigste Schritt; hierarchische Probleme,
Lösungsmenge kann explizit oder als Zielprädikat angegeben werden;
Problemräume können symmetrisch sein
Graphentheoretische Behandlung von Problemen: eine Produktionsregel besteht aus:
o’:(<Muster M> <Vorbedingung Vb> <Nachbedingung Nb> <Operation o>),
wobei das Muster den Spielstand angibt und Vor- und Nachbedingung die
Bedingungen für die Operation sicherstellen, was zu diesem Ablauf führt: 1.
Testen, ob das Muster zum Zustand paßt, 2. Vorbedingungen überprüfen, 3.
noch nicht endgültige Anwendung der Operation, 4. Nachbedingung testen;
Graphentheoretische Konzepte: ein gerichteter Graph G =< N, K > ist gegeben
durch eine Menge N von Knoten und eine Menge K ⊆ N × N von Kanten; eine
gerichtete Kante hat Vorgänger und Nachfolger; eine Wurzel hat keinen
Vorgänger; ein terminaler Knoten hat keinen Nachfolger; die Anzahl der Knoten
eines Graphen |N| ist seine Ordnung; ein Baum ist ein gerichteter Graph, der
eine Wurzel besitzt von der uas jeder anderer Knoten des Graphes erreichbar ist;
ein markierte Graph hat an Kanten und Knoten einen Wert, ein Spezielfall davon
ist ein bewerteter Graph (wird mit Werten ∈ R gekennzeichnet, die über eine
Bewertungsfunktion ermittelt werden;
Beziehung zwischen Problemen und Graphen: die Knotenmenge N entspricht der
Menge der Problemzustände P; Kantenmenge K — Operatormenge O; Wurzel
w ∈ N — Anfangszustand A; Menge der terminalen Knoten T ⊆ N –Menge der
Endzustände; Pfad — Lösungsweg
uninformierte Lösungssuche: dabei wird nur die formale Struktur des Problems
berücksichtigt; bei der Vorwärtssuche wird mit einer Ausgangssituation
beginnend in Richtung der Kanten fortgeschrittenwobei nach jedem Schritt
getestet wird, ob der neu generierte Problemzustand die Zielbedingung erfüllt
(»Generiere und Teste«-Methode); bei der Rückwärtssuche wird von einem
Zielzustand aus versucht, einen Anfangszustand zu erreichen, dabei muß des
Ziel explizit definiert sein (nicht über ein Prädikat wie »Schach matt«) und die
Eingangs- und Ausgangsbedingungen müssen die gleiche Form haben; welcher
Typ angewendet wird, hängt vom Verzweigungsgrad ab; wenn man die Enden
der Teilpfade zielgerichtet aufeinander zu entwickeln kann, ist auch
16
bidirektionale Suche möglich;
Baum-Suchverfahren: Tiefe-Zuerst-Suche: 1. expandierend, dabei werden für den
zur Weiterentwicklung ausgesuchten Pfad alle Endknoten erzeugt, noch zu
durchsuchende Pfade werden in einer Stack-Struktur (LIFO) gespeichert;
2. strikt, es wird maximal ein Nachfolger für jeden Knoten gebildet, jeder Pfad
wird als Liste von Schnappschüssen dargestellt, wobei ein Schappschuß ein Paar
aus einem Knoten und den noch nicht auf diesen Knoten angewendeten
Informationen ist, arbeitet mit Backtracking;
Breite-Zuerst-Suche: zuerst wird die vollständige Expansion aller Knoten einer
Tiefenstufe abgeschlossen, die zu durchsuchenden Pfade werden in einer Queue
(FIFO) verweltet;
Vergleich: die Tiefe-Zuerst-Suche benätigt weniger Speicher (wächst O(N )),
findet bei hohem Verzweigungsgrad und nicht zu geringer Lösungsdichte
Lösungen schneller als Breitensuche, nicht anwendbar bei unendlich langen
Zweigen; die Breite-Zuerst-Suche findet vorhandene Lösungen immer, der
Lösungsweg ist auch der kürzeste, die Suchmethode ist bei hohem
Verzweigungsgrad ineffizient, da Zeit- und Speicherbedarf bei O(bn ) liegen; zur
Vermeisung beider Nachteile wurd die iterierte Tiefe-Zuerst-Suche
vorgeschlagen, bei dem für jeden Pfad eine Begrenzung der Suchtiefe
vorgegeben wird (kombiniert Ziefen- und Breiten-Suche); bidirektionale Suche
kann bei bekanntem Zielknoten angewendet werden
Bewertungsfunktionen: diese beziehen Problemzustände (Knotenbewertung) oder
Operationen (Kantenbewertung) mit ins Suchverfahren ein; typische
Knotenbewertung können sein: Kompliziertheitsgrad, Abstand vom
Zielzustand, enstandene Kosten bei der Entwicklung des Pfades; typische
Kantenbewertungen können sein: Kosten für die Ausführung der zugeordneten
Operation, Wert des Operators hinsichtlich seines Einsatzes; zur Behandlung von
P
Brettspielen wird oft ein Bewertungspolynom verwendet: v(z) = ki=1 ai · ci (z),
wobei Z∈Z der zu bewertende Problemzustand und die Werte von c numerisch
bewertbare Charakteristika sind; heuristische Bewertung beruht auf Empirie und
Intuition und gestattet es, durch Elimination weniger aussichtsreicher
Situationen bzw. Operationen eine Lösung im Problemraum zu finden; bei
Bewertungsfunktionen nuß auf ein ausgewogenes Kosten-Nutzen-Verhältnis
geachtet werden; Gütemaße zur Bewertung einer Bewertungsfunktion sind die
Penetranz (Länge des Lösungspfades dividiert durch die Anzahl der insgesamt
erzeugten Knoten) oder der effektive Verzweigungsgrad; es können auch
wissensbasierte Methoden zur Untersuchung der Spielsituation genutzt werden
(sog. Kerne)
Informierte, bewertete Suche: Hill-climbing-Verfahren: als Fortsetzung eines Pfades
wird der Weg des steilsten Anstiegs verfolgt, führt zu Problemen bei lokalen
Maxima; Bester-Zuerst-Suche: entspricht einer Tiefe-Zuerst-Suche, bei der der
aussichtsreichste Pfad immer am Anfang der Pfadliste steht (jeder neue Pfad
wird einsortiert); Beam-Search: in der Breite-Zuerst-Suche werden dafür nur die
k bestbewertetsten Knoten für die weitere Entwicklung zugelassen;
Algorithmus GRAPHSEARCH:
Algorithmus A*:
17
UND-ODER-Bäume und Problemreduktion: bei der Problemtransformation wird
durch eine Operation ein Problem in eine äquivalentes Problem transformiert,
bei der Problemreduktion wird ein Problem in Teilziele zerlegt; durch
Problemtransformation erzeugte alternative Ziele werden in einem Suchbaum
mit ODER-Kanten verbunden, wobei es genügt, ein Unterziel zu erreichen;
durch Problemreduktion entstandene Teilziele werden durch UND verknüpft;
ein UND-ODER-Baum enthält mindestens eine mit UND verbundene Gruppe
von Kanten
Spiele als antagonistische Probleme: bei antagonistischen Problemen agieren
Agenten in gegensätzlichem Interesse im gleichen Problemraum; Ein Spiel ist
das mathematische Modell für die Auflösung einer Konfliktsituation, die
dadurch gekennzeichnet ist, daß sich mehrere Partner (Spieler) mit
verschiedenen Zielen gegenüberstehen und durch bestimmte Handlungen aus
dieser Situation heraus jeweils ihre Ziele erreichen wollen; extensiv heißt, daß
ein Spiel abwechselnd in Zügen ausgeführt wird; vollständige Information hat
man bei einem Spiel, bei dem alle bisherigen und künftig möglichen Spielzüge
bekannt sind; die Darstellung aller möglichen Züge in einem Spiel ergibt einen
Spielbaum, die Konten entsprechen den einzelnen Stellungen, jeder Pfad
repräsentiert eine Partie; ein Spielbaum für ein extensives Zweipersonenspiel mit
vollständiger Information ergibt einen UND-ODER-Baum; eine Strategie ist ein
festgelegter Plan; Bewertung erfolgt durch Einführung einer Gewinnfunktion,
die jedem Element aus den möglichen Strategien ein quantitatives Maß
zuordnet; bei einem Nullsummenspiel ist die Gewinnsumme aller Spieler 0
MINIMAX-Verfahren: nicht-terminale Knoten lassen sich in einem Spielbaum von
unten nach Oben mit dem Backup-Verfahren bewerten, im MINIMAX-Verfahren
wählt jeder Spieler eine für ihn günstige Strategie, wobei ein Spieler mit seiner
Gewinnfunktion maximiert und der andere minimiert; die Bewertungen
pflanzen sich von den terminalen Knoten aufwärts fort, am Ende dieses
Verfahrens steht auf dem obersten Aufrufniveau der Wert des Spieles, eine
optimale Strategie garantiert den Gewinn; sind die Strategien beider Spieler in
der Ebene entlang zweier Koordinatenachsen und die Werte senkrecht dazu
dargestellt, erhält man ein Bewertungsgebirge; bei symmetrischen (inhaltlich
identisch) Zuständen ist der gleiche Spieler am Zug, bei antisymmetrischen
würde bei Vertauschen der Spieler eine symmetrische Situation entstehen;
Einschränkung des Suchraumes in Spielbäumen: ist notwendig, da Spielbäume oft
nicht vollständig generiert werden können; Vorausschautiefe kann beschränkt
werden, wobei die Bewertung der Knoten dann als Gewinnchancen aufgefaßt
werden, dies kann zum sog. Horizont-Effekt führen, bei dem langfristig wichtige
Entscheidungen nicht gesehen werden;
ALPHA-BETA-TECHNIK: arbeitet mit zwei Schranken α und β für die
Zustandsbewertung von MAX und MIN, mit denen ganze Spielbäume aus der
Untersuchung ausgeschlossenen werden können, ohne Informationen zu
verlieren; α bzw. β sind dabei die untere bzw. obere Schranke – Knoten, deren
Werte diese Schranke überschreiten, werden nicht untersucht und von ihnen aus
wird der Spielbaum nicht weiter entwickelt
18
lernen: Chinesisches Zimmer mit Konsequenzen, Turing-Test mit Konsequenzen, Aufbau S-Ausdruck,
Aufbau Liste, Definitionsumgebung, Aufrufumgebung (S. 134), CONF-IF-CASE unterscheiden, Satz
vom ausgeschlossenen dritten, Modus ponens, tollens usw., Kalkülbedingungen (S. 192), Trugschluß
durch Äquivokation (S. 196), Taxonomie der Adjektive (S. 203), Bsp. PK1 (S. 205/206); logisches
Quadrat (S. 208), Induktion PK1 (s. 211 unten), Quantorenunverträglichkeit?, Entitäten (S. 250),
Slot-Instanz-Filler bei SN (S. 258), Grafik 7.1.2 (S. 305), Horn-Klausel, Problem-Graph-Tabelle S. 374,
Topologie des einlagigen Perzeptrons (S. 61),
Üben: LISP, Neuronale Netze, Auswertungsschema (S. 197, EA4.6), PK1, Beispiel Syllogismus,
Semantische Netze mit Relationentypen, Erzeugung Skolemnormalform; Resolitionsprinzip (S. 311),
Komposition von Substitutionen (S. 312), Unifizierungsalgorithmus (S. 312);
19
Herunterladen