Fortgeschrittene Themen der Wissensrepräsentation

Werbung
Fortgeschrittene Themen der Wissensrepräsentation
Gabriele Kern-Isberner
LS 1 – Information Engineering
TU Dortmund
Sommersemester 2014
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
1 / 138
Revision von Wissenszuständen und konditionalem Wissen
Ein konstruktiver epistemischer Revisionsansatz
Kapitel 3
3. Revision von Wissenszuständen
und konditionalem Wissen
3.4 Ein konstruktiver epistemischer
Revisionsansatz
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
60 / 138
Revision von Wissenszuständen und konditionalem Wissen
Ein konstruktiver epistemischer Revisionsansatz
Revision mit Mengen von Konditionalen 1/3
Was wäre, wenn man nun gleichzeitig die beiden Konditionale (f |p), (w|k)
hätte lernen wollen?
Der obige Ansatz lässt sich leicht verallgemeinern:
Sei ∆ = {(B1 |A1 ), . . . , (Bn |An )} eine Menge von Konditionalen, sei κ
eine OCF. Eine Revision von κ mit ∆ erhält man mittels
P
κ ∗ ∆(ω) = κ0 + κ(ω) +
κ−
i ,
ω|=Ai Bi
−
wobei κ0 , κ−
1 , . . . , κn so bestimmt werden müssen, dass gilt:
κ ∗ ∆(>) = 0 und κ ∗ ∆ |= (Bi |Ai ), 1 ≤ i ≤ n (Success).
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
99 / 138
Revision von Wissenszuständen und konditionalem Wissen
Ein konstruktiver epistemischer Revisionsansatz
Revision mit Mengen von Konditionalen 2/3
(Success) ist erfüllt gdw. für alle i, 1 ≤ i ≤ n,
X
κ−
κ−
j ) − min (κ(ω) +
i > min (κ(ω) +
ω|=Ai Bi
G. Kern-Isberner (TU Dortmund)
j6=i
ω|=Aj B j
ω|=Ai B i
Fortgeschrittene Themen der Wissensrepräsentation
X
κ−
j ).
j6=i
ω|=Aj B j
100 / 138
Revision von Wissenszuständen und konditionalem Wissen
Ein konstruktiver epistemischer Revisionsansatz
Revision mit Mengen von Konditionalen 3/3
Beispiel: Im Tweety & Co.-Beispiel hätte die gleichzeitige Revision der
beiden Konditionale, also die Revision mit ∆ = {(f |p), (w|k)}, zum
gleichen Ergebnis geführt wie die sukzessive Revision.
♣
Alle solchen Revisionen erfüllen alle bisher vorgestellten Postulate
(AGMes) und (CR1)-(CR4)).
Im Allgemeinen liefert allerdings dieser Revisionsansatz kein eindeutiges
Revisionsergebnis (auch nicht, wenn die Minimalität der
Verschiebefaktoren gefordert wird) !
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
101 / 138
Revision von Wissenszuständen und konditionalem Wissen
Ein konstruktiver epistemischer Revisionsansatz
Prinzip der konditionalen Erhaltung für OCF 1/2
Ein Prinzip der konditionalen Erhaltung war die Grundidee des Ansatzes
von Darwiche & Pearl.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
102 / 138
Revision von Wissenszuständen und konditionalem Wissen
Ein konstruktiver epistemischer Revisionsansatz
Prinzip der konditionalen Erhaltung für OCF 1/2
Ein Prinzip der konditionalen Erhaltung war die Grundidee des Ansatzes
von Darwiche & Pearl.
Charakteristika von Konditionalen:
• Konditionale sind 3-wertig:

 1 wenn ω |= AB (Verifikation)
0 wenn ω |= AB (Falsifikation)
(B|A)(ω) =

u wenn ω |= A
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
102 / 138
Revision von Wissenszuständen und konditionalem Wissen
Ein konstruktiver epistemischer Revisionsansatz
Prinzip der konditionalen Erhaltung für OCF 1/2
Ein Prinzip der konditionalen Erhaltung war die Grundidee des Ansatzes
von Darwiche & Pearl.
Charakteristika von Konditionalen:
• Konditionale sind 3-wertig:

 1 wenn ω |= AB (Verifikation)
0 wenn ω |= AB (Falsifikation)
(B|A)(ω) =

u wenn ω |= A
• Die Semantik von Konditionalen ist für OCFs definiert durch
Differenzen:
κ(B|A) = κ(AB) − κ(A)
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
102 / 138
Revision von Wissenszuständen und konditionalem Wissen
Ein konstruktiver epistemischer Revisionsansatz
Prinzip der konditionalen Erhaltung für OCF 1/2
Ein Prinzip der konditionalen Erhaltung war die Grundidee des Ansatzes
von Darwiche & Pearl.
Charakteristika von Konditionalen:
• Konditionale sind 3-wertig:

 1 wenn ω |= AB (Verifikation)
0 wenn ω |= AB (Falsifikation)
(B|A)(ω) =

u wenn ω |= A
• Die Semantik von Konditionalen ist für OCFs definiert durch
Differenzen:
κ(B|A) = κ(AB) − κ(A)
Beide Charakteristika werden für ein sehr allgemeines Prinzip der
konditionalen Erhaltung eingesetzt.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
102 / 138
Revision von Wissenszuständen und konditionalem Wissen
Ein konstruktiver epistemischer Revisionsansatz
Prinzip der konditionalen Erhaltung für OCF 2/2
Man kann zeigen, dass der obige Ansatz äquivalent ist zur Erfüllung des
folgenden Prinzips der konditionalen Erhaltung:
OCF principle of conditional preservation
0 } be two multi-sets of
Let Ω = {ω1 , . . . , ωm } and Ω0 = {ω10 , . . . , ωm
possible worlds (not necessarily different).
If for each conditional (Bi |Ai ) in ∆, Ω and Ω0 behave the same, i.e., they
show the same number of verifications resp. falsifications, then prior κ and
posterior κ∗ are balanced by
0
(κ(ω1 ) + . . . + κ(ωm )) − (κ(ω10 ) + . . . + κ(ωm
))
0
= (κ∗ (ω1 ) + . . . + κ∗ (ωm )) − (κ∗ (ω10 ) + . . . + κ∗ (ωm
))
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
103 / 138
Revision von Wissenszuständen und konditionalem Wissen
Ein konstruktiver epistemischer Revisionsansatz
Konditionale Strukturen 1/5
Um genauer festlegen zu können, wann sich zwei Mengen
0 } möglicher Welten bezgl. ∆
Ω = {ω1 , . . . , ωm } und Ω0 = {ω10 , . . . , ωm
gleich verhalten, benutzt man den Ansatz der konditionalen Strukturen:
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
104 / 138
Revision von Wissenszuständen und konditionalem Wissen
Ein konstruktiver epistemischer Revisionsansatz
Konditionale Strukturen 2/5
Let ∆ = {(B1 |A1 ), . . . , (Bn |An )} be a set of conditionals. For each
−
conditional (Bi |Ai ) ∈ ∆ we define two abstract symbols, a+
i and ai such
that
• a+
i is linked to the verification Ai Bi of (Bi |Ai ).
• a−
i is linked to the falsification Ai Bi of (Bi |Ai ).
2
“iff” means “if and only if”
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
105 / 138
Revision von Wissenszuständen und konditionalem Wissen
Ein konstruktiver epistemischer Revisionsansatz
Konditionale Strukturen 2/5
Let ∆ = {(B1 |A1 ), . . . , (Bn |An )} be a set of conditionals. For each
−
conditional (Bi |Ai ) ∈ ∆ we define two abstract symbols, a+
i and ai such
that
• a+
i is linked to the verification Ai Bi of (Bi |Ai ).
• a−
i is linked to the falsification Ai Bi of (Bi |Ai ).
We express this by the following function2 :
Definition 3 (σi for each (Bi |Ai ))
−
σi : Ω → {a+
i , ai , 1}
2
“iff” means “if and only if”
G. Kern-Isberner (TU Dortmund)
 +
 ai iff
a− iff
σi (ω) =
 i
1
iff
Fortgeschrittene Themen der Wissensrepräsentation
ω |= Ai Bi
ω |= Ai B i
ω |= Ai
105 / 138
Revision von Wissenszuständen und konditionalem Wissen
Ein konstruktiver epistemischer Revisionsansatz
Konditionale Strukturen 3/5
Conditional structure is defined as the combination of all effects of all
conditionals in ∆:
Definition 4 (conditional structure σ(ω))
Let ∆ = {(B1 |A1 ), . . . , (Bn |An )}. The conditional structure of a world
ω ∈ Ω is defined asa
σ(ω) =
n
Y
σi (ω) =
i=1
aQ
is the product symbol, i.e.,
G. Kern-Isberner (TU Dortmund)
Y
ω|=Ai Bi
Qn
i=1
a+
i ·
Y
a−
i
ω|=Ai B i
ai = a1 · . . . · an
Fortgeschrittene Themen der Wissensrepräsentation
106 / 138
Revision von Wissenszuständen und konditionalem Wissen
Ein konstruktiver epistemischer Revisionsansatz
Notizen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
106 / 138
Revision von Wissenszuständen und konditionalem Wissen
Ein konstruktiver epistemischer Revisionsansatz
Example
Let ∆ =
(f |b), (f |p), (b|p)
| {z } | {z } |{z}
1
2
3
− +
σ(p b f ) = a+
1 a2 a3
+ +
σ(p b f ) = a−
1 a2 a3
−
σ(p b f ) = 1 · a−
2 a3
−
σ(p b f ) = 1 · a+
2 a3
G. Kern-Isberner (TU Dortmund)
.
σ(p b f ) = a+
1 ·1·1
σ(p b f ) = a−
1 ·1·1
σ(p b f ) = 1 · 1 · 1
σ(p b f ) = 1 · 1 · 1
Fortgeschrittene Themen der Wissensrepräsentation
107 / 138
Revision von Wissenszuständen und konditionalem Wissen
Ein konstruktiver epistemischer Revisionsansatz
Example
Let ∆ =
(f |b), (f |p), (b|p)
| {z } | {z } |{z}
1
2
3
.
− +
σ(p b f ) = a+
1 a2 a3
σ(p b f ) = a+
1
+ +
σ(p b f ) = a−
1 a2 a3
σ(p b f ) = a−
1
−
σ(p b f ) = a−
2 a3
σ(p b f ) = 1
−
σ(p b f ) = a+
2 a3
σ(p b f ) = 1
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
107 / 138
Revision von Wissenszuständen und konditionalem Wissen
Ein konstruktiver epistemischer Revisionsansatz
Konditionale Strukturen 4/5
Für Multimengen Ω = {ω1 , . . . , ωm } definieren wir dann
σ(Ω) =
m
Y
σ(ωi ).
i=1
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
108 / 138
Revision von Wissenszuständen und konditionalem Wissen
Ein konstruktiver epistemischer Revisionsansatz
Konditionale Strukturen 4/5
Für Multimengen Ω = {ω1 , . . . , ωm } definieren wir dann
σ(Ω) =
m
Y
σ(ωi ).
i=1
0 } verhalten
Zwei Multimengen Ω = {ω1 , . . . , ωm } und Ω0 = {ω10 , . . . , ωm
sich dann bezgl. ∆ gleich, wenn gilt:
σ(Ω) = σ(Ω0 ).
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
108 / 138
Revision von Wissenszuständen und konditionalem Wissen
Ein konstruktiver epistemischer Revisionsansatz
Konditionale Strukturen 5/5
Definieren wir auch noch
κ(Ω) =
m
X
κ(ωi )
i=1
für Multimengen Ω = {ω1 , . . . , ωm }, so lässt sich das Prinzip der
konditionalen Erhaltung kompakt so ausdrücken:
Prinzip der konditionalen Erhaltung
Gilt für zwei Multimengen σ(Ω) = σ(Ω0 ), so muss auch
κ(Ω) − κ(Ω0 ) = κ∗ (Ω) − κ∗ (Ω0 )
mit κ∗ = κ ∗ ∆ gelten, d.h. priori-Differenz = posteriori-Differenz.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
109 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Kapitel 3 – Übersicht
1
AGM-Erweiterung für Wissenszustände
2
Minimal Change-Paradigma bei konditionalem Wissen
3
Neue Postulate für iterierte Revisionen
4
Ein konstruktiver epistemischer Revisionsansatz
5
Revision und induktive Repräsentation
6
Multiple Revision
7
Zusammenfassung und Ausblick
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
110 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Kapitel 3
3. Revision von Wissenszuständen
und konditionalem Wissen
3.5 Revision und induktive Repräsentation
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
111 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Induktive Wissensrepräsentation
Darunter verstehen wir hier eine Art Wissensvervollständigung, d.h. eine
Ableitung neuen Wissens aus gegebenem Wissen, die über die rein
deduktive Folgerung hinausgeht.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
112 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Induktive Wissensrepräsentation
Darunter verstehen wir hier eine Art Wissensvervollständigung, d.h. eine
Ableitung neuen Wissens aus gegebenem Wissen, die über die rein
deduktive Folgerung hinausgeht.
Dieses Problem ist optimal gelöst dann, wenn man einen Mechanismus
gefunden hat, der auf der Basis unvollständigen Wissens für jede mögliche
(syntaktisch zulässige) Anfrage eine eindeutige Antwort generiert.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
112 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Induktive Wissensrepräsentation
Darunter verstehen wir hier eine Art Wissensvervollständigung, d.h. eine
Ableitung neuen Wissens aus gegebenem Wissen, die über die rein
deduktive Folgerung hinausgeht.
Dieses Problem ist optimal gelöst dann, wenn man einen Mechanismus
gefunden hat, der auf der Basis unvollständigen Wissens für jede mögliche
(syntaktisch zulässige) Anfrage eine eindeutige Antwort generiert.
Möchte man hier auch konditionales Wissen miteinbeziehen, so ist dieses
Problem äquivalent mit dem Problem, aus einer gegebenen Wissensbasis
(mit Fakten und Konditionalen) einen Wissenszustand zu erzeugen.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
112 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
System Z – Erinnerung
Mit dem System Z haben wir bereits einen solchen Mechanismus
kennengelernt: Wir benutzen die durch den Konsistenztest berechnete
Partitionierung einer konditionalen Wissensbasis ∆ = {ri : (Bi |Ai )}1≤i≤n
∆ = (∆0 , ∆1 , . . . , ∆k ),
und definieren die Rangfunktion κz durch
κz (ω) =
mit Z(ri ) = j
(
0,
wenn ω keine Regel aus ∆ falsifiziert,
max1≤i≤n {Z(ri ) | ω |= Ai Bi } + 1,
sonst
gdw. ri ∈ ∆j . (s. Commonsense Reasoning)
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
113 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Repräsentation und Revision
Und was hat das mit Revision zu tun ?
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
114 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Repräsentation und Revision
Und was hat das mit Revision zu tun ?
Aus jeder Revisionsvorschrift für Wissenszustände und Default-Mengen
lässt sich ein induktiver Repräsentationsmechanismus für Defaults ableiten,
indem man als priori-Wissenszustand den uniformen Wissenszustand
benutzt.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
114 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Repräsentation und Revision
Und was hat das mit Revision zu tun ?
Aus jeder Revisionsvorschrift für Wissenszustände und Default-Mengen
lässt sich ein induktiver Repräsentationsmechanismus für Defaults ableiten,
indem man als priori-Wissenszustand den uniformen Wissenszustand
benutzt.
Der uniforme Wissenszustand repräsentiert Nichtwissen, Indifferenz etc.,
d.h. allen möglichen Welten wird der gleiche Wert zugewiesen.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
114 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Repräsentation und Revision
Und was hat das mit Revision zu tun ?
Aus jeder Revisionsvorschrift für Wissenszustände und Default-Mengen
lässt sich ein induktiver Repräsentationsmechanismus für Defaults ableiten,
indem man als priori-Wissenszustand den uniformen Wissenszustand
benutzt.
Der uniforme Wissenszustand repräsentiert Nichtwissen, Indifferenz etc.,
d.h. allen möglichen Welten wird der gleiche Wert zugewiesen.
Die uniforme Rangfunktion ist also wie folgt definiert:
κu (ω) = 0 für alle ω ∈ Ω
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
114 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Induktive Default-Repräsentation mit OCF’s
Sei ∆ = {(B1 |A1 ), . . . , (Bn |An )} eine konsistente Menge von
Konditionalen. Eine induktive Repräsentation von ∆ erhält man mittels
κ∆ (ω) =
P
κ−
i
ω|=Ai Bi
−
wobei κ−
1 , . . . , κn so bestimmt werden müssen, dass
κ∆ |= (Bj |Aj ), 1 ≤ j ≤ n, gilt,
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
115 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Induktive Default-Repräsentation mit OCF’s
Sei ∆ = {(B1 |A1 ), . . . , (Bn |An )} eine konsistente Menge von
Konditionalen. Eine induktive Repräsentation von ∆ erhält man mittels
κ∆ (ω) =
P
κ−
i
ω|=Ai Bi
−
wobei κ−
1 , . . . , κn so bestimmt werden müssen, dass
κ∆ |= (Bj |Aj ), 1 ≤ j ≤ n, gilt,d.h.
X
X
−
κ−
>
min
−
min
κ
κ−
j
i
i
ω|=Aj Bj
i6=j
ω|=Ai Bi
ω|=Aj Bj
i6=j
ω|=Ai Bi
(Eine Normalisierung ist wegen der Konsistenz nicht nötig.)
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
115 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Notizen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
115 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Notizen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
115 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Notizen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
115 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Beispiel Schaltung
G. Kern-Isberner (TU Dortmund)
ω
κ
κ ∗ (a ∨ m)
am
am
am
am
0
1
2
3
1
0
1
2
Fortgeschrittene Themen der Wissensrepräsentation
116 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Beispiel Schaltung
ω
κ
κ ∗ (a ∨ m)
am
am
am
am
0
1
2
3
1
0
1
2
κ = κ∆ mit ∆ = {(am|>), (am|am ∨ am), (m|a)}.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
116 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Notizen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
116 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Notizen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
116 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Beispiel Tier
G. Kern-Isberner (TU Dortmund)
ω
κ
κ∗f
κ∗alt
bf
bf
bf
bf
2
3
1
0
1
{2, 3, 4}
0
1
(1)
(1)
(0)
(1)
Fortgeschrittene Themen der Wissensrepräsentation
117 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Beispiel Tier
ω
κ
κ∗f
κ∗alt
bf
bf
bf
bf
2
3
1
0
1
{2, 3, 4}
0
1
(1)
(1)
(0)
(1)
κ = κ∆ mit ∆ = {(b f |>), (f |b), (bf |b ∨ f )}.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
117 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Notizen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
117 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Notizen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
117 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Beispiel Lady
G. Kern-Isberner (TU Dortmund)
ω
κ
κ∗s
κ∗alt
sr
sr
sr
sr
1
1
1
2
0
2
0
1
(2)
(1)
(0)
(1)
Fortgeschrittene Themen der Wissensrepräsentation
118 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Beispiel Lady
ω
κ
κ∗s
κ∗alt
sr
sr
sr
sr
1
1
1
2
0
2
0
1
(2)
(1)
(0)
(1)
κ = κ∆ mit ∆ = {(sr|>), (s|r), (r|s)}.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
118 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Beispiel – Tweety & Co. (Forts.)
Hier sollten folgende (Un)Gleichungen erfüllt sein:
κ(pbf˙k̇ ẇ) = ∞, κ(bf ) < κ(bf ),
κ(ṗbf˙k ẇ) = ∞, κ(bw) < κ(bw),
κ(pbf kw) = ∞,
und tatsächlich wurde die ursprüngliche Rangfunktion von der Regelmenge
∆ = {p ⇒ b, k ⇒ b, p ⇒ k, (f |b), (w|b)}
erzeugt.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
119 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Beispiel – Tweety & Co. (Forts.)
ω
κ(ω)
ω
κ(ω)
pbf kw
pbf kw
pbf kw
pbf kw
0
1
1
2
pbf kw
pbf kw
pbf kw
pbf kw
0
1
1
2
pbf kw
pbf kw
pbf kw
pbf kw
0
1
1
2
pbf kw
pbf kw
pb f kw
pb f kw
0
0
0
0
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
120 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
c-Repräsentation und System Z 1/2
Eine solche Art der Repräsentation wird auch als c-Repräsentation (c =
conditionals) bezeichnet. Sie verallgemeinert das Strafpunkte-System des
System Z in zweierlei Hinsicht:
• statt durch Maximierung werden die Ränge der Welten hier durch
Aufsummierung der Strafpunkte berechnet;
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
121 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
c-Repräsentation und System Z 1/2
Eine solche Art der Repräsentation wird auch als c-Repräsentation (c =
conditionals) bezeichnet. Sie verallgemeinert das Strafpunkte-System des
System Z in zweierlei Hinsicht:
• statt durch Maximierung werden die Ränge der Welten hier durch
Aufsummierung der Strafpunkte berechnet;
• die Strafpunkte werden flexibel durch Betrachtung der Interaktionen
der Regeln berechnet.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
121 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
c-Repräsentation und System Z 1/2
Eine solche Art der Repräsentation wird auch als c-Repräsentation (c =
conditionals) bezeichnet. Sie verallgemeinert das Strafpunkte-System des
System Z in zweierlei Hinsicht:
• statt durch Maximierung werden die Ränge der Welten hier durch
Aufsummierung der Strafpunkte berechnet;
• die Strafpunkte werden flexibel durch Betrachtung der Interaktionen
der Regeln berechnet.
c-Repräsentationen zeichnen sich durch höchste Qualität der Revisionen
und Inferenzen aus.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
121 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
c-Repräsentation und System Z – Beispiel 1/4
Wir betrachten die folgende Regelmenge ∆:
r1
r2
r3
r4
G. Kern-Isberner (TU Dortmund)
:
:
:
:
(f |b)
(b|p)
(f |p)
(w|b)
Vögel fliegen.
Pinguine sind Vögel.
Pinguine fliegen nicht.
Vögel haben Flügel.
Fortgeschrittene Themen der Wissensrepräsentation
122 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
c-Repräsentation und System Z – Beispiel 1/4
Wir betrachten die folgende Regelmenge ∆:
r1
r2
r3
r4
:
:
:
:
(f |b)
(b|p)
(f |p)
(w|b)
Vögel fliegen.
Pinguine sind Vögel.
Pinguine fliegen nicht.
Vögel haben Flügel.
Für System Z wird die folgende Partitionierung berechnet:
∆0 = {r1 , r4 }, ∆1 = {r2 , r3 };
damit erhalten wir die folgende System Z-Darstellung κz :
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
122 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
c-Repräsentation und System Z – Beispiel 2/4
ω
ri fals.
κz (ω)
ω
ri fals.
κz (ω)
pbf w
pbf w
pbf w
pbf w
pbf w
pbf w
pb f w
pb f w
r3
r3 , r4
r1
r1 , r4
r2 , r3
r2 , r3
r2
r2
2
2
1
1
2
2
2
2
pbf w
pbf w
pbf w
pbf w
pbf w
pbf w
pbf w
pb f w
−
r4
r1
r1 , r4
−
−
−
−
0
1
1
1
0
0
0
0
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
123 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
c-Repräsentation und System Z – Beispiel 2/4
ω
ri fals.
κz (ω)
ω
ri fals.
κz (ω)
pbf w
pbf w
pbf w
pbf w
pbf w
pbf w
pb f w
pb f w
r3
r3 , r4
r1
r1 , r4
r2 , r3
r2 , r3
r2
r2
2
2
1
1
2
2
2
2
pbf w
pbf w
pbf w
pbf w
pbf w
pbf w
pbf w
pb f w
−
r4
r1
r1 , r4
−
−
−
−
0
1
1
1
0
0
0
0
Wegen κz (pw) = 1 = κz (pw) können wir nicht ableiten, dass auch
Pinguine Flügel haben (Drowning Problem).
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
123 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
c-Repräsentation und System Z – Beispiel 3/4
Wir berechnen nun eine minimale c-Repräsentation κ∆ zu diesem Beispiel
mit den Werten
−
−
−
κ−
1 = κ4 = 1, κ2 = κ3 = 2;
wir erhalten damit als von ∆ induzierte Rangfunktion:
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
124 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Notizen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
124 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
Notizen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
124 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
c-Repräsentation und System Z – Beispiel 4/4
ω
ri fals.
κ∆ (ω)
ω
ri fals.
κ∆ (ω)
pbf w
pbf w
pbf w
pbf w
pbf w
pbf w
pb f w
pb f w
r3
r3 , r4
r1
r1 , r4
r2 , r3
r2 , r3
r2
r2
2
3
1
2
4
4
2
2
pbf w
pbf w
pbf w
pbf w
pbf w
pbf w
pbf w
pb f w
−
r4
r1
r1 , r4
−
−
−
−
0
1
1
2
0
0
0
0
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
125 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
c-Repräsentation und System Z – Beispiel 4/4
ω
ri fals.
κ∆ (ω)
ω
ri fals.
κ∆ (ω)
pbf w
pbf w
pbf w
pbf w
pbf w
pbf w
pb f w
pb f w
r3
r3 , r4
r1
r1 , r4
r2 , r3
r2 , r3
r2
r2
2
3
1
2
4
4
2
2
pbf w
pbf w
pbf w
pbf w
pbf w
pbf w
pbf w
pb f w
−
r4
r1
r1 , r4
−
−
−
−
0
1
1
2
0
0
0
0
Hier ist nun κz (pw) = 1 < 2 = κz (pw) – damit können wir nun ableiten,
dass auch Pinguine Flügel haben.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
125 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
c-Repräsentation und System Z 2/2
Allerdings gibt es auch Nachteile:
• Es gibt nicht immer eine eindeutige “minimale” Lösung
(typischerweise passiert das dann, wenn redundante Information
vorliegt, s. Lady-Beispiel).
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
126 / 138
Revision von Wissenszuständen und konditionalem Wissen
Revision und induktive Repräsentation
c-Repräsentation und System Z 2/2
Allerdings gibt es auch Nachteile:
• Es gibt nicht immer eine eindeutige “minimale” Lösung
(typischerweise passiert das dann, wenn redundante Information
vorliegt, s. Lady-Beispiel).
• Durch die Summation steigt die Berechnungs-Komplexität
beträchtlich (NP-hart).
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
126 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Kapitel 3 –Übersicht
1
AGM-Erweiterung für Wissenszustände
2
Minimal Change-Paradigma bei konditionalem Wissen
3
Neue Postulate für iterierte Revisionen
4
Ein konstruktiver epistemischer Revisionsansatz
5
Revision und induktive Repräsentation
6
Multiple Revision
7
Zusammenfassung und Ausblick
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
127 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Kapitel 3
3. Revision von Wissenszuständen
und konditionalem Wissen
3.6 Multiple Revision
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
128 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Multiple Revision vs. iterierte Revision
Iterierte Revision und die Postulate (CR1)-(CR4) lösen nicht alle Probleme,
im Schaltungsbeispiel scheint das Postulat (CR2) Probleme zu machen:
(CR2) Wenn B |= ¬A, dann Bel((Ψ ∗ A) ∗ B) ≡ Bel(Ψ ∗ B).
Ist nämlich A = am (Schaltung okay) und B = a, so gilt B |= ¬A, und
folglich würde die Information A bei der iterierten Revision völlig
vergessen, d.h., wir würden auch das Wissen über m verlieren.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
129 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Multiple Revision vs. iterierte Revision
Iterierte Revision und die Postulate (CR1)-(CR4) lösen nicht alle Probleme,
im Schaltungsbeispiel scheint das Postulat (CR2) Probleme zu machen:
(CR2) Wenn B |= ¬A, dann Bel((Ψ ∗ A) ∗ B) ≡ Bel(Ψ ∗ B).
Ist nämlich A = am (Schaltung okay) und B = a, so gilt B |= ¬A, und
folglich würde die Information A bei der iterierten Revision völlig
vergessen, d.h., wir würden auch das Wissen über m verlieren.
Das Problem besteht jedoch eher darin, dass die Information “Beide
(unabhängigen) Komponenten der Schaltung sind (defaultmäßig) okay” als
am modelliert wird und nicht als {a, m}.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
129 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Multiple Revision
Die multiple (iterierte) Revision beschäftigt sich mit der Revision von
Wissenszuständen mit Mengen von (plausiblen) Aussagen.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
130 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Multiple Revision
Die multiple (iterierte) Revision beschäftigt sich mit der Revision von
Wissenszuständen mit Mengen von (plausiblen) Aussagen. Wir schauen
uns das wieder für OCFs an, auch hier liefert unser allgemeiner Ansatz von
c-Revisionen eine Lösung:
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
130 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Multiple Revision
Die multiple (iterierte) Revision beschäftigt sich mit der Revision von
Wissenszuständen mit Mengen von (plausiblen) Aussagen. Wir schauen
uns das wieder für OCFs an, auch hier liefert unser allgemeiner Ansatz von
c-Revisionen eine Lösung:
Sei κ eine OCF, und sei S = {A1 , . . . , An } eine endliche, konsistente
Menge propositionaler Formeln. Wir fassen alle Ai als plausible Aussagen
auf und können daher die Ai mit Konditionalen (Ai |>) identifizieren;
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
130 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Multiple Revision
Die multiple (iterierte) Revision beschäftigt sich mit der Revision von
Wissenszuständen mit Mengen von (plausiblen) Aussagen. Wir schauen
uns das wieder für OCFs an, auch hier liefert unser allgemeiner Ansatz von
c-Revisionen eine Lösung:
Sei κ eine OCF, und sei S = {A1 , . . . , An } eine endliche, konsistente
Menge propositionaler Formeln. Wir fassen alle Ai als plausible Aussagen
auf und können daher die Ai mit Konditionalen (Ai |>) identifizieren; hier
liefert unser allgemeiner Ansatz folgendes Schema für eine Revision
κ∗ = κ ∗ S:
n
X
κ∗ (ω) = κ0 + κ(ω) +
κ−
i ,
i=1
ω|=Ai
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
130 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Multiple Revision
Die multiple (iterierte) Revision beschäftigt sich mit der Revision von
Wissenszuständen mit Mengen von (plausiblen) Aussagen. Wir schauen
uns das wieder für OCFs an, auch hier liefert unser allgemeiner Ansatz von
c-Revisionen eine Lösung:
Sei κ eine OCF, und sei S = {A1 , . . . , An } eine endliche, konsistente
Menge propositionaler Formeln. Wir fassen alle Ai als plausible Aussagen
auf und können daher die Ai mit Konditionalen (Ai |>) identifizieren; hier
liefert unser allgemeiner Ansatz folgendes Schema für eine Revision
κ∗ = κ ∗ S:
n
X
κ∗ (ω) = κ0 + κ(ω) +
κ−
i ,
κ−
i > minω|=Ai {κ(ω) +
G. Kern-Isberner (TU Dortmund)
P
i=1
ω|=Ai
j6=i
ω|=Aj
κ−
j } − minω|=Ai {κ(ω) +
Fortgeschrittene Themen der Wissensrepräsentation
P
j6=i
ω|=Aj
κ−
j }.
130 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Multiple c-Revisionen 1/2
Für den Fall der propositionalen (multiplen) c-Revisionen ergeben sich
zunächst Vereinfachungen:
Proposition 1
Sei κ∗ = κ ∗ S eine propositionale c-Revision von κ mit S = {A1 , . . . , An }
wie oben gegeben. Dann gilt:
• κ0 = −κ(S) = −κ(A1 . . . An ), und
• für jedes Ai ∈ S gilt:
min {κ(ω) +
ω|=Ai
G. Kern-Isberner (TU Dortmund)
X
j6=i
ω|=Aj
κ−
j } = κ(A1 . . . An ).
Fortgeschrittene Themen der Wissensrepräsentation
131 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Notizen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
131 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Notizen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
131 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Notizen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
131 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Notizen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
131 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Multiple c-Revisionen 2/2
Wir können also unseren Ansatz wie folgt zusammenfassen:
Propositionale C-revisionen für OCFs
Sei κ eine OCF, und sei S = {A1 , . . . , An } eine Menge von Propositionen.
Dann hat eine propositionale c-Revision von κ mit S die folgende Form:
κ ∗ S(ω) = κ∗ (ω) = −κ(A1 . . . An ) + κ(ω) +
n
X
G. Kern-Isberner (TU Dortmund)
(1)
i=1
ω|=Ai
mit nicht-negativen ganzen Zahlen κ−
i , für die gilt:
X
κ−
>
κ(A
.
.
.
A
)
−
min
{κ(ω)
+
κ−
1
n
i
j }.
ω|=Ai
κ−
i
(2)
j6=i
ω|=Aj
Fortgeschrittene Themen der Wissensrepräsentation
132 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Multiple Revision – Beispiel
κ |= ab; S = {a, b}:
ω κ(ω)
κ ∗ S(ω)
ab
ab
ab
ab
−4 + κ(ω)
−4 + κ(ω) + κ−
2
−4 + κ(ω) + κ−
1
−
−4 + κ(ω) + κ−
1 + κ2
4
1
1
0
G. Kern-Isberner (TU Dortmund)
(κ ∗ S)min (ω) κ ∗ ab(ω)
0
1
1
4
(κ ∗ ab)min (ω)
−4 + κ(ω)
−4 + κ(ω) + κ−
−4 + κ(ω) + κ−
−4 + κ(ω) + κ−
Fortgeschrittene Themen der Wissensrepräsentation
0
2
2
1
133 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Notizen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
133 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Notizen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
133 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Notizen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
133 / 138
Revision von Wissenszuständen und konditionalem Wissen
Multiple Revision
Notizen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
133 / 138
Revision von Wissenszuständen und konditionalem Wissen
Zusammenfassung und Ausblick
Kapitel 3 – Übersicht
1
AGM-Erweiterung für Wissenszustände
2
Minimal Change-Paradigma bei konditionalem Wissen
3
Neue Postulate für iterierte Revisionen
4
Ein konstruktiver epistemischer Revisionsansatz
5
Revision und induktive Repräsentation
6
Multiple Revision
7
Zusammenfassung und Ausblick
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
134 / 138
Revision von Wissenszuständen und konditionalem Wissen
Zusammenfassung und Ausblick
Kapitel 3
3. Revision von Wissenszuständen
und konditionalem Wissen
3.7 Zusammenfassung und Ausblick
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
135 / 138
Revision von Wissenszuständen und konditionalem Wissen
Zusammenfassung und Ausblick
Zusammenfassung 1/2
• Die AGM-Theorie ist ein wichtiger Kriterienkatalog für alle
Wissensänderungen.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
136 / 138
Revision von Wissenszuständen und konditionalem Wissen
Zusammenfassung und Ausblick
Zusammenfassung 1/2
• Die AGM-Theorie ist ein wichtiger Kriterienkatalog für alle
Wissensänderungen.
• Mittels Rangfunktionen lässt sich eine einfache Umsetzung der
AGM-Postulate in einem epistemischen Rahmen realisieren (Prinzip
der minimalen Modelle).
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
136 / 138
Revision von Wissenszuständen und konditionalem Wissen
Zusammenfassung und Ausblick
Zusammenfassung 1/2
• Die AGM-Theorie ist ein wichtiger Kriterienkatalog für alle
Wissensänderungen.
• Mittels Rangfunktionen lässt sich eine einfache Umsetzung der
AGM-Postulate in einem epistemischen Rahmen realisieren (Prinzip
der minimalen Modelle).
• Rangfunktionen sind gute Repräsentationen von Wissenszuständen;
sie lassen sich insbesondere in epistemische Verwurzelungsfunktionen
transformieren und umgekehrt.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
136 / 138
Revision von Wissenszuständen und konditionalem Wissen
Zusammenfassung und Ausblick
Zusammenfassung 2/2
• Bei der iterierten Revision von Wissenszuständen ist es wichtig, die
Änderung des konditionalen Wissens zu steuern.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
137 / 138
Revision von Wissenszuständen und konditionalem Wissen
Zusammenfassung und Ausblick
Zusammenfassung 2/2
• Bei der iterierten Revision von Wissenszuständen ist es wichtig, die
Änderung des konditionalen Wissens zu steuern.
• Das Prinzip der konditionalen Erhaltung lässt sich (bei qualitativen
Wissenszuständen) durch einen “Verschiebemechanismus” optimal
realisieren.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
137 / 138
Revision von Wissenszuständen und konditionalem Wissen
Zusammenfassung und Ausblick
Implementationen und Anwendungen
• Das System SATEN führt Wissensrevisionen verschiedenen Typs auf
Verwurzelungsfunktionen durch.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
138 / 138
Revision von Wissenszuständen und konditionalem Wissen
Zusammenfassung und Ausblick
Implementationen und Anwendungen
• Das System SATEN führt Wissensrevisionen verschiedenen Typs auf
Verwurzelungsfunktionen durch.
• Es gibt Algorithmen für c-Repräsentationen (falls eine eindeutige
Lösung existiert).
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
138 / 138
Revision von Wissenszuständen und konditionalem Wissen
Zusammenfassung und Ausblick
Implementationen und Anwendungen
• Das System SATEN führt Wissensrevisionen verschiedenen Typs auf
Verwurzelungsfunktionen durch.
• Es gibt Algorithmen für c-Repräsentationen (falls eine eindeutige
Lösung existiert).
Gebiete, in denen die Revisionstheorie immer stärkeren Eingang findet und
Pragmatismen ablöst, sind
• Kognitive Robotik, Agenten und Multi-Agentensysteme (Action and
Change);
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
138 / 138
Revision von Wissenszuständen und konditionalem Wissen
Zusammenfassung und Ausblick
Implementationen und Anwendungen
• Das System SATEN führt Wissensrevisionen verschiedenen Typs auf
Verwurzelungsfunktionen durch.
• Es gibt Algorithmen für c-Repräsentationen (falls eine eindeutige
Lösung existiert).
Gebiete, in denen die Revisionstheorie immer stärkeren Eingang findet und
Pragmatismen ablöst, sind
• Kognitive Robotik, Agenten und Multi-Agentensysteme (Action and
Change);
• Datenbanken und Informationssysteme;
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
138 / 138
Revision von Wissenszuständen und konditionalem Wissen
Zusammenfassung und Ausblick
Implementationen und Anwendungen
• Das System SATEN führt Wissensrevisionen verschiedenen Typs auf
Verwurzelungsfunktionen durch.
• Es gibt Algorithmen für c-Repräsentationen (falls eine eindeutige
Lösung existiert).
Gebiete, in denen die Revisionstheorie immer stärkeren Eingang findet und
Pragmatismen ablöst, sind
• Kognitive Robotik, Agenten und Multi-Agentensysteme (Action and
Change);
• Datenbanken und Informationssysteme;
• Ontologien.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
138 / 138
Revision in der Probabilistik
Probabilistische Revision – allgemein
Kapitel 4
4. Revision in der Probabilistik
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
2 / 46
Revision in der Probabilistik
Probabilistische Revision – allgemein
Kapitel 4
4. Revision in der Probabilistik
4.1 Probabilistische Revision – allgemein
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
3 / 46
Revision in der Probabilistik
Probabilistische Revision – allgemein
Die älteste Revisionsmethode der Welt
(Epistemische) AGM-Revision behandelt das Problem, einen
Wissenszustand Ψ durch neue, sicher geglaubte Information A zu
verändern:
Ψ ∗ A.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
4 / 46
Revision in der Probabilistik
Probabilistische Revision – allgemein
Die älteste Revisionsmethode der Welt
(Epistemische) AGM-Revision behandelt das Problem, einen
Wissenszustand Ψ durch neue, sicher geglaubte Information A zu
verändern:
Ψ ∗ A.
In einer probabilistischen Umgebung ist eine Wahrscheinlichkeitsverteilung
P ein Wissenszustand:
P ∗ A.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
4 / 46
Revision in der Probabilistik
Probabilistische Revision – allgemein
Die älteste Revisionsmethode der Welt
(Epistemische) AGM-Revision behandelt das Problem, einen
Wissenszustand Ψ durch neue, sicher geglaubte Information A zu
verändern:
Ψ ∗ A.
In einer probabilistischen Umgebung ist eine Wahrscheinlichkeitsverteilung
P ein Wissenszustand:
P ∗ A.
Eine Methode, die P dahingehend verändert, dass A nachher sicher
geglaubt wird, d.h. mit Wahrscheinlichkeit 1, ist die Bayes’sche
Konditionalisierung
(
P (ω)
P (A) falls ω |= A
P ∗ A(ω) = P (ω|A) =
0
falls ω |= A
(wenn P (A) > 0).
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
4 / 46
Revision in der Probabilistik
Probabilistische Revision – allgemein
Die älteste Revisionsmethode der Welt
(Epistemische) AGM-Revision behandelt das Problem, einen
Wissenszustand Ψ durch neue, sicher geglaubte Information A zu
verändern:
Ψ ∗ A.
In einer probabilistischen Umgebung ist eine Wahrscheinlichkeitsverteilung
P ein Wissenszustand:
P ∗ A.
Eine Methode, die P dahingehend verändert, dass A nachher sicher
geglaubt wird, d.h. mit Wahrscheinlichkeit 1, ist die Bayes’sche
Konditionalisierung
(
P (ω)
P (A) falls ω |= A
P ∗ A(ω) = P (ω|A) =
0
falls ω |= A
(wenn P (A) > 0). (Success) ist gegeben durch
P ∗ A(A) = 1.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
4 / 46
Revision in der Probabilistik
Probabilistische Revision – allgemein
Jeffrey’s Regel 1/2
Konditionalisierung lässt sich verallgemeinern:
Seien B1 , . . . , Bn disjunkte Aussagen, über die zunächst
Wahrscheinlichkeiten
P (B1 ), . . . , P (Bn )
bekannt sind; wir können annehmen, dass B1 , . . . , Bn auch erschöpfend
sind, d.h. dass gilt
P (B1 ) + . . . + P (Bn ) = 1.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
5 / 46
Revision in der Probabilistik
Probabilistische Revision – allgemein
Jeffrey’s Regel 1/2
Konditionalisierung lässt sich verallgemeinern:
Seien B1 , . . . , Bn disjunkte Aussagen, über die zunächst
Wahrscheinlichkeiten
P (B1 ), . . . , P (Bn )
bekannt sind; wir können annehmen, dass B1 , . . . , Bn auch erschöpfend
sind, d.h. dass gilt
P (B1 ) + . . . + P (Bn ) = 1.
Wie verändert sich die gesamte Verteilung P , wenn nun neue
Informationen über die Wahrscheinlichkeiten der Bi bekannt werden?
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
5 / 46
Revision in der Probabilistik
Probabilistische Revision – allgemein
Jeffrey’s Regel 1/2
Konditionalisierung lässt sich verallgemeinern:
Seien B1 , . . . , Bn disjunkte Aussagen, über die zunächst
Wahrscheinlichkeiten
P (B1 ), . . . , P (Bn )
bekannt sind; wir können annehmen, dass B1 , . . . , Bn auch erschöpfend
sind, d.h. dass gilt
P (B1 ) + . . . + P (Bn ) = 1.
Wie verändert sich die gesamte Verteilung P , wenn nun neue
Informationen über die Wahrscheinlichkeiten der Bi bekannt werden?
D.h., P soll so zu P ∗ verändert werden, dass P ∗ (Bi ) = pi vorgegebene
Werte annimmt.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
5 / 46
Revision in der Probabilistik
Probabilistische Revision – allgemein
Jeffrey’s Regel 2/2
Die Lösung zu diesem Problem liefert eine Annahme, die man als
probability kinematics bezeichnet – nämlich, dass die neuen
Wahrscheinlichkeiten der Bi keine der unter Bi bedingten
Wahrscheinlichkeiten ändern sollte:
P ∗ (A|Bi ) = P (A|Bi )
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
6 / 46
Revision in der Probabilistik
Probabilistische Revision – allgemein
Jeffrey’s Regel 2/2
Die Lösung zu diesem Problem liefert eine Annahme, die man als
probability kinematics bezeichnet – nämlich, dass die neuen
Wahrscheinlichkeiten der Bi keine der unter Bi bedingten
Wahrscheinlichkeiten ändern sollte:
P ∗ (A|Bi ) = P (A|Bi )
Daraus ergibt sich sofort mit dem Satz von der totalen Wahrscheinlichkeit
die Regel von Jeffrey:
n
X
P ∗ (A) =
P ∗ (A|Bi )P ∗ (Bi )
i=1
=
n
X
P (A|Bi )P ∗ (Bi )
i=1
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
6 / 46
Revision in der Probabilistik
Probabilistische Revision – allgemein
Jeffrey’s und Bayes Regel
Jeffrey’s Regel verallgemeinert die Konditionalisierung nach Bayes:
Liegt nämlich nur ein Ereignis B mit Wahrscheinlichkeit P ∗ (B) = 1 vor,
so ergibt Jeffrey’s Regel:
P ∗ (A) = P (A|B)P ∗ (B) = P (A|B),
d.h. die posteriori Wahrscheinlichkeit ist nichts anderes als die nach B
konditionalisierte priori Wahrscheinlichkeit;
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
7 / 46
Revision in der Probabilistik
Probabilistische Revision – allgemein
Jeffrey’s und Bayes Regel
Jeffrey’s Regel verallgemeinert die Konditionalisierung nach Bayes:
Liegt nämlich nur ein Ereignis B mit Wahrscheinlichkeit P ∗ (B) = 1 vor,
so ergibt Jeffrey’s Regel:
P ∗ (A) = P (A|B)P ∗ (B) = P (A|B),
d.h. die posteriori Wahrscheinlichkeit ist nichts anderes als die nach B
konditionalisierte priori Wahrscheinlichkeit; umgekehrt erhält man die
bedingte Wahrscheinlichkeit als Spezialfall der Regel von Jeffrey, wenn die
neue Information sicher ist, also Wahrscheinlichkeit 1 besitzt.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
7 / 46
Revision in der Probabilistik
Probabilistische Revision – allgemein
Multiple probabilistische Revision und mehr . . .
Jeffrey’s Regel kann als multiple probabilistische Revision (unter gewissen
Bedingungen) betrachtet werden, die neue Information besteht hier aus
einer Menge probabilistischer Fakten S = {B1 [p1 ], . . . , Bn [pn ]}, und die
Revisionsaufgabe besteht in der Bestimmung einer Verteilung
P ∗S
mit
P ∗ S |= S (Success),
wobei
P |= Bi [pi ] gdw. P (Bi ) = pi .
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
8 / 46
Revision in der Probabilistik
Probabilistische Revision – allgemein
Multiple probabilistische Revision und mehr
. . . (Forts.)
In einem nächsten Schritt könnte die Revisionsaufgabe nun darin bestehen,
P mit einer Menge
R = {(B1 |A1 )[x1 ], . . . , (Bn |An )[xn ]
so zu einer Verteilung P ∗ R zu verändern, dass
P ∗ R |= (Bi |Ai )[xi ], 1 ≤ i ≤ n,
(Success)
gilt, wobei
P |= (B|A)[x] gdw. P (A) > 0 und P (B|A) = x.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
9 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Kapitel 4
4. Revision in der Probabilistik
4.2 Wissensrevision auf der Basis
optimaler Entropie
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
10 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistische Wissensrevision 1/3
Wenden wir uns dem Problem zu, Wissenszustände durch neue
(konditionale) Informationen revidieren zu wollen.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
11 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistische Wissensrevision 1/3
Wenden wir uns dem Problem zu, Wissenszustände durch neue
(konditionale) Informationen revidieren zu wollen.
Geeignete probabilistische Wissenszustände sind
Wahrscheinlichkeitsverteilungen.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
11 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistische Wissensrevision 1/3
Wenden wir uns dem Problem zu, Wissenszustände durch neue
(konditionale) Informationen revidieren zu wollen.
Geeignete probabilistische Wissenszustände sind
Wahrscheinlichkeitsverteilungen.
Geeignete neue Informationen sind Mengen probabilistischer Regeln.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
11 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistische Wissensrevision 1/3
Wenden wir uns dem Problem zu, Wissenszustände durch neue
(konditionale) Informationen revidieren zu wollen.
Geeignete probabilistische Wissenszustände sind
Wahrscheinlichkeitsverteilungen.
Geeignete neue Informationen sind Mengen probabilistischer Regeln.
Gesucht ist also ein Verfahren, um Wahrscheinlichkeitsverteilungen P
durch Mengen probabilistischer Regeln R zu revidieren.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
11 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistische Wissensrevision 2/3
Mit welchen Problemen müssen wir rechnen?
• Auf der a priori-Seite (gegebenes Wissen) haben wir zuwenig
Freiheitsgrade, da eine Wahrscheinlichkeitsverteilung vollständiges
Wissen darstellt.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
12 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistische Wissensrevision 2/3
Mit welchen Problemen müssen wir rechnen?
• Auf der a priori-Seite (gegebenes Wissen) haben wir zuwenig
Freiheitsgrade, da eine Wahrscheinlichkeitsverteilung vollständiges
Wissen darstellt.
• Auf der a posteriori-Seite (revidierter Wissenszustand) haben wir
zuviele Freiheitsgrade, da es – wie bei der ME -Inferenz –
normalerweise unendlich viele passende Verteilungen gibt.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
12 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistische Wissensrevision 3/3
Was erwarten wir?
• Wir möchten genau eine revidierte Verteilung P ∗ = P ∗ R berechnen.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
13 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistische Wissensrevision 3/3
Was erwarten wir?
• Wir möchten genau eine revidierte Verteilung P ∗ = P ∗ R berechnen.
• Diese Verteilung soll die neue Information darstellen: P ∗ |= R
(Success).
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
13 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistische Wissensrevision 3/3
Was erwarten wir?
• Wir möchten genau eine revidierte Verteilung P ∗ = P ∗ R berechnen.
• Diese Verteilung soll die neue Information darstellen: P ∗ |= R
(Success).
• Unnötige Arbeit soll vermieden werden, d.h. wenn bereits P |= R gilt,
so soll P ∗ = P sein (Stabilität).
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
13 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistische Wissensrevision 3/3
Was erwarten wir?
• Wir möchten genau eine revidierte Verteilung P ∗ = P ∗ R berechnen.
• Diese Verteilung soll die neue Information darstellen: P ∗ |= R
(Success).
• Unnötige Arbeit soll vermieden werden, d.h. wenn bereits P |= R gilt,
so soll P ∗ = P sein (Stabilität).
• Die Änderungen in P sollen minimal sein, d.h. die neue Verteilung P ∗
soll so nahe wie möglich an P liegen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
13 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Probabilistische Wissensrevision 3/3
Was erwarten wir?
• Wir möchten genau eine revidierte Verteilung P ∗ = P ∗ R berechnen.
• Diese Verteilung soll die neue Information darstellen: P ∗ |= R
(Success).
• Unnötige Arbeit soll vermieden werden, d.h. wenn bereits P |= R gilt,
so soll P ∗ = P sein (Stabilität).
• Die Änderungen in P sollen minimal sein, d.h. die neue Verteilung P ∗
soll so nahe wie möglich an P liegen – wir benötigen also ein
Abstandsmaß zwischen Verteilungen.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
13 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Relative Entropie 1/2
Problem:
Die Verteilung P hat sich geändert zur Verteilung Q;
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
14 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Relative Entropie 1/2
Problem:
Gesucht:
Die Verteilung P hat sich geändert zur Verteilung Q;
Maß für Informationsgewinn, dass man
diese Änderung bemerkt hat
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
14 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Relative Entropie 1/2
Problem:
Gesucht:
Die Verteilung P hat sich geändert zur Verteilung Q;
Maß für Informationsgewinn, dass man
diese Änderung bemerkt hat
R(Q, P ) =
X
ω
G. Kern-Isberner (TU Dortmund)
Q(ω) log
Q(ω)
P (ω)
Fortgeschrittene Themen der Wissensrepräsentation
14 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Relative Entropie 1/2
Problem:
Gesucht:
Die Verteilung P hat sich geändert zur Verteilung Q;
Maß für Informationsgewinn, dass man
diese Änderung bemerkt hat
R(Q, P ) =
X
ω
Q(ω) log
Q(ω)
P (ω)
Relative Entropie (cross entropy) von Q bezgl. P
Maß für den Informationsabstand von P zu Q
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
14 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Relative Entropie 2/2
Eigenschaften der relativen Entropie:
• Die relative Entropie ist positiv definit, d.h. R(Q, P ) ≥ 0 und
R(Q, P ) = 0 genau dann, wenn P = Q;
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
15 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Relative Entropie 2/2
Eigenschaften der relativen Entropie:
• Die relative Entropie ist positiv definit, d.h. R(Q, P ) ≥ 0 und
R(Q, P ) = 0 genau dann, wenn P = Q;
• Die relative Entropie ist nicht symmetrisch: R(Q, P ) 6= R(P, Q)
(i.Allg.);
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
15 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Relative Entropie 2/2
Eigenschaften der relativen Entropie:
• Die relative Entropie ist positiv definit, d.h. R(Q, P ) ≥ 0 und
R(Q, P ) = 0 genau dann, wenn P = Q;
• Die relative Entropie ist nicht symmetrisch: R(Q, P ) 6= R(P, Q)
(i.Allg.);
• Sei P = (p1 , . . . , pn ) eine Wahrscheinlichkeitsverteilung, und sei
P0 = ( n1 , . . . , n1 ) eine (passende) Gleichverteilung. Dann gilt
R(P, P0 ) = log n − H(P )
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
15 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
Notizen
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
15 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Wissensrevision
• Gegeben: A priori-Verteilung P , neue Information R;
1
R heißt P -konsistent, wenn es ein Modell Q von R gibt mit P (ω) = 0 ⇒
Q(ω) = 0; in diesem Fall sagt man auch, Q ist P -stetig.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
16 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Wissensrevision
• Gegeben: A priori-Verteilung P , neue Information R;
• Gesucht: A posteriori-Verteilung P ∗ “nahe” zu P mit P ∗ |= R;
1
R heißt P -konsistent, wenn es ein Modell Q von R gibt mit P (ω) = 0 ⇒
Q(ω) = 0; in diesem Fall sagt man auch, Q ist P -stetig.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
16 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Wissensrevision
• Gegeben: A priori-Verteilung P , neue Information R;
• Gesucht: A posteriori-Verteilung P ∗ “nahe” zu P mit P ∗ |= R;
• Lösung:
Prinzip der minimalen Relativentropie
Minimiere Informationsabstand zu P , gegeben
R = {(B1 |A1 )[x1 ], . . . , (Bn |An )[xn ]} → Optimierungsproblem
P ∗ = ME (P, R) = ((arg) min R(Q, P ) =
Q|=R
X
Q(ω) log2
ω
Q(ω)
P (ω)
1
R heißt P -konsistent, wenn es ein Modell Q von R gibt mit P (ω) = 0 ⇒
Q(ω) = 0; in diesem Fall sagt man auch, Q ist P -stetig.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
16 / 46
Revision in der Probabilistik
Inferenz und Wissensrevision auf der Basis optimaler Entropie
ME-Wissensrevision
• Gegeben: A priori-Verteilung P , neue Information R;
• Gesucht: A posteriori-Verteilung P ∗ “nahe” zu P mit P ∗ |= R;
• Lösung:
Prinzip der minimalen Relativentropie
Minimiere Informationsabstand zu P , gegeben
R = {(B1 |A1 )[x1 ], . . . , (Bn |An )[xn ]} → Optimierungsproblem
P ∗ = ME (P, R) = ((arg) min R(Q, P ) =
Q|=R
X
Q(ω) log2
ω
Q(ω)
P (ω)
eindeutig lösbar (für P -konsistentes1 R) mit Lösung P ∗ = ME (P, R).
1
R heißt P -konsistent, wenn es ein Modell Q von R gibt mit P (ω) = 0 ⇒
Q(ω) = 0; in diesem Fall sagt man auch, Q ist P -stetig.
G. Kern-Isberner (TU Dortmund)
Fortgeschrittene Themen der Wissensrepräsentation
16 / 46
Herunterladen