Fortgeschrittene Themen der Wissensrepräsentation Gabriele Kern-Isberner LS 1 – Information Engineering TU Dortmund Sommersemester 2014 G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 1 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Kapitel 4 4. Revision in der Probabilistik G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 2 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Kapitel 4 4. Revision in der Probabilistik 4.1 Probabilistische Revision – allgemein G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 3 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Die älteste Revisionsmethode der Welt (Epistemische) AGM-Revision behandelt das Problem, einen Wissenszustand Ψ durch neue, sicher geglaubte Information A zu verändern: Ψ ∗ A. In einer probabilistischen Umgebung ist eine Wahrscheinlichkeitsverteilung P ein Wissenszustand: P ∗ A. Eine Methode, die P dahingehend verändert, dass A nachher sicher geglaubt wird, d.h. mit Wahrscheinlichkeit 1, ist die Bayes’sche Konditionalisierung ( P (ω) P (A) falls ω |= A P ∗ A(ω) = P (ω|A) = 0 falls ω |= A (wenn P (A) > 0). (Success) ist gegeben durch P ∗ A(A) = 1. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 4 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Jeffrey’s Regel 1/2 Konditionalisierung lässt sich verallgemeinern: Seien B1 , . . . , Bn disjunkte Aussagen, über die zunächst Wahrscheinlichkeiten P (B1 ), . . . , P (Bn ) bekannt sind; wir können annehmen, dass B1 , . . . , Bn auch erschöpfend sind, d.h. dass gilt P (B1 ) + . . . + P (Bn ) = 1. Wie verändert sich die gesamte Verteilung P , wenn nun neue Informationen über die Wahrscheinlichkeiten der Bi bekannt werden? D.h., P soll so zu P ∗ verändert werden, dass P ∗ (Bi ) = pi vorgegebene Werte annimmt. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 5 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Jeffrey’s Regel 2/2 Die Lösung zu diesem Problem liefert eine Annahme, die man als probability kinematics bezeichnet – nämlich, dass die neuen Wahrscheinlichkeiten der Bi keine der unter Bi bedingten Wahrscheinlichkeiten ändern sollte: P ∗ (A|Bi ) = P (A|Bi ) Daraus ergibt sich sofort mit dem Satz von der totalen Wahrscheinlichkeit die Regel von Jeffrey: n X P ∗ (A) = P ∗ (A|Bi )P ∗ (Bi ) i=1 = n X P (A|Bi )P ∗ (Bi ) i=1 G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 6 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Jeffrey’s und Bayes Regel Jeffrey’s Regel verallgemeinert die Konditionalisierung nach Bayes: Liegt nämlich nur ein Ereignis B mit Wahrscheinlichkeit P ∗ (B) = 1 vor, so ergibt Jeffrey’s Regel: P ∗ (A) = P (A|B)P ∗ (B) = P (A|B), d.h. die posteriori Wahrscheinlichkeit ist nichts anderes als die nach B konditionalisierte priori Wahrscheinlichkeit; umgekehrt erhält man die bedingte Wahrscheinlichkeit als Spezialfall der Regel von Jeffrey, wenn die neue Information sicher ist, also Wahrscheinlichkeit 1 besitzt. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 7 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Multiple probabilistische Revision und mehr . . . Jeffrey’s Regel kann als multiple probabilistische Revision (unter gewissen Bedingungen) betrachtet werden, die neue Information besteht hier aus einer Menge probabilistischer Fakten S = {B1 [p1 ], . . . , Bn [pn ]}, und die Revisionsaufgabe besteht in der Bestimmung einer Verteilung P ∗S mit P ∗ S |= S (Success), wobei P |= Bi [pi ] gdw. P (Bi ) = pi . G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 8 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Multiple probabilistische Revision und mehr . . . (Forts.) In einem nächsten Schritt könnte die Revisionsaufgabe nun darin bestehen, P mit einer Menge R = {(B1 |A1 )[x1 ], . . . , (Bn |An )[xn ] so zu einer Verteilung P ∗ R zu verändern, dass P ∗ R |= (Bi |Ai )[xi ], 1 ≤ i ≤ n, (Success) gilt, wobei P |= (B|A)[x] gdw. P (A) > 0 und P (B|A) = x. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 9 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4 4. Revision in der Probabilistik 4.2 Wissensrevision auf der Basis optimaler Entropie G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 10 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Probabilistische Wissensrevision 1/3 Wenden wir uns dem Problem zu, Wissenszustände durch neue (konditionale) Informationen revidieren zu wollen. Geeignete probabilistische Wissenszustände sind Wahrscheinlichkeitsverteilungen. Geeignete neue Informationen sind Mengen probabilistischer Regeln. Gesucht ist also ein Verfahren, um Wahrscheinlichkeitsverteilungen P durch Mengen probabilistischer Regeln R zu revidieren. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 11 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Probabilistische Wissensrevision 2/3 Mit welchen Problemen müssen wir rechnen? • Auf der a priori-Seite (gegebenes Wissen) haben wir zuwenig Freiheitsgrade, da eine Wahrscheinlichkeitsverteilung vollständiges Wissen darstellt. • Auf der a posteriori-Seite (revidierter Wissenszustand) haben wir zuviele Freiheitsgrade, da es – wie bei der ME -Inferenz – normalerweise unendlich viele passende Verteilungen gibt. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 12 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Probabilistische Wissensrevision 3/3 Was erwarten wir? • Wir möchten genau eine revidierte Verteilung P ∗ = P ∗ R berechnen. • Diese Verteilung soll die neue Information darstellen: P ∗ |= R (Success). • Unnötige Arbeit soll vermieden werden, d.h. wenn bereits P |= R gilt, so soll P ∗ = P sein (Stabilität). • Die Änderungen in P sollen minimal sein, d.h. die neue Verteilung P ∗ soll so nahe wie möglich an P liegen – wir benötigen also ein Abstandsmaß zwischen Verteilungen. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 13 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Relative Entropie 1/2 Problem: Gesucht: Die Verteilung P hat sich geändert zur Verteilung Q; Maß für Informationsgewinn, dass man diese Änderung bemerkt hat R(Q, P ) = X ω Q(ω) log Q(ω) P (ω) Relative Entropie (cross entropy) von Q bezgl. P Maß für den Informationsabstand von P zu Q G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 14 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Relative Entropie 2/2 Eigenschaften der relativen Entropie: • Die relative Entropie ist positiv definit, d.h. R(Q, P ) ≥ 0 und R(Q, P ) = 0 genau dann, wenn P = Q; • Die relative Entropie ist nicht symmetrisch: R(Q, P ) 6= R(P, Q) (i.Allg.); • Sei P = (p1 , . . . , pn ) eine Wahrscheinlichkeitsverteilung, und sei P0 = ( n1 , . . . , n1 ) eine (passende) Gleichverteilung. Dann gilt R(P, P0 ) = log n − H(P ) G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 15 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie ME-Wissensrevision • Gegeben: A priori-Verteilung P , neue Information R; • Gesucht: A posteriori-Verteilung P ∗ “nahe” zu P mit P ∗ |= R; • Lösung: Prinzip der minimalen Relativentropie Minimiere Informationsabstand zu P , gegeben R = {(B1 |A1 )[x1 ], . . . , (Bn |An )[xn ]} → Optimierungsproblem P ∗ = ME (P, R) = ((arg) min R(Q, P ) = Q|=R X Q(ω) log2 ω Q(ω) P (ω) eindeutig lösbar (für P -konsistentes1 R) mit Lösung P ∗ = ME (P, R). 1 R heißt P -konsistent, wenn es ein Modell Q von R gibt mit P (ω) = 0 ⇒ Q(ω) = 0; in diesem Fall sagt man auch, Q ist P -stetig. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 16 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Axiomatik des ME-Prinzips 1/2 Shore & Johnson, 1980: Die relative Entropie ist die einzige Funktion, deren Optimierung das obige probabilistische Revisionsproblem in der Art löst, dass folgende Bedingungen erfüllt sind: • Eindeutigkeit: Das Revisionsergebnis P ∗ R ist eindeutig bestimmt. • Invarianz: Die Lösung hängt nicht vom Koordinatensystem ab. • System Independence: Sei V = V1 ∪ V2 eine Partition der Variablenmenge, und seien jeweils Pi , Ri Verteilungen bzw. Regelmengen über Vi . Dann gilt: (P1 P2 ) ∗ (R1 ∪ R2 ) = (P1 ∗ R1 )(P2 ∗ R2 ) G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 17 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Axiomatik des ME-Prinzips 2/2 • Subset Independence: Seien A1 , . . . An exklusive und erschöpfende Formeln, d.h. Ai Aj ≡ ⊥ für i 6= j und A1 ∨ . . . ∨ An ≡ >. Sei P eine Verteilung, und seien Ri Mengen probabilistischer Konditionale, deren Prämisse Ai impliziert (d.h. die Ri liefern jeweils Informationen über die bedingten Verteilungen P (·|A Pi )). Sei R = R1 ∪ . . . ∪ Rn , und sei S = {A1 [x1 ], . . . , An [xn ]} mit i xi = 1. Dann gilt (P ∗ (R ∪ S))(·|Ai ) = P (·|Ai ) ∗ Ri Insbesondere gilt dann (P ∗ R)(·|Ai ) = P (·|Ai ) ∗ Ri G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 18 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie ME-Wissensrevision und ME-Inferenz 1/2 Ein (zweistelliger) ME-Revisionsoperator ∗ME wird definiert durch P ∗ME R := ME (P, R) Nichtmonotone ME-Inferenzoperation (mit Hintergrundwissen P ): CPME prob prob 2(L|L) → 2(L|L) ( {ϕ ∈ (L | L)prob | P ∗ME R |= ϕ} CPME (R) = (L | L)prob : G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation R P − konsistent sonst 19 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie ME-Wissensrevision und ME-Inferenz 2/2 Ist P = P0 die Gleichverteilung, so ist ME (P0 , R) = ME (R), d.h. die zu R gehörige ME -Verteilung ist dasjenige R-Modell, das minimalen Informationsabstand zur Gleichverteilung hat. Für P = P0 wird also C M E (R) = CPM0 E (R) durch die zugehörige ME -Verteilung ME (R) bestimmt. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 20 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Eigenschaften der ME-Revision Der ME -Revisionsoperator hat folgende Eigenschaften: • P ∗ME R = P genau dann, wenn P |= R. • Es ist i.Allg. P ∗ME (R ∪ S) 6= (P ∗ME R) ∗ME S, aber es gilt: (P ∗ME R) ∗ME (R ∪ S) = P ∗ME (R ∪ S) G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 21 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Eigenschaften der ME-Inferenz Der ME -Inferenzoperator CPME erfüllt die folgenden Eigenschaften (s. Commonsense Reasoning): • Inklusion/Reflexivität: R ⊆ CPME (R). • Idempotenz: CPME (CPME (R)) = CPME (R). • Kumulativität: R ⊆ S ⊆ CPME (R) impliziert CPME (R) = CPME (S) • Supraklassizität, d.h. es gilt: Cn prob (R) ⊆ CPME (R). • Loop: Sind R1 , . . . , Rm ⊆ (L | L)prob mit Ri+1 ⊆ CPME (Ri ), i modulo m, dann gilt CPME (Ri ) = CPME (Rj ) G. Kern-Isberner (TU Dortmund) für alle i, j = 1, . . . , m Fortgeschrittene Themen der Wissensrepräsentation 22 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Prinzip der konditionalen Erhaltung in der Probabilistik 1/3 Charakteristika von Konditionalen: • Konditionale sind 3-wertig: 1 wenn ω |= AB (Verifikation) 0 wenn ω |= AB (Falsifikation) (B|A)(ω) = u wenn ω |= A • Die Semantik von Konditionalen wird bestimmt durch Brüche: 1 P (B|A) = 1+ P (AB) P (AB) Genauso wie für OCF benutzen wir beide Charakteristika zur Definition eines allgemeinen konditionalen Prinzips der Erhaltung in der Probabilistik. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 23 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Prinzip der konditionalen Erhaltung in der Probabilistik 2/3 ME Wissensänderung erfüllt das folgende Probabilistisches Prinzip der konditionalen Erhaltung 0 } zwei Multimengen Seien Ω = {ω1 , . . . , ωm } und Ω0 = {ω10 , . . . , ωm möglicher Welten (Welten also nicht notwendigerweise verschieden). Wenn für jedes probabilistische Konditional (Bi |Ai )[xi ] in R sich Ω und Ω0 gleich verhalten (s.u.), i.e., sie zeigen dieselbe Anzahl von Verifikationen bzw. Falsifikationen, dann gilt für die a priori P und die (ME -)posteriori P ∗ Folgendes: P (ω1 ) . . . P (ωm ) P ∗ (ω1 ) . . . P ∗ (ωm ) = 0 ) 0 ) P (ω10 ) . . . P (ωm P ∗ (ω10 ) . . . P ∗ (ωm Das Prinzip der konditionalen Erhaltung schafft also eine Balance zwischen der Erhaltung konditionaler Beziehungen in der priori Verteilung und der Herstellung konditionaler Beziehungen durch neue Informationen. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 24 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Prinzip der konditionalen Erhaltung in der Probabilistik 3/3 Ebenso wie für OCF kann man das Prinzip mit Hilfe konditionaler Strukturen noch kompakter darstellen: Definieren wir dazu auch noch P (Ω) = m Y P (ωi ) i=1 für Multimengen Ω = {ω1 , . . . , ωm }, so lässt sich das Prinzip der konditionalen Erhaltung kompakt so ausdrücken: Prinzip der konditionalen Erhaltung Gilt für zwei Multimengen σ(Ω) = σ(Ω0 ), so muss auch P ∗ (Ω) P (Ω) = P (Ω0 ) P ∗ (Ω0 ) mit P ∗ = P ∗ R gelten, d.h. priori-Bruch = posteriori-Bruch. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 25 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie ME-Wissensänderung unter der Lupe Für R = {(B1 |A1 ) [x1 ], . . . , (Bn |An ) [xn ]} erhalten wir Y Y ME (P, R)(ω) = α0 P (ω) αi1−xi αi−xi 1≤i≤n ω|=Ai Bi P mit αi = P (ω) xi ω|=Ai Bi P 1 − xi P (ω) ω|=Ai Bi Q 1≤i≤n ω|=Ai Bi 1−xj Q Q αj j6=i ω|=Aj Bj −xj αj j6=i ω|=Aj Bj 1−xj Q αj j6=i ω|=Aj Bj −xj αj , j6=i ω|=Aj Bj : xi ∈ (0, 1) >0 = ∞ : xi = 1 und αi , 1 ≤ i ≤ n. =0 : xi = 0 G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 26 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie ME-Prinzip, Bayes und Jeffrey Mit den obigen Formeln rechnet man leicht nach: • R = {A[1]}: P ∗ME {A[1]} = P (·|A) → Bayes-Konditionierung • R = {A[x]}: P ∗ME {A[x]})(ω) = P (ω|A)x + P (ω|A)(1 − x) → Jeffrey’s Regel G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 27 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Probabilistische Wissensrevision und AGM 1/2 Wissensmenge einer Wahrscheinlichkeitsverteilung P KP = {A ∈ L | P (A) = 1} KP 6= ∅, KP 6= L; KP ist deduktiv abgeschlossen. Definiere Revision von KP mit A durch KP ∗ A = KP (·|A) = {B ∈ L | P (B|A) = 1} G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 28 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Probabilistische Wissensrevision und AGM 2/2 Diese Revision ist nur definiert, wenn P (A) > 0 ist, wenn also ¬A 6∈ KP ist, und ist damit eine Expansion. Sie ist allerdings eine AGM-Expansion, denn es ist KP ∗ A = Cn(KP ∪ {A}) G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 29 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Beispiel Psychologe Ein Psychologe fasst seine langjährigen Erfahrungen in der Drogenberatungsstelle in einer Verteilung P zusammen: a : addicted to alcohol d : addicted to drugs y : being young ω P (ω) ω P (ω) ω P (ω) ω P (ω) ady ady 0.050 0.093 ady ady 0.333 0.102 ady ady 0.053 0.225 ady ady 0.053 0.091 G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 30 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Beispiel Psychologe (Forts.) Wir beobachten in P die folgenden Wahrscheinlichkeiten: P (d|a) = 0.242 P (d|a) = 0.666 P (a|y) = 0.246 P (d|y) = 0.662 P (a|y) = 0.660 P (d|y) = 0.251 G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 31 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Beispiel Psychologe (Forts.) Der Psychologe wechselt nun die Stelle – er wird in einer Klinik arbeiten, in der ausschließlich Alkohol- und Drogenabhängige behandelt werden. In seinem neuen Arbeitsbereich ist die Rate der alkoholabhängigen Personen, die gleichzeitig auch drogenabhängig sind, höher als üblich ist und liegt bei ca. 40 %; der Psychologe wird also sein Wissen P mit der folgenden Information revidieren: R = {a ∨ d[1], (d|a)[0.4]} G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 32 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Beispiel Psychologe (Forts.) und erhält P ∗ = P ∗ME R: ω P ∗ (ω) ω P ∗ (ω) ω P ∗ (ω) ω P ∗ (ω) ady ady 0.099 0.089 ady ady 0.425 0.0 ady ady 0.105 0.216 ady ady 0.066 0.0 P ∗ |= (d|a)[0.4] (a|y)[0.307] G. Kern-Isberner (TU Dortmund) (d|a)[1] (d|y)[0.855] Fortgeschrittene Themen der Wissensrepräsentation 33 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Beispiel Psychologe (Forts.) Nach ein paar Tagen bemerkt der Psychologe, dass es in der Klinik nur junge Leute gibt; er muss sein Wissen erneut revidieren und berechnet jetzt P ∗ME (R ∪ y[1]) =: P1∗ : ω P1∗ (ω) ω P1∗ (ω) ady ady ady ady 0.120 0.0 0.180 0.0 ady ady ady ady 0.700 0.0 0.0 0.0 G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 34 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Beispiel Psychologe (Forts.) Diese Wahrscheinlichkeit ist allerdings verschieden von der, die man durch Konditionieren nach y aus P ∗ = P ∗ME R erhält: ω P ∗ (·|y)(ω) ω P ∗ (·|y)(ω) ady ady ady ady 0.162 0.0 0.145 0.0 ady ady ady ady 0.693 0.0 0.0 0.0 G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 35 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Revision und Focusing 1/3 Unter Focusing versteht man das Anwenden generischen Wissens auf einen Fall. Wird der Fall durch die Proposition A beschrieben, so entspricht Focusing also einer Revisions- oder Update-Operation mit sicherem Wissen. Im klassisch-logischen Rahmen der AGM-Revision bleibt einem folglich nichts anderes übrig, als mit A eine Revision oder ein Update durchzuführen: K ∗ A, so dass Focusing von Revision bzw. Update nicht zu unterscheiden ist. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 36 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Revision und Focusing 2/3 Im ME -probabilistischen Rahmen hat man hingegen sehr viel mehr Modellierungsspielraum: Im Psychologen-Beispiel gab es eine sehr deutliche Unterscheidung zwischen Revision und Focusing (P ∗ =: P ∗ME R) Revision von P ∗ mit y[1] P ∗ME (R ∪ y[1]) Focusing von P ∗ auf y[1] 6= (P ∗ME R)(·|y) Focusing entspricht also grundsätzlich dem üblichen Konditionieren. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 37 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Revision und Focusing 3/3 Man kann sich auch vorstellen, dass man nur über unsichere Information über einen Fall verfügt, z.B. A ist wahr mit Wahrscheinlichkeit 0.8. In diesem Fall muss man auf die unsichere Evidenz A[0.8] fokussieren. Wegen P (·|A) = P ∗ME A[1] ist hier eine passende Verallgemeinerung die Operation P ∗ME A[x], in diesem Fall also für x = 0.8. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 38 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Beispiel Psychologe (Forts.) In unserem Beispiel würde eine unsichere Fokussierung P2∗ = P ∗ ∗ME {y[0.8]} wie folgt aussehen: G. Kern-Isberner (TU Dortmund) ω P2∗ (ω) ω P2∗ (ω) ady ady ady ady 0.129 0.054 0.116 0.112 ady ady ady ady 0.555 0.034 0.0 0.0 Fortgeschrittene Themen der Wissensrepräsentation 39 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Fazit ME-Methodik • Die ME -Methodik ermöglicht Wissensrevision bzw. Inferenz in ihrer allgemeinsten Form: Komplexe Wissenszustände (Wahrscheinlichkeitsverteilungen) können durch Anpassung an neue Information in komplexer Form (Mengen probabilistischer Konditionale) revidiert werden. • Auch ME -Inferenz mit Hintergrundwissen erfüllt zahlreiche der Eigenschaften, die man an nichtmonotone Inferenzrelationen i.Allg. stellt, z.B. die Kumulativität. • ME -Revision ist mit den Grundideen der AGM-Theorie (minimal change-Paradigma) verträglich; darüberhinaus gelten weitergehende Eigenschaften, die insbesondere für iterierte Revision relevant sind. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 40 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Ein Paradoxon . . . Die Peter, Paul & Mary-Story • Peter, Paul und Mary sind Profikiller, einer von ihnen hat Mr Jones ermordet; • Inspektor Smith ist bisher noch vollkommen ratlos – • wer von den dreien war es? P (M ary) = 31 • war es ein Mann oder eine Frau? P (M ary) = 12 Bei der Verwendung von Wahrscheinlichkeiten geht auch immer Wissen über die Grundgesamtheit betrachteter Merkmale mit ein! G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 41 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie . . . und ein Nicht-Paradoxon 1/4 Die Peter, Paul & Mary-Story (Forts.) • Inspektor Smith weiß nun, dass Big Boss die Ermordung von Mr Jones durch Peter, Paul oder Mary in Auftrag gegeben hat; • er weiß auch, dass Big Boss vorher eine Münze geworfen hat, um zu entscheiden, ob der Auftrag durch eine Frau oder einen Mann ausgeführt werden sollte; • er weiß aber nichts über den Ausgang des Münzwurfs. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 42 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie . . . und ein Nicht-Paradoxon 2/4 Damit lässt sich das Wissen von Inspektor Smith wie folgt formalisieren: R1 = {Mary [0.5], Peter ∨ Paul [0.5]} Sei P1 = ME (R1 ) die zu R1 gehörige ME -Verteilung: P1 (Mary) = 0.5, P1 (Peter) = P1 (Paul) = 0.25 Nun erfährt Inspektor Smith, dass Peter sich zur Tatzeit bei einer Polizeistation gemeldet hat, somit ein wasserdichtes Alibi hat und als Täter ausscheidet. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 43 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie . . . und ein Nicht-Paradoxon 3/4 Üblicherweise wird dieses Wissen durch Konditionierung eingearbeitet, d.h. es wird als posteriori-Verteilung die Verteilung P2 = P1 (·|¬Peter) berechnet, für die man die folgenden Wahrscheinlichkeiten berechnet: P2 (Mary) = 0.5/0.75 = 0.67 P2 (Paul) = 0.25/0.75 = 0.33 Dies wird i.Allg. als unintuitiv empfunden, viele wuerden als angemessene Wahrscheinlichkeiten unter der Voraussetzung, dass Peter nicht der Täter sein kann, erwarten P2 0 (Mary) = 0.5 = P2 0 (Paul) G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 44 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie . . . und ein Nicht-Paradoxon 4/4 Tatsächlich lässt sich dieses Ergebnis auch durch eine (richtige) Revisionsoperation erreichen: Das durch die priori-Verteilung P1 ausgedrückte Wissen wird nicht auf Peter angewendet (genau das leistet i.Allg. die Konditionierung als Focusing-Operation), sondern das Wissen über Peter muss auf der gleichen Ebene wie R1 berücksichtigt werden, da es sich auf den Moment der Tat bezieht – d.h. P1 wird zu P1 0 = ME (R1 ∪ {¬Peter [1]}) mit P1 0 (Mary) = 0.5 = P1 0 (Paul) Das Paradoxon entsteht nicht ursächlich durch die Probabilistik, sondern durch eine unsachgemäße Verarbeitung von Information! G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 45 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Zusammenfassung Kapitel 4 • Bayessche Netze modellieren bedingte Unabhängigkeiten, während die ME -Methodik sich auf die konsequente Ausnutzung bedingter Abhängigkeiten konzentriert. • ME -Inferenz und ME -Revision sind mächtige Methoden für die probabilistische Wissensrepräsentation mit hervorragenden Eigenschaften. • Durch Abstraktion lassen sich aus Wahrscheinlichkeitsfunktionen qualitative Rangfunktionen gewinnen, auf die sich wichtige Aspekte der ME -Prinzipien übertragen lassen (→ c-Repräsentation, c-Revision). G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 46 / 46