Fortgeschrittene Themen der Wissensrepräsentation Gabriele Kern-Isberner LS 1 – Information Engineering TU Dortmund Sommersemester 2014 G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 1 / 138 Revision von Wissenszuständen und konditionalem Wissen Ein konstruktiver epistemischer Revisionsansatz Kapitel 3 3. Revision von Wissenszuständen und konditionalem Wissen 3.4 Ein konstruktiver epistemischer Revisionsansatz G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 60 / 138 Revision von Wissenszuständen und konditionalem Wissen Ein konstruktiver epistemischer Revisionsansatz Revision mit Mengen von Konditionalen 1/3 Was wäre, wenn man nun gleichzeitig die beiden Konditionale (f |p), (w|k) hätte lernen wollen? Der obige Ansatz lässt sich leicht verallgemeinern: Sei ∆ = {(B1 |A1 ), . . . , (Bn |An )} eine Menge von Konditionalen, sei κ eine OCF. Eine Revision von κ mit ∆ erhält man mittels P κ ∗ ∆(ω) = κ0 + κ(ω) + κ− i , ω|=Ai Bi − wobei κ0 , κ− 1 , . . . , κn so bestimmt werden müssen, dass gilt: κ ∗ ∆(>) = 0 und κ ∗ ∆ |= (Bi |Ai ), 1 ≤ i ≤ n (Success). G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 99 / 138 Revision von Wissenszuständen und konditionalem Wissen Ein konstruktiver epistemischer Revisionsansatz Revision mit Mengen von Konditionalen 2/3 (Success) ist erfüllt gdw. für alle i, 1 ≤ i ≤ n, X κ− κ− j ) − min (κ(ω) + i > min (κ(ω) + ω|=Ai Bi G. Kern-Isberner (TU Dortmund) j6=i ω|=Aj B j ω|=Ai B i Fortgeschrittene Themen der Wissensrepräsentation X κ− j ). j6=i ω|=Aj B j 100 / 138 Revision von Wissenszuständen und konditionalem Wissen Ein konstruktiver epistemischer Revisionsansatz Revision mit Mengen von Konditionalen 3/3 Beispiel: Im Tweety & Co.-Beispiel hätte die gleichzeitige Revision der beiden Konditionale, also die Revision mit ∆ = {(f |p), (w|k)}, zum gleichen Ergebnis geführt wie die sukzessive Revision. ♣ Alle solchen Revisionen erfüllen alle bisher vorgestellten Postulate (AGMes) und (CR1)-(CR4)). Im Allgemeinen liefert allerdings dieser Revisionsansatz kein eindeutiges Revisionsergebnis (auch nicht, wenn die Minimalität der Verschiebefaktoren gefordert wird) ! G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 101 / 138 Revision von Wissenszuständen und konditionalem Wissen Ein konstruktiver epistemischer Revisionsansatz Prinzip der konditionalen Erhaltung für OCF 1/2 Ein Prinzip der konditionalen Erhaltung war die Grundidee des Ansatzes von Darwiche & Pearl. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 102 / 138 Revision von Wissenszuständen und konditionalem Wissen Ein konstruktiver epistemischer Revisionsansatz Prinzip der konditionalen Erhaltung für OCF 1/2 Ein Prinzip der konditionalen Erhaltung war die Grundidee des Ansatzes von Darwiche & Pearl. Charakteristika von Konditionalen: • Konditionale sind 3-wertig: 1 wenn ω |= AB (Verifikation) 0 wenn ω |= AB (Falsifikation) (B|A)(ω) = u wenn ω |= A G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 102 / 138 Revision von Wissenszuständen und konditionalem Wissen Ein konstruktiver epistemischer Revisionsansatz Prinzip der konditionalen Erhaltung für OCF 1/2 Ein Prinzip der konditionalen Erhaltung war die Grundidee des Ansatzes von Darwiche & Pearl. Charakteristika von Konditionalen: • Konditionale sind 3-wertig: 1 wenn ω |= AB (Verifikation) 0 wenn ω |= AB (Falsifikation) (B|A)(ω) = u wenn ω |= A • Die Semantik von Konditionalen ist für OCFs definiert durch Differenzen: κ(B|A) = κ(AB) − κ(A) G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 102 / 138 Revision von Wissenszuständen und konditionalem Wissen Ein konstruktiver epistemischer Revisionsansatz Prinzip der konditionalen Erhaltung für OCF 1/2 Ein Prinzip der konditionalen Erhaltung war die Grundidee des Ansatzes von Darwiche & Pearl. Charakteristika von Konditionalen: • Konditionale sind 3-wertig: 1 wenn ω |= AB (Verifikation) 0 wenn ω |= AB (Falsifikation) (B|A)(ω) = u wenn ω |= A • Die Semantik von Konditionalen ist für OCFs definiert durch Differenzen: κ(B|A) = κ(AB) − κ(A) Beide Charakteristika werden für ein sehr allgemeines Prinzip der konditionalen Erhaltung eingesetzt. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 102 / 138 Revision von Wissenszuständen und konditionalem Wissen Ein konstruktiver epistemischer Revisionsansatz Prinzip der konditionalen Erhaltung für OCF 2/2 Man kann zeigen, dass der obige Ansatz äquivalent ist zur Erfüllung des folgenden Prinzips der konditionalen Erhaltung: OCF principle of conditional preservation 0 } be two multi-sets of Let Ω = {ω1 , . . . , ωm } and Ω0 = {ω10 , . . . , ωm possible worlds (not necessarily different). If for each conditional (Bi |Ai ) in ∆, Ω and Ω0 behave the same, i.e., they show the same number of verifications resp. falsifications, then prior κ and posterior κ∗ are balanced by 0 (κ(ω1 ) + . . . + κ(ωm )) − (κ(ω10 ) + . . . + κ(ωm )) 0 = (κ∗ (ω1 ) + . . . + κ∗ (ωm )) − (κ∗ (ω10 ) + . . . + κ∗ (ωm )) G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 103 / 138 Revision von Wissenszuständen und konditionalem Wissen Ein konstruktiver epistemischer Revisionsansatz Konditionale Strukturen 1/5 Um genauer festlegen zu können, wann sich zwei Mengen 0 } möglicher Welten bezgl. ∆ Ω = {ω1 , . . . , ωm } und Ω0 = {ω10 , . . . , ωm gleich verhalten, benutzt man den Ansatz der konditionalen Strukturen: G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 104 / 138 Revision von Wissenszuständen und konditionalem Wissen Ein konstruktiver epistemischer Revisionsansatz Konditionale Strukturen 2/5 Let ∆ = {(B1 |A1 ), . . . , (Bn |An )} be a set of conditionals. For each − conditional (Bi |Ai ) ∈ ∆ we define two abstract symbols, a+ i and ai such that • a+ i is linked to the verification Ai Bi of (Bi |Ai ). • a− i is linked to the falsification Ai Bi of (Bi |Ai ). 2 “iff” means “if and only if” G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 105 / 138 Revision von Wissenszuständen und konditionalem Wissen Ein konstruktiver epistemischer Revisionsansatz Konditionale Strukturen 2/5 Let ∆ = {(B1 |A1 ), . . . , (Bn |An )} be a set of conditionals. For each − conditional (Bi |Ai ) ∈ ∆ we define two abstract symbols, a+ i and ai such that • a+ i is linked to the verification Ai Bi of (Bi |Ai ). • a− i is linked to the falsification Ai Bi of (Bi |Ai ). We express this by the following function2 : Definition 3 (σi for each (Bi |Ai )) − σi : Ω → {a+ i , ai , 1} 2 “iff” means “if and only if” G. Kern-Isberner (TU Dortmund) + ai iff a− iff σi (ω) = i 1 iff Fortgeschrittene Themen der Wissensrepräsentation ω |= Ai Bi ω |= Ai B i ω |= Ai 105 / 138 Revision von Wissenszuständen und konditionalem Wissen Ein konstruktiver epistemischer Revisionsansatz Konditionale Strukturen 3/5 Conditional structure is defined as the combination of all effects of all conditionals in ∆: Definition 4 (conditional structure σ(ω)) Let ∆ = {(B1 |A1 ), . . . , (Bn |An )}. The conditional structure of a world ω ∈ Ω is defined asa σ(ω) = n Y σi (ω) = i=1 aQ is the product symbol, i.e., G. Kern-Isberner (TU Dortmund) Y ω|=Ai Bi Qn i=1 a+ i · Y a− i ω|=Ai B i ai = a1 · . . . · an Fortgeschrittene Themen der Wissensrepräsentation 106 / 138 Revision von Wissenszuständen und konditionalem Wissen Ein konstruktiver epistemischer Revisionsansatz Notizen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 106 / 138 Revision von Wissenszuständen und konditionalem Wissen Ein konstruktiver epistemischer Revisionsansatz Example Let ∆ = (f |b), (f |p), (b|p) | {z } | {z } |{z} 1 2 3 − + σ(p b f ) = a+ 1 a2 a3 + + σ(p b f ) = a− 1 a2 a3 − σ(p b f ) = 1 · a− 2 a3 − σ(p b f ) = 1 · a+ 2 a3 G. Kern-Isberner (TU Dortmund) . σ(p b f ) = a+ 1 ·1·1 σ(p b f ) = a− 1 ·1·1 σ(p b f ) = 1 · 1 · 1 σ(p b f ) = 1 · 1 · 1 Fortgeschrittene Themen der Wissensrepräsentation 107 / 138 Revision von Wissenszuständen und konditionalem Wissen Ein konstruktiver epistemischer Revisionsansatz Example Let ∆ = (f |b), (f |p), (b|p) | {z } | {z } |{z} 1 2 3 . − + σ(p b f ) = a+ 1 a2 a3 σ(p b f ) = a+ 1 + + σ(p b f ) = a− 1 a2 a3 σ(p b f ) = a− 1 − σ(p b f ) = a− 2 a3 σ(p b f ) = 1 − σ(p b f ) = a+ 2 a3 σ(p b f ) = 1 G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 107 / 138 Revision von Wissenszuständen und konditionalem Wissen Ein konstruktiver epistemischer Revisionsansatz Konditionale Strukturen 4/5 Für Multimengen Ω = {ω1 , . . . , ωm } definieren wir dann σ(Ω) = m Y σ(ωi ). i=1 G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 108 / 138 Revision von Wissenszuständen und konditionalem Wissen Ein konstruktiver epistemischer Revisionsansatz Konditionale Strukturen 4/5 Für Multimengen Ω = {ω1 , . . . , ωm } definieren wir dann σ(Ω) = m Y σ(ωi ). i=1 0 } verhalten Zwei Multimengen Ω = {ω1 , . . . , ωm } und Ω0 = {ω10 , . . . , ωm sich dann bezgl. ∆ gleich, wenn gilt: σ(Ω) = σ(Ω0 ). G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 108 / 138 Revision von Wissenszuständen und konditionalem Wissen Ein konstruktiver epistemischer Revisionsansatz Konditionale Strukturen 5/5 Definieren wir auch noch κ(Ω) = m X κ(ωi ) i=1 für Multimengen Ω = {ω1 , . . . , ωm }, so lässt sich das Prinzip der konditionalen Erhaltung kompakt so ausdrücken: Prinzip der konditionalen Erhaltung Gilt für zwei Multimengen σ(Ω) = σ(Ω0 ), so muss auch κ(Ω) − κ(Ω0 ) = κ∗ (Ω) − κ∗ (Ω0 ) mit κ∗ = κ ∗ ∆ gelten, d.h. priori-Differenz = posteriori-Differenz. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 109 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Kapitel 3 – Übersicht 1 AGM-Erweiterung für Wissenszustände 2 Minimal Change-Paradigma bei konditionalem Wissen 3 Neue Postulate für iterierte Revisionen 4 Ein konstruktiver epistemischer Revisionsansatz 5 Revision und induktive Repräsentation 6 Multiple Revision 7 Zusammenfassung und Ausblick G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 110 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Kapitel 3 3. Revision von Wissenszuständen und konditionalem Wissen 3.5 Revision und induktive Repräsentation G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 111 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Induktive Wissensrepräsentation Darunter verstehen wir hier eine Art Wissensvervollständigung, d.h. eine Ableitung neuen Wissens aus gegebenem Wissen, die über die rein deduktive Folgerung hinausgeht. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 112 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Induktive Wissensrepräsentation Darunter verstehen wir hier eine Art Wissensvervollständigung, d.h. eine Ableitung neuen Wissens aus gegebenem Wissen, die über die rein deduktive Folgerung hinausgeht. Dieses Problem ist optimal gelöst dann, wenn man einen Mechanismus gefunden hat, der auf der Basis unvollständigen Wissens für jede mögliche (syntaktisch zulässige) Anfrage eine eindeutige Antwort generiert. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 112 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Induktive Wissensrepräsentation Darunter verstehen wir hier eine Art Wissensvervollständigung, d.h. eine Ableitung neuen Wissens aus gegebenem Wissen, die über die rein deduktive Folgerung hinausgeht. Dieses Problem ist optimal gelöst dann, wenn man einen Mechanismus gefunden hat, der auf der Basis unvollständigen Wissens für jede mögliche (syntaktisch zulässige) Anfrage eine eindeutige Antwort generiert. Möchte man hier auch konditionales Wissen miteinbeziehen, so ist dieses Problem äquivalent mit dem Problem, aus einer gegebenen Wissensbasis (mit Fakten und Konditionalen) einen Wissenszustand zu erzeugen. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 112 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation System Z – Erinnerung Mit dem System Z haben wir bereits einen solchen Mechanismus kennengelernt: Wir benutzen die durch den Konsistenztest berechnete Partitionierung einer konditionalen Wissensbasis ∆ = {ri : (Bi |Ai )}1≤i≤n ∆ = (∆0 , ∆1 , . . . , ∆k ), und definieren die Rangfunktion κz durch κz (ω) = mit Z(ri ) = j ( 0, wenn ω keine Regel aus ∆ falsifiziert, max1≤i≤n {Z(ri ) | ω |= Ai Bi } + 1, sonst gdw. ri ∈ ∆j . (s. Commonsense Reasoning) G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 113 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Repräsentation und Revision Und was hat das mit Revision zu tun ? G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 114 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Repräsentation und Revision Und was hat das mit Revision zu tun ? Aus jeder Revisionsvorschrift für Wissenszustände und Default-Mengen lässt sich ein induktiver Repräsentationsmechanismus für Defaults ableiten, indem man als priori-Wissenszustand den uniformen Wissenszustand benutzt. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 114 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Repräsentation und Revision Und was hat das mit Revision zu tun ? Aus jeder Revisionsvorschrift für Wissenszustände und Default-Mengen lässt sich ein induktiver Repräsentationsmechanismus für Defaults ableiten, indem man als priori-Wissenszustand den uniformen Wissenszustand benutzt. Der uniforme Wissenszustand repräsentiert Nichtwissen, Indifferenz etc., d.h. allen möglichen Welten wird der gleiche Wert zugewiesen. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 114 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Repräsentation und Revision Und was hat das mit Revision zu tun ? Aus jeder Revisionsvorschrift für Wissenszustände und Default-Mengen lässt sich ein induktiver Repräsentationsmechanismus für Defaults ableiten, indem man als priori-Wissenszustand den uniformen Wissenszustand benutzt. Der uniforme Wissenszustand repräsentiert Nichtwissen, Indifferenz etc., d.h. allen möglichen Welten wird der gleiche Wert zugewiesen. Die uniforme Rangfunktion ist also wie folgt definiert: κu (ω) = 0 für alle ω ∈ Ω G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 114 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Induktive Default-Repräsentation mit OCF’s Sei ∆ = {(B1 |A1 ), . . . , (Bn |An )} eine konsistente Menge von Konditionalen. Eine induktive Repräsentation von ∆ erhält man mittels κ∆ (ω) = P κ− i ω|=Ai Bi − wobei κ− 1 , . . . , κn so bestimmt werden müssen, dass κ∆ |= (Bj |Aj ), 1 ≤ j ≤ n, gilt, G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 115 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Induktive Default-Repräsentation mit OCF’s Sei ∆ = {(B1 |A1 ), . . . , (Bn |An )} eine konsistente Menge von Konditionalen. Eine induktive Repräsentation von ∆ erhält man mittels κ∆ (ω) = P κ− i ω|=Ai Bi − wobei κ− 1 , . . . , κn so bestimmt werden müssen, dass κ∆ |= (Bj |Aj ), 1 ≤ j ≤ n, gilt,d.h. X X − κ− > min − min κ κ− j i i ω|=Aj Bj i6=j ω|=Ai Bi ω|=Aj Bj i6=j ω|=Ai Bi (Eine Normalisierung ist wegen der Konsistenz nicht nötig.) G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 115 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Notizen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 115 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Notizen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 115 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Notizen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 115 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Beispiel Schaltung G. Kern-Isberner (TU Dortmund) ω κ κ ∗ (a ∨ m) am am am am 0 1 2 3 1 0 1 2 Fortgeschrittene Themen der Wissensrepräsentation 116 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Beispiel Schaltung ω κ κ ∗ (a ∨ m) am am am am 0 1 2 3 1 0 1 2 κ = κ∆ mit ∆ = {(am|>), (am|am ∨ am), (m|a)}. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 116 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Notizen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 116 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Notizen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 116 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Beispiel Tier G. Kern-Isberner (TU Dortmund) ω κ κ∗f κ∗alt bf bf bf bf 2 3 1 0 1 {2, 3, 4} 0 1 (1) (1) (0) (1) Fortgeschrittene Themen der Wissensrepräsentation 117 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Beispiel Tier ω κ κ∗f κ∗alt bf bf bf bf 2 3 1 0 1 {2, 3, 4} 0 1 (1) (1) (0) (1) κ = κ∆ mit ∆ = {(b f |>), (f |b), (bf |b ∨ f )}. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 117 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Notizen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 117 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Notizen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 117 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Beispiel Lady G. Kern-Isberner (TU Dortmund) ω κ κ∗s κ∗alt sr sr sr sr 1 1 1 2 0 2 0 1 (2) (1) (0) (1) Fortgeschrittene Themen der Wissensrepräsentation 118 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Beispiel Lady ω κ κ∗s κ∗alt sr sr sr sr 1 1 1 2 0 2 0 1 (2) (1) (0) (1) κ = κ∆ mit ∆ = {(sr|>), (s|r), (r|s)}. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 118 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Beispiel – Tweety & Co. (Forts.) Hier sollten folgende (Un)Gleichungen erfüllt sein: κ(pbf˙k̇ ẇ) = ∞, κ(bf ) < κ(bf ), κ(ṗbf˙k ẇ) = ∞, κ(bw) < κ(bw), κ(pbf kw) = ∞, und tatsächlich wurde die ursprüngliche Rangfunktion von der Regelmenge ∆ = {p ⇒ b, k ⇒ b, p ⇒ k, (f |b), (w|b)} erzeugt. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 119 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Beispiel – Tweety & Co. (Forts.) ω κ(ω) ω κ(ω) pbf kw pbf kw pbf kw pbf kw 0 1 1 2 pbf kw pbf kw pbf kw pbf kw 0 1 1 2 pbf kw pbf kw pbf kw pbf kw 0 1 1 2 pbf kw pbf kw pb f kw pb f kw 0 0 0 0 G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 120 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation c-Repräsentation und System Z 1/2 Eine solche Art der Repräsentation wird auch als c-Repräsentation (c = conditionals) bezeichnet. Sie verallgemeinert das Strafpunkte-System des System Z in zweierlei Hinsicht: • statt durch Maximierung werden die Ränge der Welten hier durch Aufsummierung der Strafpunkte berechnet; G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 121 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation c-Repräsentation und System Z 1/2 Eine solche Art der Repräsentation wird auch als c-Repräsentation (c = conditionals) bezeichnet. Sie verallgemeinert das Strafpunkte-System des System Z in zweierlei Hinsicht: • statt durch Maximierung werden die Ränge der Welten hier durch Aufsummierung der Strafpunkte berechnet; • die Strafpunkte werden flexibel durch Betrachtung der Interaktionen der Regeln berechnet. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 121 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation c-Repräsentation und System Z 1/2 Eine solche Art der Repräsentation wird auch als c-Repräsentation (c = conditionals) bezeichnet. Sie verallgemeinert das Strafpunkte-System des System Z in zweierlei Hinsicht: • statt durch Maximierung werden die Ränge der Welten hier durch Aufsummierung der Strafpunkte berechnet; • die Strafpunkte werden flexibel durch Betrachtung der Interaktionen der Regeln berechnet. c-Repräsentationen zeichnen sich durch höchste Qualität der Revisionen und Inferenzen aus. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 121 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation c-Repräsentation und System Z – Beispiel 1/4 Wir betrachten die folgende Regelmenge ∆: r1 r2 r3 r4 G. Kern-Isberner (TU Dortmund) : : : : (f |b) (b|p) (f |p) (w|b) Vögel fliegen. Pinguine sind Vögel. Pinguine fliegen nicht. Vögel haben Flügel. Fortgeschrittene Themen der Wissensrepräsentation 122 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation c-Repräsentation und System Z – Beispiel 1/4 Wir betrachten die folgende Regelmenge ∆: r1 r2 r3 r4 : : : : (f |b) (b|p) (f |p) (w|b) Vögel fliegen. Pinguine sind Vögel. Pinguine fliegen nicht. Vögel haben Flügel. Für System Z wird die folgende Partitionierung berechnet: ∆0 = {r1 , r4 }, ∆1 = {r2 , r3 }; damit erhalten wir die folgende System Z-Darstellung κz : G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 122 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation c-Repräsentation und System Z – Beispiel 2/4 ω ri fals. κz (ω) ω ri fals. κz (ω) pbf w pbf w pbf w pbf w pbf w pbf w pb f w pb f w r3 r3 , r4 r1 r1 , r4 r2 , r3 r2 , r3 r2 r2 2 2 1 1 2 2 2 2 pbf w pbf w pbf w pbf w pbf w pbf w pbf w pb f w − r4 r1 r1 , r4 − − − − 0 1 1 1 0 0 0 0 G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 123 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation c-Repräsentation und System Z – Beispiel 2/4 ω ri fals. κz (ω) ω ri fals. κz (ω) pbf w pbf w pbf w pbf w pbf w pbf w pb f w pb f w r3 r3 , r4 r1 r1 , r4 r2 , r3 r2 , r3 r2 r2 2 2 1 1 2 2 2 2 pbf w pbf w pbf w pbf w pbf w pbf w pbf w pb f w − r4 r1 r1 , r4 − − − − 0 1 1 1 0 0 0 0 Wegen κz (pw) = 1 = κz (pw) können wir nicht ableiten, dass auch Pinguine Flügel haben (Drowning Problem). G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 123 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation c-Repräsentation und System Z – Beispiel 3/4 Wir berechnen nun eine minimale c-Repräsentation κ∆ zu diesem Beispiel mit den Werten − − − κ− 1 = κ4 = 1, κ2 = κ3 = 2; wir erhalten damit als von ∆ induzierte Rangfunktion: G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 124 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Notizen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 124 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation Notizen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 124 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation c-Repräsentation und System Z – Beispiel 4/4 ω ri fals. κ∆ (ω) ω ri fals. κ∆ (ω) pbf w pbf w pbf w pbf w pbf w pbf w pb f w pb f w r3 r3 , r4 r1 r1 , r4 r2 , r3 r2 , r3 r2 r2 2 3 1 2 4 4 2 2 pbf w pbf w pbf w pbf w pbf w pbf w pbf w pb f w − r4 r1 r1 , r4 − − − − 0 1 1 2 0 0 0 0 G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 125 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation c-Repräsentation und System Z – Beispiel 4/4 ω ri fals. κ∆ (ω) ω ri fals. κ∆ (ω) pbf w pbf w pbf w pbf w pbf w pbf w pb f w pb f w r3 r3 , r4 r1 r1 , r4 r2 , r3 r2 , r3 r2 r2 2 3 1 2 4 4 2 2 pbf w pbf w pbf w pbf w pbf w pbf w pbf w pb f w − r4 r1 r1 , r4 − − − − 0 1 1 2 0 0 0 0 Hier ist nun κz (pw) = 1 < 2 = κz (pw) – damit können wir nun ableiten, dass auch Pinguine Flügel haben. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 125 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation c-Repräsentation und System Z 2/2 Allerdings gibt es auch Nachteile: • Es gibt nicht immer eine eindeutige “minimale” Lösung (typischerweise passiert das dann, wenn redundante Information vorliegt, s. Lady-Beispiel). G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 126 / 138 Revision von Wissenszuständen und konditionalem Wissen Revision und induktive Repräsentation c-Repräsentation und System Z 2/2 Allerdings gibt es auch Nachteile: • Es gibt nicht immer eine eindeutige “minimale” Lösung (typischerweise passiert das dann, wenn redundante Information vorliegt, s. Lady-Beispiel). • Durch die Summation steigt die Berechnungs-Komplexität beträchtlich (NP-hart). G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 126 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Kapitel 3 –Übersicht 1 AGM-Erweiterung für Wissenszustände 2 Minimal Change-Paradigma bei konditionalem Wissen 3 Neue Postulate für iterierte Revisionen 4 Ein konstruktiver epistemischer Revisionsansatz 5 Revision und induktive Repräsentation 6 Multiple Revision 7 Zusammenfassung und Ausblick G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 127 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Kapitel 3 3. Revision von Wissenszuständen und konditionalem Wissen 3.6 Multiple Revision G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 128 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Multiple Revision vs. iterierte Revision Iterierte Revision und die Postulate (CR1)-(CR4) lösen nicht alle Probleme, im Schaltungsbeispiel scheint das Postulat (CR2) Probleme zu machen: (CR2) Wenn B |= ¬A, dann Bel((Ψ ∗ A) ∗ B) ≡ Bel(Ψ ∗ B). Ist nämlich A = am (Schaltung okay) und B = a, so gilt B |= ¬A, und folglich würde die Information A bei der iterierten Revision völlig vergessen, d.h., wir würden auch das Wissen über m verlieren. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 129 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Multiple Revision vs. iterierte Revision Iterierte Revision und die Postulate (CR1)-(CR4) lösen nicht alle Probleme, im Schaltungsbeispiel scheint das Postulat (CR2) Probleme zu machen: (CR2) Wenn B |= ¬A, dann Bel((Ψ ∗ A) ∗ B) ≡ Bel(Ψ ∗ B). Ist nämlich A = am (Schaltung okay) und B = a, so gilt B |= ¬A, und folglich würde die Information A bei der iterierten Revision völlig vergessen, d.h., wir würden auch das Wissen über m verlieren. Das Problem besteht jedoch eher darin, dass die Information “Beide (unabhängigen) Komponenten der Schaltung sind (defaultmäßig) okay” als am modelliert wird und nicht als {a, m}. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 129 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Multiple Revision Die multiple (iterierte) Revision beschäftigt sich mit der Revision von Wissenszuständen mit Mengen von (plausiblen) Aussagen. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 130 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Multiple Revision Die multiple (iterierte) Revision beschäftigt sich mit der Revision von Wissenszuständen mit Mengen von (plausiblen) Aussagen. Wir schauen uns das wieder für OCFs an, auch hier liefert unser allgemeiner Ansatz von c-Revisionen eine Lösung: G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 130 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Multiple Revision Die multiple (iterierte) Revision beschäftigt sich mit der Revision von Wissenszuständen mit Mengen von (plausiblen) Aussagen. Wir schauen uns das wieder für OCFs an, auch hier liefert unser allgemeiner Ansatz von c-Revisionen eine Lösung: Sei κ eine OCF, und sei S = {A1 , . . . , An } eine endliche, konsistente Menge propositionaler Formeln. Wir fassen alle Ai als plausible Aussagen auf und können daher die Ai mit Konditionalen (Ai |>) identifizieren; G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 130 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Multiple Revision Die multiple (iterierte) Revision beschäftigt sich mit der Revision von Wissenszuständen mit Mengen von (plausiblen) Aussagen. Wir schauen uns das wieder für OCFs an, auch hier liefert unser allgemeiner Ansatz von c-Revisionen eine Lösung: Sei κ eine OCF, und sei S = {A1 , . . . , An } eine endliche, konsistente Menge propositionaler Formeln. Wir fassen alle Ai als plausible Aussagen auf und können daher die Ai mit Konditionalen (Ai |>) identifizieren; hier liefert unser allgemeiner Ansatz folgendes Schema für eine Revision κ∗ = κ ∗ S: n X κ∗ (ω) = κ0 + κ(ω) + κ− i , i=1 ω|=Ai G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 130 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Multiple Revision Die multiple (iterierte) Revision beschäftigt sich mit der Revision von Wissenszuständen mit Mengen von (plausiblen) Aussagen. Wir schauen uns das wieder für OCFs an, auch hier liefert unser allgemeiner Ansatz von c-Revisionen eine Lösung: Sei κ eine OCF, und sei S = {A1 , . . . , An } eine endliche, konsistente Menge propositionaler Formeln. Wir fassen alle Ai als plausible Aussagen auf und können daher die Ai mit Konditionalen (Ai |>) identifizieren; hier liefert unser allgemeiner Ansatz folgendes Schema für eine Revision κ∗ = κ ∗ S: n X κ∗ (ω) = κ0 + κ(ω) + κ− i , κ− i > minω|=Ai {κ(ω) + G. Kern-Isberner (TU Dortmund) P i=1 ω|=Ai j6=i ω|=Aj κ− j } − minω|=Ai {κ(ω) + Fortgeschrittene Themen der Wissensrepräsentation P j6=i ω|=Aj κ− j }. 130 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Multiple c-Revisionen 1/2 Für den Fall der propositionalen (multiplen) c-Revisionen ergeben sich zunächst Vereinfachungen: Proposition 1 Sei κ∗ = κ ∗ S eine propositionale c-Revision von κ mit S = {A1 , . . . , An } wie oben gegeben. Dann gilt: • κ0 = −κ(S) = −κ(A1 . . . An ), und • für jedes Ai ∈ S gilt: min {κ(ω) + ω|=Ai G. Kern-Isberner (TU Dortmund) X j6=i ω|=Aj κ− j } = κ(A1 . . . An ). Fortgeschrittene Themen der Wissensrepräsentation 131 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Notizen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 131 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Notizen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 131 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Notizen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 131 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Notizen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 131 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Multiple c-Revisionen 2/2 Wir können also unseren Ansatz wie folgt zusammenfassen: Propositionale C-revisionen für OCFs Sei κ eine OCF, und sei S = {A1 , . . . , An } eine Menge von Propositionen. Dann hat eine propositionale c-Revision von κ mit S die folgende Form: κ ∗ S(ω) = κ∗ (ω) = −κ(A1 . . . An ) + κ(ω) + n X G. Kern-Isberner (TU Dortmund) (1) i=1 ω|=Ai mit nicht-negativen ganzen Zahlen κ− i , für die gilt: X κ− > κ(A . . . A ) − min {κ(ω) + κ− 1 n i j }. ω|=Ai κ− i (2) j6=i ω|=Aj Fortgeschrittene Themen der Wissensrepräsentation 132 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Multiple Revision – Beispiel κ |= ab; S = {a, b}: ω κ(ω) κ ∗ S(ω) ab ab ab ab −4 + κ(ω) −4 + κ(ω) + κ− 2 −4 + κ(ω) + κ− 1 − −4 + κ(ω) + κ− 1 + κ2 4 1 1 0 G. Kern-Isberner (TU Dortmund) (κ ∗ S)min (ω) κ ∗ ab(ω) 0 1 1 4 (κ ∗ ab)min (ω) −4 + κ(ω) −4 + κ(ω) + κ− −4 + κ(ω) + κ− −4 + κ(ω) + κ− Fortgeschrittene Themen der Wissensrepräsentation 0 2 2 1 133 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Notizen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 133 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Notizen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 133 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Notizen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 133 / 138 Revision von Wissenszuständen und konditionalem Wissen Multiple Revision Notizen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 133 / 138 Revision von Wissenszuständen und konditionalem Wissen Zusammenfassung und Ausblick Kapitel 3 – Übersicht 1 AGM-Erweiterung für Wissenszustände 2 Minimal Change-Paradigma bei konditionalem Wissen 3 Neue Postulate für iterierte Revisionen 4 Ein konstruktiver epistemischer Revisionsansatz 5 Revision und induktive Repräsentation 6 Multiple Revision 7 Zusammenfassung und Ausblick G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 134 / 138 Revision von Wissenszuständen und konditionalem Wissen Zusammenfassung und Ausblick Kapitel 3 3. Revision von Wissenszuständen und konditionalem Wissen 3.7 Zusammenfassung und Ausblick G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 135 / 138 Revision von Wissenszuständen und konditionalem Wissen Zusammenfassung und Ausblick Zusammenfassung 1/2 • Die AGM-Theorie ist ein wichtiger Kriterienkatalog für alle Wissensänderungen. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 136 / 138 Revision von Wissenszuständen und konditionalem Wissen Zusammenfassung und Ausblick Zusammenfassung 1/2 • Die AGM-Theorie ist ein wichtiger Kriterienkatalog für alle Wissensänderungen. • Mittels Rangfunktionen lässt sich eine einfache Umsetzung der AGM-Postulate in einem epistemischen Rahmen realisieren (Prinzip der minimalen Modelle). G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 136 / 138 Revision von Wissenszuständen und konditionalem Wissen Zusammenfassung und Ausblick Zusammenfassung 1/2 • Die AGM-Theorie ist ein wichtiger Kriterienkatalog für alle Wissensänderungen. • Mittels Rangfunktionen lässt sich eine einfache Umsetzung der AGM-Postulate in einem epistemischen Rahmen realisieren (Prinzip der minimalen Modelle). • Rangfunktionen sind gute Repräsentationen von Wissenszuständen; sie lassen sich insbesondere in epistemische Verwurzelungsfunktionen transformieren und umgekehrt. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 136 / 138 Revision von Wissenszuständen und konditionalem Wissen Zusammenfassung und Ausblick Zusammenfassung 2/2 • Bei der iterierten Revision von Wissenszuständen ist es wichtig, die Änderung des konditionalen Wissens zu steuern. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 137 / 138 Revision von Wissenszuständen und konditionalem Wissen Zusammenfassung und Ausblick Zusammenfassung 2/2 • Bei der iterierten Revision von Wissenszuständen ist es wichtig, die Änderung des konditionalen Wissens zu steuern. • Das Prinzip der konditionalen Erhaltung lässt sich (bei qualitativen Wissenszuständen) durch einen “Verschiebemechanismus” optimal realisieren. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 137 / 138 Revision von Wissenszuständen und konditionalem Wissen Zusammenfassung und Ausblick Implementationen und Anwendungen • Das System SATEN führt Wissensrevisionen verschiedenen Typs auf Verwurzelungsfunktionen durch. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 138 / 138 Revision von Wissenszuständen und konditionalem Wissen Zusammenfassung und Ausblick Implementationen und Anwendungen • Das System SATEN führt Wissensrevisionen verschiedenen Typs auf Verwurzelungsfunktionen durch. • Es gibt Algorithmen für c-Repräsentationen (falls eine eindeutige Lösung existiert). G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 138 / 138 Revision von Wissenszuständen und konditionalem Wissen Zusammenfassung und Ausblick Implementationen und Anwendungen • Das System SATEN führt Wissensrevisionen verschiedenen Typs auf Verwurzelungsfunktionen durch. • Es gibt Algorithmen für c-Repräsentationen (falls eine eindeutige Lösung existiert). Gebiete, in denen die Revisionstheorie immer stärkeren Eingang findet und Pragmatismen ablöst, sind • Kognitive Robotik, Agenten und Multi-Agentensysteme (Action and Change); G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 138 / 138 Revision von Wissenszuständen und konditionalem Wissen Zusammenfassung und Ausblick Implementationen und Anwendungen • Das System SATEN führt Wissensrevisionen verschiedenen Typs auf Verwurzelungsfunktionen durch. • Es gibt Algorithmen für c-Repräsentationen (falls eine eindeutige Lösung existiert). Gebiete, in denen die Revisionstheorie immer stärkeren Eingang findet und Pragmatismen ablöst, sind • Kognitive Robotik, Agenten und Multi-Agentensysteme (Action and Change); • Datenbanken und Informationssysteme; G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 138 / 138 Revision von Wissenszuständen und konditionalem Wissen Zusammenfassung und Ausblick Implementationen und Anwendungen • Das System SATEN führt Wissensrevisionen verschiedenen Typs auf Verwurzelungsfunktionen durch. • Es gibt Algorithmen für c-Repräsentationen (falls eine eindeutige Lösung existiert). Gebiete, in denen die Revisionstheorie immer stärkeren Eingang findet und Pragmatismen ablöst, sind • Kognitive Robotik, Agenten und Multi-Agentensysteme (Action and Change); • Datenbanken und Informationssysteme; • Ontologien. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 138 / 138 Revision in der Probabilistik Probabilistische Revision – allgemein Kapitel 4 4. Revision in der Probabilistik G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 2 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Kapitel 4 4. Revision in der Probabilistik 4.1 Probabilistische Revision – allgemein G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 3 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Die älteste Revisionsmethode der Welt (Epistemische) AGM-Revision behandelt das Problem, einen Wissenszustand Ψ durch neue, sicher geglaubte Information A zu verändern: Ψ ∗ A. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 4 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Die älteste Revisionsmethode der Welt (Epistemische) AGM-Revision behandelt das Problem, einen Wissenszustand Ψ durch neue, sicher geglaubte Information A zu verändern: Ψ ∗ A. In einer probabilistischen Umgebung ist eine Wahrscheinlichkeitsverteilung P ein Wissenszustand: P ∗ A. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 4 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Die älteste Revisionsmethode der Welt (Epistemische) AGM-Revision behandelt das Problem, einen Wissenszustand Ψ durch neue, sicher geglaubte Information A zu verändern: Ψ ∗ A. In einer probabilistischen Umgebung ist eine Wahrscheinlichkeitsverteilung P ein Wissenszustand: P ∗ A. Eine Methode, die P dahingehend verändert, dass A nachher sicher geglaubt wird, d.h. mit Wahrscheinlichkeit 1, ist die Bayes’sche Konditionalisierung ( P (ω) P (A) falls ω |= A P ∗ A(ω) = P (ω|A) = 0 falls ω |= A (wenn P (A) > 0). G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 4 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Die älteste Revisionsmethode der Welt (Epistemische) AGM-Revision behandelt das Problem, einen Wissenszustand Ψ durch neue, sicher geglaubte Information A zu verändern: Ψ ∗ A. In einer probabilistischen Umgebung ist eine Wahrscheinlichkeitsverteilung P ein Wissenszustand: P ∗ A. Eine Methode, die P dahingehend verändert, dass A nachher sicher geglaubt wird, d.h. mit Wahrscheinlichkeit 1, ist die Bayes’sche Konditionalisierung ( P (ω) P (A) falls ω |= A P ∗ A(ω) = P (ω|A) = 0 falls ω |= A (wenn P (A) > 0). (Success) ist gegeben durch P ∗ A(A) = 1. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 4 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Jeffrey’s Regel 1/2 Konditionalisierung lässt sich verallgemeinern: Seien B1 , . . . , Bn disjunkte Aussagen, über die zunächst Wahrscheinlichkeiten P (B1 ), . . . , P (Bn ) bekannt sind; wir können annehmen, dass B1 , . . . , Bn auch erschöpfend sind, d.h. dass gilt P (B1 ) + . . . + P (Bn ) = 1. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 5 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Jeffrey’s Regel 1/2 Konditionalisierung lässt sich verallgemeinern: Seien B1 , . . . , Bn disjunkte Aussagen, über die zunächst Wahrscheinlichkeiten P (B1 ), . . . , P (Bn ) bekannt sind; wir können annehmen, dass B1 , . . . , Bn auch erschöpfend sind, d.h. dass gilt P (B1 ) + . . . + P (Bn ) = 1. Wie verändert sich die gesamte Verteilung P , wenn nun neue Informationen über die Wahrscheinlichkeiten der Bi bekannt werden? G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 5 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Jeffrey’s Regel 1/2 Konditionalisierung lässt sich verallgemeinern: Seien B1 , . . . , Bn disjunkte Aussagen, über die zunächst Wahrscheinlichkeiten P (B1 ), . . . , P (Bn ) bekannt sind; wir können annehmen, dass B1 , . . . , Bn auch erschöpfend sind, d.h. dass gilt P (B1 ) + . . . + P (Bn ) = 1. Wie verändert sich die gesamte Verteilung P , wenn nun neue Informationen über die Wahrscheinlichkeiten der Bi bekannt werden? D.h., P soll so zu P ∗ verändert werden, dass P ∗ (Bi ) = pi vorgegebene Werte annimmt. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 5 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Jeffrey’s Regel 2/2 Die Lösung zu diesem Problem liefert eine Annahme, die man als probability kinematics bezeichnet – nämlich, dass die neuen Wahrscheinlichkeiten der Bi keine der unter Bi bedingten Wahrscheinlichkeiten ändern sollte: P ∗ (A|Bi ) = P (A|Bi ) G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 6 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Jeffrey’s Regel 2/2 Die Lösung zu diesem Problem liefert eine Annahme, die man als probability kinematics bezeichnet – nämlich, dass die neuen Wahrscheinlichkeiten der Bi keine der unter Bi bedingten Wahrscheinlichkeiten ändern sollte: P ∗ (A|Bi ) = P (A|Bi ) Daraus ergibt sich sofort mit dem Satz von der totalen Wahrscheinlichkeit die Regel von Jeffrey: n X P ∗ (A) = P ∗ (A|Bi )P ∗ (Bi ) i=1 = n X P (A|Bi )P ∗ (Bi ) i=1 G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 6 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Jeffrey’s und Bayes Regel Jeffrey’s Regel verallgemeinert die Konditionalisierung nach Bayes: Liegt nämlich nur ein Ereignis B mit Wahrscheinlichkeit P ∗ (B) = 1 vor, so ergibt Jeffrey’s Regel: P ∗ (A) = P (A|B)P ∗ (B) = P (A|B), d.h. die posteriori Wahrscheinlichkeit ist nichts anderes als die nach B konditionalisierte priori Wahrscheinlichkeit; G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 7 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Jeffrey’s und Bayes Regel Jeffrey’s Regel verallgemeinert die Konditionalisierung nach Bayes: Liegt nämlich nur ein Ereignis B mit Wahrscheinlichkeit P ∗ (B) = 1 vor, so ergibt Jeffrey’s Regel: P ∗ (A) = P (A|B)P ∗ (B) = P (A|B), d.h. die posteriori Wahrscheinlichkeit ist nichts anderes als die nach B konditionalisierte priori Wahrscheinlichkeit; umgekehrt erhält man die bedingte Wahrscheinlichkeit als Spezialfall der Regel von Jeffrey, wenn die neue Information sicher ist, also Wahrscheinlichkeit 1 besitzt. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 7 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Multiple probabilistische Revision und mehr . . . Jeffrey’s Regel kann als multiple probabilistische Revision (unter gewissen Bedingungen) betrachtet werden, die neue Information besteht hier aus einer Menge probabilistischer Fakten S = {B1 [p1 ], . . . , Bn [pn ]}, und die Revisionsaufgabe besteht in der Bestimmung einer Verteilung P ∗S mit P ∗ S |= S (Success), wobei P |= Bi [pi ] gdw. P (Bi ) = pi . G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 8 / 46 Revision in der Probabilistik Probabilistische Revision – allgemein Multiple probabilistische Revision und mehr . . . (Forts.) In einem nächsten Schritt könnte die Revisionsaufgabe nun darin bestehen, P mit einer Menge R = {(B1 |A1 )[x1 ], . . . , (Bn |An )[xn ] so zu einer Verteilung P ∗ R zu verändern, dass P ∗ R |= (Bi |Ai )[xi ], 1 ≤ i ≤ n, (Success) gilt, wobei P |= (B|A)[x] gdw. P (A) > 0 und P (B|A) = x. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 9 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Kapitel 4 4. Revision in der Probabilistik 4.2 Wissensrevision auf der Basis optimaler Entropie G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 10 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Probabilistische Wissensrevision 1/3 Wenden wir uns dem Problem zu, Wissenszustände durch neue (konditionale) Informationen revidieren zu wollen. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 11 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Probabilistische Wissensrevision 1/3 Wenden wir uns dem Problem zu, Wissenszustände durch neue (konditionale) Informationen revidieren zu wollen. Geeignete probabilistische Wissenszustände sind Wahrscheinlichkeitsverteilungen. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 11 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Probabilistische Wissensrevision 1/3 Wenden wir uns dem Problem zu, Wissenszustände durch neue (konditionale) Informationen revidieren zu wollen. Geeignete probabilistische Wissenszustände sind Wahrscheinlichkeitsverteilungen. Geeignete neue Informationen sind Mengen probabilistischer Regeln. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 11 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Probabilistische Wissensrevision 1/3 Wenden wir uns dem Problem zu, Wissenszustände durch neue (konditionale) Informationen revidieren zu wollen. Geeignete probabilistische Wissenszustände sind Wahrscheinlichkeitsverteilungen. Geeignete neue Informationen sind Mengen probabilistischer Regeln. Gesucht ist also ein Verfahren, um Wahrscheinlichkeitsverteilungen P durch Mengen probabilistischer Regeln R zu revidieren. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 11 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Probabilistische Wissensrevision 2/3 Mit welchen Problemen müssen wir rechnen? • Auf der a priori-Seite (gegebenes Wissen) haben wir zuwenig Freiheitsgrade, da eine Wahrscheinlichkeitsverteilung vollständiges Wissen darstellt. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 12 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Probabilistische Wissensrevision 2/3 Mit welchen Problemen müssen wir rechnen? • Auf der a priori-Seite (gegebenes Wissen) haben wir zuwenig Freiheitsgrade, da eine Wahrscheinlichkeitsverteilung vollständiges Wissen darstellt. • Auf der a posteriori-Seite (revidierter Wissenszustand) haben wir zuviele Freiheitsgrade, da es – wie bei der ME -Inferenz – normalerweise unendlich viele passende Verteilungen gibt. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 12 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Probabilistische Wissensrevision 3/3 Was erwarten wir? • Wir möchten genau eine revidierte Verteilung P ∗ = P ∗ R berechnen. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 13 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Probabilistische Wissensrevision 3/3 Was erwarten wir? • Wir möchten genau eine revidierte Verteilung P ∗ = P ∗ R berechnen. • Diese Verteilung soll die neue Information darstellen: P ∗ |= R (Success). G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 13 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Probabilistische Wissensrevision 3/3 Was erwarten wir? • Wir möchten genau eine revidierte Verteilung P ∗ = P ∗ R berechnen. • Diese Verteilung soll die neue Information darstellen: P ∗ |= R (Success). • Unnötige Arbeit soll vermieden werden, d.h. wenn bereits P |= R gilt, so soll P ∗ = P sein (Stabilität). G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 13 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Probabilistische Wissensrevision 3/3 Was erwarten wir? • Wir möchten genau eine revidierte Verteilung P ∗ = P ∗ R berechnen. • Diese Verteilung soll die neue Information darstellen: P ∗ |= R (Success). • Unnötige Arbeit soll vermieden werden, d.h. wenn bereits P |= R gilt, so soll P ∗ = P sein (Stabilität). • Die Änderungen in P sollen minimal sein, d.h. die neue Verteilung P ∗ soll so nahe wie möglich an P liegen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 13 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Probabilistische Wissensrevision 3/3 Was erwarten wir? • Wir möchten genau eine revidierte Verteilung P ∗ = P ∗ R berechnen. • Diese Verteilung soll die neue Information darstellen: P ∗ |= R (Success). • Unnötige Arbeit soll vermieden werden, d.h. wenn bereits P |= R gilt, so soll P ∗ = P sein (Stabilität). • Die Änderungen in P sollen minimal sein, d.h. die neue Verteilung P ∗ soll so nahe wie möglich an P liegen – wir benötigen also ein Abstandsmaß zwischen Verteilungen. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 13 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Relative Entropie 1/2 Problem: Die Verteilung P hat sich geändert zur Verteilung Q; G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 14 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Relative Entropie 1/2 Problem: Gesucht: Die Verteilung P hat sich geändert zur Verteilung Q; Maß für Informationsgewinn, dass man diese Änderung bemerkt hat G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 14 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Relative Entropie 1/2 Problem: Gesucht: Die Verteilung P hat sich geändert zur Verteilung Q; Maß für Informationsgewinn, dass man diese Änderung bemerkt hat R(Q, P ) = X ω G. Kern-Isberner (TU Dortmund) Q(ω) log Q(ω) P (ω) Fortgeschrittene Themen der Wissensrepräsentation 14 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Relative Entropie 1/2 Problem: Gesucht: Die Verteilung P hat sich geändert zur Verteilung Q; Maß für Informationsgewinn, dass man diese Änderung bemerkt hat R(Q, P ) = X ω Q(ω) log Q(ω) P (ω) Relative Entropie (cross entropy) von Q bezgl. P Maß für den Informationsabstand von P zu Q G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 14 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Relative Entropie 2/2 Eigenschaften der relativen Entropie: • Die relative Entropie ist positiv definit, d.h. R(Q, P ) ≥ 0 und R(Q, P ) = 0 genau dann, wenn P = Q; G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 15 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Relative Entropie 2/2 Eigenschaften der relativen Entropie: • Die relative Entropie ist positiv definit, d.h. R(Q, P ) ≥ 0 und R(Q, P ) = 0 genau dann, wenn P = Q; • Die relative Entropie ist nicht symmetrisch: R(Q, P ) 6= R(P, Q) (i.Allg.); G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 15 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Relative Entropie 2/2 Eigenschaften der relativen Entropie: • Die relative Entropie ist positiv definit, d.h. R(Q, P ) ≥ 0 und R(Q, P ) = 0 genau dann, wenn P = Q; • Die relative Entropie ist nicht symmetrisch: R(Q, P ) 6= R(P, Q) (i.Allg.); • Sei P = (p1 , . . . , pn ) eine Wahrscheinlichkeitsverteilung, und sei P0 = ( n1 , . . . , n1 ) eine (passende) Gleichverteilung. Dann gilt R(P, P0 ) = log n − H(P ) G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 15 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie Notizen G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 15 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie ME-Wissensrevision • Gegeben: A priori-Verteilung P , neue Information R; 1 R heißt P -konsistent, wenn es ein Modell Q von R gibt mit P (ω) = 0 ⇒ Q(ω) = 0; in diesem Fall sagt man auch, Q ist P -stetig. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 16 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie ME-Wissensrevision • Gegeben: A priori-Verteilung P , neue Information R; • Gesucht: A posteriori-Verteilung P ∗ “nahe” zu P mit P ∗ |= R; 1 R heißt P -konsistent, wenn es ein Modell Q von R gibt mit P (ω) = 0 ⇒ Q(ω) = 0; in diesem Fall sagt man auch, Q ist P -stetig. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 16 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie ME-Wissensrevision • Gegeben: A priori-Verteilung P , neue Information R; • Gesucht: A posteriori-Verteilung P ∗ “nahe” zu P mit P ∗ |= R; • Lösung: Prinzip der minimalen Relativentropie Minimiere Informationsabstand zu P , gegeben R = {(B1 |A1 )[x1 ], . . . , (Bn |An )[xn ]} → Optimierungsproblem P ∗ = ME (P, R) = ((arg) min R(Q, P ) = Q|=R X Q(ω) log2 ω Q(ω) P (ω) 1 R heißt P -konsistent, wenn es ein Modell Q von R gibt mit P (ω) = 0 ⇒ Q(ω) = 0; in diesem Fall sagt man auch, Q ist P -stetig. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 16 / 46 Revision in der Probabilistik Inferenz und Wissensrevision auf der Basis optimaler Entropie ME-Wissensrevision • Gegeben: A priori-Verteilung P , neue Information R; • Gesucht: A posteriori-Verteilung P ∗ “nahe” zu P mit P ∗ |= R; • Lösung: Prinzip der minimalen Relativentropie Minimiere Informationsabstand zu P , gegeben R = {(B1 |A1 )[x1 ], . . . , (Bn |An )[xn ]} → Optimierungsproblem P ∗ = ME (P, R) = ((arg) min R(Q, P ) = Q|=R X Q(ω) log2 ω Q(ω) P (ω) eindeutig lösbar (für P -konsistentes1 R) mit Lösung P ∗ = ME (P, R). 1 R heißt P -konsistent, wenn es ein Modell Q von R gibt mit P (ω) = 0 ⇒ Q(ω) = 0; in diesem Fall sagt man auch, Q ist P -stetig. G. Kern-Isberner (TU Dortmund) Fortgeschrittene Themen der Wissensrepräsentation 16 / 46