Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze Bayes-Netze repräsentieren effizient gemeinsame Wahrscheinlichkeitsverteilungen unter Verwendung von Aussagen zur bedingten Unabhängigkeit von Zufallsvariablen Die Topologie des Netzes – die Menge der Knoten und Kanten – spezifiziert die in der Problemdomäne geltenden bedingten Unabhängigkeitsbeziehungen Bayes Netze Ein Bayes-Netz ist ein gerichteter azyklischer Graph, wobei gilt: • Eine Menge Zufallsvariablen (diskret, stetig) bildet die Knoten • Eine Menge gerichteter Kanten verbindet jeweils zwei Knoten. Wenn ein Kante von Y nach X führt, so ist Y ein Elternknoten von X. Die Menge aller Elternknoten von X ist Eltern(X). • Jeder Knoten hat eine bedingte Wahrscheinlichkeitsverteilung P (X | Eltern(X)), die den Effekt quantifiziert, dass die Elternknoten den Knoten X „verursachen“. Bayes Netze Ein Bayes-Netz stellt eine vollständige Beschreibung der Problemdomäne bereit. Jeder Eintrag in der vollständigen gemeinsamen Wahrscheinlichkeitsverteilung kann daraus berechnet werden. Für die Wahrscheinlichkeit einer Konjunktion bestimmter Zuweisungen für jede Variable P(X1=x1 ⋀ … ⋀ Xn=xn) abgekürzt als P(x1, x2, . . . , xn) gilt: n P(x 1 , x 2 , . . . , x n ) P(x i | eltern (X i )) i 1 Dabei gibt eltern(X i ) die spezifischen Werte der Variablen in Eltern(X i ) an. Bayes Netze Beispiel: Wahrscheinlichkeit dafür, dass der Alarm geläutet hat, aber weder ein Einbruch noch ein Erdbeben stattgefunden hat, und sowohl John als auch Mary angerufen haben Bedingte Unabhängigkeit in Bayes Netzen Die topologische Semantik wird durch eine der beiden folgenden äquivalenten Spezifikationen vorgegeben: 1. Ein Knoten ist bei bekannten Eltern bedingt unabhängig von seinen Nichtnachkommen. Bedingte Unabhängigkeit in Bayes Netzen Die topologische Semantik wird durch eine der beiden folgenden äquivalenten Spezifikationen vorgegeben: 2. Ein Knoten ist bedingt unabhängig von allen anderen Knoten im Netzwerk für bekannte Eltern, Kinder und Kindeseltern (= wenn seine Markov-Decke bekannt ist) Konstruktion von Bayes Netzen Für Bayes Netze gilt: Eine korrekte Repräsentation der Domäne ist dann gegeben, wenn - bei bekannten Eltern - jeder Knoten bedingt unabhängig von seinen Vorgängern in der Knotenreihenfolge ist Intuitiv betrachtet sollen die Eltern von Knoten Xi alle Knoten aus X1,…Xi-1 enthalten, die Xi direkt beeinflussen Konstruktion von Bayes Netzen ? ? Wenn eine Abhängigkeit sehr locker ist- (zb Earthquake – MaryCalls) - ist es möglicherweise nicht gerechtfertigt für eine geringfügig erhöhte Genauigkeit eine zusätzliche Komplexität in das Netzwerk einzubringen. Konstruktion von Bayes Netzen Für Bayes Netze gilt: • Jede Variable sollte von möglichst wenigen anderen Variablen direkt beeinflusst werden • Diese direkten Einflüsse sollten mit einer geeigneten Menge an Eltern reflektiert werden Daraus folgt: Die korrekte Reihenfolge in der Knoten eingefügt werden sollten ist: Zuerst „Wurzel“-Ursachen einfügen, danach die Variablen, die von Ihnen beeinflusst werden, solange bis die „Blätter“ erreicht werden, die keinen direkten kausalen Einfluss auf andere Variablen haben. Konstruktion von Bayes Netzen Bei ungeschickter Wahl der Variablenordnung können unnötig komplexe Netze entstehen: vs. kausal diagnostisch Beispiel zur Erstellung eines Bayes Netzes “When I go home at night, I want to know if my family is at home before I try the doors (perhaps the most convenient door to enter is double locked when nobody is home). Now, often when my wife leaves the house she turns on an outdoor light. However, she sometimes turns on this light if she is expecting a guest. Also, we have a dog. When nobody is home, the dog is put in the back yard. The same is true if the dog has bowel trouble. Finally, if the dog is in the back yard, I will probably hear her barking, but sometimes I can be confused by other dogs barking.” F. Jensen, An introduction to Bayesian networks, UCL Press, 1996. Beispiel zur Erstellung eines Bayes Netzes Relevante Größen: Boolsche Zufallsvariablen für • FamilyOut • LightsOn • HearDogBark Kausale Zusammenhänge: • FamiliyOut hat direkten Einfluss auf LightsOn und HearDogBark LightsOn and HearDogBark sind bei bekannter Variable FamilyOut bedingt unabhängig Beispiel zur Erstellung eines Bayes Netzes Zugehörige Wahrscheinlichkeiten: P(FamilyOut) = 0.2 P(LightsOn|FamilyOut) = 0.99 P(LightsOn| ¬ FamilyOut) = 0.1 Beispiel zur Erstellung eines Bayes Netzes Problem: P(HearDogBark|FamilyOut) 1. 2. Die Ursache dafür, dass der Hund draußen ist kann sowohl sein, dass die Familie weg ist, als auch dass der Hund Darmprobleme hat Das Bellen, kann sowohl vom eigenen Hund, als auch von anderen Hunden stammen Beispiel zur Erstellung eines Bayes Netzes Problem: P(HearDogBark|FamilyOut) Durch Einführung der Mediatorvariable DogOut können die oben angeführten Probleme gelöst werden Allerdings braucht man dafür P(DogOut|FamilyOut, BowelProblems) und P(HearDogBark|DogOut) Beispiel zur Erstellung eines Bayes Netzes Resultat: Exakte Inferenz in Bayesschen Netzwerken Inferenz durch Aufzählung: • Bei bekannten Ereignissen (= instantiierten (Evidenz)Variablen) e und keiner Information über die verborgenen Variablen H soll die Wahrscheinlichkeitsverteilung für eine Abfragevariable Q berechnet werden. • P(Q|e) kann durch Marginalisierung über H berechnet werden wobei h alle möglichen Werte(Zustands)kombinationen von H sind. • Eine solche Wahrscheinlichkeitsverteilung kann also unter Verwendung eines Bayesschen Netzwerks beantwortet werden, indem Summen von Produkten bedingter Wahrscheinlichkeiten aus dem Netz berechnet werden Exakte Inferenz in Bayesschen Netzwerken 1. Diagnostische Inferenz: • Es wird vom Symptom auf die Diagnose geschlossen z.B. P(Gehirntumor|Kopfschmerzen), P(FamilyOut|HearDogBark) 2. Kausale Inferenz: • Es wird von Ursache auf Effekt geschlossen z. B. P(HearDogBark|FamilyOut) 3. Interkausale Inferenz: • zwischen verschiedenen Ursachen desselben Effekts. Das Auftreten eines Effekts, macht den anderen weniger wahrscheinlich z. B. P(FamilyOut|BowelProblems, HearDogBark) 4. Gemischte Inferenz: • Kombination aus 1 - 3 z. B. P(DogOut|HearDogBark, BowelProblems) Exakte Inferenz in Bayesschen Netzwerken Beispiel 1: • FamilyOut: 0.2 * 0.99*(0.6 * 0.88566 + 0.25 * 0.114) 0.1108 Exakte Inferenz in Bayesschen Netzwerken Beispiel 1: • FamilyOut: • Äquivalente Berechnung für Exakte Inferenz in Bayesschen Netzwerken Beispiel 2: • Einbruchsbeispiel: Wahrscheinlichkeit, dass ein Einbruch stattgefunden hat, wenn Mary und John angerufen haben Berechnungsstruktur für obiges Beispiel: Exakte Inferenz in Bayesschen Netzwerken • Pseudocode für Algorithmus zur Inferenz durch Aufzählung (=Enumeration) Exakte Inferenz in Bayesschen Netzwerken Nachteil von Enumeration -ASK: • P(j|a) P(m|A) sind nicht von E abhängig, werden aber zweimal (für e und ¬ e) berechnet!