Wahrscheinlichkeiten in der KI und im alltäglichen

Werbung
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Wahrscheinlichkeiten in der KI und im alltäglichen
Leben
Einerseits – sehr alltäglich:
• “Da kommt eine große dunkle Wolke, es wird wahrscheinlich regnen.”
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
26 / 231
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Wahrscheinlichkeiten in der KI und im alltäglichen
Leben
Einerseits – sehr alltäglich:
• “Da kommt eine große dunkle Wolke, es wird wahrscheinlich regnen.”
andererseits –
• “Wahrscheinlichkeiten sind epistemologisch unangemessen.”
[McCarthy 1969]
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
26 / 231
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Wahrscheinlichkeiten in der KI und im alltäglichen
Leben
Einerseits – sehr alltäglich:
• “Da kommt eine große dunkle Wolke, es wird wahrscheinlich regnen.”
andererseits –
• “Wahrscheinlichkeiten sind epistemologisch unangemessen.”
[McCarthy 1969]
• “Um mit Wahrscheinlichkeiten zu arbeiten, brauche ich jede Menge
Daten.”
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
26 / 231
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Wahrscheinlichkeiten in der KI und im alltäglichen
Leben
Einerseits – sehr alltäglich:
• “Da kommt eine große dunkle Wolke, es wird wahrscheinlich regnen.”
andererseits –
• “Wahrscheinlichkeiten sind epistemologisch unangemessen.”
[McCarthy 1969]
• “Um mit Wahrscheinlichkeiten zu arbeiten, brauche ich jede Menge
Daten.”
• “Menschen können nicht gut Wahrscheinlichkeiten verarbeiten, das ist
psychologisch erwiesen.”
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
26 / 231
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Wahrscheinlichkeiten in der KI und im alltäglichen
Leben
Einerseits – sehr alltäglich:
• “Da kommt eine große dunkle Wolke, es wird wahrscheinlich regnen.”
andererseits –
• “Wahrscheinlichkeiten sind epistemologisch unangemessen.”
[McCarthy 1969]
• “Um mit Wahrscheinlichkeiten zu arbeiten, brauche ich jede Menge
Daten.”
• “Menschen können nicht gut Wahrscheinlichkeiten verarbeiten, das ist
psychologisch erwiesen.”
• “Statistiken lügen.” – “Ich mag keine Wahrscheinlichkeiten, die habe
ich noch nie verstanden.”
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
26 / 231
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Wahrscheinlichkeiten – effizient oder ineffizient?
Einerseits – als intensionales, semantisches Folgerungsinstrument ist
probabilistisches Schlussfolgern sehr ressourcenintensiv.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
27 / 231
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Wahrscheinlichkeiten – effizient oder ineffizient?
Einerseits – als intensionales, semantisches Folgerungsinstrument ist
probabilistisches Schlussfolgern sehr ressourcenintensiv.
Andererseits – in unsicheren Umgebungen hat man nur zwei “sichere”
Alternativen:
• Man ignoriert Unsicherheit und wendet klassische Methoden an (mit
z.T. katastrophalen Folgen!).
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
27 / 231
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Wahrscheinlichkeiten – effizient oder ineffizient?
Einerseits – als intensionales, semantisches Folgerungsinstrument ist
probabilistisches Schlussfolgern sehr ressourcenintensiv.
Andererseits – in unsicheren Umgebungen hat man nur zwei “sichere”
Alternativen:
• Man ignoriert Unsicherheit und wendet klassische Methoden an (mit
z.T. katastrophalen Folgen!).
• Man versucht (so gut es geht), alle Möglichkeiten zu betrachten –
Zeitverschwendung!
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
27 / 231
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Wahrscheinlichkeiten – effizient oder ineffizient?
Einerseits – als intensionales, semantisches Folgerungsinstrument ist
probabilistisches Schlussfolgern sehr ressourcenintensiv.
Andererseits – in unsicheren Umgebungen hat man nur zwei “sichere”
Alternativen:
• Man ignoriert Unsicherheit und wendet klassische Methoden an (mit
z.T. katastrophalen Folgen!).
• Man versucht (so gut es geht), alle Möglichkeiten zu betrachten –
Zeitverschwendung!
Wahrscheinlichkeiten bieten einen Ausweg aus diesem Dilemma:
Indem man wahrscheinliche Möglichkeiten berücksichtigt und
unwahrscheinliche Möglichkeiten ausblendet, spart man wertvolle Zeit.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
27 / 231
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Ein einführendes Beispiel 1/2
Alice und Bob spielen Karten:
♥A, ♥D, ♠A, ♠D.
Alice bekommt zwei Karten:
Alice :
G. Kern-Isberner (TU Dortmund)
∗1, ∗2
Commonsense Reasoning
28 / 231
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Ein einführendes Beispiel 1/2
Alice und Bob spielen Karten:
♥A, ♥D, ♠A, ♠D.
Alice bekommt zwei Karten:
Alice :
∗1, ∗2
Einige (kombinatorische) a priori-Wahrscheinlichkeiten, die Bob berechnet:
P (♥A ∧ ♠A) = 1/6
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
28 / 231
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Ein einführendes Beispiel 1/2
Alice und Bob spielen Karten:
♥A, ♥D, ♠A, ♠D.
Alice bekommt zwei Karten:
Alice :
∗1, ∗2
Einige (kombinatorische) a priori-Wahrscheinlichkeiten, die Bob berechnet:
P (♥A ∧ ♠A) = 1/6
G. Kern-Isberner (TU Dortmund)
P (♥A ∨ ♠A) = 5/6
Commonsense Reasoning
28 / 231
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Ein einführendes Beispiel 1/2
Alice und Bob spielen Karten:
♥A, ♥D, ♠A, ♠D.
Alice bekommt zwei Karten:
Alice :
∗1, ∗2
Einige (kombinatorische) a priori-Wahrscheinlichkeiten, die Bob berechnet:
P (♥A ∧ ♠A) = 1/6
P (♥A)
= 1/2
G. Kern-Isberner (TU Dortmund)
P (♥A ∨ ♠A) = 5/6
P (♠A)
= 1/2
Commonsense Reasoning
28 / 231
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Ein einführendes Beispiel 2/2
Alice sagt nun: Ich habe ein As:
Alice :
G. Kern-Isberner (TU Dortmund)
A ≡ ♥A ∨ ♠A.
Commonsense Reasoning
29 / 231
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Ein einführendes Beispiel 2/2
Alice sagt nun: Ich habe ein As:
Alice :
A ≡ ♥A ∨ ♠A.
Bob berechnet nun:
P (♥A ∧ ♠A|A) = 1/5 > 1/6.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
29 / 231
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Ein einführendes Beispiel 2/2
Alice sagt nun: Ich habe ein As:
Alice :
A ≡ ♥A ∨ ♠A.
Bob berechnet nun:
P (♥A ∧ ♠A|A) = 1/5 > 1/6.
Alice wird noch etwas genauer: Ich habe Pik As:
Alice :
G. Kern-Isberner (TU Dortmund)
♠A.
Commonsense Reasoning
29 / 231
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Ein einführendes Beispiel 2/2
Alice sagt nun: Ich habe ein As:
Alice :
A ≡ ♥A ∨ ♠A.
Bob berechnet nun:
P (♥A ∧ ♠A|A) = 1/5 > 1/6.
Alice wird noch etwas genauer: Ich habe Pik As:
Alice :
Bob:
♠A.
P (♥A ∧ ♠A|♠A) = 1/3 > 1/5.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
29 / 231
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Ein einführendes Beispiel 2/2
Alice sagt nun: Ich habe ein As:
Alice :
A ≡ ♥A ∨ ♠A.
Bob berechnet nun:
P (♥A ∧ ♠A|A) = 1/5 > 1/6.
Alice wird noch etwas genauer: Ich habe Pik As:
Alice :
Bob:
♠A.
P (♥A ∧ ♠A|♠A) = 1/3 > 1/5.
Andererseits: Auch P (♥A ∧ ♠A|♥A) = 1/3, und Bob weiß schon bei A,
dass Alice eines von beiden Assen haben muss.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
29 / 231
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Ein einführendes Beispiel 2/2
Alice sagt nun: Ich habe ein As:
Alice :
A ≡ ♥A ∨ ♠A.
Bob berechnet nun:
P (♥A ∧ ♠A|A) = 1/5 > 1/6.
Alice wird noch etwas genauer: Ich habe Pik As:
Alice :
Bob:
♠A.
P (♥A ∧ ♠A|♠A) = 1/3 > 1/5.
Andererseits: Auch P (♥A ∧ ♠A|♥A) = 1/3, und Bob weiß schon bei A,
dass Alice eines von beiden Assen haben muss.
Warum ist es dann entscheidend zu wissen, welches As Alice hat ?
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
29 / 231
Probabilistische Folgerungsmodelle und -strategien
Wahrscheinlichkeitstheorie und Commonsense Reasoning
Notizen
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
29 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Übersicht Kapitel 4 – Probabilistik
4.1 Einführung und Übersicht
4.2 Wahrscheinlichkeitstheorie und Commonsense Reasoning
4.3 Grundideen probabilistischen Schlussfolgerns
4.4 Schlussfolgern über Unabhängigkeiten
4.5 Propagation in baumartigen Netzen
4.6 Probabilistische Inferenz auf der Basis optimaler Entropie
4.7 Schlussworte und Zusammenfassung
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
30 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Kapitel 4
4. Probabilistische
Folgerungsmodelle und -strategien
4.3 Grundideen probabilistischen
Schlussfolgerns
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
31 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Probabilistik und plausibles Schlussfolgern 1/4
George Polya (1887-1985) machte sich in seinem 1954 erschienen Buch
Mathematics and plausible reasoning ernsthaft Gedanken um das
menschliche Schlussfolgern; er stellte einige allgemeine Prinzipien für das
plausible Schlussfolgern auf, darunter auch das folgende
Induktive Prinzip: Die Bestätigung einer Konsequenz macht eine
Hypothese glaubhafter.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
32 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Probabilistik und plausibles Schlussfolgern 1/4
George Polya (1887-1985) machte sich in seinem 1954 erschienen Buch
Mathematics and plausible reasoning ernsthaft Gedanken um das
menschliche Schlussfolgern; er stellte einige allgemeine Prinzipien für das
plausible Schlussfolgern auf, darunter auch das folgende
Induktive Prinzip: Die Bestätigung einer Konsequenz macht eine
Hypothese glaubhafter.
Beispiel: Die Hypothese “Es regnete letzte Nacht.” wird glaubhafter, wenn
wir feststellen: “Das Gras ist nass.”
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
32 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Probabilistik und plausibles Schlussfolgern 2/4
Polya glaubte, dass die Wahrscheinlichkeitstheorie der ideale Rahmen
wäre, in dem sich plausibles Schlussfolgern realisieren ließe, da die Axiome
der Wahrscheinlichkeitstheorie keine Fehlschlüsse zulassen würden.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
33 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Probabilistik und plausibles Schlussfolgern 2/4
Polya glaubte, dass die Wahrscheinlichkeitstheorie der ideale Rahmen
wäre, in dem sich plausibles Schlussfolgern realisieren ließe, da die Axiome
der Wahrscheinlichkeitstheorie keine Fehlschlüsse zulassen würden.
Tatsächlich lässt sich das induktive Prinzip probabilistisch nachvollziehen:
Nehmen wir an, es gilt A ⇒ B und wir stellen B fest; nachzuweisen ist,
dass A plausibler geworden ist durch B, d.h. es sollte gelten
P (A|B) ≥ P (A), wenn P (A ⇒ B) = 1;
das lässt sich aber mit dem Satz von Bayes leicht zeigen.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
33 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Probabilistik und plausibles Schlussfolgern 3/4
Der Haken hierbei ist, dass diese Schlussfolgerung nicht nur alleine von A
und B abhängt, sondern auch vom Kontext bzw. von anderen möglichen
Evidenzen (= Beobachtungen).
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
34 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Probabilistik und plausibles Schlussfolgern 3/4
Der Haken hierbei ist, dass diese Schlussfolgerung nicht nur alleine von A
und B abhängt, sondern auch vom Kontext bzw. von anderen möglichen
Evidenzen (= Beobachtungen).
Sind die Variablen
A : Es regnete letzte Nacht.
B : Mein Rasen ist nass.
C : Der Rasen meines Nachbarn ist trocken.
gegeben, so sollte für eine “vernünftige” Wahrscheinlichkeitsverteilung P
gelten:
P (A|B) > P (A), aber P (A|B, C) < P (A).
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
34 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Probabilistik und plausibles Schlussfolgern 4/4
Plausibles Schlussfolgern ist also nichtmodular – es genügt nicht,
Bedingungen lokal zu überprüfen, sondern man muss immer den Kontext
relevanter Bedingungen sehen.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
35 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Probabilistik und plausibles Schlussfolgern 4/4
Plausibles Schlussfolgern ist also nichtmodular – es genügt nicht,
Bedingungen lokal zu überprüfen, sondern man muss immer den Kontext
relevanter Bedingungen sehen.
Wir werden sehen, dass dieser Kontext nicht zuletzt durch die Frage
bestimmt wird, durch die die Berechnung der Wahrscheinlichkeiten
angestoßen wird.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
35 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Das Gefangenenparadoxon 1/7
Drei Gefange A, B, C warten auf die Urteilsverkündung. Sie wissen, dass
(genau) einer von ihnen zum Tode verurteilt und am nächsten Morgen
gehenkt wird. In der Nacht bittet A den Wärter, ihm zu verraten, wer von
den anderen beiden nicht gehenkt wird; da er ja weiß, dass mindestens
einer von ihnen freigelassen wird, nützt ihm die Information nichts, so
denkt er. Der Wärter antwortet ihm, dass B freigelassen wird. Als A zu
seinem Bett zurückgeht, stutzt er: “Seltsam, bevor ich mit dem Wärter
gesprochen habe, waren meine Chancen, gehenkt zu werden, 1/3. Nun, da
ich weiß, dass B morgen freigelassen wird, sind nur noch C und ich übrig,
also hat sich für mich die Chance, gehenkt zu werden, auf 1/2 erhöht
. . . ?!”
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
36 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Das Gefangenenparadoxon 2/7
Wir arbeiten zunächst mit den folgenden Variablen:
GA A wird schuldig gesprochen (G = guilty)
IB B wird frei gesprochen (I = innocent)
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
37 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Das Gefangenenparadoxon 2/7
Wir arbeiten zunächst mit den folgenden Variablen:
GA A wird schuldig gesprochen (G = guilty)
IB B wird frei gesprochen (I = innocent)
Die Wahrscheinlichkeit, dass A schuldig gesprochen wird, wenn B als
unschuldig gilt, beträgt (nach dem Satz von Bayes):
P (GA |IB ) =
G. Kern-Isberner (TU Dortmund)
P (IB |GA )P (GA )
P (IB )
Commonsense Reasoning
37 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Das Gefangenenparadoxon 2/7
Wir arbeiten zunächst mit den folgenden Variablen:
GA A wird schuldig gesprochen (G = guilty)
IB B wird frei gesprochen (I = innocent)
Die Wahrscheinlichkeit, dass A schuldig gesprochen wird, wenn B als
unschuldig gilt, beträgt (nach dem Satz von Bayes):
P (GA |IB ) =
=
G. Kern-Isberner (TU Dortmund)
P (IB |GA )P (GA )
P (IB )
1
1· 3 1
2 = 2
3
Commonsense Reasoning
37 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Das Gefangenenparadoxon 2/7
Wir arbeiten zunächst mit den folgenden Variablen:
GA A wird schuldig gesprochen (G = guilty)
IB B wird frei gesprochen (I = innocent)
Die Wahrscheinlichkeit, dass A schuldig gesprochen wird, wenn B als
unschuldig gilt, beträgt (nach dem Satz von Bayes):
P (GA |IB ) =
=
P (IB |GA )P (GA )
P (IB )
1
1· 3 1
2 = 2
3
Ist das jedoch die Situation, in der sich A befindet ?
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
37 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Notizen
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
37 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Das Gefangenenparadoxon 3/7
Eigentlich muss man doch folgende Variable betrachten:
0
IB
G. Kern-Isberner (TU Dortmund)
Wärter sagt, B würde freigesprochen
Commonsense Reasoning
38 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Das Gefangenenparadoxon 3/7
Eigentlich muss man doch folgende Variable betrachten:
0
IB
Wärter sagt, B würde freigesprochen
Damit erhält man als aktuelle Wahrscheinlichkeit
0
P (GA |IB
) =
G. Kern-Isberner (TU Dortmund)
0 |G )P (G )
P (IB
A
A
0 )
P (IB
Commonsense Reasoning
38 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Das Gefangenenparadoxon 3/7
Eigentlich muss man doch folgende Variable betrachten:
0
IB
Wärter sagt, B würde freigesprochen
Damit erhält man als aktuelle Wahrscheinlichkeit
0
P (GA |IB
) =
=
0 |G )P (G )
P (IB
A
A
0 )
P (IB
1
2
·
1
2
1
3
=
1
3
Dies ist die korrekte Wahrscheinlichkeit, da sie den Kontext der Frage
besser berücksichtigt.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
38 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Notizen
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
38 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Das Gefangenenparadoxon 4/7
Nehmen wir nun an, es sind nicht drei, sondern 1000 Gefangene, die
besorgt dem nächsten Morgen entgegensehen, an dem genau einer von
ihnen hingerichtet wird. A ist einer dieser Gefangenen, seine
1
Wahrscheinlichkeit, hingerichtet zu werden, beträgt a priori 1000
.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
39 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Das Gefangenenparadoxon 4/7
Nehmen wir nun an, es sind nicht drei, sondern 1000 Gefangene, die
besorgt dem nächsten Morgen entgegensehen, an dem genau einer von
ihnen hingerichtet wird. A ist einer dieser Gefangenen, seine
1
Wahrscheinlichkeit, hingerichtet zu werden, beträgt a priori 1000
.
Nun findet A eine Liste L, auf der 998 Namen von Gefangenen aufgeführt
sind, alle mit dem Vermerk unschuldig – sein Name ist nicht darunter!
Steigt seine Wahrscheinlichkeit, hingerichtet zu werden, damit auf 12 statt
1
1000 ?
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
39 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Das Gefangenenparadoxon 4/7
Nehmen wir nun an, es sind nicht drei, sondern 1000 Gefangene, die
besorgt dem nächsten Morgen entgegensehen, an dem genau einer von
ihnen hingerichtet wird. A ist einer dieser Gefangenen, seine
1
Wahrscheinlichkeit, hingerichtet zu werden, beträgt a priori 1000
.
Nun findet A eine Liste L, auf der 998 Namen von Gefangenen aufgeführt
sind, alle mit dem Vermerk unschuldig – sein Name ist nicht darunter!
Steigt seine Wahrscheinlichkeit, hingerichtet zu werden, damit auf 12 statt
1
1000 ?
Ja, offensichtlich!
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
39 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Notizen
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
39 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Notizen
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
39 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Das Gefangenenparadoxon 5/7
Was aber wäre, wenn A nun unten auf der Liste den folgenden Zusatz
finden würde:
Ausdruck der Namen von 998 unschuldigen rechtshändigen
Gefangenen
und A wüsste, er wäre der einzige Linkshänder unter den Gefangenen?
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
40 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Das Gefangenenparadoxon 5/7
Was aber wäre, wenn A nun unten auf der Liste den folgenden Zusatz
finden würde:
Ausdruck der Namen von 998 unschuldigen rechtshändigen
Gefangenen
und A wüsste, er wäre der einzige Linkshänder unter den Gefangenen?
In diesem Fall sollte sich die Wahrscheinlichkeit doch wieder bei
einpendeln . . . oder ?.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
1
1000
40 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Das Gefangenenparadoxon 6/7
LR
A
A taucht auf der Liste der 998 unschuldigen rechtshändigen
Gefangenen auf
Gesucht ist die Wahrscheinlichkeit P (GA |¬LR
A ):
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
41 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Das Gefangenenparadoxon 6/7
LR
A
A taucht auf der Liste der 998 unschuldigen rechtshändigen
Gefangenen auf
Gesucht ist die Wahrscheinlichkeit P (GA |¬LR
A ):
P (GA |¬LR
A ) = P (GA ) = 0.001,
wegen des Satzes von Bayes.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
41 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Notizen
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
41 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Das Gefangenenparadoxon 7/7
Für den rechtshändigen Gefangenen B, dessen Name auch nicht auf der
Liste auftaucht, gilt jedoch
P (GB |¬LR
B) =
=
G. Kern-Isberner (TU Dortmund)
P (¬LR
B |GB ) P (GB )
P (¬LR
B)
1 · P (GB )
1 − P (LR
B)
Commonsense Reasoning
42 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Das Gefangenenparadoxon 7/7
Für den rechtshändigen Gefangenen B, dessen Name auch nicht auf der
Liste auftaucht, gilt jedoch
P (¬LR
B |GB ) P (GB )
P (¬LR
B)
1 · P (GB )
=
1 − P (LR
B)
0.001
=
0.002
= 0.5
P (GB |¬LR
B) =
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
42 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Notizen
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
42 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Notizen
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
42 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Notizen
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
42 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Notizen
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
42 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Bedeutung des Kontextes
Für die wahrscheinlichkeitstheoretische Beantwortung einer Frage ist also
der Kontext von besonderer Bedeutung, wobei dieser durch die folgenden
Aspekte bestimmt wird:
• die Problemstellung und ihre Umgebung muss expliziert werden;
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
43 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Bedeutung des Kontextes
Für die wahrscheinlichkeitstheoretische Beantwortung einer Frage ist also
der Kontext von besonderer Bedeutung, wobei dieser durch die folgenden
Aspekte bestimmt wird:
• die Problemstellung und ihre Umgebung muss expliziert werden;
• die Fragestellung muss so genau wie möglich repräsentiert werden;
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
43 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Bedeutung des Kontextes
Für die wahrscheinlichkeitstheoretische Beantwortung einer Frage ist also
der Kontext von besonderer Bedeutung, wobei dieser durch die folgenden
Aspekte bestimmt wird:
• die Problemstellung und ihre Umgebung muss expliziert werden;
• die Fragestellung muss so genau wie möglich repräsentiert werden;
• man muss in der Regel einen Überblick über die möglichen Antworten
haben.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
43 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Autonome Informations-Agenten
Es ist jedoch nicht immer möglich, den Ursprung gewonnener Information
so genau in Erfahrung zu bringen.
Stellen wir uns die Situation vor, wir würden zur Klärung einer
Fragestellung eine Reihe autonomer Informations-Agenten aussenden, die
Informationen zu bestimmten Teilfragestellungen zusammentragen sollen.
Die Agenten benutzen zur Informationsgewinnung private Prozeduren, wir
wissen also nicht, auf welche Weise die Informationen gewonnen wurden.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
44 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Autonome Informations-Agenten
Es ist jedoch nicht immer möglich, den Ursprung gewonnener Information
so genau in Erfahrung zu bringen.
Stellen wir uns die Situation vor, wir würden zur Klärung einer
Fragestellung eine Reihe autonomer Informations-Agenten aussenden, die
Informationen zu bestimmten Teilfragestellungen zusammentragen sollen.
Die Agenten benutzen zur Informationsgewinnung private Prozeduren, wir
wissen also nicht, auf welche Weise die Informationen gewonnen wurden.
Wenn wir annehmen, dass die Teilfragestellungen zueinander disjunkt sind
– d.h. jeder der Agenten sammelt Informationen zu einem eigenen
Teilbereich – und dass die Information aus einer Wahrscheinlichkeit zu
einer Teilfragestellung besteht, so führt uns das auf Jeffrey’s Regel.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
44 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Jeffrey’s Regel 1/4
Seien B1 , . . . , Bn disjunkte Aussagen, über die zunächst
Wahrscheinlichkeiten
P (B1 ), . . . , P (Bn )
bekannt sind; wir können annehmen, dass B1 , . . . , Bn auch erschöpfend
sind, d.h. dass gilt
P (B1 ) + . . . + P (Bn ) = 1.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
45 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Jeffrey’s Regel 1/4
Seien B1 , . . . , Bn disjunkte Aussagen, über die zunächst
Wahrscheinlichkeiten
P (B1 ), . . . , P (Bn )
bekannt sind; wir können annehmen, dass B1 , . . . , Bn auch erschöpfend
sind, d.h. dass gilt
P (B1 ) + . . . + P (Bn ) = 1.
Wie verändert sich die gesamte Verteilung P , wenn nun neue
Informationen über die Wahrscheinlichkeiten der Bi bekannt werden?
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
45 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Beispiel Kerzenlicht
Ein Agent untersucht ein Stück Stoff bei schummeriger Beleuchtung; er
schätzt die Farbe des Stoffes wie folgt ein:
P (grün) = 0.30, P (blau) = 0.30, P (lila) = 0.40;
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
46 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Beispiel Kerzenlicht
Ein Agent untersucht ein Stück Stoff bei schummeriger Beleuchtung; er
schätzt die Farbe des Stoffes wie folgt ein:
P (grün) = 0.30, P (blau) = 0.30, P (lila) = 0.40;
er zündet nun eine Kerze an und revidiert nun seine Entscheidung:
P ∗ (grün) = 0.70, P ∗ (blau) = 0.25, P ∗ (lila) = 0.05.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
46 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Beispiel Kerzenlicht
Ein Agent untersucht ein Stück Stoff bei schummeriger Beleuchtung; er
schätzt die Farbe des Stoffes wie folgt ein:
P (grün) = 0.30, P (blau) = 0.30, P (lila) = 0.40;
er zündet nun eine Kerze an und revidiert nun seine Entscheidung:
P ∗ (grün) = 0.70, P ∗ (blau) = 0.25, P ∗ (lila) = 0.05.
Im Prinzip ist P ∗ = P (·|e), wobei e die visuelle Wahrnehmung des
Agenten bei Kerzenlicht repräsentiert, die sich jedoch in der Regel weder
explizit beschreiben lässt noch überhaupt syntaktischer Bestandteil der
Problemsprache ist.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
46 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Beispiel Kerzenlicht
Ein Agent untersucht ein Stück Stoff bei schummeriger Beleuchtung; er
schätzt die Farbe des Stoffes wie folgt ein:
P (grün) = 0.30, P (blau) = 0.30, P (lila) = 0.40;
er zündet nun eine Kerze an und revidiert nun seine Entscheidung:
P ∗ (grün) = 0.70, P ∗ (blau) = 0.25, P ∗ (lila) = 0.05.
Im Prinzip ist P ∗ = P (·|e), wobei e die visuelle Wahrnehmung des
Agenten bei Kerzenlicht repräsentiert, die sich jedoch in der Regel weder
explizit beschreiben lässt noch überhaupt syntaktischer Bestandteil der
Problemsprache ist.
Frage: Wie lässt sich dennoch P ∗ bestimmen?
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
46 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Jeffrey’s Regel 2/4
Die Lösung zu diesem Problem liefert eine Annahme, die man als
probability kinematics bezeichnet – nämlich, dass die neuen
Wahrscheinlichkeiten der Bi keine der unter Bi bedingten
Wahrscheinlichkeiten ändern sollte:
P ∗ (A|Bi ) = P (A|Bi )
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
47 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Jeffrey’s Regel 2/4
Die Lösung zu diesem Problem liefert eine Annahme, die man als
probability kinematics bezeichnet – nämlich, dass die neuen
Wahrscheinlichkeiten der Bi keine der unter Bi bedingten
Wahrscheinlichkeiten ändern sollte:
P ∗ (A|Bi ) = P (A|Bi )
Daraus ergibt sich sofort mit dem Satz von der totalen Wahrscheinlichkeit
∗
P (A) =
n
X
P ∗ (A|Bi )P ∗ (Bi )
i=1
die Regel von Jeffrey:
P ∗ (A) =
n
X
P (A|Bi )P ∗ (Bi ).
i=1
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
47 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Jeffrey’s und Bayes Regel
Jeffrey’s Regel verallgemeinert die Konditionalisierung nach Bayes:
Liegt nämlich nur ein Ereignis B mit Wahrscheinlichkeit P ∗ (B) = 1 vor,
so ergibt Jeffrey’s Regel:
P ∗ (A) = P (A|B)P ∗ (B) = P (A|B),
d.h. die posteriori Wahrscheinlichkeit ist nichts anderes als die nach B
konditionalisierte priori Wahrscheinlichkeit;
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
48 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Jeffrey’s und Bayes Regel
Jeffrey’s Regel verallgemeinert die Konditionalisierung nach Bayes:
Liegt nämlich nur ein Ereignis B mit Wahrscheinlichkeit P ∗ (B) = 1 vor,
so ergibt Jeffrey’s Regel:
P ∗ (A) = P (A|B)P ∗ (B) = P (A|B),
d.h. die posteriori Wahrscheinlichkeit ist nichts anderes als die nach B
konditionalisierte priori Wahrscheinlichkeit; umgekehrt erhält man die
bedingte Wahrscheinlichkeit als Spezialfall der Regel von Jeffrey, wenn die
neue Information sicher ist, also Wahrscheinlichkeit 1 besitzt.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
48 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Jeffrey’s Regel 3/4
Die Anwendbarkeit von Jeffrey’s Regel hängt jedoch entscheidend von der
Anwendbarkeit der probability kinematics-Annahme ab; wenn wir den
Ansatz
P ∗ = P (·|e)
verwenden, können wir den folgenden Vergleich ziehen:
∗
P (A) =
n
X
P (A|Bi )P ∗ (Bi )
(Satz von Jeffrey)
i=1
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
49 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Jeffrey’s Regel 3/4
Die Anwendbarkeit von Jeffrey’s Regel hängt jedoch entscheidend von der
Anwendbarkeit der probability kinematics-Annahme ab; wenn wir den
Ansatz
P ∗ = P (·|e)
verwenden, können wir den folgenden Vergleich ziehen:
∗
P (A) =
P (A|e) =
n
X
i=1
n
X
P (A|Bi )P ∗ (Bi )
(Satz von Jeffrey)
P (A|Bi , e)P (Bi |e) (Satz v.d. totalen bed. W’keit).
i=1
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
49 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Jeffrey’s Regel 4/4
Dieser Vergleich ist jedoch nur haltbar, wenn gilt
P (A|Bi ) = P (A|Bi , e),
d.h. wenn A und e bedingt unabhängig unter Bi sind, d.h. e soll keinen
direkten Einfluss auf A haben.
Dies ist eine wichtige Voraussetzung für Jeffrey’s Regel!
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
50 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Bedingte Unabhängigkeit 1/2
≈ Unabhängigkeit unter gewissen Umständen
A, B, C (disjunkte) Mengen von mehrwertigen Aussagevariablen mit
P (c) > 0 für alle Vollkonjunktionen c über C.
A
gdw.
G. Kern-Isberner (TU Dortmund)
|=
A und B heißen bedingt unabhängig gegeben C, in Zeichen
P
B | C,
P (a|c ∧ b) = P (a|c).
Commonsense Reasoning
51 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Bedingte Unabhängigkeit 1/2
≈ Unabhängigkeit unter gewissen Umständen
A, B, C (disjunkte) Mengen von mehrwertigen Aussagevariablen mit
P (c) > 0 für alle Vollkonjunktionen c über C.
A
gdw.
|=
A und B heißen bedingt unabhängig gegeben C, in Zeichen
P
B | C,
P (a|c ∧ b) = P (a|c).
Das ist äquivalent zu
P (a ∧ b|c) = P (a|c) · P (b|c).
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
51 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Bedingte Unabhängigkeit 2/2
G. Kern-Isberner (TU Dortmund)
P
B | C und A
|=
• A = ∅ oder B = ∅: ∅
|=
A, B, C müssen nicht unbedingt 6= ∅ sein:
Commonsense Reasoning
P
∅ | C gelten immer!
52 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Bedingte Unabhängigkeit 2/2
P
B | C und A
|=
• A = ∅ oder B = ∅: ∅
|=
A, B, C müssen nicht unbedingt 6= ∅ sein:
P
∅ | C gelten immer!
• C = ∅ → statistische Unabhängigkeit
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
52 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Beispiel Kerzenlicht (Forts.)
Nehmen wir an, dass die Chancen des Verkaufs des Stoffes (A)
ausschließlich von seiner Farbe abhängen, und zwar wie folgt:
P rob(A|grün) = 0.40,
P rob(A|blau) = 0.40,
P rob(A|lila) = 0.80,
wobei P rob jede der beiden Wahrscheinlichkeiten P und P ∗ bezeichnet.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
53 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Beispiel Kerzenlicht (Forts.)
Wir können nun die Wahrscheinlichkeit, dass der Stoff am nächsten Tag
verkauft werden kann, als priori- und als posteriori-Wahrscheinlichkeit
berechnen:
P (A) = P (A|grün)P (grün) + P (A|blau)P (blau)
+P (A|lila)P (lila)
= 0.40 · 0.30 + 0.40 · 0.30 + 0.80 · 0.40= 0.56;
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
54 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Beispiel Kerzenlicht (Forts.)
Wir können nun die Wahrscheinlichkeit, dass der Stoff am nächsten Tag
verkauft werden kann, als priori- und als posteriori-Wahrscheinlichkeit
berechnen:
P (A) = P (A|grün)P (grün) + P (A|blau)P (blau)
+P (A|lila)P (lila)
= 0.40 · 0.30 + 0.40 · 0.30 + 0.80 · 0.40= 0.56;
P ∗ (A) = 0.40 · 0.70 + 0.40 · 0.25 + 0.80 · 0.05= 0.42
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
54 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Beispiel Kerzenlicht (Forts.)
Die probability kinematics-Annahme, die in diesem Beispiel überprüft
werden muss, ist die folgende
P (A|Farbe, e) = P (A|Farbe).
Da wir annehmen, dass die Möglichkeit des Verkaufs ausschließlich von der
Farbe abhängt, ist die Annahme gerechtfertigt, wir konnten also die Regel
von Jeffrey anwenden.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
55 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Modifiziertes Beispiel Kerzenlicht
Nehmen wir an, das Hauptinteresse des Betrachters gilt gar nicht dem
Stoff, sondern der Kerze selbst – es sei bekannt, dass ein bestimmtes
billiges Wachs eine Flamme hervorbringt, deren Licht Lila-Töne verfälscht.
A Die Kerze ist aus dem billigen Wachs.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
56 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Modifiziertes Beispiel Kerzenlicht
Nehmen wir an, das Hauptinteresse des Betrachters gilt gar nicht dem
Stoff, sondern der Kerze selbst – es sei bekannt, dass ein bestimmtes
billiges Wachs eine Flamme hervorbringt, deren Licht Lila-Töne verfälscht.
A Die Kerze ist aus dem billigen Wachs.
Die Voraussetzungen seien wie oben:
P (grün) = 0.30,
P ∗ (grün) = 0.70,
P (blau) = 0.30,
P ∗ (blau) = 0.25,
P (lila) = 0.40;
P ∗ (lila) = 0.05.
Kann man nun P ∗ (A) mit Jeffrey’s Regel berechnen?
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
56 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Modifiziertes Beispiel Kerzenlicht (Forts.)
In diesem Fall sind nun sicherlich vor dem Anzünden der Kerze (d.h. in P )
A und Farbe voneinander unabhängig, d.h. es gilt
P (A|Bi ) = P (A);
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
57 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Modifiziertes Beispiel Kerzenlicht (Forts.)
In diesem Fall sind nun sicherlich vor dem Anzünden der Kerze (d.h. in P )
A und Farbe voneinander unabhängig, d.h. es gilt
P (A|Bi ) = P (A);
Die Anwendung von Jeffrey’s Regel ergibt dann
P ∗ (A) =
3
X
P (A)P ∗ (Bi ) = P (A),
i=1
d.h. das Anzünden der Kerze würde keine neuen Erkenntnisse über A
bringen !
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
57 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Modifiziertes Beispiel Kerzenlicht (Forts.)
Die Ursache dieses kontraintuitiven Ergebnisses liegt darin, dass hier die
probability kinematics-Annahme
P (A|Bi , e) = P (A|Bi )
nicht haltbar ist, da die Farben im Kerzenlicht (Bi ∧ e) Rückschlüsse auf
das Kerzenwachs erlauben, die Farben alleine (Bi ) jedoch nicht.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
58 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Modifiziertes Beispiel Kerzenlicht (Forts.)
Die Ursache dieses kontraintuitiven Ergebnisses liegt darin, dass hier die
probability kinematics-Annahme
P (A|Bi , e) = P (A|Bi )
nicht haltbar ist, da die Farben im Kerzenlicht (Bi ∧ e) Rückschlüsse auf
das Kerzenwachs erlauben, die Farben alleine (Bi ) jedoch nicht.
Das Konzept der bedingten Unabhängigkeit ist also von entscheidender
Bedeutung für das Schlussfolgern mit Wahrscheinlichkeiten.
→ Probabilistische Netzwerke (Netzwerktopologie drückt bedingte
Unabhängigkeiten aus)
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
58 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Notizen
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
58 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Markov- und Bayes-Netze – Rückblick (DVEW)
Die bedingte Unabhängigkeit zwischen Variablen ist eine wichtige
qualitative Information zur Strukturierung probabilistischer Information in
Netzwerken:
• In (ungerichteten) Markov-Netzen zeigt die globale
G. Kern-Isberner (TU Dortmund)
G
B | C impliziert A
Commonsense Reasoning
|=
A
|=
Markov-Eigenschaft bedingte Unabhängigkeiten an:
P
B|C
59 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Markov- und Bayes-Netze – Rückblick (DVEW)
Die bedingte Unabhängigkeit zwischen Variablen ist eine wichtige
qualitative Information zur Strukturierung probabilistischer Information in
Netzwerken:
• In (ungerichteten) Markov-Netzen zeigt die globale
G
B | C impliziert A
|=
A
|=
Markov-Eigenschaft bedingte Unabhängigkeiten an:
P
B|C
• In (gerichteten) Bayes-Netzen schirmen die Elternknoten die
Ai
|=
Kindknoten gegen direkte Einflüsse ab:
G. Kern-Isberner (TU Dortmund)
P
nd(Ai ) | pa(Ai ) für alle i = 1, . . . , n
Commonsense Reasoning
59 / 231
Probabilistische Folgerungsmodelle und -strategien
Grundideen probabilistischen Schlussfolgerns
Markov- und Bayes-Netze – Rückblick (DVEW)
Die bedingte Unabhängigkeit zwischen Variablen ist eine wichtige
qualitative Information zur Strukturierung probabilistischer Information in
Netzwerken:
• In (ungerichteten) Markov-Netzen zeigt die globale
G
B | C impliziert A
|=
A
|=
Markov-Eigenschaft bedingte Unabhängigkeiten an:
P
B|C
• In (gerichteten) Bayes-Netzen schirmen die Elternknoten die
Ai
|=
Kindknoten gegen direkte Einflüsse ab:
P
nd(Ai ) | pa(Ai ) für alle i = 1, . . . , n
Zunächst einmal beschäftigen wir uns intensiver mit dem qualitativen
Phänomen der bedingten Unabhängigkeit.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
59 / 231
Probabilistische Folgerungsmodelle und -strategien
Schlussfolgern über Unabhängigkeiten
Übersicht Kapitel 4 – Probabilistik
4.1 Einführung und Übersicht
4.2 Wahrscheinlichkeitstheorie und Commonsense Reasoning
4.3 Grundideen probabilistischen Schlussfolgerns
4.4 Schlussfolgern über Unabhängigkeiten
4.5 Propagation in baumartigen Netzen
4.6 Probabilistische Inferenz auf der Basis optimaler Entropie
4.7 Schlussworte und Zusammenfassung
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
60 / 231
Probabilistische Folgerungsmodelle und -strategien
Schlussfolgern über Unabhängigkeiten
Kapitel 4
4. Probabilistische
Folgerungsmodelle und -strategien
4.4 Schlussfolgern über Unabhängigkeiten
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
61 / 231
Probabilistische Folgerungsmodelle und -strategien
Schlussfolgern über Unabhängigkeiten
Relevanz und Abhängigkeit 1/3
Einer der wichtigsten Aspekte des menschlichen Schlussfolgern ist die
Fähigkeit, relevante Informationen für einen Kontext zu erkennen und irrelevante Details auszublenden.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
62 / 231
Probabilistische Folgerungsmodelle und -strategien
Schlussfolgern über Unabhängigkeiten
Relevanz und Abhängigkeit 1/3
Einer der wichtigsten Aspekte des menschlichen Schlussfolgern ist die
Fähigkeit, relevante Informationen für einen Kontext zu erkennen und irrelevante Details auszublenden.
Relevanz 6= Abhängigkeit
Es ist wichtig, Relevanz und Abhängigkeit voneinander zu unterscheiden.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
62 / 231
Probabilistische Folgerungsmodelle und -strategien
Schlussfolgern über Unabhängigkeiten
Relevanz und Abhängigkeit 2/3
• Relevanz impliziert immer Abhängigkeit
Beispiel: Die Lesefähigkeit eines Kindes hängt von seiner Körpergröße
ab.
♣
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
63 / 231
Probabilistische Folgerungsmodelle und -strategien
Schlussfolgern über Unabhängigkeiten
Relevanz und Abhängigkeit 2/3
• Relevanz impliziert immer Abhängigkeit
Beispiel: Die Lesefähigkeit eines Kindes hängt von seiner Körpergröße
ab.
♣
• Abhängigkeit impliziert aber nicht immer Relevanz, sondern hängt
von der verfügbaren Information ab.
Beispiel: Ist das Lebensalter eines Kindes bekannt, so ist die
Körpergröße irrelevant für seine Lesefähigkeit.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
♣
63 / 231
Probabilistische Folgerungsmodelle und -strategien
Schlussfolgern über Unabhängigkeiten
Relevanz und Abhängigkeit 3/3
Relevanz von Informationen (informational relevance) zu erkennen ist eine
qualitative Eigenschaft des Commonsense Reasoning, die sich aber
quantitativ abbilden lässt durch die probabilistische Eigenschaft der
bedingten Unabhängigkeit:
P (A|K, B) = P (A|K) (K = Kontext)
Im Kontext K liefert B keine zusätzliche Information für A.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
64 / 231
Probabilistische Folgerungsmodelle und -strategien
Schlussfolgern über Unabhängigkeiten
Relevanz und Abhängigkeit 3/3
Relevanz von Informationen (informational relevance) zu erkennen ist eine
qualitative Eigenschaft des Commonsense Reasoning, die sich aber
quantitativ abbilden lässt durch die probabilistische Eigenschaft der
bedingten Unabhängigkeit:
P (A|K, B) = P (A|K) (K = Kontext)
Im Kontext K liefert B keine zusätzliche Information für A.
Beispiel: A = Lesefähigkeit, B = Körpergröße, K = Lebensalter. Dann
ist
P (A ∧ B) 6= P (A) · P (B) A und B sind abhängig
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
64 / 231
Probabilistische Folgerungsmodelle und -strategien
Schlussfolgern über Unabhängigkeiten
Relevanz und Abhängigkeit 3/3
Relevanz von Informationen (informational relevance) zu erkennen ist eine
qualitative Eigenschaft des Commonsense Reasoning, die sich aber
quantitativ abbilden lässt durch die probabilistische Eigenschaft der
bedingten Unabhängigkeit:
P (A|K, B) = P (A|K) (K = Kontext)
Im Kontext K liefert B keine zusätzliche Information für A.
Beispiel: A = Lesefähigkeit, B = Körpergröße, K = Lebensalter. Dann
ist
P (A ∧ B) 6= P (A) · P (B) A und B sind abhängig, aber
P (A|B ∧ K) = P (A|K)
A und B sind
bedingt unabhängig im Kontext K.
G. Kern-Isberner (TU Dortmund)
Commonsense Reasoning
♣
64 / 231
Herunterladen