mit Folien von Prof. H. Schütze

Werbung
Wahrscheinlichkeits-Modelle
“Modellierung” WS 2014/15
Zufalls-Experiment
Wahrscheinlichkeits-Modelle
und stochastische Prozesse
Ein Zufalls-Experiment ist ein Vorgang, der ein genau
abzugrenzendes Ergebnis besitzt, das vom Zufall beeinflusst ist.
Beispiele:
(mit Folien von Prof. H. Schütze)
Prof. Norbert Fuhr
I
Würfel
I
Regnet es morgen in Duisburg?
I
Klickt der Benutzer auf das erste Antwortdokument von
Google?
I
Wie lange schaut der Benutzer auf das angezeigte Dokument?
2 / 63
1 / 63
Aspekte von Zufallsexperimenten
Der Merkmalsraum Ω
Merkmalsraum Ω
Ein Merkmalsraum Ω (Stichprobenraum, Grundmenge,
Grundgesamtheit) ist eine nicht-leere Menge mit Elementen ω ∈ Ω.
Uns interessierende Aspekte von Zufallsexperimenten:
1. Die möglichen Ergebnisse (Beobachtungen)
{1,. . . ,6}, {ja/nein}
Ω gibt die möglichen Ausgänge (Ergebnisse) des
Zufalls-Experiments an
2. Die möglichen Fragestellungen
Gerade Zahl? Weniger als 10s?
Wir betrachten hier nur den Fall, dass der Merkmalsraum endlich
oder zumindest abzählbar ist.
3. die zugehörigen Wahrscheinlichkeiten
P(gerade) = 0, 5
Beispiele für Merkmalsräume
3 / 63
I
Würfel: Ω = {1, 2, 3, 4, 5, 6}
I
Regen: Ω = {ja,nein}
I
Zeit: Ω = {1, 2, . . . , 300}
(Betrachte angefangene Sekunden, bei mehr als 300s macht
der Benutzer Pause)
4 / 63
Ereignisse und ihre Verknüpfung
Spezielle Ereignisse
Ereignisse, Ereignis-System
Ein Ereignis A ist eine Teilmenge von Ω.
Das Ereignis A tritt ein“, falls ein Merkmal ω mit ω ∈ A
”
beobachtet wird.
A = ∅ : A ist ein unmögliches Ereignis, weil ω ∈ ∅ nie eintritt
A = Ω : Das Ereignis Ω tritt immer ein
Die Menge aller betrachteten Ereignisse nennen wir das
Ereignis-System A
A = {ω} für ω ∈ Ω: {ω} nennt man ein Elementarereignis
Beachte den Unterschied zwischen dem Merkmal ω (Element von
Ω) und dem Ereignis {ω} (Teilmenge von Ω)
Beispiele für Ereignisse:
I
Würfel: Gerade Augenzahl: A = {2, 4, 6}
I
Zeit: Benutzer schaut max. 5s auf das Dokument
A = {1, 2, 3, 4, 5}
5 / 63
Zusammengesetzte Ereignisse
Verknüpfung von Ereignissen
Verknüpfung von Ereignissen
Zusammengesetzte Ereignisse
A oder B oder beide treten ein
A und B treten (beide) ein
A und B treten nie gleichzeitig ein
A tritt nicht ein
A tritt ein, aber B tritt nicht ein
mindestens ein Ai tritt ein
alle Ai treten ein
Anmerkungen:
Häufig betrachtet man zusammengesetzte Ereignisse, die als
Mengenoperationen von anderen Ereignissen ausgedrückt werden
können
Beispiele für zusammengesetzte Ereignisse:
I
Würfelzahl > 3 oder gerade Augenzahl
A = {4, 5, 6}, B = {2, 4, 6} A ∪ B = {2, 4, 5, 6}
I
Benutzer schaut mindestens 2s und höchstens 5s auf das
Dokument
A = {2, 3 . . . , 300}, B = {1, 2, 3, 4, 5} A ∩ B = {2, 3, 4, 5}
6 / 63
ω ∈A∪B
ω ∈A∩B
A∩B =∅
ω ∈ Ac ⇔ ω ∈
/A
ω ∈ A\B
=
A
∩ B c = AB c
S
ω ∈ Ti Ai = A1 ∪ A2 ∪ · · ·
ω ∈ i Ai = A1 ∩ A2 ∩ · · ·
I
Statt A ∩ B = ∅ sagt man auch A und B sind disjunkt“
”
Ac bezeichnet die Komplementärmenge zu A, also Ac = Ω\A
I
AB ist eine in der Stochastik übliche Kurznotation für A ∩ B
I
7 / 63
=
ˆ
=
ˆ
=
ˆ
=
ˆ
=
ˆ
=
ˆ
=
ˆ
8 / 63
σ-Algebra
Beschreibbarkeit
Beispiel:
X Zufallsvariable für Würfelergebnis gerade/ungerade
G = gerade Augenzahl beim Würfeln
G = {ω ∈ Ω : X (ω) = gerade}
Ω = {1, 2, 3, 4, 5, 6}
Ω0 = {gerade, ungerade}
0
A = {gerade}
G = {X ∈ A0 }
Abgeschlossenes Mengensystem
Als σ-Algebra bezeichnet man ein Mengensystem A mit
A ⊆ P(Ω), das die folgenden Bedingungen erfüllt:
1. Ω ∈ A
2. A ∈ A =⇒ Ac ∈ A
3. A1 , A2 , . . . ∈ A =⇒
S
n∈N An
{X ∈ A0 } durch X beschreibbar
∈A
Ist X eine Abbildung Ω → Ω0 und A0 ⊂ Ω0 , dann definiert man
Wir nehmen an, dass jedes Ereignis-System A abgeschlossen ist.
{X ∈ A0 } := {ω ∈ Ω : X (ω) ∈ A0 }
Beispiel:
Ω = {1, 2, 3, 4}
A = {{1, 2}, {3, 4}, {1, 2, 3, 4}, ∅}
Eine Teilmenge von Ω der Form {X ∈ A0 } heißt durch X
beschreibbar.
9 / 63
Zufallsvariable
10 / 63
Gesetz der großen Zahlen
Zufallsvariable (ZV)
Eine Zufallsvariable (ZV) ist eine Abbildung vom Merkmalsraum Ω
mit Ereignissystem A in eine Bildmenge Ω0 mit Ereignissystem A0 .
Gilt A =
6 P(Ω) und ist A0 das Ereignissystem in Ω0 , dann wird für
eine ZV X : Ω → Ω0 gefordert
Empirisches Gesetz hn (A) → P(A)
Wird ein Zufalls-Experiment n-mal unter gleichen Bedingungen
wiederholt mit Beobachtungswerten x1 , x2 , . . . , xn , dann
konvergieren“ die relativen Häufigkeiten
”
1
hn (A) := · (Anzahl der xi mit xi ∈ A)
n
{X ∈ A0 } ∈ A für alle A0 ∈ A0
Anmerkungen
I
Für Zufallsvariable verwendet man meist Großbuchstaben
X , Y , Z , U, V , W
I
Für Ereignisse verwenden wir A, B, C , . . .
Beispiele:
A = {X > 3},
für n → ∞ gegen einen Grenzwert.
B = {X = 2} ∪ {X = 4} ∪ {X = 6}
11 / 63
12 / 63
Gesetz der großen Zahlen
Eigenschaften der Wahrscheinlichkeit
Beispiel: Würfeln einer bestimmten Augenzahl
1. P(A) ≥ 0
2. P(A) ≤ 1
3. P(Ω) = 1
4. P(∅) = 0
5. P(A1 + A2 ) = P(A1 ) + P(A2 )
6. P(A1 + · · · + An ) = P(A1 ) + · · · + P(An )
7. P(A1 + A2 + · · · ) = P(A1 ) + P(A2 ) + · · ·
Law-of-large-number“ von Jörg Groß - Eigenes Werk. Lizenziert unter Creative Commons Attribution-Share Alike
”
3.0-2.5-2.0-1.0 über Wikimedia Commons
13 / 63
Wahrscheinlichkeits-Maß
14 / 63
Schreibweise für Ereignisse
Wahrscheinlichkeits-Maß P : A → R
Eine Abbildung P : A → R, wobei A eine σ-Algebra über Ω ist,
heißt Wahrscheinlichkeits-Maß (W-Maß) auf A, wenn die
folgenden drei Bedingungen erfüllt sind:
(1)
(2)
(3)
P(A) ≥ 0 für alle A ∈ A
P(Ω)
P∞= 1
P
P( i=1 Ai ) = ∞
i=1 P(Ai )
Vereinfachte Schreibweise für Ereignisse
P(X ∈ A0 ) := P({X ∈ A0 })
(Nichtnegativität)
(Normiertheit)
(σ-Additivität)
Beispiele:
Münze: P(X =Kopf)=P(X =Zahl) = 0, 5
Würfel: P(W = 6) = 16
Anmerkung:
I
P
Die Schreibweise ∞
i=1 Ai soll immer die Voraussetzung ”Alle
Ai sind paarweise disjunkt “ implizit voraussetzen.
15 / 63
16 / 63
Wahrscheinlichkeitsraum
Bernoulli-Experiment
Bernoulli-Experiment
Ein Zufallsexperiment mit zwei möglichen Ausgängen heißt
Bernoulli-Experiment.
Merkmalsraum: Ω = {0, 1}
Man bezeichnet ω = 1 als Erfolg und ω = 0 als Misserfolg
Ω = {0, 1}, A = P(Ω)
P({1}) = p P({0}) = 1 − p, 0 ≤ p ≤ 1
p bezeichnet man als Parameter der Bernoulli-Verteilung
Wahrscheinlichkeitsraum (Ω, A, P)
Das Tripel aus Merkmalsraum Ω, Ereignissystem A und
Ereignis-Maß P nennt man Wahrscheinlichkeitsraum (W-Raum)
oder Wahrscheinlichkeitsmodell (W-Modell)
Beispiel:
Münzwurf
17 / 63
Laplace-Experimen
18 / 63
Beispiele für Laplace-Experimente
Laplace-Experiment
Ein Zufallsexperiment mit endlich vielen und gleichwertigen
Ausgängen heißt Laplace-Experiment.
Ω = {1, 2, . . . , N}.
Aus P({1}) = P({2}) = · · · = P({N}) folgt P({1}) = 1/N.
P
Für beliebige Ereignisse A gilt wegen A = ω∈A {ω}:
P(A) =
|A|
Anzahl der (für A) günstigen Fälle
=
|Ω|
Anzahl der möglichen Fälle
Würfel:
19 / 63
Roulette:
I
P(W = 6) = 1/6
I
P(X = 13) = 1/37
I
P(W = gerade) = 3/6
I
P(X = gerade) = 18/37
20 / 63
Bedingte Wahrscheinlichkeiten
Verkettungsregel
Elementare bedingte Wahrscheinlichkeit
Verkettungsregel
Seien A, B Ereignisse in Ω und sei P(B) > 0.
Dann heißt
Für drei Ereignisse A, B, C gilt analog die Formel
P(AB)
P(A|B) =
P(B)
P(ABC ) = P(A) · P(B|A) · P(C |AB)
die bedingte Wahrscheinlichkeit von A unter der Bedingung B
Beispiel: Roulette
A = {Z gerade}, B ={Z > 24}, C = {Z schwarz}
Ferner gilt P(AB) = P(B) · P(A|B)
Beispiel: Würfel
A = {2, 4, 6}, B = {4, 5, 6}
P(ABC ) = P(Z gerade) · P(Z> 24|Z gerade) ·
P(Z schwarz|Z > 24, Z gerade)
P(AB)
|{4, 6}|/6
P(A|B) =
=
P(B)
|{4, 5, 6}|/6
22 / 63
21 / 63
Totale Wahrscheinlichkeit
Totale Wahrscheinlichkeit
Beispiel 2
Totale Wahrscheinlichkeit
Ist (Bi , i ∈ I ) eine
Pabzählbare Zerlegung von Ω
d.h. es gilt Ω = i∈I Bi , dann gilt
P(A) =
X
P(ABi ) =
i∈I
X
Beispiel (Roulette)
P(Bi ) · P(A|Bi )
i∈I
P(X gerade) =
Beispiel: (Roulette)
P(X gerade) =
=
36
X
i=0
36
X
=
P(X = i ∩ X gerade)
3
X
i=1
3
X
P(X ∈ i.Dutzend ∩ X gerade)
P(X ∈ i.Dutzend)P(X gerade|X ∈ i.Dutzend)
i=1
= 3·
12 1
·
37 2
P(X = i)P(X gerade|X = i)
i=0
=
1
· 18
37
23 / 63
24 / 63
Stochastische Unabhängigkei
Beispiel: Statistische Sprachmodelle
Deutsche Wortschatz-Datenbank
Stochastische Unabhängigkeit
Zwei Ereignisse heißen stochastisch unabhängig wenn gilt
P(AB) = P(A) · P(B)
Beispiel: Zwei Würfel
P(6er Pasch) = P(W1 = 6) · P(W2 = 6)
Stochastische Unabhängigkeit von n Ereignissen
Die Ereignisse A1 , A2 , . . . , An heißen stochastisch unabhängig,
wenn für alle endlichen Teilmengen{Ai1 , Ai2 , . . . Aik } von diesen
Ereignissen die Produktformel gilt:
P(Ai1 , Ai2 , . . . Aik ) = P(Ai1 ) · P(Ai2 ) · · · P(Aik )
26 / 63
25 / 63
Beispiel: Statistisches Sprachmodell
Modelle für stochastische Prozesse
Stochastischer Prozess
wi
Dieser
Text
ist
einfach
log2 (P(W = wi ))
−5
−9
−2
−6
wj
Manche
Informatiker
sind
Nerds
Für einen stochastischen Prozess benötigt man:
log2 (P(W = wj ))
−9
−13
−3
−16
P(Dieser Text ist einfach) =
=P(dieser)·P(Text)·P(ist)·P(einfach) = 2−5 ·2−9 ·2−2 ·2−6 = 2−22
I
W-Modell (Ω, A, P)
I
Bildbereich Ω0
I
Zeitbereich T
I
Zufallsvariable Xt : Ω → Ω0
gibt den Zustand zum Zeitpunkt t
Dann heißt {Xt } := (Xt , t ∈ T ) ein stochastischer Prozess.
P(Manche Informatiker sind Nerds) =
= 2−9 · 2−13 · 2−3 · 2−16 = 2−41
Ω = {auf,zu}
27 / 63
28 / 63
Modellierung stochastischer Prozesse
Markov-Kopplung
Markov-Kopplung
Hängen bei einem mehrstufigen Versuch die
Übergangswahrscheinlichkeiten nicht von der vollen Vorgeschichte
ab, sondern nur vom letzten beobachteten Wert, so spricht man
von Markov-Kopplung.
Die Folge der Beobachtungen bildet dann einen Markov-Prozess,
im diskreten Fall auch Markov-Kette genannt.
29 / 63
Beispiel: Sprachmodell als Markov-Kopplung
Markov-Kette
Markov-Kette
Hans programmiert.
Paul begrüßt Lisa.
Uwe trinkt ein kühles Pils.
Das schnelle Auto überholt den schweren LKW.
Eine Markov-Kette ist ein stochastischer Prozess, speziell die Folge
der Beobachtungen X0 , X1 , X2 , . . . in einem unendlichstufigen
Versuch mit Markov-Kopplung und abzählbarer Zustandsmenge I .
Die Zustandsvariablen Xn : Ω → I beschreiben also den Zustand
des Systems zu den Zeitpunkten n = 0, 1, 2, . . ..
Anmerkungen
I
Annahme einer Markov-Kopplung ist starke Vereinfachung
I
Weitere Aspekte von Syntax (+Semantik) unberücksichtigt
Der grüne Auto isst Spinat
I
Solche Modelle eignen sich primär zur Analyse von Texten
(und weniger zur Generierung)
30 / 63
31 / 63
32 / 63
Homogene Markov-Kette (HMK)
Beispiel zu homogener Markov-Kette
Homogene Markov-Kette
Eine Markov-Kette {Xn } heißt homogen, falls die
Übergangswahrscheinlichkeiten fnn−1 (i, j) = P(Xn = j|Xn−1 = i)
für alle Zeitpunkte gleich sind. In diesem Fall schreibt man
pij := fnn−1 (i, j).
34 / 63
33 / 63
Übergangsmatrix
Übergangsgraph
Übergangsgraph
Übergangsmatrix
Ein Übergangsgraph einer HMK besteht aus
Die Matrix P := (pij , i, j ∈ I ) heißt Übergangsmatrix (Ü-Matrix).
Die Zeilensumme ist stets =1.

I
Knoten: alle möglichen Zuständen des Graphen
I
gerichtete Kanten: mit positiver Wahrscheinlichkeit mögliche
Übergänge
I
an der Kante von i nach j wird jeweils der Wert pij notiert.

0, 7 0, 3 0
(pij ) =  0, 2 0, 5 0, 3 
0, 1 0, 4 0, 5
35 / 63
36 / 63
Beispiel zu Übergangsgraph
Startpunkt
Zur Beschreibung des Ablaufs einer Markov-Kette benötigt man
neben der Ü-Matrix noch
I
entweder einen festen Startpunkt i0 ∈ I
I
oder eine Startverteilung, nämlich eine Z-Dichte
P(X0 = i), i ∈ I
Dann ist die Wahrscheinlichkeit für jede endliche Zustandsfolge
festgelegt durch
P(X0 = i0 , . . . , Xn = in ) = P(X0 = i0 ) · pi0 i1 · · · pin−1 in
P(X0 = 0, X1 = 1, X2 = 2, X3 = 1, X4 = 0) = 1 · p01 · p12 · p21 · p10
38 / 63
37 / 63
Pfad
Rechenregeln für eine MK
Pfad der Markov-Kette
Rechenregeln für eine MK
Ein einzelner Verlauf einer Markov-Kette für eine festen Wert ω,
also (X0 (ω), X1 (ω), . . .) heißt ein Pfad der Markov-Kette.
Für ein homogene Markov-Kette mit Ü-Matrix (pij )i,j∈I und
Startverteilung P(X0 = i), i ∈ I ) gilt
Beispiel
Hans trinkt ein kühles Pils
Pfad:
Start – SNomen – Verb – OArtikel – OAdjektiv – ONomen – Ende
P(Pfad) = 1 · 0, 5 · 1 · 0, 5 · 0, 3 · 1 · 1 = 0, 075
P(X0 = i0 , . . . , Xn = in ) = P(X0 = i0 ) · pi0 i1 · · · pin−1 in
P(Xn = j) =
X
P(Xn−1 = i) · pij
bzw.
~pn = ~pn−1 P
i∈I
n-Schritt-Übergangsmatrix
(n)
Für eine HMK (Xn ) ist die Matrix P(n) = (pij ) mit
(n)
(pij ) := P(Xm+n = j|Xm = i) unabhängig von m und heißt
n-Schritt-Übergangsmatrix
39 / 63
40 / 63
Beispiel zur Berechnung
irreduzibel
der W-Verteilung im Folgezustand
Zerlegung in Klassen, irreduzibel

Zustandsmenge I einer HMK wird in disjunkte Klassen zerlegt:
zwei Zustände i und j gehören zur selben Klasse, wenn

0, 7 0, 3 0
P =  0, 2 0, 5 0, 3 
0, 1 0, 4 0, 5
Sei ~pn−1 = (0,5,
0,3,
0,2)
~pn = ~pn−1 P = (0,5,
0,3,
0,2) · P
= (0,5 · 0,7 + 0,3 · 0,2 + 0,2 · 0,1,
0,5 · 0,3 + 0,3 · 0,5 + 0,2 · 0,4,
0,5 · 0 + 0,3 · 0,3 + 0,2 · 0,5)
= (0,35 + 0,06 + 0,02,
= (0,43,
0,38,
0,15 + 0,15 + 0,08,
0 + 0,09 + 0,1)
I
i = j oder
I
Zustand j ausgehend von i in endlich vielen Schritten mit
positiver Wahrscheinlichkeit erreicht werden kann (i
j)
und umgekehrt i von j aus erreichbar ist (j
i).
Jeder Zustand i ∈ I gehört zu genau einer Klasse k. Eine HMK
heißt irreduzibel, falls alle Zustände zur selben Klasse gehören
Einfaches Beispiel einer reduziblen HMK:
0,19)
1−α α
0
1
41 / 63
aperiodisch
42 / 63
Gleichgewicht
Periode, aperiodisch
I
I
Klasse K heißt periodisch mit Periode d, wenn es d (≥ 2)
disjunkte Teilmengen in K gibt, die der Reihe nach in d
Schritten durchlaufen werden.
Markov-Kette im Gleichgewicht
Eine homogene Markov-Kette (Xn ) ist im Gleichgewicht, wenn für
alle Zustände i ∈ I die Wahrscheinlichkeiten P(Xn =i) unabhängig
vom Zeitpunkt n sind.
Man setzt dann πi := P(Xn =i) bzw. ~π := ~pn und bezeichnet die
Z-Dichte ~π = (πi , i ∈ I ) als Gleichgewichtsverteilung (GGV) der
HMK (Xn )
Eine HMK heißt aperiodisch, wenn es keine periodische Klasse
gibt.
Einfaches Beispiel einer periodischen HMK:
0 1
1 0
43 / 63
44 / 63
Berechnung der Gleichgewichtsverteilung (GGV)
Berechnung der Gleichgewichtsverteilung
Beispiel
Berechnung der Gleichgewichtsverteilung
Die HMK (X0 , X1 , . . .) mit Ü-Matrix (pij , i, j ∈ I ) sei im
Gleichgewicht, d.h. es gelte P(Xn = i) = πi bzw. ~pn = ~π für alle
n = 0, 1, 2 . . . und i ∈ I . Wegen
P
P(Xn = j) = i∈I P(Xn−1 = i) · pij


0, 7 0, 3 0
(pij ) =  0, 2 0, 5 0, 3 
0, 1 0, 4 0, 5
Gleichgewichtsbedingungen
gelten dann für alle Werte πi , i ∈ I die folgenden beiden
Gleichgewichtsbedingungen:
X
πi pij für alle j ∈ I bzw. ~π = ~π P
πj =
π0 = 0, 7π0 + 0, 2π1 +0, 1π2
π1 = 0, 3π0 + 0, 5π1 +0, 4π2
π2 =
0, 3π1 +0, 5π2
und π0 + π1 + π2 = 1
i∈I
πj ≥ 0
für alle j ∈ I und
X
π0 =
πj = 1
13
15
9
≈ 0, 35 π1 =
≈ 0, 41 π2 =
≈ 0, 24
37
37
37
j∈I
45 / 63
Eigenvektor der Übergangsmatrix
46 / 63
Grenzwertsatz für homogene Markov-Ketten
Definition Eigenvektor einer Matrix
Betrachtet man die durch die Matrix A definierte Abbildung, so ist
ein Eigenvektor ein Vektor dessen Richtung durch diese Abbildung
nicht verändert wird, d.h. es gilt
λ~π T
= A~π T mit λ ∈ R
λ~π = ~π A mit λ ∈ R
Grenzwertsatz für homogene Markov-Ketten
Ist die HMK(Xn ) mit Ü-Matrix (pij , i, j ∈ I ) irreduzibel und
aperiodisch, dann konvergiert (für alle i ∈ I ) P(Xn = i) unabhängig
von der Startverteilung gegen einen Wert πi mit 0 ≤ πi ≤ 1.
Dabei sind
(Rechtseigenvektor) und analog
(Linkseigenvektor).
a) entweder alle πi = 0, und es gibt keine GGV zu (pij ),
b) oder es sind alle πi > 0, und (πi , i ∈ I ) ist die einzige GGV zu
(pij ),
Für den Vektor der GGV gilt:
~π = ~π P
mit
X
Fall a) kommt nur bei unendlicher Zustandmenge vor.
πj = 1
j∈I
π ist daher ein Linkseigenvektor der Ü-Matrix P
47 / 63
48 / 63
Unendlicher Zustandsmenge ohne GGV
Alternative Methode zu Berechnung der GGV
Beispiel: überlastete Warteschlange
Basierend auf dem Grenzwertsatz
Ist die HMK(Xn ) mit Ü-Matrix (pij , i, j ∈ I ) irreduzibel und
aperiodisch, dann konvergiert (für alle i ∈ I ) P(Xn = i) unabhängig
von der Startverteilung gegen einen Wert πi mit 0 ≤ πi ≤ 1.
I
Sei ~x der Vektor mit xi = P(Xn = i) für alle i ∈ I
I
Beginne mit beliebiger Startverteilung ~x
I
Berechne Verteilung im nächsten Zustand als ~x P.
I
Nach zwei Schritten sind wir bei ~x P 2 .
I
Nach k Schritten sind wir bei ~x P k .
I
Algorithmus: multipliziere ~x mit steigenden Potenzen von P,
bis Konvergenz erreicht ist
I
Ergebnis ist unabhängig vom Startvektor
50 / 63
49 / 63
Potenzmethode zur Berechnung der GGV
Beispiel zur Berechnung der GGV
Startvektor
I
I
~x = (0.25, 0.75)
Verfahren mit steigenden Potenzen von P wird
Potenzmethode genannt (engl. power method)
x1
Pt (d1 )
Berechne die GGV der folgenden Markov-Kette:
t0
t1
0.25
0.25
x2
Pt (d2 )
0.75
0.75
p11 = 0.25 p12 = 0.75
p21 = 0.25 p22 = 0.75
0.25
0.75
(Konvergenz)
Pt (d1 ) = Pt−1 (d1 ) ∗ p11 + Pt−1 (d2 ) ∗ p21
Pt (d2 ) = Pt−1 (d1 ) ∗ p12 + Pt−1 (d2 ) ∗ p22
GGV: ~π = (π1 , π2 ) = (0.25, 0.75)
51 / 63
52 / 63
Beispiel zur Berechnung der GGV
Potenzmethode: Beispiel 2
Fester Startzustand
x1
Pt (d1 )
t0
t1
t2
1.00
0.25
0.25
x2
Pt (d2 )
0.00
0.75
0.75
I
p11 = 0.25 p12 = 0.75
p21 = 0.25 p22 = 0.75
0.25
0.75
0.25
0.75
(Konvergenz)
Bestimme die GGV für folgende Markov-Kette:
Pt (d1 ) = Pt−1 (d1 ) ∗ p11 + Pt−1 (d2 ) ∗ p21
Pt (d2 ) = Pt−1 (d1 ) ∗ p12 + Pt−1 (d2 ) ∗ p22
GGV: ~π = (π1 , π2 ) = (0.25, 0.75)
53 / 63
Berechnung der GGV: Potenzmethode
x1
Pt (d1 )
54 / 63
Potenzmethode für das Telefon-Beispiel
x2
Pt (d2 )
t0
t1
t2
t3
0
0.3
0.24
0.252
1
0.7
0.76
0.748
t∞
0.25
0.75
p11 = 0.1 p12 = 0.9
p21 = 0.3 p22 = 0.7
0.3
0.7
0.24
0.76
0.252
0.748
0.2496
0.7504
...
0.25
0.75
= ~x P
= ~x P 2
= ~x P 3
= ~x P 4
...
= ~x P ∞


0, 7 0, 3 0
 0, 2 0, 5 0, 3 
0, 1 0, 4 0, 5
GGV: ~π = (π1 , π2 ) = (0.25, 0.75)
Pt (d1 ) = Pt−1 (d1 ) ∗ p11 + Pt−1 (d2 ) ∗ p21
Pt (d2 ) = Pt−1 (d1 ) ∗ p12 + Pt−1 (d2 ) ∗ p22
55 / 63
~x P
~x P 2
~x P 3
~x P 4
~x P 5
~x P 6
~x P 7
~x P 8
~x P 9
~x P 10
~x P 11
~x P 12
~x P 13
x0
1,00
0,70
0,55
0,47
0,42
0,39
0,37
0,36
0,36
0,36
0,35
0,35
0,35
x1
0,00
0,30
0,36
0,38
0,39
0,40
0,40
0,40
0,40
0,40
0,40
0,41
0,41
x2
0,00
0,00
0,09
0,15
0,19
0,21
0,23
0,23
0,24
0,24
0,24
0,24
0,24
56 / 63
Anwendung der GGV beim Web-Retrieval
PageRank
d0
d1
d2
d3
d4
d5
d6
PageRank
I
versucht, Web-Seiten gemäß ihrer Popularität zu gewichten
I
Popularität hängt ab von der Zitationshäufigkeit (eingehende
Web-Links)
I
und von der Popularität der referenzierenden Seiten
PageRank
0.05
0.04
0.11
0.25
0.21
0.04
0.31
57 / 63
Begründung der PageRank-Methode
PageRank
d0
d1
d2
d3
d4
d5
d6
Random Surfer
I
Grundlage von PageRank
I
klickt sich durch das Web, wobei er zufällig auf einen der
ausgehenden Links einer Seite klickt
(Gleichverteilung über die ausgehenden Links)
I
Teleportation: gibt es keine ausgehenden Links, geht er auf
eine zufällige andere Web-Seite
I
Auch auf einer Seite mit ausgehende Links geht er mit 10%
Wahrscheinlichkeit auf eine zufällige andere Seite
58 / 63
59 / 63
PageRank
0.05
0.04
0.11
0.25
0.21
0.04
0.31
60 / 63
Übergangsmatrix ohne Teleportation
d0
d1
d2
d3
d4
d5
d6
d0
0.00
0.00
0.33
0.00
0.00
0.00
0.00
d1
0.00
0.50
0.00
0.00
0.00
0.00
0.00
d2
1.00
0.50
0.33
0.00
0.00
0.00
0.00
d3
0.00
0.00
0.33
0.50
0.00
0.00
0.33
d4
0.00
0.00
0.00
0.50
0.00
0.00
0.33
Übergangsmatrix mit Teleportation
d5
0.00
0.00
0.00
0.00
0.00
0.50
0.00
d6
0.00
0.00
0.00
0.00
1.00
0.50
0.33
d0
d1
d2
d3
d4
d5
d6
61 / 63
Anwendung der Potenzmethode ~x P k
d0
d1
d2
d3
d4
d5
d6
~x
0.14
0.14
0.14
0.14
0.14
0.14
0.14
~x P 1
0.06
0.08
0.25
0.16
0.12
0.08
0.25
~x P 2
0.09
0.06
0.18
0.23
0.16
0.06
0.23
~x P 3
0.07
0.04
0.17
0.24
0.19
0.04
0.25
~x P 4
0.07
0.04
0.15
0.24
0.19
0.04
0.27
~x P 5
0.06
0.04
0.14
0.24
0.20
0.04
0.28
~x P 6
0.06
0.04
0.13
0.24
0.21
0.04
0.29
~x P 7
0.06
0.04
0.12
0.25
0.21
0.04
0.29
~x P 8
0.06
0.04
0.12
0.25
0.21
0.04
0.30
~x P 9
0.05
0.04
0.12
0.25
0.21
0.04
0.30
~x P 10
0.05
0.04
0.12
0.25
0.21
0.04
0.30
~x P 11
0.05
0.04
0.11
0.25
0.21
0.04
0.30
~x P 12
0.05
0.04
0.11
0.25
0.21
0.04
0.31
~x P 13
0.05
0.04
0.11
0.25
0.21
0.04
0.31
63 / 63
d0
0.02
0.02
0.31
0.02
0.02
0.02
0.02
d1
0.02
0.45
0.02
0.02
0.02
0.02
0.02
d2
0.88
0.45
0.31
0.02
0.02
0.02
0.02
d3
0.02
0.02
0.31
0.45
0.02
0.02
0.31
d4
0.02
0.02
0.02
0.45
0.02
0.02
0.31
d5
0.02
0.02
0.02
0.02
0.02
0.45
0.02
d6
0.02
0.02
0.02
0.02
0.88
0.45
0.31
62 / 63
Herunterladen