1:1

Werbung
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
“Modellierung” WS 2014/15
Wahrscheinlichkeits-Modelle
und stochastische Prozesse
(mit Folien von Prof. H. Schütze)
Prof. Norbert Fuhr
1 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Wahrscheinlichkeits-Modelle
Zufalls-Experiment
Ein Zufalls-Experiment ist ein Vorgang, der ein genau
abzugrenzendes Ergebnis besitzt, das vom Zufall beeinflusst ist.
Beispiele:
Würfel
Regnet es morgen in Duisburg?
Klickt der Benutzer auf das erste Antwortdokument von
Google?
Wie lange schaut der Benutzer auf das angezeigte Dokument?
2 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Aspekte von Zufallsexperimenten
Uns interessierende Aspekte von Zufallsexperimenten:
1
Die möglichen Ergebnisse (Beobachtungen)
{1,. . . ,6}, {ja/nein}
2
Die möglichen Fragestellungen
Gerade Zahl? Weniger als 10s?
3
die zugehörigen Wahrscheinlichkeiten
P(gerade) = 0, 5
3 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Der Merkmalsraum Ω
Merkmalsraum Ω
Ein Merkmalsraum Ω (Stichprobenraum, Grundmenge,
Grundgesamtheit) ist eine nicht-leere Menge mit Elementen ω ∈ Ω.
Ω gibt die möglichen Ausgänge (Ergebnisse) des
Zufalls-Experiments an
Wir betrachten hier nur den Fall, dass der Merkmalsraum endlich
oder zumindest abzählbar ist.
Beispiele für Merkmalsräume
Würfel: Ω = {1, 2, 3, 4, 5, 6}
Regen: Ω = {ja,nein}
Zeit: Ω = {1, 2, . . . , 300}
(Betrachte angefangene Sekunden, bei mehr als 300s macht
der Benutzer Pause)
4 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Ereignisse und ihre Verknüpfung
Ereignisse, Ereignis-System
Ein Ereignis A ist eine Teilmenge von Ω.
Das Ereignis A tritt ein“, falls ein Merkmal ω mit ω ∈ A
”
beobachtet wird.
Die Menge aller betrachteten Ereignisse nennen wir das
Ereignis-System A
Beispiele für Ereignisse:
Würfel: Gerade Augenzahl: A = {2, 4, 6}
Zeit: Benutzer schaut max. 5s auf das Dokument
A = {1, 2, 3, 4, 5}
5 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Spezielle Ereignisse
A = ∅ : A ist ein unmögliches Ereignis, weil ω ∈ ∅ nie eintritt
A = Ω : Das Ereignis Ω tritt immer ein
A = {ω} für ω ∈ Ω: {ω} nennt man ein Elementarereignis
Beachte den Unterschied zwischen dem Merkmal ω (Element von
Ω) und dem Ereignis {ω} (Teilmenge von Ω)
6 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Zusammengesetzte Ereignisse
Zusammengesetzte Ereignisse
Häufig betrachtet man zusammengesetzte Ereignisse, die als
Mengenoperationen von anderen Ereignissen ausgedrückt werden
können
Beispiele für zusammengesetzte Ereignisse:
Würfelzahl > 3 oder gerade Augenzahl
A = {4, 5, 6}, B = {2, 4, 6} A ∪ B = {2, 4, 5, 6}
Benutzer schaut mindestens 2s und höchstens 5s auf das
Dokument
A = {2, 3 . . . , 300}, B = {1, 2, 3, 4, 5} A ∩ B = {2, 3, 4, 5}
7 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Verknüpfung von Ereignissen
Verknüpfung von Ereignissen
A oder B oder beide treten ein
A und B treten (beide) ein
A und B treten nie gleichzeitig ein
A tritt nicht ein
A tritt ein, aber B tritt nicht ein
mindestens ein Ai tritt ein
alle Ai treten ein
=
ˆ
=
ˆ
=
ˆ
=
ˆ
=
ˆ
=
ˆ
=
ˆ
ω ∈A∪B
ω ∈A∩B
A∩B =∅
ω ∈ Ac ⇔ ω ∈
/A
ω ∈ A\B
=
A
∩ B c = AB c
S
ω ∈ Ti Ai = A1 ∪ A2 ∪ · · ·
ω ∈ i Ai = A1 ∩ A2 ∩ · · ·
Anmerkungen:
Statt A ∩ B = ∅ sagt man auch A und B sind disjunkt“
”
Ac bezeichnet die Komplementärmenge zu A, also Ac = Ω\A
AB ist eine in der Stochastik übliche Kurznotation für A ∩ B
8 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
σ-Algebra
Abgeschlossenes Mengensystem
Als σ-Algebra bezeichnet man ein Mengensystem A mit
A ⊆ P(Ω), das die folgenden Bedingungen erfüllt:
1
Ω∈A
2
A ∈ A =⇒ Ac ∈ A
3
A1 , A2 , . . . ∈ A =⇒
S
n∈N An
∈A
Wir nehmen an, dass jedes Ereignis-System A abgeschlossen ist.
Beispiel:
Ω = {1, 2, 3, 4}
A = {{1, 2}, {3, 4}, {1, 2, 3, 4}, ∅}
9 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Beschreibbarkeit
Beispiel:
X Zufallsvariable für Würfelergebnis gerade/ungerade
G = gerade Augenzahl beim Würfeln
G = {ω ∈ Ω : X (ω) = gerade}
Ω = {1, 2, 3, 4, 5, 6}
Ω0 = {gerade, ungerade}
A0 = {gerade}
G = {X ∈ A0 }
{X ∈ A0 } durch X beschreibbar
Ist X eine Abbildung Ω → Ω0 und A0 ⊂ Ω0 , dann definiert man
{X ∈ A0 } := {ω ∈ Ω : X (ω) ∈ A0 }
Eine Teilmenge von Ω der Form {X ∈ A0 } heißt durch X
beschreibbar.
10 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Zufallsvariable
Zufallsvariable (ZV)
Eine Zufallsvariable (ZV) ist eine Abbildung vom Merkmalsraum Ω
mit Ereignissystem A in eine Bildmenge Ω0 mit Ereignissystem A0 .
Gilt A =
6 P(Ω) und ist A0 das Ereignissystem in Ω0 , dann wird für
eine ZV X : Ω → Ω0 gefordert
{X ∈ A0 } ∈ A für alle A0 ∈ A0
Anmerkungen
Für Zufallsvariable verwendet man meist Großbuchstaben
X , Y , Z , U, V , W
Für Ereignisse verwenden wir A, B, C , . . .
Beispiele:
A = {X > 3}, B = {X = 2} ∪ {X = 4} ∪ {X = 6}
11 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Gesetz der großen Zahlen
Empirisches Gesetz hn (A) → P(A)
Wird ein Zufalls-Experiment n-mal unter gleichen Bedingungen
wiederholt mit Beobachtungswerten x1 , x2 , . . . , xn , dann
konvergieren“ die relativen Häufigkeiten
”
1
hn (A) := · (Anzahl der xi mit xi ∈ A)
n
für n → ∞ gegen einen Grenzwert.
12 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Gesetz der großen Zahlen
Beispiel: Würfeln einer bestimmten Augenzahl
Law-of-large-number“ von Jörg Groß - Eigenes Werk. Lizenziert unter Creative Commons Attribution-Share Alike
”
3.0-2.5-2.0-1.0 über Wikimedia Commons
13 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Eigenschaften der Wahrscheinlichkeit
1
P(A) ≥ 0
2
P(A) ≤ 1
3
P(Ω) = 1
4
P(∅) = 0
5
P(A1 + A2 ) = P(A1 ) + P(A2 )
6
P(A1 + · · · + An ) = P(A1 ) + · · · + P(An )
7
P(A1 + A2 + · · · ) = P(A1 ) + P(A2 ) + · · ·
14 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Wahrscheinlichkeits-Maß
Wahrscheinlichkeits-Maß P : A → R
Eine Abbildung P : A → R, wobei A eine σ-Algebra über Ω ist,
heißt Wahrscheinlichkeits-Maß (W-Maß) auf A, wenn die
folgenden drei Bedingungen erfüllt sind:
(1)
(2)
(3)
P(A) ≥ 0 für alle A ∈ A
P(Ω)
P∞= 1
P
P( i=1 Ai ) = ∞
i=1 P(Ai )
(Nichtnegativität)
(Normiertheit)
(σ-Additivität)
Anmerkung:
P
Die Schreibweise ∞
i=1 Ai soll immer die Voraussetzung ”Alle
Ai sind paarweise disjunkt “ implizit voraussetzen.
15 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Schreibweise für Ereignisse
Vereinfachte Schreibweise für Ereignisse
P(X ∈ A0 ) := P({X ∈ A0 })
Beispiele:
Münze: P(X =Kopf)=P(X =Zahl) = 0, 5
Würfel: P(W = 6) = 61
16 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Wahrscheinlichkeitsraum
Wahrscheinlichkeitsraum (Ω, A, P)
Das Tripel aus Merkmalsraum Ω, Ereignissystem A und
Ereignis-Maß P nennt man Wahrscheinlichkeitsraum (W-Raum)
oder Wahrscheinlichkeitsmodell (W-Modell)
17 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Bernoulli-Experiment
Bernoulli-Experiment
Ein Zufallsexperiment mit zwei möglichen Ausgängen heißt
Bernoulli-Experiment.
Merkmalsraum: Ω = {0, 1}
Man bezeichnet ω = 1 als Erfolg und ω = 0 als Misserfolg
Ω = {0, 1}, A = P(Ω)
P({1}) = p P({0}) = 1 − p, 0 ≤ p ≤ 1
p bezeichnet man als Parameter der Bernoulli-Verteilung
Beispiel:
Münzwurf
18 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Laplace-Experimen
Laplace-Experiment
Ein Zufallsexperiment mit endlich vielen und gleichwertigen
Ausgängen heißt Laplace-Experiment.
Ω = {1, 2, . . . , N}.
Aus P({1}) = P({2}) = · · · = P({N}) folgt P({1}) = 1/N.
P
Für beliebige Ereignisse A gilt wegen A = ω∈A {ω}:
P(A) =
|A|
Anzahl der (für A) günstigen Fälle
=
|Ω|
Anzahl der möglichen Fälle
19 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Beispiele für Laplace-Experimente
Würfel:
Roulette:
P(W = 6) = 1/6
P(X = 13) = 1/37
P(W = gerade) = 3/6
P(X = gerade) = 18/37
20 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Bedingte Wahrscheinlichkeiten
Elementare bedingte Wahrscheinlichkeit
Seien A, B Ereignisse in Ω und sei P(B) > 0.
Dann heißt
P(A|B) =
P(AB)
P(B)
die bedingte Wahrscheinlichkeit von A unter der Bedingung B
Ferner gilt P(AB) = P(B) · P(A|B)
Beispiel: Würfel
A = {2, 4, 6}, B = {4, 5, 6}
P(A|B) =
P(AB)
|{4, 6}|/6
=
P(B)
|{4, 5, 6}|/6
21 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Verkettungsregel
Verkettungsregel
Für drei Ereignisse A, B, C gilt analog die Formel
P(ABC ) = P(A) · P(B|A) · P(C |AB)
Beispiel: Roulette
A = {Z gerade}, B ={Z > 24}, C = {Z schwarz}
P(ABC ) = P(Z gerade) · P(Z> 24|Z gerade) ·
P(Z schwarz|Z > 24, Z gerade)
22 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Totale Wahrscheinlichkeit
Totale Wahrscheinlichkeit
Ist (Bi , i ∈ I ) eine
Pabzählbare Zerlegung von Ω
d.h. es gilt Ω = i∈I Bi , dann gilt
P(A) =
X
P(ABi ) =
i∈I
X
P(Bi ) · P(A|Bi )
i∈I
Beispiel: (Roulette)
P(X gerade) =
=
36
X
i=0
36
X
P(X = i ∩ X gerade)
P(X = i)P(X gerade|X = i)
i=0
=
1
· 18
37
23 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Totale Wahrscheinlichkeit
Beispiel 2
Beispiel (Roulette)
P(X gerade) =
=
3
X
i=1
3
X
P(X ∈ i.Dutzend ∩ X gerade)
P(X ∈ i.Dutzend)P(X gerade|X ∈ i.Dutzend)
i=1
= 3·
12 1
·
37 2
24 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Stochastische Unabhängigkei
Stochastische Unabhängigkeit
Zwei Ereignisse heißen stochastisch unabhängig wenn gilt
P(AB) = P(A) · P(B)
Beispiel: Zwei Würfel
P(6er Pasch) = P(W1 = 6) · P(W2 = 6)
Stochastische Unabhängigkeit von n Ereignissen
Die Ereignisse A1 , A2 , . . . , An heißen stochastisch unabhängig,
wenn für alle endlichen Teilmengen{Ai1 , Ai2 , . . . Aik } von diesen
Ereignissen die Produktformel gilt:
P(Ai1 , Ai2 , . . . Aik ) = P(Ai1 ) · P(Ai2 ) · · · P(Aik )
25 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Beispiel: Statistische Sprachmodelle
Deutsche Wortschatz-Datenbank
26 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Wahrscheinlichkeits-Modelle
Beispiel: Statistisches Sprachmodell
wi
Dieser
Text
ist
einfach
log2 (P(W = wi ))
−5
−9
−2
−6
wj
Manche
Informatiker
sind
Nerds
log2 (P(W = wj ))
−9
−13
−3
−16
P(Dieser Text ist einfach) =
=P(dieser)·P(Text)·P(ist)·P(einfach) = 2−5 ·2−9 ·2−2 ·2−6 = 2−22
P(Manche Informatiker sind Nerds) =
= 2−9 · 2−13 · 2−3 · 2−16 = 2−41
27 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Modelle für stochastische Prozesse
Stochastischer Prozess
Für einen stochastischen Prozess benötigt man:
W-Modell (Ω, A, P)
Bildbereich Ω0
Zeitbereich T
Zufallsvariable Xt : Ω → Ω0
gibt den Zustand zum Zeitpunkt t
Dann heißt {Xt } := (Xt , t ∈ T ) ein stochastischer Prozess.
Ω = {auf,zu}
28 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Modellierung stochastischer Prozesse
29 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Markov-Kopplung
Markov-Kopplung
Hängen bei einem mehrstufigen Versuch die
Übergangswahrscheinlichkeiten nicht von der vollen Vorgeschichte
ab, sondern nur vom letzten beobachteten Wert, so spricht man
von Markov-Kopplung.
Die Folge der Beobachtungen bildet dann einen Markov-Prozess,
im diskreten Fall auch Markov-Kette genannt.
30 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Beispiel: Sprachmodell als Markov-Kopplung
Hans programmiert.
Paul begrüßt Lisa.
Uwe trinkt ein kühles Pils.
Das schnelle Auto überholt den schweren LKW.
Anmerkungen
Annahme einer Markov-Kopplung ist starke Vereinfachung
Weitere Aspekte von Syntax (+Semantik) unberücksichtigt
Der grüne Auto isst Spinat
Solche Modelle eignen sich primär zur Analyse von Texten
(und weniger zur Generierung)
31 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Markov-Kette
Markov-Kette
Eine Markov-Kette ist ein stochastischer Prozess, speziell die Folge
der Beobachtungen X0 , X1 , X2 , . . . in einem unendlichstufigen
Versuch mit Markov-Kopplung und abzählbarer Zustandsmenge I .
Die Zustandsvariablen Xn : Ω → I beschreiben also den Zustand
des Systems zu den Zeitpunkten n = 0, 1, 2, . . ..
32 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Homogene Markov-Kette (HMK)
Homogene Markov-Kette
Eine Markov-Kette {Xn } heißt homogen, falls die
Übergangswahrscheinlichkeiten fnn−1 (i, j) = P(Xn = j|Xn−1 = i)
für alle Zeitpunkte gleich sind. In diesem Fall schreibt man
pij := fnn−1 (i, j).
33 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Beispiel zu homogener Markov-Kette
34 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Übergangsmatrix
Übergangsmatrix
Die Matrix P := (pij , i, j ∈ I ) heißt Übergangsmatrix (Ü-Matrix).
Die Zeilensumme ist stets =1.


0, 7 0, 3 0
(pij ) =  0, 2 0, 5 0, 3 
0, 1 0, 4 0, 5
35 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Übergangsgraph
Übergangsgraph
Ein Übergangsgraph einer HMK besteht aus
Knoten: alle möglichen Zuständen des Graphen
gerichtete Kanten: mit positiver Wahrscheinlichkeit mögliche
Übergänge
an der Kante von i nach j wird jeweils der Wert pij notiert.
36 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Beispiel zu Übergangsgraph
37 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Startpunkt
Zur Beschreibung des Ablaufs einer Markov-Kette benötigt man
neben der Ü-Matrix noch
entweder einen festen Startpunkt i0 ∈ I
oder eine Startverteilung, nämlich eine Z-Dichte
P(X0 = i), i ∈ I
Dann ist die Wahrscheinlichkeit für jede endliche Zustandsfolge
festgelegt durch
P(X0 = i0 , . . . , Xn = in ) = P(X0 = i0 ) · pi0 i1 · · · pin−1 in
P(X0 = 0, X1 = 1, X2 = 2, X3 = 1, X4 = 0) = 1 · p01 · p12 · p21 · p10
38 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Pfad
Pfad der Markov-Kette
Ein einzelner Verlauf einer Markov-Kette für eine festen Wert ω,
also (X0 (ω), X1 (ω), . . .) heißt ein Pfad der Markov-Kette.
Beispiel
Hans trinkt ein kühles Pils
Pfad:
Start – SNomen – Verb – OArtikel – OAdjektiv – ONomen – Ende
P(Pfad) = 1 · 0, 5 · 1 · 0, 5 · 0, 3 · 1 · 1 = 0, 075
39 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Rechenregeln für eine MK
Rechenregeln für eine MK
Für ein homogene Markov-Kette mit Ü-Matrix (pij )i,j∈I und
Startverteilung P(X0 = i), i ∈ I ) gilt
P(X0 = i0 , . . . , Xn = in ) = P(X0 = i0 ) · pi0 i1 · · · pin−1 in
P(Xn = j) =
X
P(Xn−1 = i) · pij
bzw.
~pn = ~pn−1 P
i∈I
n-Schritt-Übergangsmatrix
(n)
Für eine HMK (Xn ) ist die Matrix P(n) = (pij ) mit
(n)
(pij ) := P(Xm+n = j|Xm = i) unabhängig von m und heißt
n-Schritt-Übergangsmatrix
40 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Beispiel zur Berechnung
der W-Verteilung im Folgezustand


0, 7 0, 3 0
P =  0, 2 0, 5 0, 3 
0, 1 0, 4 0, 5
Sei ~pn−1 = (0,5,
0,3,
0,2)
~pn = ~pn−1 P = (0,5,
0,3,
0,2) · P
= (0,5 · 0,7 + 0,3 · 0,2 + 0,2 · 0,1,
0,5 · 0,3 + 0,3 · 0,5 + 0,2 · 0,4,
0,5 · 0 + 0,3 · 0,3 + 0,2 · 0,5)
= (0,35 + 0,06 + 0,02,
= (0,43,
0,38,
0,15 + 0,15 + 0,08,
0 + 0,09 + 0,1)
0,19)
41 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
irreduzibel
Zerlegung in Klassen, irreduzibel
Zustandsmenge I einer HMK wird in disjunkte Klassen zerlegt:
zwei Zustände i und j gehören zur selben Klasse, wenn
i = j oder
Zustand j ausgehend von i in endlich vielen Schritten mit
positiver Wahrscheinlichkeit erreicht werden kann (i
j)
und umgekehrt i von j aus erreichbar ist (j
i).
Jeder Zustand i ∈ I gehört zu genau einer Klasse k. Eine HMK
heißt irreduzibel, falls alle Zustände zur selben Klasse gehören
Einfaches Beispiel einer reduziblen HMK:
1−α α
0
1
42 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
aperiodisch
Periode, aperiodisch
Klasse K heißt periodisch mit Periode d, wenn es d (≥ 2)
disjunkte Teilmengen in K gibt, die der Reihe nach in d
Schritten durchlaufen werden.
Eine HMK heißt aperiodisch, wenn es keine periodische Klasse
gibt.
Einfaches Beispiel einer periodischen HMK:
0 1
1 0
43 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Gleichgewicht
Markov-Kette im Gleichgewicht
Eine homogene Markov-Kette (Xn ) ist im Gleichgewicht, wenn für
alle Zustände i ∈ I die Wahrscheinlichkeiten P(Xn =i) unabhängig
vom Zeitpunkt n sind.
Man setzt dann πi := P(Xn =i) bzw. ~π := ~pn und bezeichnet die
Z-Dichte ~π = (πi , i ∈ I ) als Gleichgewichtsverteilung (GGV) der
HMK (Xn )
44 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Berechnung der Gleichgewichtsverteilung (GGV)
Berechnung der Gleichgewichtsverteilung
Die HMK (X0 , X1 , . . .) mit Ü-Matrix (pij , i, j ∈ I ) sei im
Gleichgewicht, d.h. es gelte P(Xn = i) = πi bzw. ~pn = ~π für alle
n = 0, 1, 2 . . . und i ∈ I . Wegen
P
P(Xn = j) = i∈I P(Xn−1 = i) · pij
gelten dann für alle Werte πi , i ∈ I die folgenden beiden
Gleichgewichtsbedingungen:
X
πj =
πi pij für alle j ∈ I bzw. ~π = ~π P
i∈I
πj ≥ 0
für alle j ∈ I und
X
πj = 1
j∈I
45 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Berechnung der Gleichgewichtsverteilung
Beispiel


0, 7 0, 3 0
(pij ) =  0, 2 0, 5 0, 3 
0, 1 0, 4 0, 5
Gleichgewichtsbedingungen
π0 = 0, 7π0 + 0, 2π1 +0, 1π2
π1 = 0, 3π0 + 0, 5π1 +0, 4π2
π2 =
0, 3π1 +0, 5π2
π0 =
und π0 + π1 + π2 = 1
15
9
13
≈ 0, 35 π1 =
≈ 0, 41 π2 =
≈ 0, 24
37
37
37
46 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Eigenvektor der Übergangsmatrix
Definition Eigenvektor einer Matrix
Betrachtet man die durch die Matrix A definierte Abbildung, so ist
ein Eigenvektor ein Vektor dessen Richtung durch diese Abbildung
nicht verändert wird, d.h. es gilt
λ~π T
= A~π T mit λ ∈ R
λ~π = ~π A mit λ ∈ R
(Rechtseigenvektor) und analog
(Linkseigenvektor).
Für den Vektor der GGV gilt:
~π = ~π P
mit
X
πj = 1
j∈I
π ist daher ein Linkseigenvektor der Ü-Matrix P
47 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Grenzwertsatz für homogene Markov-Ketten
Grenzwertsatz für homogene Markov-Ketten
Ist die HMK(Xn ) mit Ü-Matrix (pij , i, j ∈ I ) irreduzibel und
aperiodisch, dann konvergiert (für alle i ∈ I ) P(Xn = i) unabhängig
von der Startverteilung gegen einen Wert πi mit 0 ≤ πi ≤ 1.
Dabei sind
a) entweder alle πi = 0, und es gibt keine GGV zu (pij ),
b) oder es sind alle πi > 0, und (πi , i ∈ I ) ist die einzige GGV zu
(pij ),
Fall a) kommt nur bei unendlicher Zustandmenge vor.
48 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Unendlicher Zustandsmenge ohne GGV
Beispiel: überlastete Warteschlange
49 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Alternative Methode zu Berechnung der GGV
Basierend auf dem Grenzwertsatz
Ist die HMK(Xn ) mit Ü-Matrix (pij , i, j ∈ I ) irreduzibel und
aperiodisch, dann konvergiert (für alle i ∈ I ) P(Xn = i) unabhängig
von der Startverteilung gegen einen Wert πi mit 0 ≤ πi ≤ 1.
Sei ~x der Vektor mit xi = P(Xn = i) für alle i ∈ I
Beginne mit beliebiger Startverteilung ~x
Berechne Verteilung im nächsten Zustand als ~x P.
Nach zwei Schritten sind wir bei ~x P 2 .
Nach k Schritten sind wir bei ~x P k .
Algorithmus: multipliziere ~x mit steigenden Potenzen von P,
bis Konvergenz erreicht ist
Ergebnis ist unabhängig vom Startvektor
50 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Potenzmethode zur Berechnung der GGV
Verfahren mit steigenden Potenzen von P wird
Potenzmethode genannt (engl. power method)
Berechne die GGV der folgenden Markov-Kette:
51 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Beispiel zur Berechnung der GGV
Startvektor
~x = (0.25, 0.75)
x1
Pt (d1 )
t0
t1
0.25
0.25
x2
Pt (d2 )
0.75
0.75
p11 = 0.25 p12 = 0.75
p21 = 0.25 p22 = 0.75
0.25
0.75
(Konvergenz)
Pt (d1 ) = Pt−1 (d1 ) ∗ p11 + Pt−1 (d2 ) ∗ p21
Pt (d2 ) = Pt−1 (d1 ) ∗ p12 + Pt−1 (d2 ) ∗ p22
GGV: ~π = (π1 , π2 ) = (0.25, 0.75)
52 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Beispiel zur Berechnung der GGV
Fester Startzustand
x1
Pt (d1 )
t0
t1
t2
1.00
0.25
0.25
x2
Pt (d2 )
0.00
0.75
0.75
p11 = 0.25 p12 = 0.75
p21 = 0.25 p22 = 0.75
0.25
0.75
0.25
0.75
(Konvergenz)
Pt (d1 ) = Pt−1 (d1 ) ∗ p11 + Pt−1 (d2 ) ∗ p21
Pt (d2 ) = Pt−1 (d1 ) ∗ p12 + Pt−1 (d2 ) ∗ p22
GGV: ~π = (π1 , π2 ) = (0.25, 0.75)
53 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Potenzmethode: Beispiel 2
Bestimme die GGV für folgende Markov-Kette:
54 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Berechnung der GGV: Potenzmethode
x1
Pt (d1 )
x2
Pt (d2 )
t0
t1
t2
t3
0
0.3
0.24
0.252
1
0.7
0.76
0.748
t∞
0.25
0.75
p11 = 0.1 p12 = 0.9
p21 = 0.3 p22 = 0.7
0.3
0.7
0.24
0.76
0.252
0.748
0.2496
0.7504
...
0.25
0.75
= ~x P
= ~x P 2
= ~x P 3
= ~x P 4
...
= ~x P ∞
GGV: ~π = (π1 , π2 ) = (0.25, 0.75)
Pt (d1 ) = Pt−1 (d1 ) ∗ p11 + Pt−1 (d2 ) ∗ p21
Pt (d2 ) = Pt−1 (d1 ) ∗ p12 + Pt−1 (d2 ) ∗ p22
55 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Potenzmethode für das Telefon-Beispiel


0, 7 0, 3 0
 0, 2 0, 5 0, 3 
0, 1 0, 4 0, 5
~x P
~x P 2
~x P 3
~x P 4
~x P 5
~x P 6
~x P 7
~x P 8
~x P 9
~x P 10
~x P 11
~x P 12
~x P 13
x0
1,00
0,70
0,55
0,47
0,42
0,39
0,37
0,36
0,36
0,36
0,35
0,35
0,35
x1
0,00
0,30
0,36
0,38
0,39
0,40
0,40
0,40
0,40
0,40
0,40
0,41
0,41
x2
0,00
0,00
0,09
0,15
0,19
0,21
0,23
0,23
0,24
0,24
0,24
0,24
0,24
56 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Anwendung der GGV beim Web-Retrieval
PageRank
versucht, Web-Seiten gemäß ihrer Popularität zu gewichten
Popularität hängt ab von der Zitationshäufigkeit (eingehende
Web-Links)
und von der Popularität der referenzierenden Seiten
57 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
PageRank
d0
d1
d2
d3
d4
d5
d6
PageRank
0.05
0.04
0.11
0.25
0.21
0.04
0.31
58 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Begründung der PageRank-Methode
Random Surfer
Grundlage von PageRank
klickt sich durch das Web, wobei er zufällig auf einen der
ausgehenden Links einer Seite klickt
(Gleichverteilung über die ausgehenden Links)
Teleportation: gibt es keine ausgehenden Links, geht er auf
eine zufällige andere Web-Seite
Auch auf einer Seite mit ausgehende Links geht er mit 10%
Wahrscheinlichkeit auf eine zufällige andere Seite
59 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
PageRank
d0
d1
d2
d3
d4
d5
d6
PageRank
0.05
0.04
0.11
0.25
0.21
0.04
0.31
60 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Übergangsmatrix ohne Teleportation
d0
d1
d2
d3
d4
d5
d6
d0
0.00
0.00
0.33
0.00
0.00
0.00
0.00
d1
0.00
0.50
0.00
0.00
0.00
0.00
0.00
d2
1.00
0.50
0.33
0.00
0.00
0.00
0.00
d3
0.00
0.00
0.33
0.50
0.00
0.00
0.33
d4
0.00
0.00
0.00
0.50
0.00
0.00
0.33
d5
0.00
0.00
0.00
0.00
0.00
0.50
0.00
d6
0.00
0.00
0.00
0.00
1.00
0.50
0.33
61 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Übergangsmatrix mit Teleportation
d0
d1
d2
d3
d4
d5
d6
d0
0.02
0.02
0.31
0.02
0.02
0.02
0.02
d1
0.02
0.45
0.02
0.02
0.02
0.02
0.02
d2
0.88
0.45
0.31
0.02
0.02
0.02
0.02
d3
0.02
0.02
0.31
0.45
0.02
0.02
0.31
d4
0.02
0.02
0.02
0.45
0.02
0.02
0.31
d5
0.02
0.02
0.02
0.02
0.02
0.45
0.02
d6
0.02
0.02
0.02
0.02
0.88
0.45
0.31
62 / 63
Modellierung
Wahrscheinlichkeits-Modelle und stochastische Prozesse
Modelle für stochastische Prozesse
Anwendung der Potenzmethode ~x P k
d0
d1
d2
d3
d4
d5
d6
~x
0.14
0.14
0.14
0.14
0.14
0.14
0.14
~x P 1
0.06
0.08
0.25
0.16
0.12
0.08
0.25
~x P 2
0.09
0.06
0.18
0.23
0.16
0.06
0.23
~x P 3
0.07
0.04
0.17
0.24
0.19
0.04
0.25
~x P 4
0.07
0.04
0.15
0.24
0.19
0.04
0.27
~x P 5
0.06
0.04
0.14
0.24
0.20
0.04
0.28
~x P 6
0.06
0.04
0.13
0.24
0.21
0.04
0.29
~x P 7
0.06
0.04
0.12
0.25
0.21
0.04
0.29
~x P 8
0.06
0.04
0.12
0.25
0.21
0.04
0.30
~x P 9
0.05
0.04
0.12
0.25
0.21
0.04
0.30
~x P 10
0.05
0.04
0.12
0.25
0.21
0.04
0.30
~x P 11
0.05
0.04
0.11
0.25
0.21
0.04
0.30
~x P 12
0.05
0.04
0.11
0.25
0.21
0.04
0.31
~x P 13
0.05
0.04
0.11
0.25
0.21
0.04
0.31
63 / 63
Zugehörige Unterlagen
Herunterladen