Wahrscheinlichkeits-Modelle “Modellierung” WS 2014/15 Zufalls-Experiment Wahrscheinlichkeits-Modelle und stochastische Prozesse Ein Zufalls-Experiment ist ein Vorgang, der ein genau abzugrenzendes Ergebnis besitzt, das vom Zufall beeinflusst ist. Beispiele: (mit Folien von Prof. H. Schütze) Prof. Norbert Fuhr I Würfel I Regnet es morgen in Duisburg? I Klickt der Benutzer auf das erste Antwortdokument von Google? I Wie lange schaut der Benutzer auf das angezeigte Dokument? 2 / 63 1 / 63 Aspekte von Zufallsexperimenten Der Merkmalsraum Ω Merkmalsraum Ω Ein Merkmalsraum Ω (Stichprobenraum, Grundmenge, Grundgesamtheit) ist eine nicht-leere Menge mit Elementen ω ∈ Ω. Uns interessierende Aspekte von Zufallsexperimenten: 1. Die möglichen Ergebnisse (Beobachtungen) {1,. . . ,6}, {ja/nein} Ω gibt die möglichen Ausgänge (Ergebnisse) des Zufalls-Experiments an 2. Die möglichen Fragestellungen Gerade Zahl? Weniger als 10s? Wir betrachten hier nur den Fall, dass der Merkmalsraum endlich oder zumindest abzählbar ist. 3. die zugehörigen Wahrscheinlichkeiten P(gerade) = 0, 5 Beispiele für Merkmalsräume 3 / 63 I Würfel: Ω = {1, 2, 3, 4, 5, 6} I Regen: Ω = {ja,nein} I Zeit: Ω = {1, 2, . . . , 300} (Betrachte angefangene Sekunden, bei mehr als 300s macht der Benutzer Pause) 4 / 63 Ereignisse und ihre Verknüpfung Spezielle Ereignisse Ereignisse, Ereignis-System Ein Ereignis A ist eine Teilmenge von Ω. Das Ereignis A tritt ein“, falls ein Merkmal ω mit ω ∈ A ” beobachtet wird. A = ∅ : A ist ein unmögliches Ereignis, weil ω ∈ ∅ nie eintritt A = Ω : Das Ereignis Ω tritt immer ein Die Menge aller betrachteten Ereignisse nennen wir das Ereignis-System A A = {ω} für ω ∈ Ω: {ω} nennt man ein Elementarereignis Beachte den Unterschied zwischen dem Merkmal ω (Element von Ω) und dem Ereignis {ω} (Teilmenge von Ω) Beispiele für Ereignisse: I Würfel: Gerade Augenzahl: A = {2, 4, 6} I Zeit: Benutzer schaut max. 5s auf das Dokument A = {1, 2, 3, 4, 5} 5 / 63 Zusammengesetzte Ereignisse Verknüpfung von Ereignissen Verknüpfung von Ereignissen Zusammengesetzte Ereignisse A oder B oder beide treten ein A und B treten (beide) ein A und B treten nie gleichzeitig ein A tritt nicht ein A tritt ein, aber B tritt nicht ein mindestens ein Ai tritt ein alle Ai treten ein Anmerkungen: Häufig betrachtet man zusammengesetzte Ereignisse, die als Mengenoperationen von anderen Ereignissen ausgedrückt werden können Beispiele für zusammengesetzte Ereignisse: I Würfelzahl > 3 oder gerade Augenzahl A = {4, 5, 6}, B = {2, 4, 6} A ∪ B = {2, 4, 5, 6} I Benutzer schaut mindestens 2s und höchstens 5s auf das Dokument A = {2, 3 . . . , 300}, B = {1, 2, 3, 4, 5} A ∩ B = {2, 3, 4, 5} 6 / 63 ω ∈A∪B ω ∈A∩B A∩B =∅ ω ∈ Ac ⇔ ω ∈ /A ω ∈ A\B = A ∩ B c = AB c S ω ∈ Ti Ai = A1 ∪ A2 ∪ · · · ω ∈ i Ai = A1 ∩ A2 ∩ · · · I Statt A ∩ B = ∅ sagt man auch A und B sind disjunkt“ ” Ac bezeichnet die Komplementärmenge zu A, also Ac = Ω\A I AB ist eine in der Stochastik übliche Kurznotation für A ∩ B I 7 / 63 = ˆ = ˆ = ˆ = ˆ = ˆ = ˆ = ˆ 8 / 63 σ-Algebra Beschreibbarkeit Beispiel: X Zufallsvariable für Würfelergebnis gerade/ungerade G = gerade Augenzahl beim Würfeln G = {ω ∈ Ω : X (ω) = gerade} Ω = {1, 2, 3, 4, 5, 6} Ω0 = {gerade, ungerade} 0 A = {gerade} G = {X ∈ A0 } Abgeschlossenes Mengensystem Als σ-Algebra bezeichnet man ein Mengensystem A mit A ⊆ P(Ω), das die folgenden Bedingungen erfüllt: 1. Ω ∈ A 2. A ∈ A =⇒ Ac ∈ A 3. A1 , A2 , . . . ∈ A =⇒ S n∈N An {X ∈ A0 } durch X beschreibbar ∈A Ist X eine Abbildung Ω → Ω0 und A0 ⊂ Ω0 , dann definiert man Wir nehmen an, dass jedes Ereignis-System A abgeschlossen ist. {X ∈ A0 } := {ω ∈ Ω : X (ω) ∈ A0 } Beispiel: Ω = {1, 2, 3, 4} A = {{1, 2}, {3, 4}, {1, 2, 3, 4}, ∅} Eine Teilmenge von Ω der Form {X ∈ A0 } heißt durch X beschreibbar. 9 / 63 Zufallsvariable 10 / 63 Gesetz der großen Zahlen Zufallsvariable (ZV) Eine Zufallsvariable (ZV) ist eine Abbildung vom Merkmalsraum Ω mit Ereignissystem A in eine Bildmenge Ω0 mit Ereignissystem A0 . Gilt A = 6 P(Ω) und ist A0 das Ereignissystem in Ω0 , dann wird für eine ZV X : Ω → Ω0 gefordert Empirisches Gesetz hn (A) → P(A) Wird ein Zufalls-Experiment n-mal unter gleichen Bedingungen wiederholt mit Beobachtungswerten x1 , x2 , . . . , xn , dann konvergieren“ die relativen Häufigkeiten ” 1 hn (A) := · (Anzahl der xi mit xi ∈ A) n {X ∈ A0 } ∈ A für alle A0 ∈ A0 Anmerkungen I Für Zufallsvariable verwendet man meist Großbuchstaben X , Y , Z , U, V , W I Für Ereignisse verwenden wir A, B, C , . . . Beispiele: A = {X > 3}, für n → ∞ gegen einen Grenzwert. B = {X = 2} ∪ {X = 4} ∪ {X = 6} 11 / 63 12 / 63 Gesetz der großen Zahlen Eigenschaften der Wahrscheinlichkeit Beispiel: Würfeln einer bestimmten Augenzahl 1. P(A) ≥ 0 2. P(A) ≤ 1 3. P(Ω) = 1 4. P(∅) = 0 5. P(A1 + A2 ) = P(A1 ) + P(A2 ) 6. P(A1 + · · · + An ) = P(A1 ) + · · · + P(An ) 7. P(A1 + A2 + · · · ) = P(A1 ) + P(A2 ) + · · · Law-of-large-number“ von Jörg Groß - Eigenes Werk. Lizenziert unter Creative Commons Attribution-Share Alike ” 3.0-2.5-2.0-1.0 über Wikimedia Commons 13 / 63 Wahrscheinlichkeits-Maß 14 / 63 Schreibweise für Ereignisse Wahrscheinlichkeits-Maß P : A → R Eine Abbildung P : A → R, wobei A eine σ-Algebra über Ω ist, heißt Wahrscheinlichkeits-Maß (W-Maß) auf A, wenn die folgenden drei Bedingungen erfüllt sind: (1) (2) (3) P(A) ≥ 0 für alle A ∈ A P(Ω) P∞= 1 P P( i=1 Ai ) = ∞ i=1 P(Ai ) Vereinfachte Schreibweise für Ereignisse P(X ∈ A0 ) := P({X ∈ A0 }) (Nichtnegativität) (Normiertheit) (σ-Additivität) Beispiele: Münze: P(X =Kopf)=P(X =Zahl) = 0, 5 Würfel: P(W = 6) = 16 Anmerkung: I P Die Schreibweise ∞ i=1 Ai soll immer die Voraussetzung ”Alle Ai sind paarweise disjunkt “ implizit voraussetzen. 15 / 63 16 / 63 Wahrscheinlichkeitsraum Bernoulli-Experiment Bernoulli-Experiment Ein Zufallsexperiment mit zwei möglichen Ausgängen heißt Bernoulli-Experiment. Merkmalsraum: Ω = {0, 1} Man bezeichnet ω = 1 als Erfolg und ω = 0 als Misserfolg Ω = {0, 1}, A = P(Ω) P({1}) = p P({0}) = 1 − p, 0 ≤ p ≤ 1 p bezeichnet man als Parameter der Bernoulli-Verteilung Wahrscheinlichkeitsraum (Ω, A, P) Das Tripel aus Merkmalsraum Ω, Ereignissystem A und Ereignis-Maß P nennt man Wahrscheinlichkeitsraum (W-Raum) oder Wahrscheinlichkeitsmodell (W-Modell) Beispiel: Münzwurf 17 / 63 Laplace-Experimen 18 / 63 Beispiele für Laplace-Experimente Laplace-Experiment Ein Zufallsexperiment mit endlich vielen und gleichwertigen Ausgängen heißt Laplace-Experiment. Ω = {1, 2, . . . , N}. Aus P({1}) = P({2}) = · · · = P({N}) folgt P({1}) = 1/N. P Für beliebige Ereignisse A gilt wegen A = ω∈A {ω}: P(A) = |A| Anzahl der (für A) günstigen Fälle = |Ω| Anzahl der möglichen Fälle Würfel: 19 / 63 Roulette: I P(W = 6) = 1/6 I P(X = 13) = 1/37 I P(W = gerade) = 3/6 I P(X = gerade) = 18/37 20 / 63 Bedingte Wahrscheinlichkeiten Verkettungsregel Elementare bedingte Wahrscheinlichkeit Verkettungsregel Seien A, B Ereignisse in Ω und sei P(B) > 0. Dann heißt Für drei Ereignisse A, B, C gilt analog die Formel P(AB) P(A|B) = P(B) P(ABC ) = P(A) · P(B|A) · P(C |AB) die bedingte Wahrscheinlichkeit von A unter der Bedingung B Beispiel: Roulette A = {Z gerade}, B ={Z > 24}, C = {Z schwarz} Ferner gilt P(AB) = P(B) · P(A|B) Beispiel: Würfel A = {2, 4, 6}, B = {4, 5, 6} P(ABC ) = P(Z gerade) · P(Z> 24|Z gerade) · P(Z schwarz|Z > 24, Z gerade) P(AB) |{4, 6}|/6 P(A|B) = = P(B) |{4, 5, 6}|/6 22 / 63 21 / 63 Totale Wahrscheinlichkeit Totale Wahrscheinlichkeit Beispiel 2 Totale Wahrscheinlichkeit Ist (Bi , i ∈ I ) eine Pabzählbare Zerlegung von Ω d.h. es gilt Ω = i∈I Bi , dann gilt P(A) = X P(ABi ) = i∈I X Beispiel (Roulette) P(Bi ) · P(A|Bi ) i∈I P(X gerade) = Beispiel: (Roulette) P(X gerade) = = 36 X i=0 36 X = P(X = i ∩ X gerade) 3 X i=1 3 X P(X ∈ i.Dutzend ∩ X gerade) P(X ∈ i.Dutzend)P(X gerade|X ∈ i.Dutzend) i=1 = 3· 12 1 · 37 2 P(X = i)P(X gerade|X = i) i=0 = 1 · 18 37 23 / 63 24 / 63 Stochastische Unabhängigkei Beispiel: Statistische Sprachmodelle Deutsche Wortschatz-Datenbank Stochastische Unabhängigkeit Zwei Ereignisse heißen stochastisch unabhängig wenn gilt P(AB) = P(A) · P(B) Beispiel: Zwei Würfel P(6er Pasch) = P(W1 = 6) · P(W2 = 6) Stochastische Unabhängigkeit von n Ereignissen Die Ereignisse A1 , A2 , . . . , An heißen stochastisch unabhängig, wenn für alle endlichen Teilmengen{Ai1 , Ai2 , . . . Aik } von diesen Ereignissen die Produktformel gilt: P(Ai1 , Ai2 , . . . Aik ) = P(Ai1 ) · P(Ai2 ) · · · P(Aik ) 26 / 63 25 / 63 Beispiel: Statistisches Sprachmodell Modelle für stochastische Prozesse Stochastischer Prozess wi Dieser Text ist einfach log2 (P(W = wi )) −5 −9 −2 −6 wj Manche Informatiker sind Nerds Für einen stochastischen Prozess benötigt man: log2 (P(W = wj )) −9 −13 −3 −16 P(Dieser Text ist einfach) = =P(dieser)·P(Text)·P(ist)·P(einfach) = 2−5 ·2−9 ·2−2 ·2−6 = 2−22 I W-Modell (Ω, A, P) I Bildbereich Ω0 I Zeitbereich T I Zufallsvariable Xt : Ω → Ω0 gibt den Zustand zum Zeitpunkt t Dann heißt {Xt } := (Xt , t ∈ T ) ein stochastischer Prozess. P(Manche Informatiker sind Nerds) = = 2−9 · 2−13 · 2−3 · 2−16 = 2−41 Ω = {auf,zu} 27 / 63 28 / 63 Modellierung stochastischer Prozesse Markov-Kopplung Markov-Kopplung Hängen bei einem mehrstufigen Versuch die Übergangswahrscheinlichkeiten nicht von der vollen Vorgeschichte ab, sondern nur vom letzten beobachteten Wert, so spricht man von Markov-Kopplung. Die Folge der Beobachtungen bildet dann einen Markov-Prozess, im diskreten Fall auch Markov-Kette genannt. 29 / 63 Beispiel: Sprachmodell als Markov-Kopplung Markov-Kette Markov-Kette Hans programmiert. Paul begrüßt Lisa. Uwe trinkt ein kühles Pils. Das schnelle Auto überholt den schweren LKW. Eine Markov-Kette ist ein stochastischer Prozess, speziell die Folge der Beobachtungen X0 , X1 , X2 , . . . in einem unendlichstufigen Versuch mit Markov-Kopplung und abzählbarer Zustandsmenge I . Die Zustandsvariablen Xn : Ω → I beschreiben also den Zustand des Systems zu den Zeitpunkten n = 0, 1, 2, . . .. Anmerkungen I Annahme einer Markov-Kopplung ist starke Vereinfachung I Weitere Aspekte von Syntax (+Semantik) unberücksichtigt Der grüne Auto isst Spinat I Solche Modelle eignen sich primär zur Analyse von Texten (und weniger zur Generierung) 30 / 63 31 / 63 32 / 63 Homogene Markov-Kette (HMK) Beispiel zu homogener Markov-Kette Homogene Markov-Kette Eine Markov-Kette {Xn } heißt homogen, falls die Übergangswahrscheinlichkeiten fnn−1 (i, j) = P(Xn = j|Xn−1 = i) für alle Zeitpunkte gleich sind. In diesem Fall schreibt man pij := fnn−1 (i, j). 34 / 63 33 / 63 Übergangsmatrix Übergangsgraph Übergangsgraph Übergangsmatrix Ein Übergangsgraph einer HMK besteht aus Die Matrix P := (pij , i, j ∈ I ) heißt Übergangsmatrix (Ü-Matrix). Die Zeilensumme ist stets =1. I Knoten: alle möglichen Zuständen des Graphen I gerichtete Kanten: mit positiver Wahrscheinlichkeit mögliche Übergänge I an der Kante von i nach j wird jeweils der Wert pij notiert. 0, 7 0, 3 0 (pij ) = 0, 2 0, 5 0, 3 0, 1 0, 4 0, 5 35 / 63 36 / 63 Beispiel zu Übergangsgraph Startpunkt Zur Beschreibung des Ablaufs einer Markov-Kette benötigt man neben der Ü-Matrix noch I entweder einen festen Startpunkt i0 ∈ I I oder eine Startverteilung, nämlich eine Z-Dichte P(X0 = i), i ∈ I Dann ist die Wahrscheinlichkeit für jede endliche Zustandsfolge festgelegt durch P(X0 = i0 , . . . , Xn = in ) = P(X0 = i0 ) · pi0 i1 · · · pin−1 in P(X0 = 0, X1 = 1, X2 = 2, X3 = 1, X4 = 0) = 1 · p01 · p12 · p21 · p10 38 / 63 37 / 63 Pfad Rechenregeln für eine MK Pfad der Markov-Kette Rechenregeln für eine MK Ein einzelner Verlauf einer Markov-Kette für eine festen Wert ω, also (X0 (ω), X1 (ω), . . .) heißt ein Pfad der Markov-Kette. Für ein homogene Markov-Kette mit Ü-Matrix (pij )i,j∈I und Startverteilung P(X0 = i), i ∈ I ) gilt Beispiel Hans trinkt ein kühles Pils Pfad: Start – SNomen – Verb – OArtikel – OAdjektiv – ONomen – Ende P(Pfad) = 1 · 0, 5 · 1 · 0, 5 · 0, 3 · 1 · 1 = 0, 075 P(X0 = i0 , . . . , Xn = in ) = P(X0 = i0 ) · pi0 i1 · · · pin−1 in P(Xn = j) = X P(Xn−1 = i) · pij bzw. ~pn = ~pn−1 P i∈I n-Schritt-Übergangsmatrix (n) Für eine HMK (Xn ) ist die Matrix P(n) = (pij ) mit (n) (pij ) := P(Xm+n = j|Xm = i) unabhängig von m und heißt n-Schritt-Übergangsmatrix 39 / 63 40 / 63 Beispiel zur Berechnung irreduzibel der W-Verteilung im Folgezustand Zerlegung in Klassen, irreduzibel Zustandsmenge I einer HMK wird in disjunkte Klassen zerlegt: zwei Zustände i und j gehören zur selben Klasse, wenn 0, 7 0, 3 0 P = 0, 2 0, 5 0, 3 0, 1 0, 4 0, 5 Sei ~pn−1 = (0,5, 0,3, 0,2) ~pn = ~pn−1 P = (0,5, 0,3, 0,2) · P = (0,5 · 0,7 + 0,3 · 0,2 + 0,2 · 0,1, 0,5 · 0,3 + 0,3 · 0,5 + 0,2 · 0,4, 0,5 · 0 + 0,3 · 0,3 + 0,2 · 0,5) = (0,35 + 0,06 + 0,02, = (0,43, 0,38, 0,15 + 0,15 + 0,08, 0 + 0,09 + 0,1) I i = j oder I Zustand j ausgehend von i in endlich vielen Schritten mit positiver Wahrscheinlichkeit erreicht werden kann (i j) und umgekehrt i von j aus erreichbar ist (j i). Jeder Zustand i ∈ I gehört zu genau einer Klasse k. Eine HMK heißt irreduzibel, falls alle Zustände zur selben Klasse gehören Einfaches Beispiel einer reduziblen HMK: 0,19) 1−α α 0 1 41 / 63 aperiodisch 42 / 63 Gleichgewicht Periode, aperiodisch I I Klasse K heißt periodisch mit Periode d, wenn es d (≥ 2) disjunkte Teilmengen in K gibt, die der Reihe nach in d Schritten durchlaufen werden. Markov-Kette im Gleichgewicht Eine homogene Markov-Kette (Xn ) ist im Gleichgewicht, wenn für alle Zustände i ∈ I die Wahrscheinlichkeiten P(Xn =i) unabhängig vom Zeitpunkt n sind. Man setzt dann πi := P(Xn =i) bzw. ~π := ~pn und bezeichnet die Z-Dichte ~π = (πi , i ∈ I ) als Gleichgewichtsverteilung (GGV) der HMK (Xn ) Eine HMK heißt aperiodisch, wenn es keine periodische Klasse gibt. Einfaches Beispiel einer periodischen HMK: 0 1 1 0 43 / 63 44 / 63 Berechnung der Gleichgewichtsverteilung (GGV) Berechnung der Gleichgewichtsverteilung Beispiel Berechnung der Gleichgewichtsverteilung Die HMK (X0 , X1 , . . .) mit Ü-Matrix (pij , i, j ∈ I ) sei im Gleichgewicht, d.h. es gelte P(Xn = i) = πi bzw. ~pn = ~π für alle n = 0, 1, 2 . . . und i ∈ I . Wegen P P(Xn = j) = i∈I P(Xn−1 = i) · pij 0, 7 0, 3 0 (pij ) = 0, 2 0, 5 0, 3 0, 1 0, 4 0, 5 Gleichgewichtsbedingungen gelten dann für alle Werte πi , i ∈ I die folgenden beiden Gleichgewichtsbedingungen: X πi pij für alle j ∈ I bzw. ~π = ~π P πj = π0 = 0, 7π0 + 0, 2π1 +0, 1π2 π1 = 0, 3π0 + 0, 5π1 +0, 4π2 π2 = 0, 3π1 +0, 5π2 und π0 + π1 + π2 = 1 i∈I πj ≥ 0 für alle j ∈ I und X π0 = πj = 1 13 15 9 ≈ 0, 35 π1 = ≈ 0, 41 π2 = ≈ 0, 24 37 37 37 j∈I 45 / 63 Eigenvektor der Übergangsmatrix 46 / 63 Grenzwertsatz für homogene Markov-Ketten Definition Eigenvektor einer Matrix Betrachtet man die durch die Matrix A definierte Abbildung, so ist ein Eigenvektor ein Vektor dessen Richtung durch diese Abbildung nicht verändert wird, d.h. es gilt λ~π T = A~π T mit λ ∈ R λ~π = ~π A mit λ ∈ R Grenzwertsatz für homogene Markov-Ketten Ist die HMK(Xn ) mit Ü-Matrix (pij , i, j ∈ I ) irreduzibel und aperiodisch, dann konvergiert (für alle i ∈ I ) P(Xn = i) unabhängig von der Startverteilung gegen einen Wert πi mit 0 ≤ πi ≤ 1. Dabei sind (Rechtseigenvektor) und analog (Linkseigenvektor). a) entweder alle πi = 0, und es gibt keine GGV zu (pij ), b) oder es sind alle πi > 0, und (πi , i ∈ I ) ist die einzige GGV zu (pij ), Für den Vektor der GGV gilt: ~π = ~π P mit X Fall a) kommt nur bei unendlicher Zustandmenge vor. πj = 1 j∈I π ist daher ein Linkseigenvektor der Ü-Matrix P 47 / 63 48 / 63 Unendlicher Zustandsmenge ohne GGV Alternative Methode zu Berechnung der GGV Beispiel: überlastete Warteschlange Basierend auf dem Grenzwertsatz Ist die HMK(Xn ) mit Ü-Matrix (pij , i, j ∈ I ) irreduzibel und aperiodisch, dann konvergiert (für alle i ∈ I ) P(Xn = i) unabhängig von der Startverteilung gegen einen Wert πi mit 0 ≤ πi ≤ 1. I Sei ~x der Vektor mit xi = P(Xn = i) für alle i ∈ I I Beginne mit beliebiger Startverteilung ~x I Berechne Verteilung im nächsten Zustand als ~x P. I Nach zwei Schritten sind wir bei ~x P 2 . I Nach k Schritten sind wir bei ~x P k . I Algorithmus: multipliziere ~x mit steigenden Potenzen von P, bis Konvergenz erreicht ist I Ergebnis ist unabhängig vom Startvektor 50 / 63 49 / 63 Potenzmethode zur Berechnung der GGV Beispiel zur Berechnung der GGV Startvektor I I ~x = (0.25, 0.75) Verfahren mit steigenden Potenzen von P wird Potenzmethode genannt (engl. power method) x1 Pt (d1 ) Berechne die GGV der folgenden Markov-Kette: t0 t1 0.25 0.25 x2 Pt (d2 ) 0.75 0.75 p11 = 0.25 p12 = 0.75 p21 = 0.25 p22 = 0.75 0.25 0.75 (Konvergenz) Pt (d1 ) = Pt−1 (d1 ) ∗ p11 + Pt−1 (d2 ) ∗ p21 Pt (d2 ) = Pt−1 (d1 ) ∗ p12 + Pt−1 (d2 ) ∗ p22 GGV: ~π = (π1 , π2 ) = (0.25, 0.75) 51 / 63 52 / 63 Beispiel zur Berechnung der GGV Potenzmethode: Beispiel 2 Fester Startzustand x1 Pt (d1 ) t0 t1 t2 1.00 0.25 0.25 x2 Pt (d2 ) 0.00 0.75 0.75 I p11 = 0.25 p12 = 0.75 p21 = 0.25 p22 = 0.75 0.25 0.75 0.25 0.75 (Konvergenz) Bestimme die GGV für folgende Markov-Kette: Pt (d1 ) = Pt−1 (d1 ) ∗ p11 + Pt−1 (d2 ) ∗ p21 Pt (d2 ) = Pt−1 (d1 ) ∗ p12 + Pt−1 (d2 ) ∗ p22 GGV: ~π = (π1 , π2 ) = (0.25, 0.75) 53 / 63 Berechnung der GGV: Potenzmethode x1 Pt (d1 ) 54 / 63 Potenzmethode für das Telefon-Beispiel x2 Pt (d2 ) t0 t1 t2 t3 0 0.3 0.24 0.252 1 0.7 0.76 0.748 t∞ 0.25 0.75 p11 = 0.1 p12 = 0.9 p21 = 0.3 p22 = 0.7 0.3 0.7 0.24 0.76 0.252 0.748 0.2496 0.7504 ... 0.25 0.75 = ~x P = ~x P 2 = ~x P 3 = ~x P 4 ... = ~x P ∞ 0, 7 0, 3 0 0, 2 0, 5 0, 3 0, 1 0, 4 0, 5 GGV: ~π = (π1 , π2 ) = (0.25, 0.75) Pt (d1 ) = Pt−1 (d1 ) ∗ p11 + Pt−1 (d2 ) ∗ p21 Pt (d2 ) = Pt−1 (d1 ) ∗ p12 + Pt−1 (d2 ) ∗ p22 55 / 63 ~x P ~x P 2 ~x P 3 ~x P 4 ~x P 5 ~x P 6 ~x P 7 ~x P 8 ~x P 9 ~x P 10 ~x P 11 ~x P 12 ~x P 13 x0 1,00 0,70 0,55 0,47 0,42 0,39 0,37 0,36 0,36 0,36 0,35 0,35 0,35 x1 0,00 0,30 0,36 0,38 0,39 0,40 0,40 0,40 0,40 0,40 0,40 0,41 0,41 x2 0,00 0,00 0,09 0,15 0,19 0,21 0,23 0,23 0,24 0,24 0,24 0,24 0,24 56 / 63 Anwendung der GGV beim Web-Retrieval PageRank d0 d1 d2 d3 d4 d5 d6 PageRank I versucht, Web-Seiten gemäß ihrer Popularität zu gewichten I Popularität hängt ab von der Zitationshäufigkeit (eingehende Web-Links) I und von der Popularität der referenzierenden Seiten PageRank 0.05 0.04 0.11 0.25 0.21 0.04 0.31 57 / 63 Begründung der PageRank-Methode PageRank d0 d1 d2 d3 d4 d5 d6 Random Surfer I Grundlage von PageRank I klickt sich durch das Web, wobei er zufällig auf einen der ausgehenden Links einer Seite klickt (Gleichverteilung über die ausgehenden Links) I Teleportation: gibt es keine ausgehenden Links, geht er auf eine zufällige andere Web-Seite I Auch auf einer Seite mit ausgehende Links geht er mit 10% Wahrscheinlichkeit auf eine zufällige andere Seite 58 / 63 59 / 63 PageRank 0.05 0.04 0.11 0.25 0.21 0.04 0.31 60 / 63 Übergangsmatrix ohne Teleportation d0 d1 d2 d3 d4 d5 d6 d0 0.00 0.00 0.33 0.00 0.00 0.00 0.00 d1 0.00 0.50 0.00 0.00 0.00 0.00 0.00 d2 1.00 0.50 0.33 0.00 0.00 0.00 0.00 d3 0.00 0.00 0.33 0.50 0.00 0.00 0.33 d4 0.00 0.00 0.00 0.50 0.00 0.00 0.33 Übergangsmatrix mit Teleportation d5 0.00 0.00 0.00 0.00 0.00 0.50 0.00 d6 0.00 0.00 0.00 0.00 1.00 0.50 0.33 d0 d1 d2 d3 d4 d5 d6 61 / 63 Anwendung der Potenzmethode ~x P k d0 d1 d2 d3 d4 d5 d6 ~x 0.14 0.14 0.14 0.14 0.14 0.14 0.14 ~x P 1 0.06 0.08 0.25 0.16 0.12 0.08 0.25 ~x P 2 0.09 0.06 0.18 0.23 0.16 0.06 0.23 ~x P 3 0.07 0.04 0.17 0.24 0.19 0.04 0.25 ~x P 4 0.07 0.04 0.15 0.24 0.19 0.04 0.27 ~x P 5 0.06 0.04 0.14 0.24 0.20 0.04 0.28 ~x P 6 0.06 0.04 0.13 0.24 0.21 0.04 0.29 ~x P 7 0.06 0.04 0.12 0.25 0.21 0.04 0.29 ~x P 8 0.06 0.04 0.12 0.25 0.21 0.04 0.30 ~x P 9 0.05 0.04 0.12 0.25 0.21 0.04 0.30 ~x P 10 0.05 0.04 0.12 0.25 0.21 0.04 0.30 ~x P 11 0.05 0.04 0.11 0.25 0.21 0.04 0.30 ~x P 12 0.05 0.04 0.11 0.25 0.21 0.04 0.31 ~x P 13 0.05 0.04 0.11 0.25 0.21 0.04 0.31 63 / 63 d0 0.02 0.02 0.31 0.02 0.02 0.02 0.02 d1 0.02 0.45 0.02 0.02 0.02 0.02 0.02 d2 0.88 0.45 0.31 0.02 0.02 0.02 0.02 d3 0.02 0.02 0.31 0.45 0.02 0.02 0.31 d4 0.02 0.02 0.02 0.45 0.02 0.02 0.31 d5 0.02 0.02 0.02 0.02 0.02 0.45 0.02 d6 0.02 0.02 0.02 0.02 0.88 0.45 0.31 62 / 63