Vorlesung 10a Mehrstufige Zufallsexperimente

Werbung
Vorlesung 10a
Mehrstufige Zufallsexperimente
Teil 1
1
Stellen wir uns ein zufälliges Paar X = (X1, X2) vor,
das auf zweistufige Weise zustande kommt:
es gibt eine Regel, die besagt, wie X2 verteilt ist,
gegeben dass X1 den Ausgang a1 hat.
Beispiele:
1)
X1 sei reellwertig mit Verteilung ν1.
Gegeben X1 = a1
habe X2 die Verteilung N (a1, 1).
2
2) Ein aus einer Population zufällig gezogener Mensch
hat eine bestimmte Krankheit (X1 = 1)
oder er hat sie nicht (X1 = 0).
X2 sei das Ergebnis eines medizinischen Tests.
Gegeben X1 = a1 sei der Test
positiv mit Wahrscheinlichkeit pa1 ,
und negativ mit Wahrscheinlichkeit 1 − pa1 .
3
Zahlenbeispiel:
Von 1 Million haben 1000 die Krankheit.
p1 sei 1... die Krankheit wird sicher diagnostiziert
p0 sei 0.01 ... bei einem Gesunden ist das Testergebnis
mit W’keit 1% “falsch positiv”
Würden alle Leute getestet, wären ca. 11000 positiv
- die meisten davon falsch positiv.
Wir kommen darauf zurück.
4
3) In Stufe 1 entscheiden wir uns
mit Wahrscheinlichkeit p für einen fairen Würfel
und mit W’keit 1 − p für einen gezinkten: alle 6 Seiten mit 6.
Pfair{X2 = 6} = 1/6
Pgezinkt{X2 = 6} = 1
P{X2 = 1/6} = p · 1/6 + (1 − p) · 1.
5
4)
Gewöhnliche Irrfahrt Y = (Y0, Y1, . . .) auf Z:
Bei Start in a geht der erste Schritt
mit W’keit 1/2 nach a + 1 und
mit W’keit 1/2 nach a − 1.
Ab dann geht’s wieder weiter “nach Irrfahrtsplan”.
6
Frage:
Mit welcher Wahrscheinlichkeit erreicht der Irrfahrer
bei Start in a ≥ 0 jemals den Punkt 1?
Sei w(a) diese Wahrscheinlichkeit.
Zerlegung nach dem ersten Schritt für a > 0:
1
1
w(a) = w(a − 1) + w(a + 1)
2
2
Also ist a 7→ w(a) eine Gerade mit w(0) = 1.
Weil w(a) weder > 1 noch negativ werden darf, heißt das:
w(a) ≡ 1.
7
Frage:
Mit welcher Wahrscheinlichkeit r kommt der Irrfahrer
jemals zu seinem Startpunkt zurück?
Zerlegung nach dem ersten Schritt und Symmetrieargument:
1
1
r = w(1) + w(−1) = 1.
2
2
Man sagt dafür auch:
Die gewöhnliche Irrfahrt ist rekurrent.
8
Zweistufige Zufallsexperimente - der diskrete Fall:
Sei X = (X1, X2) ein zufälliges Paar
mit diskretem Zielbereich S = S1 × S2.
Für jedes a1 ∈ S1 sei P (a1, .) eine Verteilung auf S2
Vorstellung: gegeben X1 = a1
hat die die Zufallsvariable X2 die Verteilung P (a1, .).
Schreibweise:
P (a1, a2) = Pa1 {X2 = a2} .
9
Aus der Verteilung ν1 von X1 und der Übergangsverteilung P
gewinnt man die gemeinsame Verteilung ν von X1 und X2:
ν(a1, a2) = ν1(a1)P (a1, a2) ,
P{X1 = a1, X2 = a2} = P{X1 = a1} Pa1 {X2 = a2} .
Summiert über a2 ∈ A2 ⊂ S2 erhält man daraus:
P{X1 = a1, X2 ∈ A2} = P{X1 = a1} Pa1 {X2 ∈ A2} .
10
P{X1 = a1, X2 ∈ A2} = P{X1 = a1} Pa1 {X2 ∈ A2} .
Durch Summation über a1 ∈ S1 bekommt man hieraus die
Formel von der totalen Wahrscheinlichkeit:
P{X2 ∈ A2} =
X
a1∈S1
P{X1 = a1} Pa1 {X2 ∈ A2} .
Diese zerlegt
die Wahrscheinlichkeit des Ereignisses {X2 ∈ A2}
nach den Ausgängen von X1.
11
Ist S2 ⊂ R, dann setzen wir für jedes a1 ∈ S1
Ea1 [X2] :=
X
a2∈S2
a2Pa1 {X2 = a2} ,
vorausgesetzt, die rechte Seite existiert,
und sprechen vom
Erwartungswert von X2, gegeben X1 = a1.
12
Ea1 [X2] =
X
a2∈S2
a2Pa1 {X2 = a2}
Multipliziert man mit den Gewichten P{X1 = a1}
und summiert über a1 ∈ S1, dann bekommt man
X
=
=
X
a1X
∈S1
a ∈S1X
a2∈S2
X1
Ea1 [X2]P{X1 = a1}
a2P{X1 = a1}Pa1 {X2 = a2}
a2P{X1 = a1, X2 = a2} = E[X2]
a1∈S1 a2∈S2
oder kurz
E[EX1 [X2]] = E[X2] .
13
Beispiel: Suchen in Listen.
n Daten werden in r Listen einsortiert. Dadurch ergeben sich
Besetzungszahlen k1, . . . , kr .
Jedes Datum steht in seiner Liste Nr. j
an einer der Stellen y = 1, . . . , kj .
Stochastisches Modell:
Die zufällige Besetzung (K1, . . . , Kr )
kommt durch n-maliges Würfeln
mit den Gewichten p1, . . . , pr zustande.
14
Aus den n Daten wird rein zufällig eines herausgegriffen.
Es sei Y die Stelle, die es in seiner Liste einnimmt.
Aufgabe: Berechne E[Y ].
(Dieser Erwartungswert beschreibt die mittlere Suchzeit
nach einem zufälligen Datum,
wenn man auf Grund einer mit dem Datum mitgelieferten
Kennzahl weiß, in welcher Liste man zu suchen hat.)
15
Lösung: Wir zerlegen E[Y ] nach den Ausgängen von (K, J):
E[Y ] =
X
k,j
P{K = k, J = j} Ek,j [Y ]
kj + 1
=
P{K = k}Pk {J = j}
2
k,j
X
kj kj + 1
=
P{K = k}
n
2
k,j
X
1 X
E[Kj (Kj + 1)].
=
2n j
16
Weil Kj Binomial(n, pj )-verteilt ist, folgt
E[Kj2] = VarKj + (E[Kj ])2
= npj (1 − pj ) + (npj )2 = p2
j n(n − 1) + npj .
Weiter ergibt sich
1 2
1
2
(E[Kj ] + E[Kj ]) = pj (n − 1) + pj .
2n
2
n−1 2
(p1 + · · · + p2
E[Y ] =
r) + 1 .
2
17
n−1 2
(p1 + · · · + p2
E[Y ] =
r) + 1 .
2
Im Fall uniformer Gewichte
p1 = · · · = pr = 1/r
ergibt sich
n−1
E[Y ] =
+1.
2r
18
Eine Modifikation des letzten Beispiels:
Sei K wieder multinomial (n, p1, . . . , pr ) verteilt,
I sei unabhängig von K, mit P{I = j} = pj ,
j = 1, . . . , r.
Berechne den Erwartungswert von X := KI .
Wir zerlegen E[X] nach den Ausgängen von K:
19
E[X] =
X
k
=
X
P{K = k}Ek [X]
P{K = k}
j=1
k
=
r
X
j=1
=
r
X
j=1
r
X
pj
X
k
pj kj
P{K = k}kj
pj EKj = n
r
X
j=1
p2
j.
20
Im Fall uniformer Gewichte ergibt sich
n
E[X] = .
r
Im Vergleich dazu war die mittlere “Suchtiefe” eines rein
zufällig aus den n herausgegriffenen Datums
n−1
+ 1.
E[Y ] =
2r
Zu den beiden Beispielen vgl. auch:
Skript von G. Kersting, Abschnitt 4.1
21
Herunterladen