Stochastik, Sommersemester 2014 Prof. Dr. I. Veselić

Werbung
Stochastik, Sommersemester 2014
Prof. Dr. I. Veselić
Dr. M. Tautenhahn, Dr. C. Schumacher
Hausaufgabe 8
Abgabe am 2.6. oder am 4.6. in der Übung
Aufgabe 1. Eine Münze mit Wahrscheinlichkeit p ≥ 1/2 für „Zahl“ wird wiederholt geworfen. Sei Ak ,
k ∈ N, das Ereignis, dass bei den Würfen 2k , 2k + 1, . . . , 2k+1 − 1 mindestens k Mal in Folge „Zahl“
fällt. Zeigen Sie, dass
P (Ak tritt für unendlich viele k ein) = 1.
Hinweis: Definieren Sie das Ereignis Ei,k = {Xj = 1 für alle j = 2k + ik, 2k + ik + 1, . . . , 2k + ik + k − 1},
k ∈ N und i = 0, . . . b2k /k − 1c. Benutzen Sie einen Satz von Borel-Cantelli.
Lösung zu Aufgabe 1: (Borel–Cantelli)
borelcantelliII.tex
Die Ereignisse Ei,k sind unabhängig, und es gilt P(Ei,k ) = pk und
k
X
P(Ei,k ) =
/kc−1
∞ b2 X
X
i=0
k=1
i,k
pk ≥
∞ k
X
2
k
k=1
− 1 pk ≥
∞ X
1
k=1
k
− pk = ∞.
Nach BorelCantelli II ist P(lim supi,k Ei,k ) = 1. Weiter gilt lim sup(i,k) Ei,k ⊆ lim supk Ak , also
1 ≥ P(lim supk Ak ) ≥ P(lim sup(i,k) Ei,k ) = 1.
Kommentar zu Borel–Cantelli:
Alternativlösung I: Die Ereignisse Ak , k ∈ N sind unabhängig. Nach dem zweiten Borel-CantelliSb2k /kc−1
P
P
Ei,k ⊆ Ak für k ∈ N, ist ∞
Lemma müssen wir nur ∞
k=1 P(Ak ) ≥
k=1 P(Ak ) = ∞ zeigen. Da
i=0
Sb2k /kc−1
P∞
k=1 P(
P
i=0
k /kc−1
b2 [
Ei,k ). Wegen der Unabhängigkeit der Ei,k ’s ist
Ei,k = 1 − P
b2k /kc−1
k /kc−1
b2 \
(Ω \ Ei,k ) = 1 −
Wir verwenden 1 − x ≤
P
k
e−x
für x ∈ R mit x :=
[b2k /kc−1
i=0
k /kc
(1 − P(Ei,k )) = 1 − (1 − pk )b2
.
i=0
i=0
i=0
Y
Ei,k ≥ 1 − e−p
pk
und danach p ≥ 1/2 für die untere Schranke
k b2k /kc
≥ 1 − e−(2p)
k /k+pk
k −k −1
≥ 1 − ep
.
−1
Der Term 1 − ep −k = 1 − (1 + pk − 1/k + O(k −2 )) = 1/k + O(k −2 ) verhält sich wie 1/k. Ein
rigoroser Weg, das auszunutzen, geht über asymptotische Äquivalenz. Zwei Folgen (an )n , (bn )n heißen
asymptotisch äquivalent, wenn lim abnn = 1. Asymptotische Äquivalenz von Folgen entscheidet über die
n→∞
Konvergenz der zugehörigen Reihen:
Lemma. Asymptotisch äquivalente, positive Folgen (an )n , (bn )n erfüllen
X
an = ∞ ⇐⇒
n∈N
X
bn = ∞.
n∈N
Beweis. Seien zwei positive, asymptotisch äquivalente Folgen (an )n , (bn )n gegeben und
gibt ein n0 ∈ N, so dass abnn ≥ 12 für alle n ≥ n0 gilt. Also ist
X
n∈N
an =
X an
n∈N
bn
bn ≥
1 X
bn = ∞.
2 n≥n
0
P
n bn
= ∞. Es
k
Wir untersuchen, ob (1 − ep −1/k )k und (1/k)k asymptotisch äquivalent sind. Die Regel von l’Hospital
hilft:
k
−1
k
−1
1 − ep −k
−ep −k (pk ln p + k −2 )
lim
=
lim
= lim k 2 pk ln p + 1 = 1.
k→∞
k→∞
k→∞
k −1
−k −2
P∞
S
Da die harmonische Reihe k=1 1/k = ∞ divergiert und die Folge P( i Ei,k ) k asymptotisch äquivalent
P
S
P
zu (1/k)k ist, divergiert auch k P( i Ei,k ), und damit ist k P(Ak ) = ∞ und alles gezeigt.
Alternativlösung II: Wir schlagen den Hinweis in den Wind und überlegen uns eine Abschätzung
der P (Ak ) nach unten mittels einer Rekursionsformel. Anschließend werden wir zeigen, dass die Reihe
P
k∈N P (Ak ) mindestens so schnell divergiert wie die harmonische Reihe.
Ohne Beschränkung der Allgemeinheit genügt es, den Fall p = 1/2 zu betrachten. Ist p > 1/2, so
P
erhöht sich die Wahrscheinlichkeit, dass ein Ereignis Ak eintritt, noch. Wenn die Reihe k∈N P (Ak )
für p = 1/2 divergiert, so sicher auch für jedes größere p.
Es ist egal, wie wir die Münzwürfe nummerieren, deshalb ist die Wahrscheinlichkeit dafür, dass das
Ereignis Ak eintritt gleich der Wahrscheinlichkeit, dass es bei einem 2k -fachen Münzwurf eine Serie
von k aufeinanderfolgenden Zahlausgängen gibt. Analog ist P (Ak+1 ) gleich der Wahrscheinlichkeit,
dass bei einem 2k+1 -fachen Münzwurf eine Serie von k + 1 aufeinanderfolgenden Zahlausgängen gibt.
Wir zerlegen den 2k+1 -fachen Münzwurf in zwei 2k -fache Münzwürfe. Das Ereignis Ak+1 tritt ein,
wenn in einem der beiden 2k -Blöcke k + 1 aufeinanderfolgende Zahl-Ausgänge eintreten. Dies tritt
ein, wenn in einem 2k -Block k aufeinanderfolgende Zahlereignisse auftreten und das auf den k-Block
folgende Ereignis wiederum Zahl ist. Abziehen müssen wir davon noch die Wahrscheinlichkeit, dass die
k aufeinanderfolgenden Zahl-Ereignisse ganz am Schluss stattfinden. Wir haben deshalb
P (Ak+1 ) ≥
1
· P (Ak )
|2 {z
}
1
· P (Ak )
|2 {z
}
+
tritt im ersten Block auf
−
tritt im zweiten Block auf
|
1
· P (Ak )
2
{z
2
−
}
tritt in beiden Blöcken auf
1
2k
|{z}
,
am Schluss
weil die Münzwürfe voneinander unabhängig sind. Setzen wir qn := P (An ), so haben wir folgende
rekursive Abschätzung gefunden:
1
1
qk+1 ≥ qk − qk2 − k .
4
2
1 2
1
Wir definieren sk : [0, 1] → R, qk 7→ qk − 4 qk − 2k . Wir haben
1
· x ≥ 0,
2
d. h. sk ist monoton wachsend. Nehmen wir an, wir hätten k, n ∈ N gefunden, so dass qk ≥
solches n existiert für jedes k, da k > 0. Dann gilt
s0k (x) = 1 −
1
n.
Ein
1 1 1
1
4n (n + 1) − n − 1
1
− ·
−
=
− k
n 4 n2 2k
4n2 (n + 1)
2
4n2 + 3n − 1
1
1
3n − 1
1
=
− k =
+ 2
− k.
2
4n (n + 1)
2
n + 1 4n (n + 1) 2
1
n
qk+1 = sk (qk ) ≥ sk
=
Wählen wir nun das k groß genug, so wird dieser Ausdruck größer als 1/(n + 1), und da 1/2k mit
1
wachsendem k schneller fällt als 4n3n−1
2 (n+1) für konstantes n − k, wird qk+` ≥ n+` für alle ` ∈ N gelten.
P
Damit divergiert die Reihe k∈N qk mindestens so schnell wie die harmonische Reihe, insbesondere
divergiert sie. Die Ereignisse Ak sind alle unabhängig, denn sie hängen paarweise von unterschiedlichen
Münzwürfen ab, und die Münzwürfe sind voneinander unabhängig. Nach Teil (ii) des Borel-CantelliLemmas folgt somit
P lim sup An = 1,
n→∞
was zu zeigen war.
2
Aufgabe 2. Es seien X und Y unabhängige Zufallvariablen und Z = X + Y . Bestimmen Sie die
Verteilung von Z falls
(a) X und Y mit den Parametern λ und µ Poisson-verteilt sind.
(b) X und Y mit den Parametern (µ1 , σ12 ) und (µ2 , σ22 ) normalverteilt sind.
(c) X und Y mit den Parametern (n1 , p) und (n2 , p) binomialverteilt sind.
Lösung zu Aufgabe 2: (Faltung Poisson, Normal und Binomial)
faltungkonkret.tex
(a) Für n ∈ N ∪ {0} haben wir
n
[
P ({Z = n}) = P ({X + Y = n}) = P
!
{X = k, Y = n − k}
k=0
=
=
n
X
P ({X = k, Y = n − k}) =
k=0
n
X
λk −λ
µn−k
·e ·
· e−µ =
k!
(n
−
k)!
k=0
n
X
P ({X = k}) · P ({Y = n − k})
k=0
e−(λ+µ)
n
X
n!
µn−k λk
k!
(n
−
k)!
k=0
n!
n
e−(λ+µ) X
n n−k k
(λ + µ)n −(λ+µ)
e
.
=
µ
λ =
n! k=0 k
n!
!
Folglich ist Z poissonverteilt mit Parameter λ + µ.
(b) Die Normalverteilung zum Parameter µ, σ 2 besitzt die Dichtefunktion
1 x−µ 2
1
f (x) = √ e− 2 ( σ )
σ 2π
Seien fX bzw. fY die Dichten von µX bzw. µY . In der Vorlesung haben wir bewiesen, dass die
Verteilung µZ = µX ∗ µY auch eine Dichte fZ besitzt, nämlich fX ∗ fY . Wir setzen u = t − µ1 , µ̃ =
(x−µ̃)σ 2
µ1 + µ2 sowie v = u − σ2 +σ21 und erhalten
1
2
fZ (x) = (fX ∗ fY ) (x) =
Z
fX (t) fY (x − t) dt
R
1
=
2πσ1 σ2
Z
1
=
2πσ1 σ2
Z
1
=
2πσ1 σ2
Z
1
=
2πσ1 σ2
Z
1
=
2πσ1 σ2
Z
1
=
2πσ1 σ2
Z
1
=
2πσ1 σ2
Z
− 21
− 21
e
2
t−µ1
σ1
− 12
·e
x−µ2 −t
σ2
2
dt
R
e
u
σ1
2
− 12
·e
x−u−(µ1 +µ2 )
σ2
2
du
R
− 21
e
u2
σ2
1
− 12
·e
(x−µ̃)2 +u2 −2u(x−µ̃)
σ2
2
du
R
−
e
2 +(x−µ̃)2 σ 2 +u2 σ 2 −2u(x−µ̃)σ 2
u2 σ2
1
1
1
2σ 2 σ 2
1 2
du
2 +u2 σ 2 +σ 2 −2u(x−µ̃)σ 2
(x−µ̃)2 σ1
1
2
1
2σ 2 σ 2
1 2
du
R
−
e
(
)
R
e
2 σ 2 +σ 2 −u2 σ 2 +σ 2 2 +2u(x−µ̃)σ 2 σ 2 +σ 2
−(x−µ̃)2 σ1
1
1
2
1
2
1
2
2σ 2 σ 2 σ 2 +σ 2
1 2
1
2
e
4 −(x−µ̃)2 σ 2 σ 2 −u2 σ 2 +σ 2 2 +2u(x−µ̃)σ 2 σ 2 +σ 2
−(x−µ̃)2 σ1
1 2
1
2
1
1
2
2σ 2 σ 2 σ 2 +σ 2
1 2
1
2
(
)
(
)
(
(
)
)
du
R
(
(
R
3
)
)
(
)
du
1
=
2πσ1 σ2
Z
1
2πσ1 σ2
Z
1
2πσ1 σ2
Z
=
=
−
e
4
(x−µ̃)2 σ1
2σ 2 σ 2 σ 2 +σ 2
1 2
1
2
(
)
−
(x−µ̃)2
(
2 σ 2 +σ 2
1
2
)
−
2 +σ 2
u2 σ1
2
2σ 2 σ 2
1 2
(
) + 2u(x−µ̃)σ12
2σ 2 σ 2
1 2
du
R
−
e
(x−µ̃)2
2 σ 2 +σ 2
1
2
(
)
−
2 +σ 2
σ1
2
2σ 2 σ 2
1 2
2 +σ 2
σ1
2
2σ 2 σ 2
1 2
u2 −
2
4
2u(x−µ̃)σ1
(x−µ̃)2 σ1
+
2
σ 2 +σ 2
2
2
σ +σ
1
2
1
2
(
)
du
R
−
e
(x−µ̃)2
2 σ 2 +σ 2
1
2
(
)
−
u−
2
(x−µ̃)σ1
σ 2 +σ 2
1
2
2
du
R
(x−µ̃)2
−
1
2
2
e 2(σ1 +σ2 )
=
2πσ1 σ2
(x−µ̃)2
−
1
2
2
e 2(σ1 +σ2 )
=
2πσ1 σ2
−
Z
e
2 +σ 2
σ1
2 ·v 2
2σ 2 σ 2
1 2
dv
R
s
σ12 σ22
σ12 + σ22
Z
e−
v2
2
dv
R
(x−µ̃)2
(x−µ̃)2
−
−
1
σ1 σ2 √
1
2
2
2
2
=
e 2(σ1 +σ2 ) q
2π = q
e 2(σ1 +σ2 ) .
2πσ1 σ2
2π σ12 + σ22
σ12 + σ22
Diese Funktion stimmt mit der Dichte für die Normalverteilung mit dem
Parameter µ1 + µ2 , σ12 + σ22
überein. Daher ist Z normalverteilt mit Parameter µ1 + µ2 , σ12 + σ22 .
(c) Die Zufallsvariable X nimmt Werte aus {0, . . . , n1 }, die Zufallsvariable Y Werte aus {0, . . . , n2 } an,
darum nimmt Z = X + Y Werte aus {0, . . . , n1 + n2 } an. Sei also n ∈ {0, . . . , n1 + n2 }. Dann ist
P ({Z = n}) = P ({X + Y = n}) = P
n1[
+n2
!
{X = k, Y = n − k}
k=0
=
=
=
n1X
+n2
k=0
n1X
+n2
k=0
n1X
+n2
k=0
P ({X = k, Y = n − k}) =
n1X
+n2
P ({X = k, Y = n − k})
k=0
P ({X = k}) · P ({Y = n − k})
!
!
n1 k
n2
p (1 − p)n1 −k
pn−k (1 − p)n2 −n+k
k
n−k
= pn (1 − p)
n1 +n2 −n
n1X
+n2
k=0
n1
k
!
n2
n−k
!
!
= pn (1 − p)
n1 +n2 −n
n1 + n2
.
n
Folglich ist Z binomialverteilt mit Parameter (n1 + n2 , µ). Wir haben dabei die VandermondeIdentität
n1X
+n2
k=0
n1
k
!
n2
n−k
!
=
n1 + n2
n
!
benutzt, die kombinatorisch
bewiesen wird: Gegeben seien zwei Urnen mit n1 bzw. n2 Kugeln. Es
n1 +n2 gibt offenbar
Möglichkeiten, n Kugeln aus den beiden Urnen auszuwählen. Andererseits
n
kann man sich auch zuerst ein k vorgeben und k Kugeln aus der ersten und n − k Kugeln aus der
zweiten Urne ziehen und kommt zum selben Ergebnis. Die Anzahl der Möglichkeiten, die man dazu
hat, werden durch die linke Seite angegeben. Damit ist die Gleichheit bewiesen.
4
Aufgabe 3. Sei (Ω, A, P) ein Wahrscheinlichkeitsraum und X1 , X2 , . . . unabhängig identisch verteilte
Zufallsvariablen, deren Verteilung eine Dichte bezüglich des Lebesgue-Maßes besitzen. Seien E1 = Ω
und für n ≥ 2
En := {Xm < Xn für alle m < n} = „ein Rekord wird zur Zeit n erreicht“.
Zeigen Sie, dass die Ereignisse E1 , E2 , . . . unabhängig sind und P(En ) = 1/n gilt.
Lösung zu Aufgabe 3: (Unabhängigkeit, Rekord zur Zeit n)
rekord.tex
Sei π ∈ Sn eine beliebige Permutation. Wir setzen
n
o
Bn,π := Xπ(1) < Xπ(2) < . . . < Xπ(n) .
Dann gilt
P (Bn,idn ) = P (Bn,π ) ,
(1)
denn die Zufallsvariablen Xi (i ∈ N) sind unabhüngig und identisch verteilt. Wir zerlegen den Wahrscheinlichkeitsraum disjunkt:
X
1 = P (Ω) =
P (Bn,π ) .
π∈Sn
Das Ereignis, dass zwei Zufallsvariablen denselben Wert annehmen, ist eine Nullmenge, denn für i 6= j
gilt
P ({Xi = Xj }) =
Z Z
f (t) dtf (x) dx = 0,
R {x}
wobei f : R → R die Dichte von X1 bezeichnet.
Wegen (1) folgt
P (Bn,π ) =
1
n!
für eine beliebige Permutation π ∈ Sn . Dann gilt
·
[
P (En ) = P
!
Bn,π
= (n − 1)! ·
π∈Sn
π(n)=n
1
1
= .
n!
n
Es sei der relative Rang Rn gegeben durch
Rn =
n
X
1{Xk ≥Xn } .
k=1
Damit gilt En = {Rn = 1}, und um die Unabhängigkeit der Ereignisse En zu zeigen, ist es hinreichend,
die Unabhängigkeit der Zufallsvariablen Rn nachzuweisen. Die Menge
M := {1} × {1, 2} × . . . × {1, . . . , n}
ist der Wertebereich des Zufallsvektors (R1 , . . . , Rn ) =: R. Jede Realisierung des Zufallsvektors R
entspricht genau einer Rangfolge der Xi : FALSCH: Die Abbildung
φ : Sn → M, π 7→ (r1 , . . . , rn )
mit rj =
j
X
i=1
5
1{π(j)}
ist injektiv und wegen #Sn = #M auch surjektiv, also bijektiv. Damit gilt für alle n ∈ N und r ∈ M
P ({R = r}) = P
n
Xφ−1 (r)(1) < Xφ−1 (r)(2) < . . . < Xφ−1 (r)(n)
o
= P Bn,φ−1 (r) =
1
.
n!
Für beliebiges rn ∈ {1, . . . , n} folgt damit
1 X
2
X
P ({Rn = rn }) =
n−1
X
···
r1 =1 r2 =1
rn−1
(n − 1)!
1
1
=
= .
n!
n!
n
=1
Insgesamt gilt
P ({R = r}) = P ({R1 = r1 , . . . , Rn = rn }) =
1
= P (R1 = r1 ) · . . . · P ({Rn = rn }) ,
n!
also für Bj ∈ P ({1, . . . , j}) (1 ≤ j ≤ n):
·
[
P({R1 ∈ B1 , . . . , Rn ∈ Bn }) = P
!
{R1 = r1 , . . . , Rn = rn }
r1 ∈B1
···
rn ∈Bn
=
X
P ({R1 = r1 , . . . , Rn = rn })
r1 ∈B1
···
rn ∈Bn
=
X
P ({R1 = r1 }) · . . . · P ({Rn = rn })
r1 ∈B1
···
rn ∈Bn
= P ({R1 ∈ B1 }) · . . . · P ({Rn ∈ Bn }) .
Damit ist alles gezeigt, was verlangt war.
6
Aufgabe 4. Eine Münze wird wiederholt geworfen. Die einzelnen Würfe sind unabhängig mit Wahrscheinlichkeit p ∈ (0, 1) für Kopf. Sei E das Ereignis, dass r > 1 mal hintereinander Kopf fällt, ohne
dass irgendwann zuvor s > 1 mal in Folge Zahl geworfen wurde. Weiter sei X1 der Ausgang des ersten
Wurfs. Zeigen Sie
P(E | X1 = Kopf) = pr−1 + (1 − pr−1 )P(E | X1 = Zahl).
Finden Sie eine ähnliche Formel für P(E | X1 = Zahl) und berechnen Sie P(E).
Zusatzaufgabe: Prüfen Sie Ihr Ergebnis für P(E) auf Herz und Nieren.
Lösung zu Aufgabe 4: (Münzwurf: mehr Kopf als Zahl)
muenze.tex
Wir kodieren Kopf als 1 und Zahl als 0. Das Ergebnis des nten Wurfes sei mit Xn bezeichnet. Es folgt
P(E | X1 = 1)
1
= P(E ∩ {X2 = · · · = Xr = 1} | X1 = 1) + P(E ∩ {X2 = 0} | X1 = 1)
+
r
X
P(E ∩ {X2 = · · · = Xt−1 = 1, Xt = 0} | X1 = 1)
t=3
=
r
P(E ∩ {X1 = · · · = Xr = 1}) X
P(E ∩ {X1 = · · · = Xt−1 = 1, Xt = 0})
+
P(X1 = 1)
P(X1 = 1)
t=2
= pr−1 +
r
X
P(E | X1 = · · · = Xt−1 = 1, Xt = 0)P(X1 = · · · = Xt−1 = 1, Xt = 0)
P(X1 = 1)
t=2
2
= pr−1 + (1 − p)
r
X
pt−2 P(E | X1 = 0) = pr−1 + (1 − pr−1 )P(E | X1 = 0).
t=2
Details: 1: disjunkte Vereinigung, 2: Markov-Eigenschaft. Ähnlich rechnen wir
P(E | X1 = 0)
= P(E ∩ {X2 = · · · = Xs = 0} | X1 = 0) + P(E ∩ {X2 = 1} | X1 = 0)
+
s
X
P(E ∩ {X2 = · · · = Xt−1 = 0, Xt = 1} | X1 = 0)
t=3
=
s
P(E ∩ {X1 = · · · = Xs = 0}) X
P(E ∩ {X1 = · · · = Xt−1 = 0, Xt = 1})
+
P(X1 = 0)
P(X1 = 0)
t=2
=0+
s
X
P(E | X1 = · · · = Xt−1 = 0, Xt = 1)P(X1 = · · · = Xt−1 = 0, Xt = 1)
P(X1 = 0)
t=2
=p
s
X
(1 − p)t−2 P(E | X1 = 1) = (1 − (1 − p)s−1 )P(E | X1 = 1).
t=2
Damit erhalten wir
P(E | X1 = 1) = pr−1 + (1 − pr−1 )P(E | X1 = 0)
= pr−1 + (1 − pr−1 )(1 − (1 − p)s−1 )P(E | X1 = 1)
=⇒ P(E | X1 = 1) =
pr−1
1 − (1 − pr−1 )(1 − (1 − p)s−1 )
und
P(E | X1 = 0) =
pr−1 (1 − (1 − p)s−1 )
.
1 − (1 − pr−1 )(1 − (1 − p)s−1 )
7
Mit totaler Wahrscheinlichkeit folgt:
P(E) = P(E | X1 = 1)P(X1 = 1) + P(E | X1 = 0)P(X1 = 0)
=
pr + pr−1 (1 − (1 − p)s−1 )(1 − p)
1 − (1 − pr−1 )(1 − (1 − p)s−1 )
pr−1 (1 − (1 − p)s )
=
=
1 − (1 − pr−1 )(1 − (1 − p)s−1 )
1
− (1 − p)
(1−p)s−1
1
1
+ (1−p)
s−1 − 1
pr−1
Das ist so kompliziert, da müssen wir mal eine Testserie starten. An den Grenzen gilt
lim P(E) = 0,
lim P(E) = 1,
p→0
lim P(E) = 1,
Der Fall r = s = 1 reiht sich mit P(E) =
P(E) =
lim P(E) = 0.
s→∞
p→1
1+p−1
1+1−1
r→∞
= p ein. Für r = s ∈ N und p =
1
2
ist
2s−1 − 12
2r−1 − 12
1
=
= .
1
r−1
s−1
r−1
2
+2
−1
2
2 · (2
− 2)
Vertauscht man Kopf und Zahl bzw. (p, r) und (1 − p, s), so erhält man
P(Ω \ E) =
1
pr−1
1
pr−1
+
−p
1
(1−p)s−1
−1
.
Damit folgt dann
P(E) + P(Ω \ E) =
1
(1−p)s−1
1
pr−1
+p−1+
1
pr−1
1
(1−p)s−1
−1
+
−p
= 1.
Das ist doch vertrauenserweckend. Obendrein erhalten wir für p < 21 , d.h.
lim P(E) = lim
r=s→∞
und für p > 12 , also
1−p
p
r→∞
p r−1
)
− pr−1 (1 − p)
( 1−p
1+
p r−1
)
( 1−p
−
pr−1
=
p
1−p
< 1,
0−0
=0
1+0−0
< 1,
1 − (1 − p)r
1−0
=
= 1.
r→∞ ( 1−p )r−1 + 1 − (1 − p)r−1
0+1−0
p
lim P(E) = lim
r=s→∞
8
Herunterladen
Explore flashcards