¨Ubungen zur Vorlesung ” Elementare Stochastik“

Werbung
SoSe 2007
Prof. Dr. A. WAKOLBINGER
Übungen zur Vorlesung
”
Elementare Stochastik “
Lösungen und Tipps zu ausgewählten Aufgaben
20. X sei Nummer des Zuges, bei dem erstmals eine rote Kugel gezogen wird
P(X ≥ i) =
b+1
b+i−3 b+i−2
b
b
·
···
·
=
b+1 b+2
b+i−2 b+i−1
b+i−1
X ≥ i bedeutet, dass in den ersten (i − 1) Zügen eine blaue Kugel gezogen wird.
Dabei wird jedesmal eine zusätzliche blaue Kugel in die Urne gelegt und die
Anzahl der blauen Kugeln in der Urne steigt um eins.
E[X] =
∞
X
i=0
P(X ≥ i) =
Die harmonische Reihe
P∞
1
k=1 k
∞
X
i=0
∞
b−1
k=1
k=1
Xb Xb
b
=
−
=∞
b+i−1
k
k
divergiert.
24. (X1 , ..., Xr ) multinomial (n; p1 , ..., pr )-verteilt
Berechnung von Cov[Xi , Xj ]:
Var[Xi + Xj ] = Var[Xi ] + Var[Xj ] + 2Cov[Xi , Xj ]
Xi ist binomial (n, pi )-verteilt, Xi + Xj ist binomial (n, pi + pj )-verteilt
⇒ Var[Xi ] = npi (1 − pi ), Var[Xj ] = npj (1 − pj )
und Var[Xi + Xj ] = n(pi + pj )(1 − (pi + pj ))
1
(Var[Xi + Xj ] − Var[Xi ] − Var[Xj ])
2
= −npi pj
Cov[Xi , Xj ] =
Die Korrelation ist negativ. Bei der Multinomialverteilung (n; p1 , ..., pr ) gibt es
n Erfolge, die sich auf X1 bis Xr verteilen. Viele Treffer für Xi bedeuten daher
tendenziell weniger Treffer für Xj
25. (X1 , ..., Xn ) zufällige Permutation von 1, ..., n.
a) Var[Xi ] = E[Xi2 ] − (E[Xi ])2
Die Wahrscheinlichkeit, dass nach der zufälligen Permutation die Zahl k
auf dem i-ten Platz liegt, ist n1
E[Xi ] =
E[Xi2 ] =
Pn
k
k=1 n
=
k2
k=1 n
Pn
⇒ Var[Xi ] =
n+1
2
=
(n+1)(2n+1)
6
n2 −1
12
b) Cov[Xi , Xj ]
Trick: Var[X1 + ... + Xn ] = 0, da sich die Gesamtsummer aller Zahlen
bei einer Permutation nicht ändert.
Var
" n
X
i=1
Xi
#
n
X
=
Var[Xi ] +
X
Cov[Xi , Xj ]
i6=j
i=1
= nVar[Xi ] + n(n − 1)Cov[Xi , Xj ] = 0
i]
⇒ Cov[Xi , Xj ] = − Var[X
=
n−1
−(n+1)
12
29. Z1 , Z2 sind unabhängig N (0, 1)-verteilt. Die gemeinsame Verteilung
von Z1 und Z2 hat Dichte
fZ1 ,Z2 (z1 , z2 ) dz1 dz2 =
1 − z12 +z22
2
dz1 dz2
e
2π
Der Übergang zu Polarkoordinaten liefert:
Z ∞ Z 2π
1 − r′2 ′
P {Z12 + Z22 ≥ r2 } =
e 2 r dθdr′
2π
r
0
Z ∞
r′2
=
e− 2 r′ dr′
r
2
=
e
− r2
.
Für R2 := Z12 + Z22 ergibt sich damit:
b
P R 2 ≥ b = e− 2 .
Die Zufallsvariable R2 ist also Exp( 21 )-verteilt, und hat als Verteilungsdichte
fR2 (b) db =
1 −b
e 2 db.
2
b
(In der Tat ist ja e− 2 =
R∞
b
1 − r2
2e
Zur Verteilungdichte von R :=
dr.) R2 ist also exp
p
Z12 + Z22 :
1
2
-verteilt
2
r0
P (R ≥ r0 ) = P R2 ≥ r02 = e− 2 .
Die Verteilungsdichte von R ist davon die negative Ableitung, also
1 − r2
re 2 .
2
fR (r) =
In der Tat ist ja
e−
2
r0
2
=
Z
∞
r0
1 − r2
re 2 dr.
2
30. Rechtwinkliges Dreieck ABC, AC = 1
Y := CB , Winkel Φ bei A uniform verteilt auf 0, π2
tan Φ =
CB
AC
⇒ Y = tan Φ
Verteilungdichte von Y :
P(Y ≤ b) = P(tan Φ ≤ b) = P (Φ ≤ arctan b) =
Die Verteilungsdichte ist davon die Ableitung, also
fY (b) =
(In der Tat ist ja
arctan b
π
2
=
Erwartungswert von Y :
E[Y ]
2 1
.
π 1 + b2
Rb
2 1
dy.)
0 π 1+y 2
=
=
=
Z
∞
Z0 ∞
Z0 ∞
1
yfY (y)dy
2 y
dy
π 1 + y2
1 du
∞
= [ln u]1 = ∞
π u
31. a) X1 sei Exp((λ1 )-verteilt mit λ1 = 3
X2 sei Exp((λ2 )-verteilt mit λ2 = 5
X1 und X2 seien unabhängig
arctan b
π
2
.
P (min(X1 , X2 ) ≥ t) =
P (X1 ≥ t) · P (X2 ≥ t)
Z ∞
Z ∞
−λ1 x
λ1 e
dx
λ2 e−λ2 x dx
=
t
t
e−(λ1 +λ2 )t = e−8t
=
b) Y := min(X1 , X2 ); fY (·) sei Verteilungsdichte von Y
P (Y ≥ t) = e−8t =
⇒ fY (y) = −
Z
∞
fY (y)dy
t
d −8t = 8e−8t
e
dt
Y ist also Exp(8) verteilt und damit E[Y ] = 81 .
32. Der Stab hat Länge ℓ. Die beiden Bruchstellen seien x und y ∈ [0, ℓ]. Ist
z.B. x ≤ y, dann haben die drei Stücke die Länge x, y − x und ℓ − y. Man kann
genau dann ein Dreieck bilden, wenn je zwei Stücke in Summe länger sind als
das dritte. Die Bedingungen dafür sind
für x ≤ y:
x + (y − x) > ℓ − y ⇐⇒ y > ℓ/2
x + (ℓ − y) > y − x ⇐⇒ y − x < ℓ/2
(y − x) + ℓ − y > x ⇐⇒ x < ℓ/2
und analog für y ≤ x:
x > ℓ/2, x − y < ℓ/2, y < ℓ/2.
Die Punkte (x, y), für die ein Dreieck gebildt werden kann, machen somit die in der Abbildung schraffierte Teilfläche des Quadrates [0, ℓ] × [0, ℓ] aus.
Diese hat Flächeninhalt ℓ2 /4.
y
ℓ
X und Y unabhängig und uniform auf [0, l]
ist gleichbedeutend mit
(X, Y ) uniform auf [0, ℓ] × [0, ℓ].
⇒ P{Dreieck kann gebildet werden} = 14
ℓ/2
ℓ
x
35. a) Es gibt
18
10
Besetzungen der Plätze Nr. 2, . . . , 10 mit den 10 Objekten.
(18)
9
Die W’keit, dass Platz Nr. 1 leer bleibt, ist somit 10
.
= 19
(19
10)
b) Es gibt 17
Besetzungen der Plätze Nr. 2, . . . , 10 mit den 10 Objek10
ten. Die W’keit, dass Platz Nr. 1 und Platz Nr. 2 leer bleiben, ist somit
(17
10)
4
= 19
(19
10)
c) Y sei die Anzahl der leer bleibenden Plätze; Yi := 1 falls Platz Nr. i
P10
leer bleibt, und 0 sonst. Dann ist Y = i=1 Yi .
Wir berechnen erst den Erwartungswert von Y1 und die Covarianz von
Y1 und Y2 :
Aus a) und b) folgt:
E[Y1 ] = P(Y1 = 1) =
9
19 ,
E[Y1 Y2 ] = P(Y1 = 1, Y2 = 1) =
2
2
Var(Y1 ) = E[Y12 ]] − (E[Y1 ]) = P(Y1 = 1) − (E[Y1 ]) =
4
19
90
361
5
Cov(Y1 , Y2 ) = E[Y1 Y2 ] − E[Y1 ]E[Y1 ] = − 361
Aus Symmetriegründen ist für i 6= j das Paar (Yi , Yj ) so verteilt wie
(Y1 , Y2 ), also
E[Yi ] = E[Y1 ], Var Yi = Var Y1 , Cov[Yi Yj ] = Cov[Y1 Y2 ].
Damit folgt:
E[Y ] =
P10
i=0
E[Yi ] =
Var(Y ) = Var
P
10
i=1
90
19
P
P
10
Yi = i=1 Var(Yi ) + i6=j Cov(Yi , Yj )
= 10 Var(Y1 ) − 10 · 9 Cov(Y1 , Y2 ) =
450
361 .
36. a) Die Verteilung von X + Y : X bzw. Y beschreibt die Anzahl der
Erfolge bei n1 bzw. n2 Münzwürfen mit Erfolgswahrscheinlichkeit p. Aufgrund
der Unabhängigkeit zählt X +Y die Anzahl der Erfolge bei n1 +n2 Münzwürfen.
X + Y ist also binomialverteilt mit Parametern (n1 + n2 , p).
b) i) X und Y lassen sich approximieren durch unabhängige binomialverteilte
Zufallsvariable X̃, Ỹ mit großem n1 , n2 und n1 p ≈ α, n1 p ≈ β, also lässt sich
X + Y approximieren durch X̃ + Ỹ , und das ist nach Teil a) Binomial(n1 + n2 , p)
und somit annähernd Poisson(α + β) verteilt.
ii)
P(X + Y = k) =
k
X
j=0
=
k
X
P(X = j)P(Y = k − j)
e−α
j=0
=
=
αj −β β k−j
e
j!
(k − j)!
k
k!
e−(α+β) X j k−j
α β
k!
j!(k
− j)!
j=0
e−(α+β)
(α + β)k
k!
38. B sei endliche Menge mit m := |B|. Es sei n eine natürliche Zahl und F
rein zufälliges Element aus B {1,...,n}
a) Zu zeigen ist die Unabhängigkeit, d.h. P(F (1) ∈ B1 , ..., F (n) ∈ Bn ) =
P(F (1) ∈ B1 ) · · · P(F (n) ∈ Bn ) für beliebige Teilmengen B1 , ..., Bn von B.
Es genügt zu zeigen P(F (1) ∈ b1 , ..., F (n) ∈ bn ) = P(F (1) ∈ b1 )···P(F (n) ∈ bn )
für beliebige Elemente b1 , ..., bn von B, denn
X
X
P(F (1) = bi1 , ..., F (n) = bin )
···
P(F (1) ∈ B1 , ..., F (n) ∈ Bn ) =
i1 |bi1 ∈B1
=
X
i1 |bi1 ∈B1
=
in |bin ∈Bn
P(F (1) = bi1 ) · · ·
X
P(F (n) = bin )
in |bin ∈Bn
P(F (1) ∈ B1 ) · · · P(F (n) ∈ Bn )
Noch zu zeigen P(F (1) ∈ b1 , ..., F (n) ∈ bn ) = P(F (1) ∈ b1 ) · · · P(F (n) ∈ bn ) :
P(F (1) ∈ b1 , ..., F (n) ∈ bn )
1
1
1
=
···
n
m
m
m
= P(F (1) ∈ b1 ) · · · P(F (n) ∈ bn )
=
F ist ein rein zufälliges n-Tupel mit jeweils m verschiedenen möglichen
Einträgen in jeder Komponente. Es gibt also insgesamt mn mögliche n-Tupel
F . Die Wahrscheinlichkeit für ein festes F ist damit m1n .
b) Zu zeigen ist: F (1) und F (g(F (1))) sind unabhängig
P(F (1) = b1 , F (g(F (1))) = b2 ) =
=
=
P(F (1) = b1 , F (g(bn )) = b2 )
1
mn−2
= 2
n
m
m
P(F (1) = B1 )P(F (g(F (1))) = b2 )
g(b1 ) ist eine feste Zahl in {2, .., n}. {F (1) = b1 , F (g(bn )) = b2 } bedeutet also,
dass zwei Komponenten von F festgelegt sind. Für die übrigen n − 2 Komponenten gibt es jeweils m mögliche Einträge.
40. Die beobachteten Lebenszeiten seien t1 , ..., tn
a) Likelihoodfunktion L(λ):
L(λ) =
=
P ((T1 , ..., Tn ) = (t1 , ..., tn )|λ)
λe−λt1 · · · λe−λtn = λn e−λ(t1 +...+tn )
b) Maximum-Likelihood:
In einigen Fällen ist es einfacher, den Logarithmus der Likelihoodfunktion
abzuleiten. Da ln eine streng monotone Funktion ist, stimmen das Maximum
von L(λ) und das Maximum von ln(L(λ)) überein.
d ln(L(λ))
dλ
=
=
d ln(L(λmax ))
dλ
=
⇒
d
(n ln λ − λ(t1 + ...tn ))
dλ
n
− (t1 + ... + tn )
λ
0
λmax =
n
.
t1 + ... + tn
41 (Tipp)
Ein 95 % Konfidenzintervall für einen zu schätzenden Verteilungsparameter ist ein aus den zufälligen Daten konstruiertes Intervall, das
den Parameter mit Wahrscheinlichkeit (von mindestens) 0.95 überdeckt (vgl.
dazu Vorlesung 8a).
Sind X1 , . . . , , Xn unabhängig und N (µ, σ 2 )-verteilt,
dann ist X̄n := n1 (X1 + · · · + Xn ) N (µ, σ 2 /n)-verteilt (warum?)
2σ
X̄n fällt also mit Wahrscheinlichkeit 0.95 zwischen die Grenzen µ − √ und
n
2σ
µ + √ (warum?)
n
2σ
2σ
Damit gleichbedeutend: Das zufällige Intervall X̄n − √ , X̄n + √
übern
n
deckt µ mit W’keit 0.95.
42 und 43 (Tipp)
X sei eine Zufallsvariable mit Verteilung νϑ ; dabei
ist ϑ ein zu schätzender Parameter.
Es gilt P{X = a} = νϑ (a), oder P{X ∈ da} = gϑ (a) da.
Maximum-Likelihood-Methode:
Nimm als Schätzer dasjenige ϑ, welches den Ausgang a am wahrscheinlichsten
macht.
M.a.W.: Finde zu gegebenem a dasjenige ϑ mit
νϑ (a) = max! bzw. gϑ (a) = max!
Beispiel:
X0 habe Dichte fϑ (x) dx, und X1 , X2 , X3 seien unabhängige Kopien von X0 .
Dann hat X = (X1 , X2 , X3 ) die Dichte
fϑ (x1 )fϑ (x2 )fϑ (x3 ) dx1 dx2 dx3
Von X wird der Ausgang a = (a1 , a2 , a3 ) beobachtet.
Zu finden ist dann dasjenige ϑ mit
AAAAAAAAAAAAAAAAfϑ (a1 )fϑ (a2 )fϑ (a3 ) = max!
45 (Tipp) Zur Erinnerung (siehe Vorlesung 9a):
Die Zahlen a und b mit
E[(Y − (aX + b))2 ] = min!
ergeben sich durch die beiden Bedingungen
a=
σY
Cov[X, Y ]
κ[X,Y ] =
,
2
σX
σX
µY = aµX + b.
46. Sei Gi das Ereignis
“Farbwechsel bei zwischen i und i + 1” .
P
24
P(Gi ) = 31
, E[ 31
i=1 IGi ] = 24.
P
47. Sei σ 2 := Var[Xi ]. Also ist 0 = Var[ Xi ] = gσ 2 + g(g − 1)σ 2 κ.
1
.
Also ist κ = − g−1
48. Für die Verteilungsfunktion gilt:
F (b) := P{Y < b} = 0
für b < −1, F (b) = 1 für b > 1. Und für −1 ≤ b ≤ 1 ist
F (b) = P{Y < b} = P{U < π2 arcsin(b)} = 21 ( π2 arcsin(b) + 1). Die
Dichte von Y ist die Ableitung von F : f (y) dy = π1 √ 1 2 dy, −1 < y < 1.
1−y
Pn
49. Antwort auf das “warum”: Man kan N :=
i=1 Yi nehmen. Dann
steht links und rechts eine Summe von N der Zi . Diese beiden Summen sind in
Verteilung gleich.
zu a) (Y
Also ist X Binomial(n, pr)-verteilt.
P
P1 Z1 , Y2 Z2 , . . .) ist ein pr-Münzwurf.
n
zu b) n≥k P{N = n, X = k} = n≥k e−λ λn! nk pk q n−k
k
k
n−k n−k
P
q
λk k
−λ λ(1−p) (pλ)
−pλ (pλ)
e
= n≥k e−λ λ (n−k)!
k! p = e
k! = e
k! .
Das passt zu a), denn für großes n und nr = λ ist Binomial(n, pr) ja nahe bei
Poisson(pλ).
50. P(Gi ) = (n−1)!
= n1 ,
n!
1
P(Gi1 ∩ · · · Gik ) = n(n−1)···(n−k+1)
n
1
Also ist k P(G1 ∩ · · · Gk ) = k!
P(Gi ∩ Gj )
=
(n−2)!
n! )
=
1
n(n−1) ,
Nach der Ein-Ausschaltregel ergibt sich als Wahrscheinlichkeit für “mindestens
einen Fixpunkt”:
1
1
1
P(G1 ∪ · · · ∪ Gn ) = 1 − 2!
+ 3!
− · · · + (−1)n+1 n!
.
Also ist die Wahrscheinlichkeit für Fixpunktfreiheit gleich
1
1
1
− 3!
+ · · · + (−1)n n!
. Für n → ∞ konvergiert sie gegen e−1 .
1 − 1 + 2!
50∗ . Wie in Aufgabe 50, aber jetzt mit
1
, q = 1 − p.
P(Gi1 ∩ · · · Gik ) = q k n(n−1)···(n−k+1)
Also ist die W’keit, dass keiner mit seinem Hut heimkommt, gleich
n
2
3
1 − q + q2! − q3! + · · · + (−q)
≈ e−q .
n!
51. Es seiein J1 und J2 die Listenkennzahlen der beiden ausgewählten
Daten. Zerlegung nach den Ausgängen von K ergibt:
Pr kj (kj −1)
P
P
P{J1 = J2 } = k P{K = k}Pk {J1 = J2 } = k P{K = k} j=1 n(n−1)
Pr
1
= n(n−1)
j=1 E[Kj (Kj − 1)] In VL 10a haben wir ausgerechnet:
E[Kj2 ] = p2j n(n − 1) + npj . Somit ist E[Kj (Kj − 1)] = p2j n(n − 1), und die
P
gesuchte Wahrscheinlichkeit ist j p2j .
Das kann man noch professioneller haben: Aus Austauschbarkeitsgründen
sind die beiden gewählten Daten das als erstes und das als zweites einsortierte.
Die Frage dann: Mit welcher W’keitP
bekommt man beim zweimaligen Würfeln
dasselbe Ergebnis, mit der Antwort j p2j .
52. a) P{max(X, Y ) < t} = (1 − e−αt )(1 − e−βt ) = 1 − e−αt − e−βt + e−(α+β)t
Die Ableitung davon ist die Dichte von max(X, Y ):
αe−αt + βe−βt − (α + β)e−(α+β)t
b) Die Dichte von X1 + X22 ist
R t −s −2(t−s)
Rt
2e
ds = 2e−2t 0 es ds = 2e−2t (et − 1) = 2(e−t − e−2t )
0 e
Das stimmt mit a) überein in Fall α = β = 1.
Zur Feinspitzfrage: Nimmt man die beiden Münzwürfe zusammen, dann
hat man die Erfolgswahrscheinlichkeit n2 − n12 ≈ n2 . Die Zeit, bis der “glücklichere” der beiden Münzwürfe seinen ersten Erfolg hat, ist annähernd Exp(2)
verteilt. Ab dann betrachten wir nur noch den anderen. Bis der seinen Erfolg
hat, dauert es nochmal annähernd Exp(1)-verteilt lange. Salopp gesagt: Bis
zum gemeinsam ersten Erfolg tickt der Wecker mit doppelter Rate (d.h. Rate
2), ab dann (bis zum ersten Erfolg des am gemeinsamen ersten Erfolg nicht
beteiligten Münzwurfs) tickt der Wecker mit einfacher Rate. Und die Länge
dieser zweiten Periode ist unabhängig von der ersten!
53. X, Y, Z seien die Lebensdauern der 3 Geräte A, B, C, V := min(Y, Z).
P{V > t} = e−(β+γ)t ,
P{max(X, V ) > t} = e−αt + e−(β+γ)t − e−(α+β+γ)t (vgl Aufgabe 52 a)
54. Wir folgen dem Hinweis. Sei w(x) die W’kt dafür, dass C gewinnt,
in Abhängigkeit vom Startzustand. Zerlegung nach dem ersten Schritt ergibt:
w(AC) = 21 w(CB), w(CB) = 12 + 12 w(BA), w(BA) = 21 w(AC) Die dritte
und erste Gleichung in die zweite eingesetzt: w(CB) = 12 + 18 w(CB), also
w(AC) = 27 . Die Wahrscheinlichkeit, dass A oder B gewinnt, ist also 75 . Weil
A die allererste Partie (gegen B) mit W’keit 1/2 gewinnt, sind die gesuchten
5
5
, 14
.
Gewinnwahrscheinlichkeiten 27 , 14
55. Wir betrachten den folgenden Graphen:
xyz
4
6
1
6
xy
5
6
1
6
5
6
x
1
6
xx
1
6
xxx
(Der Pfeil von xy nach xx kommt durch den Übergang von xy zu xyy zustande,
und der Pfeil von xy zu sich selbst kommt durch den Übergang von xy zu xyx
zustande, jeweils mit Vertauschung der Namen von y und x.) Zerlegung nach
dem ersten Schritt ergibt
(1) ergibt:
w(xy)
=
w(xx)
=
w(x)
=
1
2 1
+ w(xy) + w(xx)
3 6
6
5
w(xy)
6
5
1
w(xy) + w(xx)
6
6
(1)
(2)
(3)
5
6 w(xy)
= 23 + 61 w(xx)
Darin (2) eingesetzt:
w(xx) = 23 + 61 w(xx),
24
also w(xx) = 54 , w(x, y) = 65 · 54 = 25
.
2
4
Aus (3) ergibt sich: w(x) = 5 + 15 = 14
15 .
Letzteres ist die Gewinnwhrscheinlichkeit von B.
56. (i), (ii): Die Verteilung von Y bedingt unter X = x ist eine um x
verschobene Exp(2)-Verteilung. Der bedingte Erwartungswert ist x + 1/2, die
bedingte Varianz ist 1/4, die bedingte Dichte ist 2e−2(y−x).
(iii) Die gemeinsame Dichte von Z und Y ist 2e−2z e−(y−z) dz dy =
2e−z−y dz dy. Nach Aufgbae 52 b) ist die Dichte von Y gleich
2(e−y − e−2y ) dy = 2e−y (1 − e−y ) dy. Damit ist die Dichte von Z bee−z
dingt unter Y = y der Quotient 1−e
−y dz, 0 ≤ z ≤ y.
57. Mit der Formel von Bayes folgt:
0.8·0.1
= 49 .
P{M1 = a | M2 = 1} = 0.8·0.1+0.15·
1
+0.05·1
3
58. E[Y |I = 1] = 6, E[Y |I = 2] = 3, Var[Y |I = 1] = 25, Var[Y |I =
2] = 41 (22 + 1 + 1 + 22 ) = 2.5
E[Y ] = 24/6 = 4, Var[Y ] = 16 (32 + 72 + 32 + 22 + 0 + 1) = 72
6 = 12.
Var[EI [Y ]] = 26 · 22 + 64 · 1 = 2.
E[VarI [Y ]] = 26 · 25 + 64 · 52 = 10, und 10 + 2 ist tatsächlich gleich 12.
1
59. X0 habe Verteilungsgewichte π(x) = c g(x), x ∈ S, mit c = P g(x
′) .
1
Gegeben X0 = x hat X1 die Verteilungsgewichte g(x) , y ∼ x. Dann gilt
1
P{X0 = x, X1 = y} = c g(x) g(x)
= c für y ∼ x, und = 0 sonst. Dasselbe gilt
aber auch für P{X0 = y, X1 = x}.
60. Sei e(x) der Erwartungswert der Anzahl Schritte bis zum Treffen
von B bei Start in (x, y). (Aus Symmetriegründen hängt das nicht von y ab.)
Zerlegung nach dem ersten Schritt ergibt
e(0) = 1 + 21 e(0) + 21 e(1), e(1) = 1 + 13 e(0) + 31 e(1), mit der Lösung
e(0) = 7, e(1) = 5.
61. Alle drei haben Recht. Für einen zufälligen Pólya-Pfad X (n) =
(X0 , X1 , ..., Xn ) wurde in der Vorlesung gezeigt: Xn ist uniform verteilt
auf (1 + n, 1), . . . , (1, 1 + n), und gegeben Xn = x, ist X (n) uniform verteilt
auf allen Nordostpfaden von (1, 1) nach x. Diese zweistufige Konstruktion “von
rückwärts”: erst Xn , dann X (n) = (X0 , X1 , ..., Xn ), ist die von A und B. Zu B
ist noch zu bemerken, dass das Anfangsstück der Länge 10 eines Pólya-Pfades
der Länge 1000 einen Pólya-Pfad der Länge 10 ergibt. Und die Konstruktion
von C ist die in der Vorlesung diskutierte; sie ergibt sich nebenbei bemerkt
auch aus der von B mit n = ∞ statt n = 1000.
Herunterladen